Von Jan Schulte

„Wir sollten unsere

Erwartungshaltung

herunterschrauben“

Portrait von Dr. Jonatha Mall

Im Gespräch mit Dr. Jonathan Mall, Neuropsychologe und Gründer des Start-ups Neuro Flash

Wird Künstliche Intelligenz (KI) irgendwann ebenso vernünftig entscheiden wie ein Mensch? Davon sind wir in der Praxis noch viele Jahre entfernt, sagt Dr. Jonathan Mall. Wir sprachen mit Mall über das optimale Teamwork von Mensch und Maschine, die Grenzen von KI – und über „Neuromarketing“, mit dem das Start-up-Unternehmen beim Aufbau einer Marke unterstützen will.

Portrait von Dr. Jonatha Mall

Herr Mall, viele setzen KI mit einem digital selbstständig denkenden Computergehirn gleich. Wie gut lässt sich die menschliche Denkweise bereits automatisieren?

Noch überhaupt nicht. Wir bezeichnen als Intelligenz grundsätzlich die Fähigkeit, abstrakt und vernünftig zu denken und daraus sinnvolles Handeln abzuleiten. Das ist es zum Beispiel, was uns von einer Ameise unterscheidet. Nur kommen unsere künstlichen neuralen Netzwerke zurzeit noch nicht mal an ein Ameisengehirn heran. Was KI bisher abbilden kann, sind im Grunde Expertensysteme, die eine klar definierte Aufgabe effektiv lösen – und das in diesem engen Bereich auch häufig schneller und genauer, als es ein Mensch könnte.

Warum können wir die KI noch nicht über das Ameisenniveau hinaus programmieren?

Damit eine KI so denken und handeln könnte wie ein Mensch, müssten wir all unsere Hirnzellen in der KI nachbilden – nur haben wir davon ein paar hundert Milliarden, das schaffen wir aktuell noch lange nicht. Neben der Anzahl ist außerdem die Architektur von Hirn und Maschine unterschiedlich. Bei uns im Gehirn funktioniert alles auf chemischem Wege, damit dauern einzelne Vorgänge zwar länger als bei einer KI, aber es ermöglicht unserem Gehirn, parallel verschiedene Aufgaben zu bewältigen. Schaltkreise in einem Computer funktionieren meist linear, das ist etwas ganz anderes.

Das klingt jetzt alles ziemlich ernüchternd.

Verstehen Sie mich nicht falsch: Die bisherige Entwicklung in Sachen KI ist sehr beeindruckend. Wir schreiten in der Forschung so rasend schnell voran, dass wissenschaftliche Publikationen zu dem Thema bereits nach ein paar Monaten schon wieder ziemlich überholt erscheinen. Wir sollten allerdings trotzdem die Erwartungshaltung etwas herunterschrauben.

Zumindest in Hollywood scheinen wir dort aber gedanklich schon viel weiter: Zum Beispiel beim Film „I, Robot“ mit Will Smith: Dort entwickeln Roboter ihr eigenes Bewusstsein und interpretieren die in sie einprogrammierten Regeln neu. Wie viel „Science“ und wie viel „Fiction“ steckt in solchen Filmen?

Die Idee hinter diesem Film sollten wir beim Thema KI durchaus berücksichtigen. Es bedeutet aber nicht, dass unsere KI die ihr auferlegten Regeln irgendwann völlig neu und selbstständig auslegen wird. Wenn, dann käme es uns lediglich so vor, weil wir in der Programmierung bestimmte Aktionen einfach nicht bedacht hätten.

Das müssen Sie näher erklären.

Wenn wir eine KI programmieren, geben wir ihr möglichst klare Anweisungen: Wenn Ereignis X eintritt, folgt Handlung Y. Diese Logikverzweigungen sind dann „hard-coded“, also sozusagen fest verlötet. Aber dabei übersehen wir manchmal sich daraus ergebende Handlungsmöglichkeiten. Die KI interpretiert diese vollkommen logisch – und setzt sich auch nicht über ihre Grenzen hinweg. Wir haben es manchmal nur nicht vorher bedacht und sind deshalb überrascht über die Ergebnisse in Situationen, in denen die programmierte Logik nicht passt.

Sollten wir also lieber gar nichts „hard-coden“?

Das ist fast schon eine rechtsphilosophische Frage. Wir sollten in jedem Fall nicht zu viel coden. Nehmen wir mal ein Beispiel: Wir sind uns in unserer Gesellschaft einig, dass Folter schlecht und darum verboten ist. Nun gab es hier allerdings den Fall, dass ein Polizist einem Kindesentführer gegenübersaß und unbedingt herausbekommen musste, wo der Mann das Kind versteckt hat, um es zu retten. Der damalige Vizepräsident der Frankfurter Polizei ordnete an, dem Entführer auch mit Folter zu drohen. Am Ende wurden er und ein mitangeklagter Polizist für schuldig befunden, doch Rechtswissenschaftler und Philosophen diskutieren bis heute über diese Entscheidung. Ganz unabhängig davon, welche Position man dazu hat: Der Fall zeigt meiner Meinung nach, dass man schlicht nicht alles von vorneherein über Gesetze hard-coden sollte, weil bestimme Situationen im menschlichen Ermessen besser aufgehoben sind.

Wenn Menschen die Reaktionen der KI teilweise gar nicht absehen können und auch nach einem ganz anderen Muster denken, wie kann dann überhaupt eine optimale Zusammenarbeit zwischen beiden Seiten gelingen?

Die Faustregel für mich ist: Jeder nach seinen Stärken. Wir Menschen sollten den Teil leisten, den wir gemeinhin als „kreativ“ bezeichnen. Wir können Sachen verknüpfen, die vorher noch nie miteinander in Verbindung gebracht wurden. Wir können neue Bezeichnungen für Gegenstände entwickeln, die es bisher noch gar nicht gab. Was wir aber zum Beispiel nicht leisten können, ist: alle Details in unserem Kopf zu behalten. Wir vergessen Zusammenhänge, wenn wir überlastet sind. Da können uns intelligente Computer helfen.

Wie sieht so ein Zusammenspiel aus?

Da gibt es verschiedene Szenarien. In unserem Start-up Neuro Flash nutzen wir eine dieser Möglichkeiten. Wir wollen für jede Weltregion wissen, was Menschen denken, wenn sie bestimmte Bilder sehen oder Begriffe hören. Dabei kann uns KI helfen. Sie hat schlicht viel mehr Bilder, Begriffe und Reaktionen darauf verarbeitet und eingespeichert, als Menschen es könnten. Wenn uns also ein Unternehmen fragt, ob es mit einem bestimmten Bild oder Wort für sich werben sollte, können wir dank unserer KI die Reaktion der Konsumenten hervorsagen und effektives Marketingmaterial vorschlagen.

Können Sie dafür ein Beispiel geben?

Gern: Wenn ich Ihnen als Stichwort „Corona“ sage, woran denken Sie dann als Erstes?

An das Virus.

Genau! Vor nicht allzu langer Zeit hätten die meisten Leute aber wohl an das Bier gedacht. Das Stichwort „Amerika“ hätten viele eine ganze Zeit lang mit Freiheit assoziiert. Zu einem anderen Zeitraum mit dem Irakkrieg, inzwischen mit Donald Trump. Jedes Wort bekommt zu bestimmten Zeiten eine bestimmte Assoziation. Genau die wollen wir vorhersagen und unsere Kunden dahingehend in ihrer Marketingstrategie beraten.

Das Vorhersagen solcher Assoziationen lässt sich aber sicherlich nicht nur fürs Marketing nutzen.

Stimmt, es gibt ganz vielfältige Anwendungsmöglichkeiten. Denken Sie an Namen von Bewerbern auf dem Stellenmarkt. Wir verbinden unterbewusst mit jedem Namen etwas, mal etwas Negatives, mal etwas Positives. Das ist selbstverständlich total ungerecht gegenüber allen Bewerbern – es ist aber auch menschlich. Wenn uns eine KI vor unserer Auswahl darauf hinweist, dass wir gewisse Namen konsequent benachteiligen, können wir unser Verhalten daran anpassen.

Kann man nach dem aktuellem Stand der Technik einer KI überhaupt Entscheidungen überlassen, die Menschen betreffen?

Wenn Sie eine KI lediglich mit unseren teils unbewussten diskriminierenden Handlungen füttern, wird sie ebenfalls diskriminierend handeln, allerdings hypereffizient. Erhält eine KI zum Beispiel die Information, dass 60 Prozent aller Kreditanfragen von Leuten eines gewissen Alters oder mit einem gewissen Namen abgelehnt wurden, wird sie das ebenfalls machen – ohne die Rahmenbedingungen genau zu überprüfen. Sie erhält ja von uns die Information, dass genau diese Leute in aller Regel nicht kreditwürdig sind, und setzt diese Überlegung dann logisch fort. Es gab in Iowa in den USA einmal die Idee, eine KI mitentscheiden zu lassen, ob Häftlinge entlassen werden dürfen. Das Ergebnis: Schwarze wurden deutlich seltener entlassen als Weiße – weil die KI durch all die bisherigen verzerrten Daten zur Freilassung gewissermaßen mit unseren Vorurteilen gegenüber Schwarzen gefüttert worden war.

KI sollte also aktuell immer nur unterstützen?

Genau, denn handelt sie alleine aufgrund unserer Daten wird sie den diskriminierenden Effekt eher verstärken. Programmieren wir sie allerdings lediglich darauf, auf diesen Effekt aufmerksam zu machen, können wir selbst entscheiden, wie wir damit umgehen. Entscheidungen, die Menschenleben stark beeinflussen können, sollten wir aktuell auf keinen Fall einer KI überlassen.

Lassen Sie uns trotzdem noch einmal in die Zukunft blicken: Wie leistungsfähig kann KI einmal werden?

Das ist aktuell noch sehr schwer abzusehen. Dass sie ein komplett eigenständiges Bewusstsein entwickelt, halte ich wie gesagt für sehr unwahrscheinlich. Es ist aber durchaus möglich, dass KI in Verbindung mit Sensoren an einem Roboterarm körperliches Schmerzempfinden nachvollziehen kann. Wir programmieren sie dann so, dass sie den Drang hat, sich „gesund“ zu halten. Sonst würde der Roboter eine Gefahr nie so „wahrnehmen“ wie wir und vielleicht nicht davor „zurückschrecken“, durch eine bestimmte Handlung etwa seinen Arm zu verlieren. Weiterhin zu versuchen, unser eigenes Gehirn nachzubauen, halte ich übrigens für keine sehr schlaue Idee.

Warum nicht?

Weil das menschliche Gehirn alles andere als perfekt ist. Wir sollten schon den Anspruch haben, einen wie auch immer gearteten Denkapparat so zu entwickeln, dass er es besser macht. Denken Sie zum Beispiel an Rassismus, die ganz unterschiedlichen Vorstellungen von „guter Kultur“, oder auch kognitive Verzerrungen wie etwa die Neigung, Informationen so auszuwählen und zu interpretieren, dass sie den eigenen Erwartungen entsprechen – in all solchen Dingen ist unser Gehirn ganz offensichtlich ziemlich fehlerhaft. Wenn wir uns also alleine diesen Umstand der menschlichen Fehlbarkeit einmal wirklich bewusst machen, dann haben wir schon sehr viel Potenzial geschöpft, um bessere Entscheidungen zu treffen, ohne die Hilfe von sogenannten intelligenten Maschinen.

Herr Mall, vielen Dank für das Gespräch.