Von Victoria Hilpert

Eine Künstliche Intelligenz macht noch keinen Menschen

KÜNSTLICHE INTELLIGENZEN LÖSEN MOMENTAN einen regelrechten medialen Hype aus. Die Öffentlichkeit sucht dabei insbesondere den Diskurs über die Chancen und Risiken der rasanten technologischen Entwicklung. Wie realistisch sind die teils dystopischen Zukunftsszenarien und wie viel Mensch wird in der sogenannten KI stecken?

Photo © Franck V. on Unsplash

Wir befinden uns in der digitalen Revolution momentan auf einem Stand, an dem wir uns fragen, ob wir in wenigen Jahren bereits selbstfahrende Autos nutzen, bis hin zur elementaren Frage, ob die weiterentwickelten Künstlichen Intelligenzen ein eigenständiges Bewusstsein entwickeln und was den Menschen dann eigentlich noch ausmacht, wenn sie uns in vielen Bereichen des Lebens übersteigen.

Dabei ist die Rezeption der Gesellschaft zum digitalen Wandel von Hoffnungen und Ängsten geprägt. Zum einen sind neue Technologien in der Wirtschaft notwendig, um zukunfts- und wettbewerbsfähig zu bleiben. Zum anderen existieren Schreckensszenarien von selbstständig denkenden und handelnden Künstlichen Intelligenzen, die sich gegen die Menschheit richten. Doch sind solche Zukunftsszenarien überhaupt denkbar?

Posthumanismus und die Erschaffung der Superintelligenz

Die großen Schmieden der Künstlichen Intelligenzen liegen dabei in Kalifornien. Im Silicon Valley werden von namhaften Konzernen und zahlreichen Start-ups und Unicorns Milliarden investiert, um die technologische Entwicklung voranzutreiben. Auch die ortsansässigen Universitäten tragen ihren Teil dazu bei – nicht nur aus technologisch-wissenschaftlicher Sicht. Denn mit dem rasanten Fortschritt geht seit den 1980er Jahren auch ein philosophischer Aspekt in Forschung und Bildung einher. Interessant sind hierbei insbesondere Gruppierungen, die die traditionellen Werte des Menschseins neu überdenken: die Posthumanisten.

Diese Strömung geht davon aus, dass die Evolution des Menschen bereits ihren Höhepunkt erreicht hat. Sie glaubt an die Schaffung einer Superintelligenz als Wesen oder Maschine, die dem Menschen in allen Gebieten überlegen sein wird – auch in Kreativität, Logik und Strategie. Die Überlegungen reichen dabei vom Schaffen Künstlicher Intelligenzen über gentechnische Anpassungen bis hin zur Aufrüstung des Menschen mittels Computer-Gehirn-Schnittstelle. Dies klingt zunächst nach einem dystopischen und filmreifen Szenario, ist jedoch aufgrund des unaufhaltbaren technologischen Fortschritts der letzten Jahrzehnte für den Menschen nicht mehr unvorstellbar geworden.

So erschüttert uns die Einsicht, dass wir perspektivisch nicht mehr das klügste Wesen auf unserem Planeten sein könnten, in unserem grundsätzlichen Selbstverständnis als Mensch. Doch ist unsere Fähigkeit zu Emotionen nicht wesentlicher Teil dieser Intelligenz? Ebenso wie unsere Fähigkeit zu komplexem Handeln und Denken? Es ist umstritten, inwieweit diese Fähigkeiten einer Künstlichen Intelligenz überhaupt zuzumuten sind. Sind unsere Sorgen und Ängste also überhaupt begründet?

Betrachten wir den aktuellen Stand der Forschung, dann steckt die Superintelligenz noch in den Kinderschuhen. Die Forschung konzentriert sich momentan vor allem auf die schwachen Künstlichen Intelligenzen: Dies sind Systeme, die nur auf die Lösung klar definierter Aufgaben fokussiert sind. Sie sind zwar lernfähig und optimieren sich dadurch selbst, greifen aber dabei nur auf Methoden zurück, die ihnen durch die Entwickler zur Verfügung gestellt werden.

Die Superintelligenz hingegen ist eine starke Künstliche Intelligenz, die das Ziel hat, den Menschen in allen Lebensbereichen zu übertreffen. Diese soll vor allem zu logischem Denkvermögen, Entscheidungsfähigkeit auch bei Unsicherheiten, Kommunikation in natürlicher Sprache und dem Kombinieren all ihrer Fähigkeiten zur Erreichung eines übergeordneten Ziels in der Lage sein. Ob eine starke Künstliche Intelligenz allerdings ein eigenes Bewusstsein erlangen kann, wird zurzeit nur spekuliert. Denn menschliche Emotionen wie Empathie, Glück, Selbsterkenntnis oder Freiheit kann ein Algorithmus nur simulieren und niemals wirklich besitzen.

In diesem Punkt ist der Mensch tatsächlich einzigartig: Während Algorithmen nur priorisieren, klassifizieren, zuordnen und filtern, sind wir in der Lage, emotional zu denken und zu handeln. Wir können assoziieren, sind kreativ und handeln autonom – mit dem Drang zur Selbstbestimmung. Diese Aspekte sind tief in unseren Gehirnen und unserem Bewusstsein verwurzelt. Die biologischen Vorgänge dabei sind äußerst komplex – sogar so komplex, dass Forscher davon ausgehen, dass diese niemals entschlüsselt werden können, geschweige denn dass man unsere Synapsen durch ein starres elektronisches System imitieren könnte. Bevor also eine Superintelligenz entwickelt wird, müsste erst einmal das gesamte Potenzial des komplexen Menschen erforscht werden.

Professor Sebastian Rudolph vom Institut für Künstliche Intelligenz an der Technischen Universität Dresden nimmt sich in seiner Publikation „Künstliche Intelligenz, quo vadis?“ der Frage an, ob die Schaffung einer solchen Superintelligenz in Zukunft überhaupt möglich sein wird: „Sehr wahrscheinlich wird sich allgemeines intelligentes Verhalten auf menschlichem Niveau nur durch eine enge Kopplung von Intuition und Logik, sprich: maschinellem Lernen und Wissensrepräsentation, erreichen lassen; hier allerdings steht die Forschung noch ganz am Anfang.“

Die Komplexität unseres Verstands
ist einzigartig
Einige Probleme kann nur der Mensch selbst lösen

Führende Namen der Technologiebranche, wie etwa Elon Musk von Tesla oder auch der verstorbene Wissenschaftler Stephen Hawking, warnten bereits vor der Entwicklung einer eigenständig denkenden Künstlichen Intelligenz. Die negativen Folgen für die Menschheit – insbesondere beim Einsatz in der Kriegsführung – seien kaum vorauszusehen.

Auch wenn wir nach heutigem Kenntnisstand noch weit von der Superintelligenz entfernt sind, müssen wir dringend einen Diskurs zum sinnvollen Einsatz dieser Technologien führen – insbesondere in der Hinsicht, wo sie Vorteile bringen und an welcher Stelle sie schaden könnten. Denn die Gestaltung der Prozesse, nach denen Künstliche Intelligenzen arbeiten, ist immer noch Sache des Menschen. Und dieser ist auch dafür verantwortlich, nach welchen Richtlinien und Werten eine Künstliche Intelligenz handelt. Immerhin bietet Technologie zahlreiche neue Lösungswege für Wirtschaft, Wissenschaft und Gesellschaft, auf die der Mensch von allein vielleicht nie gekommen wäre. Damit wir sie aber in unsere Lebens- und Arbeitswelt integrieren können, müssen wir ihr auch vertrauen können.

Dieses Vertrauen schaffen wir vor allem dann, wenn wir den Menschen die Befürchtung vor dem Kontrollverlust nehmen und auch die Angst, dass Künstliche Intelligenz sie benachteiligen oder ihnen schaden könnten. Ein Beispiel für die Grenzen dieser Technologie sind die jüngsten Ergebnisse beim Einsatz von Künstliche Intelligenz in Bewerbungsverfahren des Konzerns Amazon. Der 2014 entwickelte Algorithmus sollte automatisch passende und vielversprechende Bewerber finden. Die Daten und somit Kriterien dafür basierten auf früheren Bewerbungsprozessen in einem Zeitraum von zehn Jahren, aus denen die Künstliche Intelligenz lernte und trainierte, welche potenziellen Mitarbeiter das Unternehmen bevorzugt. Allerdings wurden in der eher männerdominierten Branche kaum weibliche Bewerberinnen eingestellt: So berechnete die Künstliche Intelligenz das weibliche Geschlecht als Ausschlusskriterium. Eigentlich war sie jedoch dafür entwickelt worden, ein faires und objektives Bewerbungsverfahren zu ermöglichen.
Kaum verwunderlich, denn eine Künstliche Intelligenz arbeitet mit bereitgestellten großen Datenmengen und sucht in diesen Muster für Berechnungen und Schätzungen – in der Hoffnung, dass sie dabei neutrale Entscheidungen trifft. Am Beispiel Amazons ist jedoch die klare Grenze erkennbar: Datensätze und Muster basieren auf menschlichen Entscheidungen und Erfahrungen. Somit sind sie wenig Wert, wenn sie nicht auch von Menschen bewertet und interpretiert werden können.

Je stärker also Technologie mit dem Menschen in Berührung kommt, desto stärkere moralische Anforderungen müssen an sie gestellt werden. Dies zeigt deutlich, dass wir zunächst eigene Wertvorstellungen definieren müssen, bevor eine Künstliche Intelligenz überhaupt in einem solchen Prozess eingesetzt werden kann. Denn diese eine Frage wird uns eine Künstliche Intelligenz sicher nicht beantworten können: wie wir in Zukunft Hand in Hand mit der Technologie leben wollen, so dass wir aber immer noch die Oberhand haben. Der Posthumanismus negiert zwar die besondere Stellung des Menschen, doch insbesondere unsere kreative Konzeption und die Fähigkeit zur moralischen Interpretation sind unter allen Lebewesen einzigartig. So müssen wir uns mit der Frage auseinandersetzen, inwieweit die Erforschung einer sogenannten Superintelligenz überhaupt Sinn macht oder ob wir nicht weiter beim Ausbau der schwachen Künstlichen Intelligenzen bleiben sollten, die dem Menschen gezielt einzelne Aufgaben abnehmen.

Von Victoria Hilpert

Eine Künstliche Intelligenz macht noch keinen Menschen

Langnese Werbung, 1986. Foto: Unilever

KÜNSTLICHE INTELLIGENZEN LÖSEN MOMENTAN einen regelrechten medialen Hype aus. Die Öffentlichkeit sucht dabei insbesondere den Diskurs über die Chancen und Risiken der rasanten technologischen Entwicklung. Wie realistisch sind die teils dystopischen Zukunftsszenarien und wie viel Mensch wird in der sogenannten KI stecken?

Wir befinden uns in der digitalen Revolution momentan auf einem Stand, an dem wir uns fragen, ob wir in wenigen Jahren bereits selbstfahrende Autos nutzen, bis hin zur elementaren Frage, ob die weiterentwickelten Künstlichen Intelligenzen ein eigenständiges Bewusstsein entwickeln und was den Menschen dann eigentlich noch ausmacht, wenn sie uns in vielen Bereichen des Lebens übersteigen.

Dabei ist die Rezeption der Gesellschaft zum digitalen Wandel von Hoffnungen und Ängsten geprägt. Zum einen sind neue Technologien in der Wirtschaft notwendig, um zukunfts- und wettbewerbsfähig zu bleiben. Zum anderen existieren Schreckensszenarien von selbstständig denkenden und handelnden Künstlichen Intelligenzen, die sich gegen die Menschheit richten. Doch sind solche Zukunftsszenarien überhaupt denkbar?

Posthumanismus und die Erschaffung der Superintelligenz

Die großen Schmieden der Künstlichen Intelligenzen liegen dabei in Kalifornien. Im Silicon Valley werden von namhaften Konzernen und zahlreichen Start-ups und Unicorns Milliarden investiert, um die technologische Entwicklung voranzutreiben. Auch die ortsansässigen Universitäten tragen ihren Teil dazu bei – nicht nur aus technologisch-wissenschaftlicher Sicht. Denn mit dem rasanten Fortschritt geht seit den 1980er Jahren auch ein philosophischer Aspekt in Forschung und Bildung einher. Interessant sind hierbei insbesondere Gruppierungen, die die traditionellen Werte des Menschseins neu überdenken: die Posthumanisten.

Diese Strömung geht davon aus, dass die Evolution des Menschen bereits ihren Höhepunkt erreicht hat. Sie glaubt an die Schaffung einer Superintelligenz als Wesen oder Maschine, die dem Menschen in allen Gebieten überlegen sein wird – auch in Kreativität, Logik und Strategie. Die Überlegungen reichen dabei vom Schaffen Künstlicher Intelligenzen über gentechnische Anpassungen bis hin zur Aufrüstung des Menschen mittels Computer-Gehirn-Schnittstelle. Dies klingt zunächst nach einem dystopischen und filmreifen Szenario, ist jedoch aufgrund des unaufhaltbaren technologischen Fortschritts der letzten Jahrzehnte für den Menschen nicht mehr unvorstellbar geworden.

So erschüttert uns die Einsicht, dass wir perspektivisch nicht mehr das klügste Wesen auf unserem Planeten sein könnten, in unserem grundsätzlichen Selbstverständnis als Mensch. Doch ist unsere Fähigkeit zu Emotionen nicht wesentlicher Teil dieser Intelligenz? Ebenso wie unsere Fähigkeit zu komplexem Handeln und Denken? Es ist umstritten, inwieweit diese Fähigkeiten einer Künstlichen Intelligenz überhaupt zuzumuten sind. Sind unsere Sorgen und Ängste also überhaupt begründet?

Die Komplexität unseres Verstands
ist einzigartig

Betrachten wir den aktuellen Stand der Forschung, dann steckt die Superintelligenz noch in den Kinderschuhen. Die Forschung konzentriert sich momentan vor allem auf die schwachen Künstlichen Intelligenzen: Dies sind Systeme, die nur auf die Lösung klar definierter Aufgaben fokussiert sind. Sie sind zwar lernfähig und optimieren sich dadurch selbst, greifen aber dabei nur auf Methoden zurück, die ihnen durch die Entwickler zur Verfügung gestellt werden.

Die Superintelligenz hingegen ist eine starke Künstliche Intelligenz, die das Ziel hat, den Menschen in allen Lebensbereichen zu übertreffen. Diese soll vor allem zu logischem Denkvermögen, Entscheidungsfähigkeit auch bei Unsicherheiten, Kommunikation in natürlicher Sprache und dem Kombinieren all ihrer Fähigkeiten zur Erreichung eines übergeordneten Ziels in der Lage sein. Ob eine starke Künstliche Intelligenz allerdings ein eigenes Bewusstsein erlangen kann, wird zurzeit nur spekuliert. Denn menschliche Emotionen wie Empathie, Glück, Selbsterkenntnis oder Freiheit kann ein Algorithmus nur simulieren und niemals wirklich besitzen.

In diesem Punkt ist der Mensch tatsächlich einzigartig: Während Algorithmen nur priorisieren, klassifizieren, zuordnen und filtern, sind wir in der Lage, emotional zu denken und zu handeln. Wir können assoziieren, sind kreativ und handeln autonom – mit dem Drang zur Selbstbestimmung. Diese Aspekte sind tief in unseren Gehirnen und unserem Bewusstsein verwurzelt. Die biologischen Vorgänge dabei sind äußerst komplex – sogar so komplex, dass Forscher davon ausgehen, dass diese niemals entschlüsselt werden können, geschweige denn dass man unsere Synapsen durch ein starres elektronisches System imitieren könnte. Bevor also eine Superintelligenz entwickelt wird, müsste erst einmal das gesamte Potenzial des komplexen Menschen erforscht werden.

Professor Sebastian Rudolph vom Institut für Künstliche Intelligenz an der Technischen Universität Dresden nimmt sich in seiner Publikation „Künstliche Intelligenz, quo vadis?“ der Frage an, ob die Schaffung einer solchen Superintelligenz in Zukunft überhaupt möglich sein wird: „Sehr wahrscheinlich wird sich allgemeines intelligentes Verhalten auf menschlichem Niveau nur durch eine enge Kopplung von Intuition und Logik, sprich: maschinellem Lernen und Wissensrepräsentation, erreichen lassen; hier allerdings steht die Forschung noch ganz am Anfang.“

Einige Probleme kann nur der Mensch selbst lösen

Führende Namen der Technologiebranche, wie etwa Elon Musk von Tesla oder auch der verstorbene Wissenschaftler Stephen Hawking, warnten bereits vor der Entwicklung einer eigenständig denkenden Künstlichen Intelligenz. Die negativen Folgen für die Menschheit – insbesondere beim Einsatz in der Kriegsführung – seien kaum vorauszusehen.

Auch wenn wir nach heutigem Kenntnisstand noch weit von der Superintelligenz entfernt sind, müssen wir dringend einen Diskurs zum sinnvollen Einsatz dieser Technologien führen – insbesondere in der Hinsicht, wo sie Vorteile bringen und an welcher Stelle sie schaden könnten. Denn die Gestaltung der Prozesse, nach denen Künstliche Intelligenzen arbeiten, ist immer noch Sache des Menschen. Und dieser ist auch dafür verantwortlich, nach welchen Richtlinien und Werten eine Künstliche Intelligenz handelt. Immerhin bietet Technologie zahlreiche neue Lösungswege für Wirtschaft, Wissenschaft und Gesellschaft, auf die der Mensch von allein vielleicht nie gekommen wäre. Damit wir sie aber in unsere Lebens- und Arbeitswelt integrieren können, müssen wir ihr auch vertrauen können.

Dieses Vertrauen schaffen wir vor allem dann, wenn wir den Menschen die Befürchtung vor dem Kontrollverlust nehmen und auch die Angst, dass Künstliche Intelligenz sie benachteiligen oder ihnen schaden könnten. Ein Beispiel für die Grenzen dieser Technologie sind die jüngsten Ergebnisse beim Einsatz von Künstliche Intelligenz in Bewerbungsverfahren des Konzerns Amazon. Der 2014 entwickelte Algorithmus sollte automatisch passende und vielversprechende Bewerber finden. Die Daten und somit Kriterien dafür basierten auf früheren Bewerbungsprozessen in einem Zeitraum von zehn Jahren, aus denen die Künstliche Intelligenz lernte und trainierte, welche potenziellen Mitarbeiter das Unternehmen bevorzugt. Allerdings wurden in der eher männerdominierten Branche kaum weibliche Bewerberinnen eingestellt: So berechnete die Künstliche Intelligenz das weibliche Geschlecht als Ausschlusskriterium. Eigentlich war sie jedoch dafür entwickelt worden, ein faires und objektives Bewerbungsverfahren zu ermöglichen.
Kaum verwunderlich, denn eine Künstliche Intelligenz arbeitet mit bereitgestellten großen Datenmengen und sucht in diesen Muster für Berechnungen und Schätzungen – in der Hoffnung, dass sie dabei neutrale Entscheidungen trifft. Am Beispiel Amazons ist jedoch die klare Grenze erkennbar: Datensätze und Muster basieren auf menschlichen Entscheidungen und Erfahrungen. Somit sind sie wenig Wert, wenn sie nicht auch von Menschen bewertet und interpretiert werden können.

Je stärker also Technologie mit dem Menschen in Berührung kommt, desto stärkere moralische Anforderungen müssen an sie gestellt werden. Dies zeigt deutlich, dass wir zunächst eigene Wertvorstellungen definieren müssen, bevor eine Künstliche Intelligenz überhaupt in einem solchen Prozess eingesetzt werden kann. Denn diese eine Frage wird uns eine Künstliche Intelligenz sicher nicht beantworten können: wie wir in Zukunft Hand in Hand mit der Technologie leben wollen, so dass wir aber immer noch die Oberhand haben. Der Posthumanismus negiert zwar die besondere Stellung des Menschen, doch insbesondere unsere kreative Konzeption und die Fähigkeit zur moralischen Interpretation sind unter allen Lebewesen einzigartig. So müssen wir uns mit der Frage auseinandersetzen, inwieweit die Erforschung einer sogenannten Superintelligenz überhaupt Sinn macht oder ob wir nicht weiter beim Ausbau der schwachen Künstlichen Intelligenzen bleiben sollten, die dem Menschen gezielt einzelne Aufgaben abnehmen.