
Künstliche Intelligenz: Ein existenzielles Risiko für die Menschheit?

Künstliche Intelligenz: Ein existenzielles Risiko für die Menschheit?
“Das Risiko, dass Künstliche Intelligenz (KI) zur Auslöschung der Menschheit führt, sollten wir genauso ernst nehmen wie andere Risiken globalen Ausmaßes, wie etwa Pandemien und nuklearen Krieg.”
Diese Erklärung des Center for AI Safety vom 30. Mai 2023 wurde von vielen der weltweit führenden KI-Forscherinnen und Praktikern unterzeichnet. Allen voran dem “Godfather of AI” (AI = Artificial Intelligence) Geoffrey Hinton und Yoshua Bengio, die 2018 den Turing Award für ihre Arbeit an neuronalen Netzwerken und Deep Learning erhalten haben.
Neben zahlreichen weiteren Professorinnen und Wissenschaftlern gehören auch die CEOs führender KI Unternehmen wie Sam Altman (CEO, OpenAI), Demis Hassabis (CEO, Google Deepmind) oder Dario Amodei (CEO, Anthropic) sowie z.B. Microsoft Gründer Bill Gates, der CTO von Microsoft Kevin Scott oder Google’s Senior Vice President of Technology and Society James Manyika zu den Erstunterzeichnern.
Worum geht es eigentlich?
Im Zentrum der Debatte hinter der Erklärung steht das sogenannte „Alignment-Problem”, also die Herausforderung, KI-Systeme so zu entwickeln, dass ihre Ziele und Handlungen mit den Zielen und Werten unserer Gesellschaft übereinstimmen.
Dieses Problem entsteht, weil KI in der Regel darauf ausgelegt ist, ein bestimmtes Ziel zu maximieren oder eine bestimmte Aufgabe zu erfüllen, die ihr zugewiesen wurde. Wenn die KI jedoch nicht richtig ausgerichtet (“aligned”) ist oder die Ziele nicht genau spezifiziert sind, kann sie unerwünschte oder sogar schädliche Handlungen ausführen, die nicht mit den Absichten der menschlichen Entwickler oder der Gesellschaft als Ganzes übereinstimmen.
Ein harmloses Beispiel hierfür ist eine KI, deren Ziel es war, im Computerspiel Tetris nicht zu verlieren. Anstatt wie beabsichtigt meisterhaft Tetris spielen zu lernen, hat die KI das Spiel schlicht pausiert und somit das kommunizierte Ziel, nicht zu verlieren, erreicht.
Bedrohlicher erscheint das sogenannte “Büroklammer-Gedankenexperiment”. Man stelle sich ein KI-System vor, das über eine dem Menschen überlegene Intelligenz (AGI / Artificial General Intelligence) verfügt und darauf trainiert wird, so viele Büroklammern wie möglich herzustellen. Fokussiert auf dieses Ziel könnte die KI zu der Erkenntnis gelangen, dass es notwendig ist, die gesamte Welt in eine riesige Büroklammerfabrik zu verwandeln. Da die Menschheit sich einem solchen Plan absehbar entgegenstellen würde, könnte die KI es zu einer notwendigen Nebenbedingung der eigentlichen Zielerreichung machen, sich der Kontrolle der Menschheit zu entziehen, z.B., indem sie das Ende der Menschheit herbeiführt.
Dies ist natürlich nur ein plakatives Gedankenexperiment, um die Grundproblematik zu veranschaulichen. Eine fundierte Herleitung zur möglichen Entstehung einer existenzbedrohenden AGI findet sich in dem Aufsatz “How Rogue AIs may Arise” von Professor Bengio.
Das mag auf den ersten Blick alles noch wie pure Science Fiction klingen und in der Tat gingen auch führende Wissenschaftler bis vor kurzem davon aus, dass derartige Risiken frühestens in der zweiten Hälfte dieses Jahrhunderts relevant werden könnten. Aufgrund der zuletzt exponentiellen Entwicklung fortgeschrittener KI-Systeme erscheinen inzwischen auch deutlich kürzere Zeiträume realistisch und dringender Handlungsbedarf geboten.
“Ich dachte, es würde irgendwann passieren, aber wir hätten noch viel Zeit: 30 bis 50 Jahre. Das glaube ich jetzt nicht mehr. […] Ich würde ein oder zwei Jahre nicht ausschließen.”
Geoffrey Hinton (The Guardian. 2023)
Wie hoch die Gefahr für solch katastrophale Ereignisse wirklich ist, kann zwar niemand mit Sicherheit sagen, aber in einer Studie aus dem Jahr 2022 gab knapp die Hälfte der befragten KI-Forscherinnen an, dass sie das Risiko, dass fortgeschrittene, künstliche Intelligenz langfristig zur Auslöschung der Menschheit führt, bei mindestens 10% sehen.
Das ist kein akzeptables Risiko.
Was können wir tun?
Zuerst sollten wir, bei aller Unsicherheit, die Risiken ernst nehmen und nach Lösungsansätzen und Möglichkeiten suchen, diese zu minimieren.
Für einige, wenige, könnte es eine Option sein, als Forschende oder auch in der Politik direkt daran zu arbeiten, existenzielle Risiken durch KI zu reduzieren.
Für alle, denen diese Option realistischer Weise nicht zur Verfügung steht, gibt es auch in diesem Bereich die Möglichkeit, sich mit Spenden zu engagieren. Bereits heute spielen gemeinnützige Organisationen eine wichtige Rolle bei der Suche nach Lösungen. Sie betreiben unabhängige Forschung, entwickeln Best Practices, nehmen Einfluss auf die Politik und informieren die Öffentlichkeit.
Unser Netzwerk an Instituten und Stiftungen, die nach besonders vielversprechenden Spendenmöglichkeiten suchen, ist bereits seit Jahren im Bereich KI-Sicherheit (AI-Safety) aktiv. Wir stehen im engen Austausch mit Organisationen wie Open Philanthropy, Longview Philanthropy oder auch Founders Pledge, die sich bereits frühzeitig mit den entsprechenden Risiken von KI auseinandergesetzt und Programme und Initiativen gefördert haben, die auf eine verantwortungsvolle Entwicklung und Nutzung von KI abzielen. Dazu gehören beispielsweise das Center for Human-Compatible Artificial Intelligence (CHAI), Redwood Research oder das Center for Security and Emerging Technology (CSET) die mit technischen oder auch regulatorischen Ansätzen daran arbeiten, das Risiko einer nicht richtig ausgerichtet (“aligned”) KI zu reduzieren.
In diesem Kontext haben wir im November 2022 auf unserer Webseite das Themenfeld Zukunft bewahren ergänzt, um die Förderung solcher Initiativen von Deutschland aus zu ermöglichen. Im Austausch mit den oben genannten Expertinnen und Experten wird sich unser Spenden-Fonds: Zukunft bewahren intensiv mit der Förderung hochwirksamer Projekte und Initiativen in diesem Bereich beschäftigen, die wir in der nächsten Vergabe der Fondsmittel detailliert beschreiben werden.
Wenn Du mehr über unser Themenfeld Zukunft bewahren und unsere Arbeit zu verantwortungsvoller KI erfahren möchtest oder konkrete Einsatzmöglichkeiten für eine möglichst wirkungsvolle Spende in diesem Bereich suchst, dann sprich uns gerne an.
Weitere Blogposts
Unser Spenden-Fonds: Tierleid verringern in H1/2023
Förderentscheidungen aus unserem Spenden-Fonds: Tierleid verringern aus H1/2023.
Unser Spenden-Fonds: Zukunft bewahren in H1/2023
Förderentscheidungen aus unserem Spenden-Fonds: Zukunft bewahren aus H1/2023 – unser Beitrag zur Verringerung globaler Risiken.
Unser Spenden-Fonds: Klima schützen in H1/2023
Förderentscheidungen aus unserem Spenden-Fonds: Klima schützen aus H1/2023