
Unser Spenden-Fonds: Zukunft bewahren in Q4/2022

Unser Spenden-Fonds: Zukunft bewahren in Q4/2022
Im November 2022 haben wir unseren neuen Spenden-Fonds: Zukunft bewahren ins Leben gerufen, mit dem wir uns am ebenfalls noch jungen Founders Pledge Global Catastrophic Risks (GCR) Fund orientieren. Bis zum Jahresende sind bereits über EUR 210.000 Spenden aus Deutschland und der Schweiz eingegangen, mit denen wir die vielversprechendsten Organisationen und Projekte unterstützen, die globale Katastrophenrisiken adressieren und minimieren. Vielen Dank an die über 300 Spenderinnen und Spender, die diese Unterstützung möglich gemacht haben!
Insgesamt ist die Wirkung von Projekten und Organisationen in diesem Themenfeld mit größerer Unsicherheit behaftet als die Empfehlungen in unseren anderen Bereichen. Das liegt einerseits daran, dass wir nicht wie in unserem Bereich “Armut bekämpfen” mit langjährigen empirischen Studien (RCTs) arbeiten können, um die Wirksamkeit einzelner Interventionen zu messen. Andererseits liegen insgesamt weniger Evaluationen und Empfehlungen für besonders vielversprechende Maßnahmen und Organisationen in diesem Themenfeld vor.
Die potentiell sehr große Hebelwirkung in der Adressierung der größten bekannten Risiken für die Menschheit verspricht aber dennoch eine sehr hohe Wirkung. Basierend auf den umfassenden Recherchen von Founders Pledge haben wir zwei besonders vielversprechende Projekte zweier Organisationen identifiziert, die sich mit wichtigen aktuellen Herausforderungen befassen: einem 24-monatigen Projekt des renommierten Carnegie Endowment for International Peace, das die potenziell katastrophalen globalen Risiken, die sich aus dem Krieg in der Ukraine ergeben, stärker in den Fokus rückt, sowie ein Workshop des Center for a New American Security, der die Risiken autonomer Waffensysteme und militärischer Künstlicher Intelligenz (KI), thematisiert und eine bereits bestehende Förderung des Founders Pledge GCR Funds ergänzt.
Wir davon überzeugt, mit unserem Spenden-Fonds: Zukunft bewahren einen wertvollen Beitrag zur Verringerung globaler Risiken zu leisten. Im Jahr 2023 werden wir uns mit den Fonds-Mitteln auch den Risiken z.B. aus Pandemien und durch fortschrittliche KI widmen. Dazu freuen wir uns auch über Eure Rückmeldungen.

Carnegie Endowment for International Peace
Fonds-Mittel aus Q3-Q4/22 insgesamt:
EUR 115.000
Wer ist die Organisation?
In einer komplexen, sich wandelnden und zunehmend von Wettbewerb geprägten Welt entwickelt Carnegie strategische Ideen und unabhängige Analysen, unterstützt die Diplomatie und bildet die nächste Generation internationaler Wissenschaftler und Praktiker aus, um Länder und Institutionen bei der Bewältigung der schwierigsten globalen Probleme und der Sicherung des Friedens zu unterstützen. Die renommierte Stiftung, die für ihre unabhängige Analyse wichtiger globaler Fragen und ihr Verständnis regionaler Zusammenhänge bekannt ist, stützt sich dabei auf ein globales Netzwerk von mehr als 150 Experten in 20 Ländern.
Wofür werden die Mittel verwendet?
Mit den Mitteln des Fonds wird das 24-monatige Projekt “Eine gefährliche Abwärtsspirale: Abwendung katastrophaler Risiken aus dem Krieg in der Ukraine” unterstützt, das die katastrophalen Risiken abwenden soll, die sich aus dem Krieg in der Ukraine ergeben. Aus verständlichen Gründen hat sich die transatlantische Gemeinschaft bisher vor allem auf dringende Herausforderungen wie die Mobilisierung von Unterstützung für die Ukraine und die Unterstützung des Landes bei der Abwehr russischer Aggressionen konzentriert. Längerfristige Fragen wie die Gestaltung der Beziehungen zu einem störungsanfälligeren Russland und die Auswirkungen des Konflikts auf die allgemeine globale Sicherheitslage wurden zwangsläufig in den Hintergrund gedrängt.
Die kurz- und langfristigen Risiken, die von Russlands Konfrontation mit den USA und Europa ausgehen, nehmen jedoch zu. Das liegt daran, dass unter diesen veränderten Umständen andere wichtige globale Probleme – vom Klimawandel und der Ernährungssicherheit bis hin zur Nichtverbreitung von Kernwaffen und der Instabilität im Nahen Osten – nun viel schwieriger zu bewältigen sind. Die transatlantische Gemeinschaft muss daher beginnen, sich mit den langfristigen weltpolitischen Herausforderungen auseinanderzusetzen, die der Krieg in der Ukraine mit sich bringt.
Das Carnegie-Projekt will diesen Austausch initiieren, ihm einen Rahmen geben und ihn mit Analysen anregen. Aufbauend auf Carnegies regionaler Expertise in Russland und der Ukraine sollen die effektivsten und nachhaltigsten Strategien identifiziert werden, um potenziell katastrophale Folgen des Krieges abzuwenden und transatlantische Interessen zu schützen. Dieses Ziel soll durch eine Kombination verschiedener Arten von Forschung und öffentlichem wie privatem Diskurs erreicht werden, wie z.B. Meinungsbeiträge, analytische Artikel, Strategiepapiere und mündliche Briefings, sowie durch gezielte Informationskampagnen und Konferenzen, die sich an wichtige Teile der westlichen politischen Gemeinschaft auf beiden Seiten des Atlantiks richten.
Weshalb ist der Ansatz besonders vielversprechend?
Wie im Founders Pledge–Bericht über Großmachtkonflikte dargelegt, könnte ein Krieg zwischen großen Militärmächten eine der größten Gefahren für die Zukunft der Menschheit darstellen. Mit dem Einmarsch Russlands in die Ukraine und Putins nuklearen Drohungen vor dem Hintergrund wachsender Spannungen zwischen den USA und Russland sowie zwischen den USA und China könnte die Aussicht auf einen großen Krieg näher sein als je zuvor. Trotz zahlreicher Analysen der täglichen Truppenbewegungen und Gefechte im russisch-ukrainischen Krieg gibt es bisher nur wenige Arbeiten, die sich mit den langfristigen Auswirkungen des Krieges befassen.
Um ein besseres Verständnis dieser Auswirkungen zu ermöglichen, haben wir gemeinsam mit Founders Pledge und Carnegie das Projekt mit dem Titel „Eine gefährliche Abwärtsspirale: Die katastrophalen Risiken des Krieges in der Ukraine abwenden“ ins Leben gerufen. Da es sich hierbei um „aktives Grantmaking“ handelt, ist die Wahrscheinlichkeit einer kontrafaktischen Wirkung hoch – das Projekt wäre ohne Founders Pledge und die Unterstützung aus dem Spenden-Fonds: Zukunft bewahren wahrscheinlich nicht zustande gekommen. Wie im Founders Pledge-Bericht “Guide to the Changing Landscape of High-Impact Climate Philanthropy” erläutert, glauben wir auch, dass eine Beeinflussung der politischen Rahmenbedingungen ein vielversprechender Multiplikator ist; die Einflussnahme auf die Politik kann dazu beitragen, größere Ressourcen zu mobilisieren und damit die Wirkung eines Philanthropen zu erhöhen.
Die Stärke des Carnegie-Teams zu Fragen in Bezug auf Russland, die Ukraine und die weitere Region (einschließlich der Einrichtung des neuen Carnegie Russia Eurasia Centers in Berlin) in Verbindung mit der bisherigen Erfolgsbilanz und dem Einfluss der Organisation auch in den USA und Europa legt nahe, dass das Projekt eine vielversprechende Initiative für wirkungsorientierte Philanthropie ist.
Center for a New American Security
Fonds-Mittel aus Q3-Q4/22 insgesamt:
USD 100,000 (ca. EUR 95,000)
Wer ist die Organisation?
Das Center for a New American Security (CNAS) wurde 2007 gegründet, um eine starke, pragmatische und prinzipienfeste nationale Sicherheits- und Verteidigungspolitik zu entwickeln. Als unabhängige und überparteiliche Forschungseinrichtung unterstützt das CNAS politische Entscheidungsträger, Experten und die Öffentlichkeit mit innovativer faktenbasierter Forschung und Analyse, um die nationale Sicherheitsdebatte zu gestalten und gilt als eine der führenden Denkfabriken in diesem Bereich. Das CNAS besteht aus einem überparteilichen Team von Experten und ehemaligen und zukünftigen politischen Entscheidungsträgern mit starken Verbindungen in die nationale Sicherheitsgemeinschaft. Die Organisation ist klein, wendig und zielgerichtet und kann auf eine beachtliche Erfolgsbilanz bei wichtigen Fragen der nationalen Sicherheit verweisen. Das CNAS arbeitet in seinen Projekten regelmäßig gemeinsam mit anderen Think Tanks und bringt unabhängige Experten zu wichtigen Initiativen zusammen.
Die CNAS-Initiative “Künstliche Intelligenz und Globale Sicherheit” untersucht, wie die Revolution der künstlichen Intelligenz (KI) zu Veränderungen globaler Machtstrukturen, des Konfliktcharakters und der Krisenstabilität führen könnte. Die Initiative untersucht auch die sicherheitspolitischen Dimensionen der KI-Sicherheit und die Perspektiven für die internationale Zusammenarbeit.
Wofür werden die Mittel verwendet?
Die Mittel des Fonds ergänzen die bisherige Unterstützung des CNAS durch den Founders Pledge GCR Funds, um die Durchführbarkeit und mögliche Struktur eines internationalen Abkommens über sogenannte “autonome Zwischenfälle” (“International Autonomous Incidents Agreement”) zu untersuchen. Ein solches Abkommen soll dazu dienen, das Risiko von Unfällen oder unbeabsichtigten Eskalationen zwischen Nationen, die autonome unbemannte Systeme einsetzen, zu verringern. Dazu erarbeitet das CNAS derzeit ein White Paper und einen Policy Brief, um Forschungsfragen zu einem internationalen Abkommen über autonome Zwischenfälle zu beantworten.
Sobald die erste Forschungsphase abgeschlossen ist, werden die CNAS-Researcher Paul Scharre und Tom Shugart mit der zusätzlichen Förderung aus unserem Spenden-Fonds: Zukunft bewahren einen Workshop in Washington, D.C. veranstalten, um das Strategiepapier vor seiner Veröffentlichung zu bewerten, zu kritisieren und zu testen. Zu den eingeladenen Teilnehmern werden verschiedene Experten aus den Bereichen künstliche Intelligenz und Autonomie, militärische Operationen, Krisenstabilität, Beziehungen zwischen den USA und China, Beziehungen zwischen den USA und Russland sowie internationale Gesetze und Abkommen gehören.
Wie im Founders Pledge-Bericht über autonome Waffensysteme und militärische KI (“Autonomous Weapon Systems & Military AI”) dargelegt, kann ein solches Abkommen als „vertrauensbildende Maßnahme“ dienen, ähnlich dem erfolgreichen Abkommen zwischen der Sowjetunion und den Vereinigten Staaten von 1972 über Zwischenfälle auf See. Der aus Mitteln unseres Fonds finanzierte Workshop wird ein wesentlicher Bestandteil dieses Projekts sein, um während der Entwicklungsphase detailliertes Feedback zu ermöglichen. Wir gehen davon aus, dass dies die Erfolgswahrscheinlichkeit des Gesamtprojekts erhöhen und die Chancen auf den Abschluss eines Abkommens weiter verbessern wird.
Weshalb ist der Ansatz besonders vielversprechend?
Der Einsatz und die Verbreitung autonomer Waffensysteme scheint in naher Zukunft wahrscheinlich, aber die Risiken einer KI-gestützten Kriegsführung sind noch nicht ausreichend erforscht und finanziert. Autonome Waffen und militärische Anwendungen von KI im weiteren Sinne (z.B. Frühwarn- und Entscheidungsunterstützungssysteme) bergen mehrere Risiken. Sie haben das Potenzial, die Wahrscheinlichkeit des Auftretens einer Reihe von Problemen zu erhöhen, darunter Konflikte zwischen Großmächten, die Untergrabung der nuklearen Stabilität und die Beeinträchtigung der KI-Sicherheit. Autonome Waffensysteme betreffen daher sowohl die langfristige Zukunft der Welt als auch das Leben von Milliarden von Menschen heute.
Founders Pledge sieht ein internationales Abkommen über autonome Zwischenfälle als vielversprechende Intervention, die durch Spenden sinnvoll unterstützt und vorangetrieben werden kann.
Paul Scharre ist einer der weltweit führenden Experten auf dem Gebiet der militärischen Anwendungen von künstlicher Intelligenz. Er ist Autor der Bücher Army of None und Four Battlegrounds: Power in the Age of Artificial Intelligence und hat die Politik des US-Verteidigungsministeriums zu autonomen Waffen mit entworfen. Nach Gesprächen mit Politikexperten sind wir der Meinung, dass das CNAS eine der Organisationen ist, die den größten Einfluss auf die KI-Politik der US-Regierung haben.
Darüber hinaus ist der Bereich stark vernachlässigt, trotz des Versprechens vertrauensbildender Maßnahmen im Bereich der KI. Wenn das Projekt erfolgreich ist und sich herausstellt, dass ein solches Abkommen umsetzbar scheint, erwarten wir, dass es weit mehr Raum für die Verbreitung und Umsetzung dieser Idee eröffnet (z.B. in den diplomatischen Dialogen zwischen den USA und China).
Weitere Blogposts
Vorfälle bei GiveDirectly im Kongo: So geht transparente Aufklärung
GiveDirectly hat zu Beginn des Jahres einen ernstzunehmenden Betrugsfall aufgedeckt und seitdem systematisch aufgearbeitet.
Artificial Intelligence: An existential threat to humanity?
Fortgeschrittene KI stellt ein existenzielle Risiko dar. Welche Lösungsansätze gibt es und was kann ich tun?
Künstliche Intelligenz: Ein existenzielles Risiko für die Menschheit?
Fortgeschrittene KI stellt ein existenzielle Risiko dar. Welche Lösungsansätze gibt es und was kann ich tun?