TLDR:
KI-Forscher warnen vor möglichen katastrophalen Folgen, wenn der Mensch die Kontrolle über die KI verliert
Globales Aufsichtssystem und Notfallpläne zur Vermeidung von KI-Risiken gefordert
Drei Schlüsselprozesse vorgeschlagen: Notfallvorsorge, Sicherheitsgewährleistung und unabhängige Forschung
Über 30 Experten aus verschiedenen Ländern unterzeichneten die Erklärung
Mangelnder wissenschaftlicher Austausch zwischen Supermächten über KI-Bedrohungen beunruhigt
Experten für künstliche Intelligenz (KI) aus aller Welt haben vor den potenziellen Risiken hochentwickelter KI-Systeme gewarnt.
In einer am 16. September 2024 veröffentlichten Erklärung forderten mehr als 30 Wissenschaftler aus verschiedenen Ländern, darunter den Vereinigten Staaten, Kanada, China und dem Vereinigten Königreich, die Schaffung eines globalen Aufsichtssystems, um mögliche „katastrophale Folgen“ zu verhindern, falls der Mensch die Kontrolle über die KI verliert.
Die Erklärung, die auf den Ergebnissen des Internationalen Dialogs zur KI-Sicherheit in Venedig aufbaut, betont die Notwendigkeit internationaler Zusammenarbeit und Steuerung bei der KI-Entwicklung.
Die Wissenschaftler argumentieren, dass die Sicherheit von KI als globales öffentliches Gut anerkannt werden sollte und dass gemeinsame Anstrengungen erforderlich sind, um potenzielle Risiken anzugehen.
Eine der Hauptsorgen, die in der Erklärung hervorgehoben wird, ist die Möglichkeit, dass der Mensch die Kontrolle über fortgeschrittene KI-Systeme verliert oder sie böswillig missbraucht. Die Experten warnen, dass solche Szenarien verheerende Folgen für die Menschheit haben könnten.
Sie weisen darauf hin, dass die notwendigen wissenschaftlichen Erkenntnisse zur Kontrolle und Sicherung hochentwickelter KI noch nicht ausgereift seien, was die Dringlichkeit einer Lösung dieser Probleme unterstreicht.
Um diese Herausforderungen zu bewältigen, schlagen die Wissenschaftler drei Schlüsselprozesse vor.
Erstens fordern sie die Einrichtung von Vereinbarungen und Institutionen zur Notfallvorsorge. Dazu gehört die Entwicklung von Behörden in jedem Land, die KI-Vorfälle und Katastrophenrisiken erkennen und darauf reagieren können. Diese nationalen Behörden würden dann zusammenarbeiten, um einen globalen Notfallplan für schwere KI-bezogene Vorfälle zu erstellen.
Der zweite vorgeschlagene Prozess ist die Implementierung eines Sicherheitsrahmens. Dies würde von KI-Entwicklern verlangen, einen hochzuverlässigen Sicherheitsnachweis zu erbringen, bevor sie Modelle mit Fähigkeiten einsetzen, die bestimmte Schwellenwerte überschreiten. Der Rahmen würde auch eine Überwachung nach der Bereitstellung und unabhängige Audits umfassen, um eine fortlaufende Sicherheit zu gewährleisten.
Schließlich plädieren die Experten für unabhängige globale KI-Sicherheits- und Verifizierungsforschung. Diese Forschung würde sich auf die Entwicklung von Techniken konzentrieren, um die Sicherheitsansprüche von KI-Entwicklern und möglicherweise auch anderen Nationen streng zu überprüfen. Um die Unabhängigkeit zu gewährleisten, würde die Forschung weltweit durchgeführt und von einer Vielzahl von Regierungen und Philanthropen finanziert.
Die Erklärung kommt zu einer Zeit, in der der wissenschaftliche Austausch zwischen den Supermächten abnimmt und das Misstrauen zwischen den USA und China wächst. Die Wissenschaftler argumentieren, dass dieser Mangel an Zusammenarbeit es schwieriger macht, einen Konsens über KI-Bedrohungen zu erzielen, was die Notwendigkeit eines globalen Dialogs und einer globalen Zusammenarbeit weiter unterstreicht.
Anfang September 2024 unterzeichneten die Vereinigten Staaten, die Europäische Union und das Vereinigte Königreich den weltweit ersten rechtsverbindlichen internationalen KI-Vertrag. Dieses Abkommen priorisiert Menschenrechte und Rechenschaftspflicht bei der KI-Regulierung. Einige Technologieunternehmen und Führungskräfte haben jedoch Bedenken geäußert, dass eine Überregulierung die Innovation hemmen könnte, insbesondere in der Europäischen Union.
Zu der Gruppe von KI-Experten, die die Erklärung unterzeichnet haben, gehören Forscher führender KI-Institutionen und Universitäten sowie mehrere Gewinner des Turing Award, der als das Äquivalent des Nobelpreises für Informatik gilt.
Ihr gesammeltes Fachwissen verleiht den in der Erklärung geäußerten Bedenken und Empfehlungen erhebliches Gewicht.
Der Beitrag „Schützen Sie die Menschheit vor KI: Experten fordern globale Aufsicht, um eine mögliche KI-Katastrophe zu verhindern“ erschien zuerst auf Blockonomi.