Die Regierungen Südkoreas und des Vereinigten Königreichs werden auf dem internationalen KI-Gipfel in dieser Woche die Technologieunternehmen dazu auffordern, sich mit der Sicherheitsüberwachung im Bereich künstliche Intelligenz zu befassen.
Dieses Treffen ist eine Fortsetzung des ersten globalen KI-Sicherheitsgipfels, der letztes Jahr im britischen Bletchley Park stattfand und bei dem eine Reihe von Regierungen ihre Bedenken hinsichtlich der KI-Risiken zum Ausdruck brachten. Auch KI-Unternehmen waren dort vertreten, da die Technologie, an der sie arbeiten, diese Risiken birgt.
Inmitten der zahlreichen internationalen Versuche, Leitplanken für die sich rasch entwickelnde Technologie zu schaffen, die das Potenzial hat, viele Bereiche der Gesellschaft zu revolutionieren, hat der Gipfel in Seoul Sorgen über neu entstehende Risiken für das tägliche Leben ausgelöst.
„Obwohl positive Anstrengungen unternommen wurden, um die globale KI-Governance zu gestalten, bestehen weiterhin erhebliche Lücken.“
Der britische Gipfel im November brachte Forscher, Regierungsvertreter, Technologiemanager und Vertreter zivilgesellschaftlicher Organisationen zusammen, von denen viele unterschiedliche Meinungen zum Thema künstliche Intelligenz hatten. Die Treffen fanden hinter verschlossenen Türen in Bletchley statt. Neben Politikern wie dem britischen Premierminister Rishi Sunak, den CEOs von OpenAI Sam Altman und Tesla nahm auch Elon Musk und viele andere teil.
Sicherheit wird beim AI Summit Priorität haben
Sicherheit wird auch beim AI Seoul Summit, der am Dienstag beginnt, wieder höchste Priorität haben. Die Regierungen Großbritanniens und Südkoreas sind gemeinsame Gastgeber des Treffens vom 21. bis 22. Mai.
Namhafte KI-Unternehmen wie Microsoft, Anthropic, Google DeepMind, ChatGPT-Entwickler OpenAI und Mistral, ein französisches KI-Startup, werden voraussichtlich Vertreter entsenden.
Der britische Premierminister Rishi Sunak und der südkoreanische Präsident Yoon Suk Yeol verfassten ebenfalls einen gemeinsamen Artikel, der am Montag in INews veröffentlicht wurde. Sie erkannten das Potenzial dieser Technologie an und drückten ihren Willen aus, für Sicherheit zu sorgen, indem sie sagten:
„Gemeinsam sind wir entschlossen, das Potenzial dieser Technologie zu nutzen, um die Welt zum Besseren zu verändern.“
Sie betonten auch, dass neue Technologien und KI neue Risiken mit sich bringen. Sie wiesen auf den Missbrauch von KI durch Betrüger hin, die KI gezielt für ihre Verbrechen einsetzen wollen.
Erst kürzlich löste OpenAI sein Sicherheitsteam, das sogenannte Superalignment-Team, auf, als dessen Mitbegründer Ilya Sutskever und einige andere wichtige Mitarbeiter das Unternehmen verließen. Die Entwicklung kam nur wenige Tage vor dem Gipfel in Seoul von dem weltweit führenden KI-Unternehmen, dessen Schwerpunkt auf der Minderung der Risiken von KI liegt.
Lesen Sie auch: Gipfeltreffen in Bletchley Park fordert internationale Zusammenarbeit zur Bewältigung von KI-Risiken
In einer weiteren Entwicklung hat Anthropic heute seinen Bericht über verantwortungsvolle Skalierungsrichtlinien veröffentlicht, der laut dem Unternehmen gute Ergebnisse gezeigt hat. Wir können diese Ergebnisse jedoch nicht bestätigen. Obwohl wir zu keiner dieser Entwicklungen Stellung nehmen können, geben sie doch Anlass zum Nachdenken.
Die Innovation muss weitergehen
Nach dem kometenhaften Aufstieg von ChatGPT kurz nach seiner Einführung im Jahr 2022 begannen Technologieunternehmen weltweit, Milliarden von Dollar in den Aufbau ihrer generativen KI-Modelle zu investieren. Sunak und Yeol erwähnten die rasante Innovation, da täglich neue KI-Modelle auf den Markt kommen. Sie sagten:
„Die Regierung kann diese Innovation fördern, indem sie Milliarden investiert, die Spitzenforschung an unseren Weltklasse-Universitäten vorantreibt und sicherstellt, dass wir die Start-ups, die die nächste große Idee hervorbringen könnten, nicht übermäßig regulieren.“
Befürworter generativer KI-Modelle begrüßen diese Technologie als Durchbruch, der das Leben der Menschen und die Wirtschaft weltweit verbessern werde, da sie auf einfache Hinweise hin Texte, Fotos, Musik und sogar Videos produzieren könne.
Einige dieser Produkte, die öffentliche Aufmerksamkeit erregt haben, sind von Natur aus voreingenommen, was Anlass zur Sorge gibt.
Lesen Sie auch: KI-Experten sagen auf Fidics Global Leadership Forum, dass die Arbeit mit KI unerlässlich ist
Und das ist nicht alles. Die Technologie, die diesen Produkten zugrunde liegt, sogenannte Large Language Models (LLMs), ist auch zur Basistechnologie vieler Lösungen in verschiedenen Branchen geworden. Von autonom fahrenden Fahrzeugen bis hin zu medizinischen Lösungen sind viele auf generative KI-LLMs angewiesen, um zu funktionieren.
Es gibt immer noch beunruhigende Stimmen
Zahlreiche Menschen fordern internationale Richtlinien zur Kontrolle der Weiterentwicklung und Anwendung von KI. So fordert etwa die in New York ansässige Bewegung „Ban the Scan“ ein Ende der Gesichtserkennung auf staatlicher und privater Ebene.
Sie argumentieren, dass diese Technologien die persönliche Freiheit beeinträchtigen und eine hohe Rate an Fehlalarmen aufweisen. Auf einer Seite der Electronic Frontier Foundation heißt es:
„Gesichtserkennung ist eine Bedrohung für die Privatsphäre, die Rassengerechtigkeit, die freie Meinungsäußerung und die Informationssicherheit. Gesichtserkennung in all ihren Formen, einschließlich Gesichtsscans und Echtzeit-Tracking, stellt eine Bedrohung für die bürgerlichen Freiheiten und die Privatsphäre des Einzelnen dar.“
Sie sind nicht die einzigen. Menschenrechtsaktivisten, Regierungen und Kritiker haben gewarnt, dass KI auf vielfältige Weise missbraucht werden kann. So können nichtstaatliche Akteure sie beispielsweise nutzen, um Wähler mit erfundenen Nachrichten oder sogenannten „Deepfake“-Bildern und -Videos von gewählten Amtsträgern zu beeinflussen. Ein weiterer Grund zur Sorge sind Berichte, wonach Staaten abtrünnige Elemente aus Eigeninteresse unterstützen.
„Wir werden auch die nächsten Schritte zur Ausgestaltung globaler Standards unternehmen, um einen Wettlauf nach unten zu verhindern.“
Der Artikel des Duos erwähnte die obige Aussage und betonte, dass es hilfreich wäre, internationale Normen für KI in einem offeneren Forum zu diskutieren. Gleichzeitig kritisierten einige südkoreanische Bürgerrechtsorganisationen die Organisatoren, weil sie nicht genügend Entwicklungsländer eingeladen hätten.
In Frankreich wird diese Woche auch eine „Viva Technology“-Konferenz abgehalten, die von LVMH, dem weltgrößten Luxuskonzern, unterstützt wird. Im vergangenen Jahr hat Frankreich versucht, KI-Startups anzuziehen, um sich als europäischer KI-Champion zu positionieren.
Cryptopolitan-Berichterstattung von Aamir Sheikh