Autor: Tom Mitchelhill, CoinTelegraph; Compiler: Tao Zhu, Golden Finance

Der Gouverneur von Kalifornien, Gavin Newsom, hat sein Veto gegen einen umstrittenen Gesetzentwurf zur künstlichen Intelligenz (KI) eingelegt und argumentiert, dieser würde Innovationen behindern und die Öffentlichkeit nicht vor „echten“ Bedrohungen durch die Technologie schützen.

Am 30. September legte Newsom sein Veto gegen SB 1047 ein, den Safe Innovation for Frontier Artificial Intelligence Models Act, der im Silicon Valley auf heftigen Widerstand stieß.

Der Gesetzentwurf schlägt obligatorische Sicherheitstests von Modellen der künstlichen Intelligenz und anderen Leitplanken vor, von denen Technologieunternehmen befürchten, dass sie Innovationen behindern könnten.

Newsom sagte in einer Erklärung vom 29. September, dass sich der Gesetzentwurf zu sehr auf die Regulierung bestehender Spitzenunternehmen im Bereich der künstlichen Intelligenz konzentriere und die Öffentlichkeit nicht vor den „echten“ Bedrohungen durch neue Technologien schütze.

„Stattdessen schreibt der Gesetzentwurf selbst den grundlegendsten Funktionen strenge Standards vor – solange sie in großen Systemen eingesetzt werden. Ich glaube nicht, dass dies der beste Weg ist, die Öffentlichkeit vor den tatsächlichen Bedrohungen durch die Technologie zu schützen.“

SB 1047, verfasst von Senator Scott Wiener, D-San Francisco, verlangt außerdem von Entwicklern in Kalifornien – darunter große Namen wie der ChatGPT-Hersteller OpenAI, Meta und Google –, „Kill-Switches“ für ihre KI-Modelle zu implementieren und Pläne zur Minderung extremer Risiken zu veröffentlichen .

Sollte der Gesetzentwurf in Kraft treten, würden KI-Entwickler wahrscheinlich auch von den Generalstaatsanwälten verklagt, da weiterhin Bedrohungen durch Modelle wie die Übernahme von KI-Netzen bestehen.

Newsom sagte, er habe die weltweit führenden KI-Sicherheitsexperten gebeten, Kalifornien dabei zu helfen, „umsetzbare Leitplanken zu entwickeln“, wobei der Schwerpunkt auf der Erstellung einer „wissenschaftsbasierten Flugbahnanalyse“ liegt. Er fügte hinzu, dass er staatliche Behörden angewiesen habe, ihre Einschätzung des Risikos katastrophaler Ereignisse, die sich aus KI-Entwicklungen ergeben könnten, zu erweitern.

Obwohl Newsom sein Veto gegen SB 1047 einlegte, sagte er, dass für künstliche Intelligenz angemessene Sicherheitsprotokolle vorhanden sein müssten, und fügte hinzu, dass die Regulierungsbehörden nicht warten können, bis eine größere Katastrophe eintritt, um Maßnahmen zum Schutz der Öffentlichkeit zu ergreifen.

Newsom fügte hinzu, dass seine Regierung in den letzten 30 Tagen mehr als 18 Gesetzesentwürfe zur Regulierung künstlicher Intelligenz unterzeichnet habe.

Politiker und Big-Tech-Unternehmen lehnen Gesetz zur KI-Sicherheit ab

Vor Newsoms Entscheidung war der Gesetzentwurf bei Gesetzgebern, Beratern und großen Technologieunternehmen unpopulär.

Die Sprecherin des Repräsentantenhauses, Nancy Pelosi, und Unternehmen wie OpenAI sagen, dass dies die Entwicklung künstlicher Intelligenz erheblich behindern wird.

Neil Chilson, Leiter der KI-Politik beim Abundance Institute, warnte, dass sich der Gesetzentwurf zwar auf Modelle mit einem bestimmten Preis und Umfang konzentriert (Modelle, die mehr als 100 Millionen US-Dollar kosten), sein Anwendungsbereich jedoch problemlos auf kleinere Entwickler ausgeweitet werden könnte.

Doch einige stehen der Rechnung aufgeschlossen gegenüber. Der Milliardär Elon Musk, der sein eigenes Modell für künstliche Intelligenz namens „Grok“ entwickelt, ist einer der wenigen Technologieführer, die den Gesetzentwurf und umfassendere KI-Vorschriften unterstützen.

In einem Beitrag vom 26. August an