Cover Image

Tether-CEO Paolo Ardoino warnte kürzlich im sozialen Netzwerk X vor den Fallstricken zentralisierter großer Sprachmodelle (LLMs).

Ardoino verwies auf die Berichte über OpenAI, das führende Unternehmen für generative KI, bei dem es Anfang 2023 zu einer schwerwiegenden Sicherheitsverletzung kam, und bezeichnete den Vorfall als „beängstigend“.

Einem aktuellen Bericht der New York Times zufolge hat sich OpenAI dazu entschieden, den Verstoß nicht offenzulegen, obwohl dadurch vertrauliche Informationen offengelegt wurden.

Karte

Der ehemalige OpenAI-Forscher Leopold Aschenbrenner kritisierte das Unternehmen für seine unzureichenden Sicherheitsmaßnahmen, die es anfällig für böswillige Akteure mit Verbindungen zu ausländischen Regierungen machen könnten. Aschenbrenner behauptete, der KI-Chef habe sich aus politischen Gründen dazu entschieden, die Verbindung zu ihm abzubrechen. Das Unternehmen bestritt jedoch, dass der oben genannte Vorfall der Grund für die Entlassung des Forschers gewesen sei, und fügte hinzu, dass der Verstoß bereits vor seiner Einstellung bei OpenAI bekannt geworden sei.

Dennoch gibt es einige Bedenken, dass die Geheimnisse von OpenAI in die Hände Chinas gelangen könnten, obwohl das Unternehmen behauptet, dass von seiner aktuellen Technologie keine Risiken für die nationale Sicherheit ausgehen.

Karte

Abgesehen von Sicherheitsvorfällen werden zentralisierte KI-Modelle auch wegen unethischer Datennutzung und Zensur kritisiert. Der Tether-Chef glaubt, dass die Entfesselung der Leistungsfähigkeit lokaler KI-Modelle „der einzige Weg“ ist, um Datenschutzbedenken auszuräumen und gleichzeitig Widerstandsfähigkeit und Unabhängigkeit zu gewährleisten.

„Lokal ausführbare KI-Modelle sind die einzige Möglichkeit, die Privatsphäre der Menschen zu schützen und Widerstandsfähigkeit/Unabhängigkeit zu gewährleisten“, sagte Ardoino in einem Beitrag im sozialen Netzwerk X.

Er fügte hinzu, dass moderne Smartphones und Laptops leistungsstark genug seien, um allgemeine LLMs zu optimieren.