Der CEO der Blockchain-Plattform Tether, Paolo Ardoino, behauptet, dass Menschen und Privatsphäre nur geschützt werden könnten, wenn Modelle künstlicher Intelligenz (KI) lokalisiert würden.

Ardoino sagte, dass lokal ausführbare KI-Modelle auch die Widerstandsfähigkeit und Unabhängigkeit der Modelle sicherstellen werden.

Er verwies auf die neuesten Technologien, die den Benutzern zur Verfügung stehen, wie Smartphones und Laptops, und sagte, dass diese über genügend Leistung verfügten, um „allgemeine Large Language Models (LLMs) mit den eigenen Daten des Benutzers zu optimieren und dabei lokale Verbesserungen auf dem Gerät beizubehalten.“

Der X-Beitrag endete mit „WIP“, dem gängigen Akronym für „Work in Progress“.

Im Gespräch mit Cointelegraph sagte Ardoino, dass lokal ausführbare KI-Modelle einen „Paradigmenwechsel“ in Bezug auf die Privatsphäre und Unabhängigkeit der Benutzer darstellten.

„Da diese Modelle direkt auf dem Gerät des Benutzers laufen, sei es ein Smartphone oder ein Laptop, sind keine Server von Drittanbietern mehr nötig. Dies stellt nicht nur sicher, dass die Daten lokal bleiben, was die Sicherheit und Privatsphäre verbessert, sondern ermöglicht auch die Offline-Nutzung.“

Dadurch könnten die Benutzer „leistungsstarke KI-gestützte Erfahrungen und Datenanalysen“ genießen und gleichzeitig die vollständige Kontrolle über ihre Informationen behalten.

Tether hat kürzlich seine Expansion in den Bereich KI angekündigt, woraufhin Ardoino mitteilte, dass sie die Integration lokal ausführbarer Modelle in ihre KI-Lösungen „aktiv prüfen“.

Dies erfolgt als Reaktion auf eine kürzliche Ankündigung eines Hackerangriffs auf den KI-Entwickler OpenAI, den Kopf hinter dem beliebten Chatbot ChatGPT.

Berichten zufolge verschaffte sich ein Hacker Anfang 2023 Zugriff auf die internen Nachrichtensysteme von OpenAI. Durch diesen Zugriff gelang es ihm, Details des KI-Designs des Unternehmens zu kompromittieren.

Die beiden mit der Angelegenheit vertrauten Quellen sagten, der Hacker habe Details aus vertraulichen Diskussionen zwischen OpenAI-Mitarbeitern über die Technologien des Unternehmens gestohlen.

Verwandte Themen: Big Tech steht vor einer finanziellen Abrechnung, wenn es nicht bald zu einer KI auf menschlichem Niveau kommt

Darüber hinaus erlebten die Benutzer von ChatGPT einen Weckruf, als bekannt wurde, dass die Gespräche der Benutzer auf macOS nicht verschlüsselt, sondern in Klartextdateien gespeichert waren.

Dies geschieht kurz nach der Ankündigung von Apples Integration von ChatGPT in seine neue „Apple Intelligence“-Reihe KI-gestützter Produkte und Dienste.

Das Problem wurde Berichten zufolge bereits behoben, obwohl sich die Community immer noch fragt, warum es überhaupt aufgetreten ist. Einige Hypothesen gehen davon aus, dass OpenAI problemlos auf die Chatprotokolle zugreifen könnte, um ChatGPT weiterzuentwickeln und zu trainieren.

OpenAI ist neben Google, Meta und Microsoft einer der größten KI-Entwickler, die derzeit hochrangige KI-Modelle veröffentlichen. Branchenanalysten und sogar Regierungen auf der ganzen Welt sind besorgt darüber, was ein Big-Tech-Monopol bei KI-Modellen für die Benutzer in Bezug auf Datenschutz und Datenkontrolle bedeuten könnte.

Viele forderten sogar eine Dezentralisierung der KI. Initiativen wie 6079 fordern ausdrücklich, die Dominanz der großen Technologieunternehmen in der KI-Branche in Frage zu stellen, um eine gerechtere Zukunft zu schaffen.

Magazin: „Raider“-Investoren plündern DAOs – Nouns und Aragon teilen ihre Erfahrungen