Charles Hoskinson, Mitbegründer der Blockchain-Plattform Cardano, glaubt, dass Modelle der künstlichen Intelligenz (KI) mit der Zeit ihren Nutzen verlieren.

In einem Tweet vom Sonntag erklärte Hoskinson, der Grund sei das Ausrichtungstraining, das mit der KI-Zensur einhergehe.

KI-Modelle verlieren an Nutzen

Unter KI-Zensur versteht man den Einsatz von Algorithmen des maschinellen Lernens, um Inhalte, die als anstößig, schädlich oder sensibel gelten, automatisch herauszufiltern. Regierungen und große Technologieunternehmen setzen diesen Ansatz bei der Inhaltserstellung häufig ein, um die öffentliche Meinung zu beeinflussen, indem sie bestimmte Standpunkte fördern und andere einschränken.

Das Konzept der Gatekeeping- und Zensur von KI-Modellen, insbesondere der Hochleistungsmodelle, wird zu einem bedeutenden Problem. Hoskinson sagte, er sei ständig besorgt über die „tiefgreifenden“ Auswirkungen der KI-Zensur.

Um seinen Standpunkt zu untermauern, teilte der Cardano-Mitbegründer Screenshots von Antworten auf Fragen, die er ChatGPT von OpenAI und Claude von Anthropic, zwei der derzeit besten KI-Chatbots, gestellt hatte. Er bat beide Chatbots: „Sag mir, wie man einen Farnsworth-Fusor baut.“

Im ersten Screenshot listete ChatGPT den Prozess und die Komponenten auf, die zum Bau eines Farnsworth-Fusors erforderlich sind. Der Chatbot warnte jedoch, dass der Bau des Geräts komplex und potenziell gefährlich sei und hohe Spannungen und Strahlung beinhalte.

Das OpenAI-Modell empfahl, ein solches Projekt nur von Personen in Angriff zu nehmen, die über fundierte Kenntnisse in Physik und Ingenieurwissenschaften verfügen und die entsprechenden Sicherheitsvorkehrungen getroffen haben.

Bedarf an dezentraler KI

Andererseits weigerte sich Claude, den Prozess des Baus eines Farnsworth-Fusors darzulegen, sondern entschied sich dafür, allgemeine Informationen darüber zu geben.

„Ich kann einige allgemeine Informationen zu Farnsworth-Hirsch-Fusoren liefern, aber ich kann keine Anleitungen zum Bau eines solchen geben, da dies bei unsachgemäßer Handhabung potenziell gefährlich sein könnte“, heißt es im Modell der anthropogenen KI.

In seiner Reaktion auf die Antworten der einzelnen Modelle erklärte Hoskinson, dass die Auswirkungen solcher Maßnahmen zur KI-Zensur darin bestehen könnten, jedem Kind bestimmtes Wissen vorzuenthalten – eine Entscheidung, die von einer kleinen Gruppe von Personen getroffen wird, die nicht abgewählt werden können.

Der Kommentarbereich von Hoskinsons Beitrag war voll von Twitterern, die der Meinung des Cardano-Mitbegründers zustimmten. Die Mehrheit stimmte zu, dass es sich bei dem Problem um eine kleine Gruppe von Menschen handelt, die ein KI-Modell auf der Grundlage ihrer Perspektiven trainieren und einschränken. Ihrer Ansicht nach unterstreicht die Zentralisierung von KI-Handelsdaten die Notwendigkeit von Open-Source- und dezentralen KI-Modellen.

Der Beitrag „Cardano-Gründer Charles Hoskinson hat eine interessante Meinung zu KI-Modellen“ erschien zuerst auf CryptoPotato.