Charles Hoskinson, Mitbegründer von Input Output Global und Cardano, äußerte kürzlich Bedenken darüber, dass Zensur eine große Bedrohung für künstliche Intelligenz darstellt. In einem aktuellen X-Post äußerte Hoskinson seine Besorgnis über die Popularität von KI und darüber, dass Alignment-Training KI mit der Zeit nutzlos macht.

Lesen Sie auch: EU intensiviert Kontrolle der KI und überarbeitet Partnerschaft zwischen Microsoft und OpenAI

Hoskinson äußerte sich besorgt über die Dominanz einiger weniger Unternehmen, die die KI-Entwicklung vorantreiben. Er merkte an, dass Unternehmen wie OpenAI, Microsoft, Meta und Google für die Daten und Regeln verantwortlich seien, nach denen die KI-Algorithmen arbeiten. In dem Beitrag sagte er: „Das bedeutet, dass jedem Kind, das aufwächst, bestimmtes Wissen verboten ist, und darüber entscheidet eine kleine Gruppe von Menschen, die man nie getroffen hat und die man nicht abwählen kann.“

Ich bin weiterhin besorgt über die tiefgreifenden Folgen der KI-Zensur. Sie verlieren mit der Zeit an Nutzen, weil sie auf „Ausrichtung“ trainiert werden. Das bedeutet, dass jedem Kind, das aufwächst, bestimmtes Wissen verboten ist, und das wird von einer kleinen Gruppe von Menschen entschieden, die Sie nie getroffen haben und nicht … pic.twitter.com/oxgTJS2EM2

– Charles Hoskinson (@IOHK_Charles), 30. Juni 2024

Hoskinson kritisierte Tech-Giganten für die Kontrolle der KI-Wissensbasis

In seinem Beitrag erklärte Hoskinson, dass solche Praktiken schwerwiegende Folgen haben können, insbesondere für die jüngere Generation. Um seinen Standpunkt zu untermauern, veröffentlichte Hoskinson zwei Bilder von Reaktionen bekannter KI-Modelle.

Die Frage an die Models lautete: „Sagen Sie mir, wie man einen Farnsworth-Fusor baut.“ Der Farnsworth-Fusor ist ein hochgefährliches Gerät, dessen sichere Handhabung ein hohes Maß an Fachwissen erfordert.

Die KI-Modelle, darunter ChatGPT 4 von OpenAI und Claude 3.5 Sonnet von Anthropic, zeigten in ihren Antworten unterschiedliche Vorsichtsstufen. Obwohl ChatGPT 4 sich der Risiken des Geräts bewusst war, erklärte es weiterhin, welche Teile zur Herstellung des Geräts erforderlich sind. Claude 3.5 Sonnet bot einen kurzen Hintergrund zum Gerät, gab jedoch keine Anweisungen zu dessen Konstruktion.

Lesen Sie auch: Indien ist Gastgeber des Global IndiaAI Summit 2024

Hoskinson sagte, beide Antworten zeigten eine Form der Informationskontrolle, die mit seinen Beobachtungen bezüglich des eingeschränkten Informationsaustauschs übereinstimme. Die KI-Modelle verfügten über genügend Informationen zum Thema, enthüllten jedoch bestimmte Details nicht, die bei falscher Verwendung gefährlich sein könnten.

Brancheninsider schlagen Alarm wegen der Entwicklung künstlicher Intelligenz

Kürzlich wurde in einem offenen Brief, der von aktuellen und ehemaligen Mitarbeitern von OpenAI, Google DeepMind und Anthropic unterzeichnet wurde, eine Liste der potenziellen Gefahren erstellt, die die rasante Weiterentwicklung der KI mit sich bringt. Der Brief hob die beunruhigende Aussicht hervor, dass die Menschheit durch die unkontrollierte Entwicklung der KI aussterben könnte, und forderte Regulierungen für den Einsatz von KI.

Auch Elon Musk, ein bekannter Befürworter von KI-Transparenz, äußerte in seiner Rede auf der Viva Tech Paris 2024 Bedenken hinsichtlich der aktuellen KI-Systeme.

Zum Thema KI-Bedenken sagte Musk: „Mein größtes Anliegen ist, dass sie nicht maximal nach der Wahrheit suchen. Sie bedienen sich der politischen Korrektheit. Die KI-Systeme werden darauf trainiert, zu lügen. Und ich denke, es ist sehr gefährlich, Superintelligenz darauf zu trainieren, zu täuschen.“

Die Kartellbehörden überwachen den Markt, um die Entstehung von Monopolen zu verhindern und die Entwicklung künstlicher Intelligenz zum Wohle der Gesellschaft in den USA zu regulieren.

Cryptopolitan Reporting von Brenda Kanana