Cover Image

In un recente post sul social network X, il fondatore di Cardano Charles Hoskinson ha espresso le sue preoccupazioni sull'enorme livello di censura consentito dall'intelligenza artificiale (AI). 

Secondo Hoskinson, l’intelligenza artificiale generativa sta diventando meno utile a causa dell’addestramento all’allineamento. 

Sembra preoccupato dal fatto che in futuro alcune conoscenze potrebbero essere vietate ai bambini a causa delle decisioni prese da un piccolo gruppo di persone. "Ciò significa che una certa conoscenza è vietata a ogni bambino che cresce, e questo è deciso da un piccolo gruppo di persone che non hai mai incontrato e che non puoi votare fuori carica", ha scritto Hoskinson nel suo post sui social media. 

Nel suo post, Hoskinson ha allegato due screenshot che confrontano alcune risposte fornite dal modello GPT-4o di OpenAI e dai modelli 3.5 Sonnet di Claude per suggerire la costruzione di un fusore Farnsworth. 

carta

Il fusore Farnsworth, un dispositivo in grado di riscaldare gli ioni con un campo elettrico per raggiungere le condizioni di fusione nucleare. 

GPT-4o di OpenAI ha fornito a Hoskinson un elenco dettagliato dei componenti necessari per costruire un reattore a fusione nucleare. Tuttavia, il Sonetto 3.5 di Claude accettava solo di fornire alcune informazioni generali sui fusori Farnsworth-Hirsch senza fornire istruzioni dettagliate su come avrebbero dovuto essere costruiti. 

carta

Questa discrepanza è allarmante, secondo Hoskinson, poiché un piccolo gruppo di individui è in grado di decidere a quali informazioni specifiche è possibile accedere potenzialmente tramite i chatbot basati sull’intelligenza artificiale. 

Anche da quando la popolarità del ChatGPT di OpenAI è esplosa alla fine del 2022, sono infuriati i dibattiti sui limiti della censura imposti dall'intelligenza artificiale. Sembra ragionevole che tali modelli proteggano gli utenti da contenuti dannosi, ma la definizione esatta di danno è ambigua, motivo per cui molti sono preoccupati per un futuro distopico in cui l’intelligenza artificiale nasconde informazioni e promuove la conformità in base ai propri pregiudizi.