Cover Image

Billy Markus, conosciuto sui social media come Shibetoshi Nakamoto, ha sollevato alcune serie domande sul futuro dell’intelligenza generale artificiale (AGI). Negli ultimi tempi il fondatore di Dogecoin (DOGE) ha condiviso attivamente la sua posizione sull'intelligenza artificiale (AI).

Tuttavia, questa volta ha parlato di AGI. L’AGI è un campo dell’intelligenza artificiale che si basa sulla ricerca teorica in quanto mira a sviluppare strumenti di autoapprendimento. Questi strumenti hanno la funzione primaria di possedere un'intelligenza simile a quella umana. In particolare, gli strumenti basati su AGI vengono sviluppati per svolgere compiti per i quali non sono stati necessariamente creati.

L’intelligenza artificiale è rimasta un argomento di tendenza negli ultimi due anni e l’AGI è emerso come uno dei suoi campi più caldi. Saltando sul carro, Billy Markus ha posto una domanda interessante ma importante sul suo account X.

è più ottimista, più preoccupato o più dubbioso sull'AGI nei prossimi 10 anni?

— Shibetoshi Nakamoto (@BillyM2k) 1 luglio 2024

Il fondatore di Dogecoin ha chiesto ai suoi follower cosa pensano dell'AGI. Ha chiesto loro se sono ottimisti, preoccupati o dubbiosi sul ruolo dell'AGI nei prossimi 10 anni. Ciò avviene in quanto molti hanno espresso preoccupazione per il progresso dell'AGI, poiché temono che potrebbe mettere milioni di persone senza lavoro.

Impatti importanti

Markus ha già sollevato alcune serie preoccupazioni sul futuro dell'intelligenza artificiale. A maggio, ha affermato che l’intelligenza artificiale porterà alcuni seri cambiamenti in diversi settori. Ad esempio, ha spiegato che i motori di ricerca web integreranno l’intelligenza artificiale e questo alla fine si tradurrebbe in una diminuzione delle visite al sito web. Inoltre, ha previsto che le aziende che si affidano ai motori di ricerca falliranno.

Il fondatore di DOGE ha sollevato anche alcune preoccupazioni etiche. Ha affermato che gli strumenti di intelligenza artificiale verranno addestrati da commenti casuali di individui casuali e non da esperti del settore. Di conseguenza, Markus sembra essere preoccupato per il progresso dell’intelligenza artificiale e dei suoi sottocampi, come l’AGI.