El director ejecutivo de la plataforma blockchain Tether, Paolo Ardoino, afirma que sólo si se localizan los modelos de inteligencia artificial (IA) se protegerán a las personas y la privacidad. 

Ardoino dijo que los modelos de IA ejecutables localmente también garantizarán la resiliencia e independencia de los modelos.

Señaló la última tecnología disponible para los usuarios, como teléfonos inteligentes y computadoras portátiles, y dijo que contienen suficiente potencia para "afinar los modelos generales de lenguaje grande (LLM) con los propios datos del usuario, preservando las mejoras localmente en el dispositivo".

La publicación X terminaba con "WIP", el acrónimo común de "trabajo en progreso".

En declaraciones a Cointelegraph, Ardoino dijo que los modelos de IA ejecutables localmente representan un "cambio de paradigma" en la privacidad e independencia del usuario.

“Al ejecutarse directamente en el dispositivo del usuario, ya sea un teléfono inteligente o una computadora portátil, estos modelos eliminan la necesidad de servidores de terceros. Esto no sólo garantiza que los datos permanezcan locales, mejorando la seguridad y la privacidad, sino que también permite su uso sin conexión”.

Dijo que esto permite a los usuarios disfrutar de "poderosas experiencias impulsadas por IA y análisis de datos" mientras mantienen un control total sobre su información.

Tether anunció recientemente su expansión hacia la IA, a lo que Ardoino dijo que están "explorando activamente" la integración de modelos ejecutables localmente en sus soluciones de IA.

Esto surge como respuesta a un anuncio reciente de un hack experimentado por el desarrollador de inteligencia artificial OpenAI, el cerebro detrás del popular chatbot ChatGPT.

Según los informes, a principios de 2023, un pirata informático recuperó el acceso a los sistemas de mensajería internos de OpenAI. A través de este acceso, pudieron comprometer detalles del diseño de IA de la empresa.

Las dos fuentes cercanas al asunto dijeron que el hacker robó detalles de discusiones delicadas entre empleados de OpenAI sobre las tecnologías de la empresa.

Relacionado: Las grandes empresas tecnológicas se enfrentan a un ajuste de cuentas financiero si la IA a nivel humano no llega pronto

Además, los usuarios de ChatGPT recibieron una llamada de atención después de que se reveló que las conversaciones de los usuarios en macOS no estaban cifradas sino almacenadas en archivos de texto sin formato. 

Esto se produce poco después del anuncio de la integración de ChatGPT por parte de Apple con su nueva línea “Apple Intelligence” de productos y servicios impulsados ​​por IA.

Según se informa, el problema ya se resolvió, aunque la comunidad todavía se pregunta por qué sucedió en primer lugar. Algunas hipótesis han sido que sería fácil para OpenAI acceder a los registros de chat para seguir desarrollando y entrenando ChatGPT.

OpenAI se encuentra entre uno de los principales desarrolladores de IA que actualmente lanzan modelos de IA de alto nivel, junto con Google, Meta y Microsoft. Los analistas de la industria, e incluso los gobiernos de todo el mundo, han estado preocupados por lo que podría significar para los usuarios un monopolio de las grandes tecnologías sobre los modelos de inteligencia artificial en términos de privacidad y control de datos.

Muchos incluso han pedido la descentralización de la IA, con iniciativas como 6079 que abogan por desafiar explícitamente el dominio de las grandes tecnologías en la industria de la IA para lograr un futuro más justo.

Revista: Los inversores 'Raider' están saqueando las DAO: Nouns y Aragon comparten las lecciones aprendidas