Le PDG de la plateforme blockchain Tether, Paolo Ardoino, affirme que ce n'est que si les modèles d'intelligence artificielle (IA) sont localisés que les personnes et la vie privée seront protégées. 

Ardoino a déclaré que les modèles d'IA exécutables localement garantiront également la résilience et l'indépendance des modèles.

Il a souligné les dernières technologies disponibles pour les utilisateurs, telles que les smartphones et les ordinateurs portables, affirmant qu'elles contiennent suffisamment de puissance pour « affiner les grands modèles de langage généraux (LLM) avec les propres données de l'utilisateur, en préservant les améliorations localement sur l'appareil ».

Le message X se terminait par « WIP », l'acronyme courant de « travail en cours ».

S'adressant à Cointelegraph, Ardoino a déclaré que les modèles d'IA exécutables localement représentent un « changement de paradigme » en matière de confidentialité et d'indépendance des utilisateurs.

« En fonctionnant directement sur l’appareil de l’utilisateur, qu’il s’agisse d’un smartphone ou d’un ordinateur portable, ces modèles éliminent le besoin de serveurs tiers. Cela garantit non seulement que les données restent locales, améliorant ainsi la sécurité et la confidentialité, mais permet également une utilisation hors ligne.

Il a déclaré que cela permet aux utilisateurs de profiter de « puissantes expériences et analyses de données basées sur l’IA » tout en conservant un contrôle total sur leurs informations.

Tether a récemment annoncé son expansion dans l'IA, ce à quoi Ardoino a déclaré qu'il « explorait activement » l'intégration de modèles exécutables localement dans ses solutions d'IA.

Cela fait suite à une annonce récente d'un piratage subi par le développeur d'IA OpenAI, le cerveau derrière le chatbot populaire ChatGPT.

Selon certaines informations, début 2023, un pirate informatique aurait récupéré l’accès aux systèmes de messagerie internes d’OpenAI. Grâce à cet accès, ils ont pu compromettre des détails de la conception de l'IA de l'entreprise.

Les deux sources proches du dossier ont déclaré que le pirate informatique avait volé des détails lors de discussions sensibles entre les employés d’OpenAI concernant les technologies de l’entreprise.

Related: Big Tech fait face à des comptes financiers si l’IA au niveau humain n’arrive pas bientôt

De plus, les utilisateurs de ChatGPT allaient se réveiller après avoir révélé que les conversations des utilisateurs sur macOS n'étaient pas cryptées mais plutôt stockées dans des fichiers en texte brut. 

Cela intervient peu de temps après l’annonce de l’intégration par Apple de ChatGPT avec sa nouvelle gamme « Apple Intelligence » de produits et services basés sur l’IA.

Le problème aurait déjà été résolu, même si la communauté se demande toujours pourquoi cela s'est produit en premier lieu. Certaines hypothèses ont été qu'il serait facile pour OpenAI d'accéder aux journaux de discussion pour développer et former davantage ChatGPT.

OpenAI fait partie des principaux développeurs d'IA qui publient actuellement des modèles d'IA de haut niveau, aux côtés de Google, Meta et Microsoft. Les analystes du secteur, et même les gouvernements du monde entier, s’inquiètent des conséquences possibles d’un monopole des grandes technologies sur les modèles d’IA pour les utilisateurs en termes de confidentialité et de contrôle des données.

Beaucoup ont même appelé à la décentralisation de l’IA, avec des initiatives comme 6079 préconisant de contester explicitement la domination des Big Tech dans l’industrie de l’IA pour un avenir plus juste.

Magazine : Les investisseurs « Raider » pillent les DAO — Nouns et Aragon partagent les leçons apprises