L’essor de l’intelligence artificielle (IA) a été phénoménal. Du ChatGPT d’OpenAI aux grandes entreprises comme Apple qui ont pris le train en marche, nous vivons apparemment l’âge d’or de l’IA. Il convient toutefois de noter qu’« un grand pouvoir implique de grandes responsabilités », un message essentiel transmis par plusieurs films de Spider-Man.
L’essor de l’IA devrait entraîner des risques potentiels importants pour les populations du monde entier. Par conséquent, des leaders du secteur comme Elon Musk et Vitalik Buterin se sont exprimés très ouvertement sur la réglementation de l’IA pour contrer ces risques mondiaux. Elon Musk, qui dirige également une société d’IA connue sous le nom de X.AI Corp., croit au potentiel de cette technologie et plaide en faveur d’une réglementation du secteur.
Nécessité d’une réglementation de l’IA
La Californie a élaboré un projet de loi sur la sécurité de l'IA, le SB 1047, pour contrer les risques et les dangers de l'intelligence artificielle. Il semblerait que ce projet de loi, s'il est adopté, rendrait les développeurs, qui investissent plus de 100 millions de dollars pour développer un modèle d'IA, plus responsables de celui-ci. Ces développeurs devront suivre de manière responsable certaines mesures, comme les tests de sécurité de leurs modèles.
C'est une décision difficile et cela va contrarier certaines personnes, mais, tout bien considéré, je pense que la Californie devrait probablement adopter le projet de loi SB 1047 sur la sécurité de l'IA. Depuis plus de 20 ans, je suis un défenseur de la réglementation de l'IA, tout comme nous réglementons tout produit/technologie qui présente un risque potentiel…
— Elon Musk (@elonmusk) 26 août 2024
En réaction à cette évolution, le PDG de Tesla, Elon Musk, a tweeté que le projet de loi SB 1047 devrait être adopté par la Californie. Bien que Musk ait mentionné que ses réflexions pourraient contrarier certaines personnes, il plaide en faveur d'une réglementation de l'IA depuis plus de 20 ans. Le milliardaire pense que le secteur de l'IA devrait être réglementé au même titre que d'autres secteurs liés à la technologie pour éviter les risques potentiels.
Les inquiétudes de Vitalik Buterin
En commentant le tweet de Musk, le fondateur d'Ethereum (ETH) Vitalik Buterin a également évoqué la nécessité de ces réglementations sur le domaine de l'IA. Mais il a également soulevé des inquiétudes quant à l'efficacité de ces projets de loi ou projets. Buterin s'est demandé si le projet de loi SB 1047 serait utilisé pour s'attaquer aux modèles de pondération ouverts, aux modèles pré-entraînés proposés pour un développement ultérieur.
Quelle est la meilleure preuve que le projet de loi sera utilisé pour s'attaquer aux poids ouverts ? Je sais que les versions précédentes du projet de loi comportaient une exigence de fermeture totale qui est incompatible avec les poids ouverts, mais elle a été supprimée. Et je sais que certaines personnes travaillant sur la sécurité de l'IA ont exprimé leur soutien à…
— vitalik.eth (@VitalikButerin) 27 août 2024
Le fondateur d’Ethereum s’est déclaré favorable à la catégorie « dommage critique » du projet de loi. Il a déclaré qu’une lecture charitable du projet de loi SB 1047 indiquait que l’objectif était de mettre en place une procédure de test de sécurité. Par conséquent, si les développeurs ou les entreprises découvrent des « capacités/comportements menaçant le monde » dans leurs modèles, ils ne seront pas autorisés à les lancer.