Dario Amodei, le PDG d'Anthropic, a récemment mentionné que les entreprises d'intelligence artificielle devraient être soumises à des exigences de test obligatoires. Cela s'applique également à sa propre entreprise, Anthropic. L'objectif est de s'assurer que ces technologies sont sûres pour le grand public avant leur mise sur le marché.

Amodei répondait à une question lors d'un sommet sur la sécurité de l'IA récemment tenu à San Francisco par les départements du Commerce et d'État des États-Unis. Dans sa réponse, le PDG a déclaré : « Je pense que nous devons absolument rendre les tests obligatoires, mais nous devons également être très prudents sur la manière dont nous le faisons. »

Ces remarques font suite à une publication des Instituts de sécurité de l'IA du Royaume-Uni et des États-Unis qui contiennent les résultats de leurs tests du modèle Claude 3.5 Sonnet d'Anthropic. Ces tests ont été réalisés dans diverses catégories, y compris les applications biologiques et de cybersécurité. Auparavant, OpenAI et Anthropic avaient convenu de soumettre leurs modèles aux agences gouvernementales.

Des entreprises majeures comme Anthropic suivent des lignes directrices de sécurité auto-imposées.

Amodei a mentionné que des entreprises majeures ont volontairement accepté certaines lignes directrices auto-imposées. Cela inclut le cadre de préparation d'OpenAI et la politique de mise à l'échelle responsable d'Anthropic. Cependant, il a ajouté que davantage de travail est nécessaire pour garantir la sécurité.

« Il n'y a rien de vraiment vérifiable ou d'assurant que les entreprises suivent vraiment ces plans dans leur lettre et leur esprit. Ils ont juste dit qu'ils le feraient », a déclaré Amodei. Il a également ajouté : « Je pense que l'attention du public et le fait que les employés se soucient ont créé une certaine pression, mais je pense finalement que ce ne sera pas suffisant. »

Amodei estime que les systèmes d'IA puissants ont la capacité de surpasser les humains les plus intelligents. Il pense également que de tels systèmes pourraient être disponibles d'ici 2026. Il ajoute que les entreprises d'IA testent encore certains dommages catastrophiques et menaces biologiques, dont aucune n'est actuellement réelle. Cependant, ces tests hypothétiques pourraient devenir une réalité beaucoup plus tôt.

Il a également averti que les exigences pour tester les systèmes d'IA devraient être flexibles, considérant le fait que la technologie évolue. Selon ses mots, c'est un « problème socio-politique » très difficile à résoudre.

Un système étape par étape pour lancer votre carrière Web3 et décrocher des emplois crypto bien rémunérés en 90 jours.