Dans un avenir proche, les utilisateurs d’applications d’IA générative pourraient trouver des étiquettes indiquant clairement comment l’IA doit être utilisée, les risques associés et son processus de test. Suite à de nouvelles directives, les étiquettes seront rendues obligatoires pour rendre la technologie plus facile à comprendre pour le grand public.

A lire aussi : L’Union européenne (UE) prend la tête de la réglementation sur l’IA

La ministre des Communications et de l'Information de Singapour, Mme Josephine Teo, a déclaré que la nouvelle mesure constitue un effort visant à définir une norme de transparence et de tests pour les entreprises technologiques. Elle s'exprimait lors de la conférence technique sur la protection des données personnelles le 15 juillet, selon un rapport du Strait Times. 

Les développeurs d’applications d’IA doivent être transparents sur leurs innovations

À l’instar de la pratique selon laquelle les médicaments ou les appareils électroménagers portent des étiquettes de sécurité, dans la même pratique, les développeurs d’applications d’IA générative doivent informer clairement les utilisateurs sur l’utilisation et le développement des modèles d’IA. Mme Teo, qui est également ministre en charge de l'initiative Smart Nation et de la cybersécurité, a déclaré :

"Nous recommanderons aux développeurs et aux déployeurs d'être transparents envers les utilisateurs en fournissant des informations sur le fonctionnement des modèles et des applications d'IA générative."

Expliquant les règles à venir, le ministre a déclaré qu'elles sont les mêmes que lorsqu'un utilisateur ouvre une « boîte de médicaments en vente libre ». Ils trouvent une feuille de papier qui indique clairement comment le médicament doit être utilisé et les éventuels « effets secondaires auxquels vous pourriez être confronté ».

Teo a affirmé que « ce niveau de transparence » est nécessaire pour les systèmes d’IA construits sur une intelligence artificielle générative. Le nouvel ensemble de règles définira des critères de sécurité qui devraient être mis en pratique avant qu'un modèle d'IA ne soit mis à la disposition du public. 

Un guide sur l’anonymisation des données devrait être publié en 2025

L'intelligence artificielle générative est un genre d'IA capable de générer de nouveaux textes et images et qui n'est pas aussi prévisible que l'IA traditionnelle. Selon les nouvelles directives, les créateurs devront mentionner les risques de diffusion de mensonges, de commentaires hostiles et de récits biaisés dans le contenu.

Teo a déclaré que les appareils électroménagers sont livrés avec des étiquettes indiquant clairement que l'article est testé pour une utilisation sûre ; sinon, un client ne saura pas si l’appareil est sûr ou non. La même chose sera pratiquée pour les applications d’IA. L’Infocomm Media Development Authority (IMDA) de Singapour entamera une consultation avec l’industrie sur les nouvelles règles. Cependant, Teo n'a pas mentionné de date pour les lignes directrices.

L'IMDA a également publié un guide sur les questions technologiques liées à la confidentialité, qui répondra à la demande croissante de données pour former des modèles d'IA tout en protégeant la vie privée des utilisateurs, a déclaré Teo.

A lire aussi : Table ronde démocrate pour accueillir Mark Cuban et Brad Garlinghouse pour discuter de la réglementation cryptographique

Denise Wong, directrice générale adjointe de l'IMDA, a déclaré : « Assurer la sécurité des données dans l'IA générative est plus difficile pour l'industrie. Elle a donné son point de vue lors d'une table ronde distincte sur l'IA et la confidentialité des données au cours de l'événement. Des représentants de différentes entreprises technologiques faisaient partie du panel, notamment le fabricant de ChatGPT OpenAI et la société de conseil Accenture. 

Des garde-fous en matière de protection des données devraient être en place à toutes les étapes du développement et du déploiement de l’IA, a déclaré Jessica Gan Lee, responsable juridique de la confidentialité d’OpenAI. Elle a déclaré que les modèles d’IA devraient être formés sur divers ensembles de données provenant « de tous les coins du monde ». Lee a souligné que plusieurs cultures, langues et sources devraient être incluses dans la formation en IA, tout en trouvant des moyens de limiter le traitement des données personnelles.

Teo a déclaré qu'un guide sur l'anonymisation des données serait introduit pour les entreprises opérant dans l'ASEAN au début de 2025. Ce guide résultera d'une réunion de février entre les responsables régionaux qui ont exploré les moyens de créer un écosystème numérique mondial sécurisé.