O governo da Irlanda pediu a opinião pública sobre a implementação da Lei de Inteligência Artificial da União Europeia. A Lei de IA da UE foi oficialmente adotada em 21 de maio.
Dara Calleary, Ministra de Estado da Promoção Comercial, Regulamentação Digital e Empresarial da Irlanda, pediu a opinião do público e das empresas sobre inteligência artificial. As leis foram introduzidas após um processo de anos para governar a IA e proteger as pessoas dos riscos que a tecnologia possa representar.
Governo irlandês busca opinião pública
A UE disse que quer promover a inovação. As regras adotadas apoiarão a decisão, equilibrando a promoção da inovação e a proteção dos direitos dos cidadãos. Ferramentas de IA consideradas perigosas para as pessoas não serão permitidas.
Leia também: Lei de IA da Europa obtém aprovação final com multas de até US$ 38 milhões
Por outro lado, os fabricantes das ferramentas classificadas como de alto risco estarão sujeitos à realização de uma avaliação de risco. Isso é para garantir que suas ferramentas sejam seguras e cumpram a lei antes de serem apresentadas ao público. Calleary disse em um comunicado que,
“Queremos opiniões sobre como a lei pode funcionar com os mercados, serviços e infraestruturas digitais existentes e considerar como pode melhorar a posição da Irlanda como uma economia digital líder.” Fonte.
A Lei de IA da UE impõe proibições estritas ao uso de inteligência artificial para policiamento prognóstico. Também proíbe sistemas de IA que possam ser usados para deduzir a orientação sexual, raça ou religião de um indivíduo.
As empresas terão mais peso na conformidade
O Departamento de Empresas, Comércio e Emprego da Irlanda é responsável pela implementação da Lei AI. As restrições aos sistemas de IA proibidos devem entrar em vigor no prazo de seis meses, e as sanções e medidas de execução devem ser aplicadas no prazo de doze meses.
Vista aérea do Parlamento Europeu em Bruxelas. Fonte.
A Lei da UE sobre IA traz obrigações significativas para as empresas, especialmente as pequenas e médias (PME). As empresas têm agora de cumprir diretrizes rigorosas sobre gestão de riscos, monitorização e transparência dos sistemas de IA. O Ministro de Estado Calleary disse:
“Nossa estratégia nacional de IA defende o uso de IA por meio de uma abordagem ética e centrada nas pessoas para seu desenvolvimento, adoção e uso.”
Os requisitos regulamentares podem sobrecarregar significativamente as pequenas empresas, uma vez que podem não ter recursos de implementação. As PME terão de cumprir requisitos abrangentes e estabelecer sistemas eficazes de gestão de riscos. Terão também de tomar outras medidas, como medidas de supervisão humana e a cibersegurança dos sistemas.
Os requisitos de conformidade incluem extensa documentação, relatórios e fornecimento dos aspectos técnicos dos modelos de IA. Juntos, todos estes fatores podem constituir um fardo administrativo para as pequenas empresas.
Governo avalia abordagens de implementação para lei de IA
O Departamento de Empresas, Comércio e Emprego está a avaliar abordagens alternativas para a implementação da Lei. O governo disse que o exercício visa determinar a estrutura nacional ideal para a aplicação eficaz das disposições da Lei.
Calleary disse que o cronograma ambicioso para a implementação das regras exige uma abordagem coletiva e encorajaria todas as partes a participarem nesta consulta pública sobre IA.
Leia também: Lei de IA da UE enfrenta reação negativa das partes interessadas da indústria de tecnologia
A lei prevê algumas isenções para aplicações de segurança nacional, modelos de código aberto para uso pessoal, P&D científico, defesa e pesquisa de sistemas de IA. Cada estado membro é obrigado a estabelecer um Sandbox Regulatório para IA no prazo de 24 meses para apoiar a inovação.
A lei foi aprovada em março deste ano. No dia seguinte à sua aprovação, a Comissão Europeia pediu ao Google, Bing, TikTok, Facebook, Snapchat, YouTube e X que fornecessem detalhes sobre como estão a lidar com os riscos da IA generativa.
Reportagem criptopolitana de Aamir Sheikh