A medida que avanza la inteligencia artificial, sus capacidades se utilizan cada vez más indebidamente, y algunas personas explotan la tecnología para estafar a los usuarios de criptomonedas. En respuesta a esta creciente amenaza, los legisladores estadounidenses han presentado un nuevo proyecto de ley para proteger a los ciudadanos de las falsificaciones generadas por IA.

El 12 de septiembre, las representantes Madeleine Dean y María Elvira Salazar presentaron la Ley Nurture Originals, Foster Art, and Keep Entertainment Safe (NO FAKES). La legislación tiene como objetivo proteger a los estadounidenses del abuso de la IA y abordar la propagación de deepfakes no autorizados generados por IA.

Fuente: Joe Morelle

En un comunicado de prensa, los legisladores estadounidenses dijeron que la Ley NO FAKES permitirá a las personas tomar medidas contra los actores maliciosos que creen, publiquen o se beneficien de copias digitales no autorizadas de ellos. Además, protegerá a las plataformas de medios de comunicación de la responsabilidad si eliminan materiales ofensivos.

El anuncio también afirmaba que la nueva ley protegería la innovación y la libertad de expresión. Sin embargo, no todos están convencidos de que esto sea lo que sucederá.

Receta para la censura privada

Corynne McSherry, directora legal de la Electronic Frontier Foundation, una organización sin fines de lucro centrada en los derechos digitales, cree que la Ley NO FAKES podría ser una “receta para la censura privada”.

En agosto, McSherry escribió que el proyecto de ley puede ser bueno para los abogados, pero sería una “pesadilla” para todos los demás. El profesional legal dijo que la Ley NO FAKES ofrece menos salvaguardas para la libertad de expresión que la Ley de Derechos de Autor del Milenio Digital (DMCA), que protege el material con derechos de autor.

El abogado dijo que la DMCA permite un proceso de contra notificación simple que las personas pueden usar para recuperar su trabajo. Sin embargo, el abogado dijo que NO FAKES requiere que alguien acuda a la corte dentro de los 14 días para defender sus derechos. McSherry explicó:

“Los poderosos tienen abogados contratados que pueden hacer eso, pero la mayoría de los creadores, activistas y periodistas ciudadanos no los tienen”.

El profesional legal agregó que si bien las falsificaciones de IA causan daños reales, estas fallas “condenan el proyecto de ley”.

Los estafadores de criptomonedas con inteligencia artificial aumentan sus operaciones

En el segundo trimestre de 2024, la empresa de software Gen Digital informó que los estafadores que utilizan deepfakes de IA han robado al menos 5 millones de dólares en criptomonedas. La empresa de seguridad instó a los usuarios a permanecer alertas, ya que la IA hace que las estafas sean más sofisticadas y convincentes.

Mientras tanto, la empresa de seguridad Web3 CertiK cree que los ataques impulsados ​​por IA se extenderán más allá del video y el audio y podrían apuntar a billeteras con reconocimiento facial.

Un portavoz de CertiK le dijo a Cointelegraph que las billeteras que usan esta función deben evaluar su preparación para los vectores de ataque de IA.

Revista: AI Eye: la apuesta de 1 millón de dólares a ChatGPT no conducirá a la IAG, el uso de la IA inteligente de Apple y el aumento de los millonarios de la IA