Google ha publicado un informe de investigación sobre “Inteligencia artificial y privacidad de próxima generación” con muchas recomendaciones para proteger la privacidad en la era de la inteligencia artificial, al tiempo que promueve la aplicación de esta tecnología al servicio de los intereses sociales.

El fuerte desarrollo de la inteligencia artificial (IA) de nueva generación, especialmente de los grandes modelos lingüísticos, aporta grandes beneficios a la vida social, pero también plantea muchos nuevos desafíos en términos de protección de la privacidad. Plenamente consciente de ello, Google ha publicado un nuevo informe de investigación sobre "Inteligencia artificial y privacidad de nueva generación", proponiendo soluciones eficaces de protección de la privacidad para aplicaciones de IA y afirmando su compromiso de promover la aplicación de esta tecnología al servicio de los beneficios sociales.

El informe enfatiza la importancia de diseñar productos de inteligencia artificial con características de seguridad y proteger la privacidad del usuario desde el principio. Google hace recomendaciones sobre políticas apropiadas, lo que ayuda a abordar los problemas de privacidad y al mismo tiempo explota todo el potencial de la IA.

Google cree que aplicar los principios de privacidad desde la etapa de diseño (privacidad por diseño) es un factor clave en el desarrollo de la IA. En lugar de centrarse en superar los riesgos una vez desarrollada la IA, Google recomienda crear un marco integral, que incluya principios de seguridad y privacidad claramente establecidos durante todo el proceso de desarrollo e implementación de aplicaciones de IA.

Además, Google también mencionó dos etapas importantes en el proceso de desarrollo de la IA: capacitación y desarrollo, y aplicación para los usuarios. Durante la capacitación y el desarrollo, los datos personales, como nombres o información biográfica, constituyen solo una pequeña pero importante porción del conjunto de datos de capacitación del modelo. Estos datos ayudan al modelo de lenguaje a aprender cómo usar el lenguaje y comprender conceptos abstractos sobre la relación entre las personas y el mundo que las rodea.

Sin embargo, en la etapa de solicitud del usuario, los riesgos para la privacidad son mayores. Pueden ocurrir problemas como la filtración de datos personales y la pérdida de control sobre la información personal. Por lo tanto, Google recomienda centrarse en diseñar medidas de seguridad sólidas en esta etapa, incluidas funciones como el filtrado de salida y la eliminación automática de datos, para minimizar los riesgos latentes.

Google también afirma que la IA no sólo puede ayudar a reducir los riesgos de privacidad sino que también puede desempeñar un papel importante en la mejora de la seguridad de la información de los usuarios. Se están investigando y desarrollando tecnologías que mejoran la privacidad, como los datos sintéticos y la seguridad diferencial, que prometen aportar muchos beneficios a la sociedad sin tener que revelar información personal.

Google enfatiza el papel de la colaboración entre las partes interesadas para promover el desarrollo responsable de la IA y proteger la privacidad. Las políticas de privacidad deben ser flexibles, adaptarse a los avances tecnológicos y garantizar un equilibrio entre la protección de la privacidad y otros derechos fundamentales y objetivos sociales.

El informe de investigación de Google es un testimonio del interés y los esfuerzos de los desarrolladores de tecnología para resolver problemas de privacidad en la era de la inteligencia artificial. Con las soluciones y recomendaciones aportadas, Google espera contribuir a impulsar el desarrollo y la aplicación de la IA de forma responsable, aportando beneficios a la sociedad y protegiendo los derechos de los usuarios.