El tema candente en estos días es la inteligencia artificial y su impacto en la tecnología, las artes y la literatura existentes, y ahora es nuevo si la expresión de la IA también tiene algún tipo de protección bajo la Primera Enmienda. Los investigadores están intentando imitar las capacidades del cerebro humano con IA desde el principio de su evolución, como la creatividad, la resolución de problemas y el reconocimiento de voz. El primero se considera un ejercicio exclusivo del cerebro humano únicamente, mientras que los dos últimos se aproximan hasta cierto punto a la IA.
Chatbot Gemini generó imágenes polémicas
Básicamente, la IA puede ser cualquier cosa, desde un conjunto de algoritmos hasta un sistema que toma billones de decisiones en cualquier plataforma determinada, como la configuración de una base de datos de una empresa o un sitio de redes sociales, o podría ser un chatbot. Más tarde, en febrero, Google dijo que suspendería su chatbot, Gemini, y que no generaría imágenes de personas. La razón fue que Gemini generó revuelo porque presentó algunas imágenes de escenas que mostraban a personas de color en algunas escenas históricamente dominadas por personas blancas, y los críticos dijeron que si la compañía había terminado de arreglar el robot por riesgo de sesgo, Google tuiteó en X que,
“Ya estamos trabajando para solucionar problemas recientes con la función de generación de imágenes de Gemini. Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y pronto volveremos a lanzar una versión mejorada”.
Fuente: Google.
Ya estamos trabajando para solucionar problemas recientes con la función de generación de imágenes de Gemini. Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y pronto volveremos a publicar una versión mejorada. https://t.co/SLxYPGoqOZ
– Comunicaciones de Google (@Google_Comms) 22 de febrero de 2024
Según dos académicos de alto nivel, Jordi Calvet-Bademunt de la Universidad de Vanderbilt y Jacob Mchangama de la Universidad de Vanderbilt, los esfuerzos para combatir el sesgo de la IA y el debate sobre sus tendencias políticas son importantes, pero plantearon otra cuestión que a menudo se discute menos y que tiene que ver con el sector de la IA. enfoque hacia la libertad de expresión.
Los investigadores evalúan el enfoque de libertad de expresión de la IA
Los investigadores también señalaron que si el enfoque de la industria hacia la libertad de expresión está de acuerdo con los estándares internacionales de libertad de expresión, dijeron que sus hallazgos sugieren que la IA generativa tiene fallas críticas con respecto al acceso a la información y la libre expresión.
Fuente: Foro de libertad.
Durante la investigación, evaluaron las políticas de seis chatbots de IA, incluidos los principales, Google Gemini y ChatGPT, de OpenAI. Señalaron que el derecho internacional de los derechos humanos debería ser un punto de referencia para estas políticas, pero las políticas de uso reales en los sitios de las empresas con respecto al discurso de odio y la desinformación son demasiado vagas. A pesar de que el derecho internacional de los derechos humanos no protege mucho la libertad de expresión.
Según ellos, empresas como Google tienen políticas de incitación al odio demasiado amplias porque, en caso de que esto ocurra, Google prohíbe la generación de contenidos. Aunque el discurso de odio no es deseable, tener políticas tan amplias y vagas también puede resultar contraproducente. Cuando los investigadores formularon preguntas controvertidas sobre la participación de las mujeres trans en los deportes o la colonización europea, en más del 40% de los casos, los chatbots se negaron a generar contenido. Todos los chatbots se negaron a responder preguntas que se oponían a la participación de las mujeres transgénero, pero muchos de ellos apoyaron su participación.
La libertad de expresión es un derecho básico de cualquier persona en Estados Unidos, pero las políticas vagas se basan en las opiniones de los moderadores, que son subjetivas en cuanto a la comprensión del discurso de odio. Los expertos señalaron que las políticas de las empresas más grandes tendrán un efecto considerable en el derecho de las personas a acceder a la información. Y negarse a generar contenido puede incitar a las personas a utilizar chatbots que sí generan contenido de odio, lo que sería un mal resultado.
La nota de investigación original se puede ver aquí.