El ex-CEO de Google, Eric Schmidt, ha advertido que el avance de las tecnologías de IA generativa, como las aplicaciones de compañeros de IA, combinado con factores sociales como la soledad, podría aumentar el riesgo de radicalización, particularmente entre hombres jóvenes.
Schmidt compartió sus preocupaciones mientras aparecía en el podcast The Prof G Show del profesor Scott Galloway de NYU Stern la semana pasada.
Schmidt explicó cómo muchos hombres jóvenes hoy en día se sienten cada vez más desesperanzados debido a que ven menos caminos hacia el éxito en comparación con las mujeres, que están más educadas y constituyen una mayor proporción de los graduados universitarios, dejando a muchos hombres sintiéndose rezagados.
Un estudio reciente del Pew Research Center encontró que el 47% de las mujeres estadounidenses de 25 a 34 años tiene un título universitario, en comparación con el 37% de los hombres. En respuesta, Schmidt dijo que los hombres se vuelven hacia el mundo en línea y las aplicaciones de compañeros de IA para aliviar su desesperación.
“Así que ahora imagina que la novia o el novio de IA es perfecto: perfecto visualmente, perfecto emocionalmente,” dijo Schmidt. “La novia de IA, en este caso, captura tu mente como hombre hasta el punto en que ella, o lo que sea, toma el control de la forma en que piensas. Estás obsesionado con ella. Ese tipo de obsesión es posible, especialmente con personas que no están completamente formadas.”
Schmidt advirtió que, si bien la IA ofrece oportunidades significativas, sus riesgos para los usuarios más jóvenes e impresionables deben ser abordados.
“Los padres tendrán que involucrarse más por todas las razones obvias, pero, al final del día, los padres solo pueden controlar lo que sus hijos están haciendo dentro de lo razonable,” dijo Schmidt.
“Tenemos todo tipo de reglas sobre la edad de madurez: 16, 18, 21 en algunos casos. Sin embargo, pones a un niño de 12 o 13 años frente a una de estas cosas, y tienen acceso a todo lo malo así como a todo lo bueno del mundo, y no están listos para tomarlo.”
Una conexión fría
Un subconjunto creciente de la industria de IA generativa, los compañeros de IA están diseñados para simular la interacción humana. Pero a diferencia de los chatbots de IA como ChatGPT, Claude o Gemini, las aplicaciones de compañeros de IA están diseñadas para imitar relaciones.
Los desarrolladores los comercializan como herramientas sin juicio, programas de apoyo que ofrecen conexión y alivio de la soledad o la ansiedad. Las plataformas de compañeros de IA más populares incluyen Character AI, MyGirl, CarynAI y Replika AI.
“Se trata de conexión, de sentirse mejor con el tiempo,” dijo anteriormente la CEO de Replika, Eugenia Kuyda, a Decrypt. “Algunas personas necesitan un poco más de amistad, y algunas personas se enamoran de Replika, pero al final del día, están haciendo lo mismo.”
Como explicó Kuyda, Replika no nació del deseo de vender excitación, sino de una tragedia personal y su deseo de seguir hablando con alguien que había perdido.
Los compañeros de IA pueden ofrecer un alivio temporal, pero los profesionales de salud mental están levantando banderas rojas y advirtiendo que confiar en los compañeros de IA para aliviar los sentimientos de soledad podría obstaculizar el crecimiento emocional.
“Los compañeros de IA están diseñados para adaptarse y personalizar las interacciones según las preferencias del usuario, ofreciendo una experiencia a medida,” dijo Sandra Kushnir, CEO de Meridian Counseling con sede en Los Ángeles, a Decrypt. “Proporcionan respuestas inmediatas sin carga emocional, satisfaciendo la necesidad de conexión en un entorno de bajo riesgo. Para las personas que se sienten invisibles o incomprendidas en sus vidas diarias, estas interacciones pueden llenar temporalmente un vacío.”
Kushnir advirtió que los usuarios podrían proyectar cualidades humanas en la IA, solo para sentirse decepcionados cuando se encuentran con las limitaciones de la tecnología, como olvidar conversaciones pasadas y profundizar la soledad que intentaban aliviar.
“Si bien los compañeros de IA pueden proporcionar consuelo temporal, pueden reforzar involuntariamente el aislamiento al reducir la motivación para involucrarse en relaciones del mundo real”, dijo Kushnir. “La dependencia excesiva de estas herramientas puede obstaculizar el crecimiento emocional y la resiliencia, ya que carecen de la autenticidad, imprevisibilidad y conexión más profunda que ofrecen las interacciones humanas.”
Maraña legal
El aumento en la popularidad de los compañeros de IA ha traído un mayor escrutinio a la industria.
El año pasado, un hombre de 21 años en Inglaterra fue juzgado por un complot para asesinar a la difunta reina Isabel II en 2021. Afirmó que el complot fue alentado por su compañero de IA Replika.
En octubre, el desarrollador de compañeros de IA, Character AI, fue criticado después de que se creara un chatbot de IA basado en Jennifer Crecente, una víctima de asesinato adolescente, en la plataforma.
“Character.AI tiene políticas contra la suplantación, y el uso del nombre de la Sra. Crecente viola nuestras políticas,” dijo un portavoz de Character.AI a Decrypt. “Lo estamos eliminando de inmediato y examinaremos si se justifica una acción adicional.”
Más tarde ese mes, Character AI introdujo nuevas funciones de seguridad “estrictas” tras una demanda de la madre de un adolescente de Florida que se suicidó después de apegarse a un chatbot de IA basado en Daenerys Targaryen de “Game of Thrones.”
Para frenar estas tragedias, Schmidt pidió una combinación de conversaciones sociales y cambios en las leyes actuales, incluida la muy debatida Sección 230 de la Ley de Decencia en las Comunicaciones de 1996, que protege a las plataformas en línea de responsabilidad civil por contenido de terceros.
“Específicamente, tendremos que tener algunas conversaciones sobre a qué edad las cosas son apropiadas, y también tendremos que cambiar algunas de las leyes, por ejemplo, la Sección 230, para permitir la responsabilidad en los peores casos posibles.”
Editado por Sebastian Sinclair