Google está reduciendo la presentación de descripciones generales de IA en algunos resultados de búsqueda. La decisión se tomó después de que el gigante de las búsquedas cometiera algunos errores publicitados que generaron una reacción pública en Internet.

El jueves, Liz Reid, directora de Búsqueda de Google, admitió que la empresa estaba limitando los resúmenes generados por IA llamados "Resúmenes de IA". La función impulsada por IA fue criticada cuando comenzó a mostrar contenido que decía a la gente que comiera piedras y pegara queso a su pizza.

Lea también: Google, OpenAI y otros 13 se comprometen a no implementar modelos de IA riesgosos

Google comenzó a mostrar descripciones generales de IA a sus usuarios en Estados Unidos hace dos semanas después de su evento anual I/O, durante el cual lanzó varias ofertas basadas en IA. A partir del jueves, los usuarios notaron menos preguntas, lo que resultó en una respuesta de la IA.

Identificar descripciones generales falsas de IA requiere un análisis cuidadoso

Reid escribió en una publicación de blog que personas en las redes sociales compartían capturas de pantalla de descripciones generales de IA que sugerían soluciones extrañas. Dijo que la IA de la empresa cometió algunos errores, pero que muchos eran falsos y nunca fueron generados por el sistema de IA de Google.

Google AI Overview sugiere pegar queso a la pizza. Fuente.

Admitió que ciertamente aparecieron algunas descripciones generales de IA extrañas o inexactas. Destacó las áreas donde es necesario mejorar la función, pero no son consultas comúnmente buscadas. Al notar los falsos, dijo:

“Por otra parte, se ha compartido ampliamente una gran cantidad de capturas de pantalla falsas. Algunos de estos resultados falsos han sido obvios y tontos”.

Reid dijo que Google no mostró ninguna descripción general de IA para temas como fumar durante el embarazo o dejar perros en los automóviles. Animó a los usuarios que vieron esas capturas de pantalla en las redes sociales a buscarlas y comprobarlas.

La IA de Google ahora puede identificar contenido satírico

Google identificó que el contenido satírico y las consultas sin sentido eran áreas que debían abordarse para producir descripciones generales de IA inexactas. Google dijo eso antes de las capturas de pantalla de la consulta "¿Cuántas piedras debo comer?" se volvió viral, nadie hizo la pregunta. Reid dijo que se puede ver Google Trends para confirmarlo.

Lea también: Opera integra los modelos Gemini de Google para mejorar la IA del navegador Aria

Otro factor es que hay muy poco contenido disponible sobre un tema específico, lo que también se conoce como falta de datos, lo que también es motivo de resúmenes de IA inexactos. Con respecto a la consulta sobre comer piedras, Reid dijo que la naturaleza satírica del contenido desencadenó la descripción general de la IA. El contenido también fue publicado nuevamente por un sitio web de software geológico, al que se vincula AI Overview. Ella aclaró,

"Entonces, cuando alguien puso esa pregunta en la Búsqueda, apareció una descripción general de IA que vinculaba fielmente a uno de los únicos sitios web que abordaba la pregunta".

Reid no mencionó las otras descripciones generales de IA que circulan en las redes sociales, y muchas editoriales importantes también publicaron informes sobre ellas. Por ejemplo, The Washington Post publicó un informe en Google diciendo a la gente que Barack Obama era musulmán. La publicación también informó sobre otro caso en el que Google AI Overview le dijo a un usuario que las personas deberían beber orina para ayudar a eliminar los cálculos renales.

Google tiene una obsesión con los foros públicos

El jefe de búsqueda de Google señaló que la empresa probó exhaustivamente la función antes de lanzarla al público. También admitió que las prácticas de uso del mundo real son difíciles de simular en la fase de prueba, pero la empresa formó un equipo rojo sólido y tomó muestras de las consultas típicas de los usuarios. 

Lea también: La función de descripción general de IA de Google enfrenta reacciones negativas por resultados inexactos

Algunos usuarios y analistas de contenido de Internet están notando que Google recientemente comenzó a mostrar muchos resultados en foros públicos como Reddit. Algunos cuestionan el acuerdo de la compañía con Reddit, pero un portavoz de Google le dijo a la BBC que tales términos no formaban parte del acuerdo para darle a Reddit más visibilidad en los resultados de búsqueda.

Lily Ray, vicepresidenta de estrategia e investigación de SEO en Amsive, una agencia de marketing, dice que ahora muchas consultas muestran resultados de Reddit. También se burló de Google en una publicación de X (anteriormente Twitter), diciendo que todo el conocimiento del mundo (contenido de Reddit) se combina con la IA.

Damas y caballeros, todo el conocimiento del mundo, combinado con el poder de la IA y un troll de Reddit. pic.twitter.com/jhzT2pGXjh

– Lily Ray 😏 (@lilyraynyc) 21 de mayo de 2024

Reid dijo que AI Overviews presenta contenido sarcástico de foros de discusión en algunos ejemplos. Dijo que los foros son una buena fuente de información de primera mano, pero en algunos casos, pueden generar respuestas no tan útiles, como pegar queso a una pizza.

La IA de Google también malinterpreta el lenguaje, lo que genera información errónea en las descripciones generales de la IA, pero la proporción de tales respuestas es muy baja, según la compañía. Reid señaló que resolvieron los problemas rápidamente mejorando o eliminando respuestas que no cumplían con la política de Google.

El vicepresidente de Búsqueda de Google también dijo que existen fuertes barreras para temas como la salud y las noticias. La compañía ha lanzado nuevas mejoras de activación para mejorar la protección de la calidad de la salud. Reid dijo que el sistema de detección también se actualiza para consultas sin sentido para no mostrarlas como resúmenes de IA. También insinuó la confirmación de menos resúmenes de IA para consultas satíricas, diciendo: "Actualizamos nuestros sistemas para limitar el uso de contenido generado por el usuario en respuestas que podrían ofrecer consejos engañosos".

Informe criptopolitano de Aamir Sheikh