Google está trabajando para eliminar respuestas erróneas y potencialmente peligrosas de sus resultados de búsqueda de IA. Sin embargo, la nueva función "Resumen de IA" a veces presenta bromas y sátiras en las redes sociales y sitios satíricos de forma incorrecta como si fueran hechos.

La reciente publicación de resultados de búsqueda de inteligencia artificial por parte de Google ha atraído mucha atención, pero no por las razones positivas esperadas. El gigante tecnológico anunció la semana pasada una serie de nuevas herramientas de inteligencia artificial como parte de su recién lanzada estrategia "Gemini Era". Junto con esto, viene un cambio significativo en su exclusivo servicio de búsqueda web, donde las respuestas a las preguntas en los resultados de búsqueda ahora se muestran en lenguaje natural directamente encima de los enlaces del sitio web.

Aunque la actualización de Google hace que la tecnología de búsqueda sea más avanzada y pueda manejar preguntas más complejas de los usuarios, también genera algunas preocupaciones. Por ejemplo, cuando la IA procesa resultados de búsqueda, a veces presenta información incorrecta o engañosa a los usuarios, lo que resulta especialmente problemático cuando se trata de temas delicados como la eugenesia. La eugenesia se ha utilizado erróneamente en algunas políticas inhumanas a lo largo de la historia, por lo que la precisión y sensibilidad de su información es particularmente importante.

Además, la IA tampoco tiene una precisión suficiente a la hora de identificar cosas específicas, como distinguir entre hongos venenosos y no tóxicos. Esto nos recuerda que cuando utilizamos herramientas de búsqueda de IA, debemos tener mucho cuidado con las consultas relacionadas con la salud y la seguridad y buscar confirmación profesional siempre que sea posible.

Cuando Google AI proporciona respuestas de "descripción general de la IA", a veces hace referencia a contenido de redes sociales como Reddit, que puede haber sido destinado al humor o la sátira. Esto da como resultado que se proporcionen a los usuarios algunas respuestas obviamente incorrectas o sin sentido.

Por ejemplo, algunos usuarios informaron que cuando preguntaron cómo lidiar con la depresión, la IA de Google en realidad sugirió "saltar del puente Golden Gate". Otras respuestas confirmaron absurdamente una capacidad antigravedad que permitiría a las personas permanecer en el aire siempre que no miraran hacia abajo.

Estos ejemplos muestran que, si bien la IA ha avanzado en la entrega de resultados de búsqueda, todavía existen deficiencias en cuanto a precisión y confiabilidad y se necesitan más mejoras.

La intención original de la cooperación de Google con Reddit es facilitar a los usuarios la búsqueda y participación en comunidades y debates que les interesen. Sin embargo, esta colaboración también expuso algunos riesgos, especialmente cuando la IA procesa contenido de Reddit. Dado que es posible que la IA no tenga la capacidad suficiente para discernir la autenticidad o el contexto de la información, puede adoptar y citar información de Reddit de forma indiscriminada. Esta adopción indiscriminada de información puede dar lugar a que aparezcan sugerencias engañosas o incluso ridículas en los resultados de búsqueda.

Por ejemplo, una vez la IA dio una sugerencia inapropiada de que los niños deberían comer al menos una piedra pequeña al día, y etiquetó incorrectamente la sugerencia como proveniente de un geólogo de la Universidad de California, Berkeley. Este ejemplo ilustra que la IA puede ignorar la credibilidad y la idoneidad de la información al procesar información en línea, lo que puede inducir a error.

Aunque Google ha eliminado o corregido algunas respuestas obviamente ridículas, los modelos generados por IA a veces producen respuestas inexactas o ficticias, un fenómeno conocido como "alucinación". Estas "alucinaciones" pueden considerarse declaraciones falsas porque la IA está creando algo que no es real.

Mientras tanto, Google AI recomendó erróneamente usar pegamento para evitar que el queso se deslice de la pizza, una sugerencia que surge de un comentario de hace una década en Reddit.

Se sabe que el modelo ChatGPT de OpenAI fabrica hechos, incluida la acusación falsa del profesor de derecho Jonathan Turley de agresión sexual basándose en un viaje en el que no participó. Este incidente refleja que la IA puede tener un exceso de confianza al procesar información y no distinguir con precisión la autenticidad del contenido en Internet.

Además, el exceso de confianza de la IA puede llevarla a aceptar indiscriminadamente toda la información en Internet como verdadera. Esta confianza puede llevar a juicios erróneos, como condenar injustamente a empresas en el contexto de las leyes antimonopolio y culpar falsamente a ex ejecutivos de Google.

Cuando los usuarios buscan preguntas relacionadas con la cultura pop en Google, la función Sugerencias de búsqueda de IA a veces puede generar resultados divertidos o confusos. Esto puede deberse a que la IA encuentra desafíos de comprensión al procesar contenido de la cultura pop, especialmente cuando el contenido contiene humor, sátira o contextos sociales específicos. Al mismo tiempo, puede resultar difícil para la IA captar con precisión la verdadera intención de estos contenidos, lo que genera sugerencias o respuestas que pueden no estar en línea con las expectativas de los usuarios y desencadenar algunas reacciones inesperadas.

Además, Google AI proporciona sugerencias actualizadas para el problema de la ingestión de piedras por parte de los niños, sugiriendo que las posibles razones incluyen la curiosidad de los niños, dificultades en el procesamiento sensorial o trastornos dietéticos. Esto demuestra una vez más que debemos ser extremadamente cautelosos al utilizar la información proporcionada por la IA, especialmente cuando la información se relaciona con consejos de salud y seguridad, y debemos buscar asesoramiento y ayuda profesional.

Conclusión:

Aunque la función de sugerencias de búsqueda de Google AI ha logrado avances técnicos significativos, su falta de precisión y confiabilidad aún puede tener consecuencias graves. Desde la adopción indiscriminada de información en plataformas de redes sociales como Reddit, hasta información engañosa sobre temas delicados como la eugenesia y la autocriminalización inapropiada en el ámbito legal, estos incidentes han puesto de relieve la importancia de la IA en la detección y el juicio de información.

Además, el problema de que los modelos de IA fabriquen hechos o produzcan "alucinaciones" también muestra sus limitaciones a la hora de abordar problemas complejos. Por lo tanto, debemos permanecer atentos a la información proporcionada por la IA, buscar asesoramiento profesional y pedir a los desarrolladores e investigadores que sigan mejorando la tecnología de la IA para garantizar que aporte más beneficios a los humanos que riesgos. #GoogleAI #准确性 #AI模型 #可靠性