El 21 de junio de 2024, Katie Drummond, directora editorial global de Wired, se unió a “Squawk Box” de CNBC para discutir la reciente investigación en profundidad de la revista sobre la startup de búsqueda de inteligencia artificial Perplexity. La conversación arrojó luz sobre algunos aspectos preocupantes de las operaciones de Perplexity y planteó preguntas importantes sobre el futuro de la IA y su impacto en el periodismo y la precisión de la información.

El aumento de la perplejidad

Perplexity ha ganado rápidamente atención en el mundo tecnológico, asegurando importantes inversiones de figuras notables como Jeff Bezos y obteniendo una valoración cercana a los mil millones de dólares. Este meteórico ascenso, sin embargo, ha venido acompañado de una buena dosis de controversia y escepticismo. La investigación de Wired tuvo como objetivo analizar qué hace realmente Perplexity, cómo opera y la validez de sus resultados de búsqueda.

Hallazgos de la investigación: mecanismos poco claros y respuestas inexactas

Drummond destacó que uno de los principales hallazgos de la investigación de Wired fue la ambigüedad que rodea a los mecanismos operativos de Perplexity. Drummond afirma que la startup de IA, que se promociona como una herramienta de búsqueda sofisticada, a menudo ofrece respuestas que no sólo son inexactas sino también potencialmente engañosas. Ella dice que los usuarios han informado haber recibido respuestas que parecen carecer de una síntesis lógica, dependiendo en gran medida de una agregación básica de datos web sin un análisis o comprensión más profundos.

Preocupaciones éticas y legales: extracción y recopilación de datos

Una parte importante de la investigación se centró en cómo Perplexity recopila sus datos. Drummond explicó que se ha descubierto que Perplexity extrae contenido de la empresa matriz de Wired, Condé Nast, y de otros editores sin la autorización adecuada. A pesar de la implementación del protocolo robots.txt, un estándar utilizado para evitar que los bots accedan a ciertas partes de un sitio web, Perplexity supuestamente utilizó direcciones IP no reveladas para eludir estas restricciones. Si esto es cierto, plantea serias preocupaciones éticas y legales sobre cómo las empresas de IA deberían interactuar con el contenido periodístico y los límites del uso de datos.

Sesgos y calidad de las respuestas de la IA

La discusión también abordó los sesgos inherentes y la calidad de la información proporcionada por herramientas de inteligencia artificial como Perplexity. La discusión enfatizó el problema de “basura que entra, basura que sale”. Este concepto subraya que los resultados de la IA son tan buenos como los insumos que reciben. La dependencia de Perplexity de datos web de fácil acceso, que a menudo pueden ser sesgados o inexactos, significa que sus respuestas pueden reflejar estos mismos problemas.

Drummond argumentó que, actualmente, la mejor manera de obtener información precisa es ir directamente a la fuente: leer periodismo de medios acreditados en lugar de depender de agregaciones de inteligencia artificial. Esto pone de relieve un desafío fundamental en la industria de la IA: desarrollar sistemas que puedan discernir y priorizar información precisa y de alta calidad sobre la gran cantidad de fuentes no confiables disponibles en línea.

La desconexión entre tecnología y periodismo

La conversación también profundizó en las implicaciones más amplias de la IA en el periodismo. Drummond señaló que la industria tecnológica a menudo se ha desvinculado de los valores y principios que sustentan las noticias y el periodismo. Ella dice que la difusión de información precisa y ética a veces se ha convertido en un daño colateral en la carrera por desarrollar las herramientas de inteligencia artificial más avanzadas y valiosas.

Según un artículo de Mark Sullivan para Fast Company, en respuesta a las acusaciones de Wired, el cofundador y director ejecutivo de Perplexity, Aravind Srinivas, dijo que Perplexity no depende únicamente de sus propios rastreadores web, sino que también utiliza servicios de terceros para el rastreo e indexación web. Srinivas señaló que el rastreador web identificado por Wired no era propiedad de Perplexity sino de un proveedor externo anónimo debido a un acuerdo de confidencialidad.

Srinivas reconoció la complejidad de impedir inmediatamente que el rastreador externo acceda al contenido de Wired y afirmó: "Es complicado". También destacó que el Protocolo de Exclusión de Robots, establecido en 1994, no es un marco legalmente vinculante y sugirió que el auge de la IA requiere una nueva forma de colaboración entre los creadores de contenido y plataformas como Perplexity.

Surgieron más críticas cuando Wired demostró que el motor de respuestas de Perplexity podía parafrasear sus artículos, a veces de manera inexacta. Un error notable incluyó una afirmación falsa sobre un oficial de policía de California que cometió un delito. Srinivas sostuvo que tales resultados probablemente fueron inducidos por indicaciones diseñadas para provocar tales respuestas y enfatizó que los usuarios normales no encontrarían estos problemas. Admitió que el sistema no era inmune a los errores.

Imagen destacada a través de Pixabay