El famoso psicólogo de Harvard B.F. Skinner opinó en cierta ocasión que "el verdadero problema no es si las máquinas piensan, sino si los hombres lo hacen". Esta ingeniosa observación pone de relieve un punto que en otro tiempo fue crucial: que nuestra confianza en la tecnología depende del criterio humano. No es la inteligencia de las máquinas lo que nos debería preocupar, sino la sabiduría y la responsabilidad de quienes las controlan. O al menos ese era el caso.
Ahora que software como ChatGPT forma parte integral de la vida laboral de muchas personas, la idea de Skinner parece casi pintoresca. El ascenso meteórico de los agentes de IA (entidades de software capaces de percibir su entorno y tomar medidas para alcanzar objetivos específicos) ha cambiado radicalmente el paradigma. Estos asistentes digitales, nacidos del auge de la IA de consumo de principios de la década de 2020, ahora permean nuestra vida digital y se encargan de tareas que van desde programar citas hasta tomar decisiones de inversión.
¿Qué son los agentes de IA?
Los agentes de IA difieren significativamente de los grandes modelos de lenguaje (LLM) como ChatGPT en su capacidad de acción autónoma. Mientras que los LLM procesan y generan principalmente texto, los agentes de IA están diseñados para percibir su entorno, tomar decisiones y emprender acciones para lograr objetivos específicos. Estos agentes combinan varias tecnologías de IA, incluido el procesamiento del lenguaje natural, la visión artificial y el aprendizaje por refuerzo, lo que les permite adaptarse y aprender de sus experiencias.
Pero, a medida que los agentes de IA proliferan y se renuevan, también lo hace una inquietud persistente. ¿Podremos realmente confiar en estas entidades digitales? La pregunta dista mucho de ser académica. Los agentes de IA operan en entornos complejos y toman decisiones basadas en vastos conjuntos de datos y algoritmos intrincados que incluso sus creadores tienen dificultades para comprender por completo. Esta opacidad inherente genera desconfianza. Cuando un agente de IA recomienda un tratamiento médico o predice tendencias del mercado, ¿cómo podemos estar seguros del razonamiento detrás de sus decisiones?
Las consecuencias de una confianza errónea en los agentes de IA podrían ser nefastas. Imaginemos un asesor financiero impulsado por IA que, sin darse cuenta, haga colapsar los mercados debido a un dato malinterpretado, o una IA en el ámbito sanitario que recomiende tratamientos incorrectos basándose en datos de entrenamiento sesgados. El potencial de daño no se limita a sectores individuales; a medida que los agentes de IA se integran más en nuestra vida diaria, su influencia crece exponencialmente. Un paso en falso podría tener repercusiones en toda la sociedad y afectar a todo, desde la privacidad personal hasta la economía global.
En el centro de este déficit de confianza se encuentra una cuestión fundamental: la centralización. El desarrollo y la implementación de modelos de IA han sido en gran medida competencia de un puñado de gigantes tecnológicos. Estos modelos de IA centralizados funcionan como cajas negras, cuyos procesos de toma de decisiones están ocultos al escrutinio público. Esta falta de transparencia hace que sea prácticamente imposible confiar en sus decisiones en operaciones de alto riesgo. ¿Cómo podemos confiar en que un agente de IA tome decisiones críticas si no podemos entender ni verificar su razonamiento?
La descentralización como respuesta
Sin embargo, existe una solución a estas preocupaciones: la IA descentralizada, un paradigma que ofrece un camino hacia agentes de IA más transparentes y confiables. Este enfoque aprovecha las fortalezas de la tecnología blockchain y otros sistemas descentralizados para crear modelos de IA que no solo sean poderosos, sino también responsables.
Las herramientas para generar confianza en los agentes de IA ya existen. Las cadenas de bloques pueden permitir cálculos verificables, lo que garantiza que las acciones de IA sean auditables y rastreables. Cada decisión que tome un agente de IA podría registrarse en un libro de contabilidad público, lo que permitiría una transparencia sin precedentes. Al mismo tiempo, las técnicas criptográficas avanzadas, como el aprendizaje automático en entornos de ejecución confiables (TeeML), pueden proteger datos confidenciales y mantener la integridad del modelo, logrando transparencia y privacidad.
A medida que los agentes de IA operan cada vez más junto a cadenas de bloques públicas o directamente sobre ellas, el concepto de verificabilidad se vuelve crucial. Los modelos de IA tradicionales pueden tener dificultades para demostrar la integridad de sus operaciones, pero los agentes de IA basados en cadenas de bloques pueden proporcionar garantías criptográficas de su comportamiento. Esta verificabilidad no es solo una sutileza técnica; es un requisito fundamental para la confianza en entornos de alto riesgo.
Las técnicas de computación confidencial, en particular los entornos de ejecución confiables (TEE), ofrecen una importante capa de seguridad. Los TEE brindan un enclave seguro donde pueden realizarse los cálculos de IA, aislados de posibles interferencias. Esta tecnología garantiza que ni siquiera los operadores del sistema de IA puedan manipular o espiar el proceso de toma de decisiones del agente, lo que refuerza aún más la confianza.
Los marcos como Runtime Off-chain Logic (ROFL) de Oasis Network representan la vanguardia de este enfoque, ya que permiten una integración perfecta de la computación de IA verificable con la transparencia y la capacidad de auditoría en cadena. Estas innovaciones amplían las posibilidades de las aplicaciones impulsadas por IA al tiempo que mantienen los más altos estándares de confianza y transparencia.
Hacia un futuro de IA confiable
El camino hacia agentes de IA confiables no está exento de desafíos. Siguen existiendo obstáculos técnicos y la adopción generalizada de sistemas de IA descentralizados requerirá un cambio tanto en las prácticas de la industria como en la comprensión pública. Sin embargo, las posibles recompensas son inmensas. Imaginemos un mundo en el que los agentes de IA tomen decisiones críticas con total transparencia, en el que sus acciones puedan ser verificadas y auditadas por cualquier persona y en el que el poder de la inteligencia artificial esté distribuido en lugar de concentrado en manos de unas pocas corporaciones.
También existe la posibilidad de generar un crecimiento económico significativo. Un estudio de 2023 realizado en Pekín concluyó que un aumento del 1% en la penetración de la IA conduce a un aumento del 14,2% en la productividad total de los factores (PTF). Sin embargo, la mayoría de los estudios sobre la productividad de la IA se centran en los LLM generales, no en los agentes de IA. Los agentes de IA autónomos capaces de realizar múltiples tareas de forma independiente podrían generar mayores ganancias de productividad. Los agentes de IA confiables y auditables probablemente serían aún más efectivos.
Tal vez sea hora de actualizar la famosa cita de Skinner. El verdadero problema ya no es si las máquinas piensan, sino si podemos confiar en sus pensamientos. Con la IA descentralizada y la cadena de bloques, tenemos las herramientas para generar esa confianza. La pregunta ahora es si tenemos la sabiduría para usarlas.
Nota: Las opiniones expresadas en esta columna son las del autor y no reflejan necesariamente las de CoinDesk, Inc. o sus propietarios y afiliados.