Parte de la magia de la IA generativa es que la mayoría de la gente no tiene idea de cómo funciona. En cierto nivel, es incluso justo decir que nadie está completamente seguro de cómo funciona, ya que el funcionamiento interno de ChatGPT puede dejar perplejos a los científicos más brillantes. Es una caja negra. No estamos del todo seguros de cómo se entrena, qué datos producen qué resultados y qué propiedad intelectual se pisotea en el proceso. Esto es a la vez parte de la magia y parte de lo aterrador. Ariana Spring es oradora en el festival Consensus de este año, en Austin, Texas, del 29 al 31 de mayo.

¿Qué pasaría si hubiera una manera de mirar dentro de la caja negra, permitiendo una visualización clara de cómo se gobierna, entrena y produce la IA? Este es el objetivo (o uno de los objetivos) de EQTY Lab, que realiza investigaciones y crea herramientas para hacer que los modelos de IA sean más transparentes y colaborativos. Lineage Explorer de EQTY Lab, por ejemplo, ofrece una vista en tiempo real de cómo se construye el modelo.

Todas estas herramientas están pensadas para controlar la opacidad y la centralización. "Si no se comprende por qué una IA toma las decisiones que toma o quién es el responsable, es realmente difícil preguntarse por qué se arrojan cosas dañinas", dice Ariana Spring, jefa de investigación de EQTY Lab. "Por eso creo que la centralización (y mantener esos secretos en cajas negras) es realmente peligroso".

Acompañada por su colega Andrew Stanco (jefe de finanzas), Spring comparte cómo las criptomonedas pueden crear una IA más transparente, cómo estas herramientas ya se están implementando al servicio de la ciencia del cambio climático y por qué estos modelos de código abierto pueden ser más inclusivos y representativos de humanidad en general.

La entrevista ha sido condensada y ligeramente editada para mayor claridad.

¿Cuál es la visión y el objetivo de EQTY Lab?

Ariana Spring: Somos pioneros en nuevas soluciones para generar confianza e innovación en IA. Y la IA generativa es el tema candente en este momento, y esa es la propiedad más emergente, por lo que es algo en lo que nos centramos.

Pero también analizamos todos los diferentes tipos de IA y gestión de datos. Y realmente nos apoyamos en la confianza y la innovación. Lo hacemos mediante el uso de criptografía avanzada para hacer que los modelos sean más transparentes, pero también colaborativos. Vemos la transparencia y la colaboración como dos caras de la misma moneda para crear una IA más inteligente y segura.

¿Puedes hablar un poco más sobre cómo encajan las criptomonedas en esto? Porque ves a mucha gente decir que "las criptomonedas y la IA encajan perfectamente", pero a menudo la justificación se detiene en un nivel muy alto.

Andrew Stanco: Creo que la intersección de la IA y las criptomonedas es una pregunta abierta, ¿verdad? Una cosa que hemos descubierto es que el secreto oculto de la IA es que es colaborativa; tiene una multitud de partes interesadas. Ningún científico de datos podría crear un modelo de IA. Pueden entrenarlo, pueden ajustarlo, pero la criptografía se convierte en una forma de hacer algo y luego tener una forma a prueba de manipulaciones de verificar que sucedió.

Por lo tanto, en un proceso tan complejo como el entrenamiento de IA, tener esas certificaciones verificables y a prueba de manipulaciones, tanto durante el entrenamiento como después, realmente ayuda. Crea confianza y visibilidad.

Ariana Spring: Lo que hacemos es que en cada paso del ciclo de vida de la IA y del proceso de capacitación, haya una certificación notarial (o un sello) de lo que sucedió. Esta es la identificación o identificador descentralizado que está asociado con el agente, humano o máquina que realiza esa acción. Tienes la marca de tiempo. Y con nuestro Lineage Explorer, puedes ver que todo lo que hacemos se registra automáticamente mediante criptografía.

Y luego utilizamos contratos inteligentes en nuestros productos de gobernanza. Entonces, si el parámetro X se cumple o no, una determinada acción puede continuar o no. Una de las herramientas que tenemos es un Estudio de Gobernanza, que básicamente programa cómo se puede entrenar una IA o cómo se puede gestionar el ciclo de vida de su IA, y eso luego se refleja en el futuro.

¿Puedes aclarar un poco qué tipo de herramientas estás creando? Por ejemplo, ¿estáis creando herramientas y realizando investigaciones destinadas a ayudar a otras nuevas empresas a crear modelos de formación, o estáis creando modelos de formación vosotros mismos? En otras palabras, ¿cuál es exactamente el papel de EQTY Labs en este entorno?

Andrew Stanco: En cierto modo, es una combinación, porque nuestro enfoque está en la empresa, ya que será uno de los primeros grandes lugares donde será necesario lograr que la IA sea correcta desde el punto de vista de la capacitación y la gobernanza. Si profundizamos en eso, entonces necesitamos tener un área donde un desarrollador (o alguien de esa organización) pueda anotar el código y decir: "Está bien, esto es lo que pasó" y luego crear un registro. Está centrado en la empresa y hace hincapié en trabajar con los desarrolladores y las personas que crean e implementan los modelos.

Ariana Spring: Y también hemos trabajado en la capacitación del modelo a través del Endowment for Climate Intelligence. Ayudamos a entrenar un modelo llamado ClimateGPT, que es un modelo de lenguaje grande específico para el clima. Ese no es nuestro pan de cada día, pero hemos pasado por el proceso y hemos utilizado nuestro conjunto de tecnologías para visualizar ese proceso. Entonces entendemos cómo es.

¿Qué es lo que más te entusiasma de la IA y qué es lo que más te aterroriza de la IA?

Andrew Stanco: Quiero decir, en términos de emoción, ese primer momento en el que interactúas con la IA generativa fue como si hubieras descorchado el rayo en el modelo. La primera vez que creas un mensaje en MidJourney, o que le haces una pregunta a ChatGPT, nadie tuvo que convencerte de que tal vez sea poderoso. Y ya no creía que hubiera muchas cosas nuevas ¿no?

¿Y en cuanto al terror?

Andrew Stanco: Creo que esta es una preocupación que tal vez sea el subtexto de mucho de lo que sucederá en el Consenso, con solo echar un vistazo a la agenda. La preocupación es que estas herramientas estén permitiendo a los ganadores actuales profundizar en modos más profundos. Que esta no es necesariamente una tecnología disruptiva, sino arraigadora.

¿Y Ariana, tu principal emoción y terror en la IA?

Ariana Spring: Empezaré con mi miedo porque iba a decir algo similar. Yo diría centralización. Hemos visto los daños de la centralización cuando se combina con una falta de transparencia sobre cómo funciona algo. Hemos visto esto durante los últimos 10 o 15 años con las redes sociales, por ejemplo. Y si no se comprende por qué una IA toma las decisiones que toma o quién es el responsable, es realmente difícil preguntarse por qué se arrojan cosas dañinas. Por eso creo que la centralización (y guardar esos secretos en cajas negras) es realmente peligroso.

¿Qué tal la emoción?

Lo que más me entusiasma es atraer a más personas. Tuvimos la oportunidad de trabajar con varios tipos diferentes de grupos de partes interesadas mientras capacitábamos a ClimateGPT, como grupos de ancianos indígenas o jóvenes urbanos, negros y morenos de bajos ingresos. o estudiantes en el Medio Oriente. Estamos trabajando con todos estos activistas climáticos y académicos para decir: "Oye, ¿quieres ayudar a mejorar este modelo?"

La gente está muy emocionada, pero tal vez no entendían cómo funcionaba. Una vez que les enseñamos cómo funcionaba y cómo podían ayudar, se les podía ver decir: "Oh, esto es bueno". Ganan confianza. Entonces quieren contribuir más. Así que estoy muy emocionado, especialmente a través del trabajo que estamos haciendo en EQTY Research, de comenzar a publicar algunos de esos marcos, para que no tengamos que depender de sistemas que tal vez no sean tan representativos.

Hermosamente dicho. Nos vemos en Austin en la Cumbre de IA de Consensus.