Escanear su iris para convertirse en un “humano verificado” a cambio de moneda digital suena como un episodio de Black Mirror. Pero este no es el arco argumental de un programa distópico de ciencia ficción; está sucediendo ahora con uno de los últimos proyectos de Web3.
El lanzamiento de Worldcoin on Optimism ha dejado a muchos preguntándose si este proyecto está subvirtiendo la promesa de descentralización de Web3 para construir justo lo contrario. Y, sin embargo, más de 2 millones de personas en áreas desatendidas ya se han registrado para compartir sus datos biométricos con Worldcoin a cambio de 25 WLD, con un valor de menos de $100 al momento de escribir este artículo.
Esto no es solo extraño, sino que también presenta graves riesgos para la privacidad y crea una trampa para actores maliciosos. Es más, se puede argumentar que incluso podría interferir con la soberanía de países extranjeros.
¿Por qué necesitaríamos Worldcoin en primer lugar?
Worldcoin se fundó para resolver las externalidades esperadas de su empresa hermana, OpenAI, la creadora de ChatGPT y otros productos populares de inteligencia artificial. Una mano resuelve los problemas que la otra crea.
2024: Bitcoiners intentan salvar a los niños de los escaneos oculares del orbe WorldCoin de Sam Altman pic.twitter.com/ZeAWuNdSJs
— ₿it₿ry (@bchinella) 26 de julio de 2023
En palabras de sus fundadores: “Si tiene éxito, creemos que Worldcoin podría aumentar drásticamente las oportunidades económicas, escalar una solución confiable para distinguir a los humanos de la IA en línea mientras se preserva la privacidad, permitir procesos democráticos globales y, eventualmente, mostrar un camino potencial hacia una RBU [renta básica universal] financiada por IA”.
El problema con Worldcoin
A pesar de la ambición y la promesa de proteger la privacidad, el hecho de que esto lo haga una única empresa, actualmente centralizada, genera toda una serie de problemas. La ironía no pasa desapercibida para ChatGPT. Algunas de sus respuestas cuando se le pregunta “¿Cuáles son los riesgos de que una empresa sea dueña de los datos biométricos de personas en países subdesarrollados?” incluyen:
Violaciones de privacidad
Violaciones de seguridad
Vigilancia y soberanía
El cofundador de Ethereum, Vitalik Buterin, también se ha hecho eco de algunas de estas preocupaciones.
El hecho de que una empresa posea datos biométricos de personas de países subdesarrollados plantea riesgos significativos para las personas. A una escala social más amplia, estos riesgos son aún más significativos cuando se combinan con los pagos de renta básica universal a ciudadanos extranjeros.
Violaciones de privacidad
Los datos biométricos, como el iris, son muy sensibles y exclusivos de cada individuo. Pueden revelar información como el sexo, la etnia y, tal vez, las condiciones médicas. Si una sola empresa controla estos datos, existe un alto riesgo de violaciones de la privacidad, ya que pueden usarse para rastrear y monitorear a las personas sin su consentimiento.
¿Quién puede asegurar que la empresa no explotará los datos biométricos con fines comerciales, como la publicidad dirigida o la venta de los datos a otras entidades? ¿No es eso diametralmente opuesto a lo que hemos estado intentando lograr durante los últimos años?
Violaciones de seguridad
La centralización de los datos biométricos también aumenta el riesgo de que sean objeto de ataques de piratas informáticos y ciberdelincuentes. Esto es lo que se conoce en los sectores de seguridad como “honeypot” cuando se utiliza con fines controlados. Una sola entidad almacena una gran cantidad de datos atractivos para estudiar una posible vulneración con la idea de que, en algún momento, serán atacados.
Una violación de datos a esta escala podría tener graves consecuencias, incluido el robo de identidad, fraude y acceso no autorizado a la información personal de millones de personas.
Vigilancia y soberanía
Estos datos también podrían caer en manos de los gobiernos, que los pueden solicitar y obtener información personal de los ciudadanos sin orden judicial. Hay menos protecciones cuando se venden los datos a un tercero. Un gobierno corrupto puede utilizar estos datos para manipular comportamientos, limitar el disenso y reprimir la oposición, convirtiendo así a las regiones subdesarrolladas en estados de vigilancia.
Más aún, si la empresa opera a través de las fronteras, podría ejercer un poder e influencia indebidos sobre los gobiernos y las sociedades. Apoyar financieramente a un gran número de ciudadanos extranjeros bajo un modelo de renta básica universal podría, en última instancia, reducir la autonomía y la soberanía de los procesos democráticos de un país.
Cuando se visitan los Orbes de Worldcoin para escanear el iris, los inscritos reciben una pegatina promocional que dice “Humano verificado”. Existe una ligera sensación de incomodidad al ser referido simplemente como humano, no como persona.
En el contexto de vender tu identidad por unos pocos dólares a un proyecto de criptomonedas vinculado al desarrollo de inteligencia artificial, casi suena como un desliz freudiano. Es como si la personalidad fuera una idea olvidada y ahora fuéramos solo humanos en una enorme base de datos de datos biométricos.
A veces la realidad es realmente más extraña que la ficción.
Matthew Niemerg es cofundador y miembro de la junta directiva de la Fundación Aleph Zero. Tiene un doctorado en Matemáticas de la Universidad Estatal de Colorado y actualmente se desempeña como experto en el Observatorio y Foro Blockchain de la UE. También es cofundador de Cardinal Cryptography.
Este artículo tiene fines informativos generales y no pretende ser ni debe tomarse como asesoramiento legal o de inversión. Las opiniones, puntos de vista y pensamientos expresados aquí son solo del autor y no reflejan ni representan necesariamente los puntos de vista y opiniones de Cointelegraph.



