Las redes sociales han evolucionado significativamente desde el debut oficial de Meta (anteriormente Facebook) en 2006. El objetivo principal de las redes sociales Web2 era proporcionar un canal de comunicación para que amigos y familiares se mantuvieran en contacto.

Con el tiempo, estas plataformas han superado su simple naturaleza comunicativa para convertirse en fuentes primarias de información. ¿El peligro? Con la integración de tecnologías innovadoras como la Inteligencia Artificial (IA) en las redes sociales, cada vez es más difícil diferenciar entre humanos reales y robots impulsados ​​por IA.

Según un estudio reciente realizado por investigadores de la Universidad de Notre Dame, el 58% de los usuarios de redes sociales de la muestra no podían predecir con precisión si estaban interactuando con un robot o con un ser humano real.

Esto plantea una pregunta importante: ¿cómo se puede verificar la autenticidad humana en el ámbito actual de las redes sociales? Hay varios enfoques, incluidas iniciativas como 'No es un bot' y la introducción de niveles premium por parte de X (anteriormente Twitter) desde que Elon Musk asumió el mando en 2022. Lo preocupante es que a pesar de estos esfuerzos, los bots han persistido en X. .

En una nota más positiva, la tecnología blockchain, que también se encuentra entre la cuarta innovación industrial (4IR), podría tener una solución técnica que cambiará permanentemente esta dinámica. Los ecosistemas de redes sociales Web3 como Phaver están introduciendo formas novedosas de mantener alejados a los bots a través de una plataforma de prueba de personalidad Anima impulsada por blockchain.

Sin embargo, antes de profundizar en estos detalles, es fundamental resaltar el peligro que representan los bots en el panorama sociopolítico actual para comprender mejor por qué necesitamos redes sociales más verificables.

Un peligro para los fundamentos fundamentales de la sociedad

A estas alturas, no es ningún secreto que las redes sociales son un arma de doble filo. Por un lado, ha permitido que la información viaje de una parte del mundo a otra en cuestión de segundos, mientras que, por otro, las redes sociales han sido utilizadas para difundir propaganda o interferir en elecciones, como fue el caso. en el Brexit y las elecciones presidenciales de Estados Unidos de 2016.

Con los bots ahora en escena, el riesgo de difundir información errónea es aún mayor. Un análisis reciente sobre la actividad en Twitter realizado por el Dr. Timothy Graham, quien también es profesor asociado en la Universidad Tecnológica de Queensland, reveló que se están utilizando robots para influir en las agendas políticas durante las entrevistas en horario de máxima audiencia.

Por ejemplo, el año pasado, cuando se celebró el primer debate republicano, la actividad de los bots fue especialmente alta mientras se transmitía el debate y cuando se publicó en Twitter la entrevista de Trump con Tucker Carlson. En particular, la mayoría de las cuentas de bot difundían información falsa, en un patrón automatizado pero sofisticado que los usuarios normales de las redes sociales no podían descifrar.

“Todo entra y sale de Twitter porque los periodistas y las élites de la esfera pública piensan que importa... Luego van e informan sobre ello”, señaló Graham.

En otro estudio realizado por Statista en 2018, al 40% de los encuestados les preocupaba que se estuvieran utilizando bots para influir en sus opiniones o productos específicos de otras formas.

Lo que es aún más alarmante es que no se limita a la propaganda política: las cuentas de bots también se han convertido en una herramienta principal para ampliar el mercado potencial de los estafadores. Podrías estar chateando con un "amigo o familiar" en las redes sociales, pero en realidad es una pseudocuenta que ha sido automatizada para sonar como la de tu ser querido. La mayoría de las personas han sido estafadas con el dinero que tanto les costó ganar a través de este tipo de esquemas.

Este modo de fraude se ha vuelto especialmente frecuente tras los avances implementados por proyectos de IA generativa, incluidos ChatGPT, Gemini y Meta's Llama. Un estudio de 2024 realizado por investigadores de la Universidad de Indiana encontró que había más de 1000 cuentas de robots fraudulentos activas en X, la mayoría de las cuales utilizaban ChatGPT genérico para atraer a usuarios desprevenidos de las redes sociales.

Cómo las redes sociales Web3 resuelven la amenaza de los bots

Web3 es la tercera versión de Internet; A diferencia de su predecesor, Web2, esta última versión de Internet devuelve el control a los usuarios. En otras palabras, no existe una autoridad central como es el caso de Meta o X; En cambio, las plataformas de redes sociales construidas sobre infraestructuras Web3 están administradas por una comunidad descentralizada que toma las decisiones sobre cómo gobernar la plataforma o integrar nuevos desarrollos.

Como se destacó anteriormente, Phaver sirve como un ejemplo pionero que ilustra la propuesta de valor de Web3 en las redes sociales. Esta plataforma aprovecha una 'plataforma de prueba de personalidad de Anima', que asigna a cada usuario una identidad única en la cadena. Para lograr esto, la plataforma almacena de forma segura una huella facial distinta y segura para la privacidad de cada usuario en su billetera, lo que garantiza una experiencia auténtica e inmejorable de "una cara, una billetera".

Es más, las plataformas de redes sociales Web3 están implementando modelos de incentivos para garantizar un flujo de contenido de alta calidad.

Por ejemplo, la red social Web3 de Phaver incentiva a sus usuarios con un sistema de recompensa de credibilidad por publicar contenido de alta calidad. El proyecto pronto emitirá un lanzamiento aéreo, el "Phairdrop de la temporada 1", donde distribuirá el 3% de su token $SOCIAL en función de los puntos acumulados por los usuarios que tengan al menos 1 elemento de crédito, entre otros requisitos de elegibilidad.

Este ejemplo es sólo uno de los desarrollos que se están produciendo en el ámbito de las redes sociales Web3. También hay infraestructuras más integrales como Lens Protocol y Farcaster, ambos gráficos sociales Web3 de código abierto. Esto significa que las DApps centradas en el espacio de las redes sociales pueden aprovechar la infraestructura ya existente para implementar sus aplicaciones y acceder a una comunidad más grande.

Por supuesto, pasará un tiempo antes de que veamos una adopción a gran escala de las soluciones de redes sociales Web3, pero es inevitable que los seres humanos adopten aplicaciones más innovadoras. Después de todo, Web3 devuelve el poder a las masas, sin mencionar el potencial subyacente para resolver la amenaza de los robots que durante mucho tiempo ha plagado las plataformas de redes sociales Web2.