A medida que la inteligencia artificial continúa incrustándose en el tejido social, el impulso para desarrollar sistemas más rápidos y eficientes a menudo eclipsa la necesidad igualmente crítica de seguridad de la IA. Dado que se prevé que el mercado de la IA alcance los 407.000 millones de dólares para 2027 y una tasa de crecimiento anual esperada del 37,3% entre 2023 y 2030, la priorización de los intereses comerciales genera preocupaciones con respecto a la seguridad y la ética del desarrollo de la IA.

Erosión de la confianza pública

La confianza del público en la tecnología de IA se está erosionando debido al incesante enfoque de la industria de la IA en la velocidad y la eficiencia. Existe una desconexión significativa entre las ambiciones de la industria y las preocupaciones del público sobre los riesgos asociados con los sistemas de IA.

A medida que la IA se arraiga cada vez más en la vida diaria, es fundamental tener claro cómo funcionan estos sistemas y los riesgos que pueden plantear. Sin transparencia, la confianza pública seguirá erosionándose, lo que obstaculizará la amplia aceptación y la integración segura de la IA en la sociedad.

Falta de transparencia y rendición de cuentas

El impulso comercial para desarrollar e implementar rápidamente la IA a menudo conduce a una falta de transparencia con respecto al funcionamiento interno y los riesgos potenciales de estos sistemas. La falta de transparencia dificulta responsabilizar a los desarrolladores de IA y abordar los problemas que la IA puede causar. Las prácticas claras y la rendición de cuentas son importantes para generar confianza pública y garantizar que la IA se desarrolle de manera responsable.

Difusión de prejuicios nocivos y discriminación

Los sistemas de inteligencia artificial a menudo se basan en datos que reflejan prejuicios sociales, lo que puede conducir a la discriminación contra grupos marginados. Cuando se utilizan estos sistemas sesgados, se producen resultados injustos que impactan negativamente a comunidades específicas. Sin una supervisión adecuada y medidas correctivas, estos problemas empeorarán, lo que subraya la importancia de centrarse en el desarrollo ético de la IA y en medidas de seguridad.

Concentración de poder y riqueza.

Más allá de los prejuicios y la discriminación, las implicaciones más amplias del rápido desarrollo de la IA son igualmente preocupantes. El desarrollo rápido y desenfrenado de herramientas de inteligencia artificial corre el riesgo de concentrar un poder y una riqueza inmensos en manos de unas pocas corporaciones e individuos. Esta concentración socava los principios democráticos y puede conducir a un desequilibrio de poder. Los pocos que controlan estos poderosos sistemas de IA pueden moldear los resultados sociales de maneras que pueden no alinearse con el interés público más amplio.

Riesgos existenciales de sistemas de IA no alineados

Quizás la consecuencia más alarmante de priorizar la velocidad sobre la seguridad es el posible desarrollo de sistemas de “IA no autorizados”. La IA no autorizada se refiere a la inteligencia artificial que opera de maneras no previstas ni deseadas por sus creadores, y a menudo toma decisiones perjudiciales o contrarias a los intereses humanos.

Sin las precauciones de seguridad adecuadas, estos sistemas podrían representar amenazas existenciales para la humanidad. La búsqueda de capacidades de IA sin medidas de seguridad sólidas es una apuesta con resultados potencialmente catastróficos.

Abordar los problemas de seguridad de la IA con revisiones descentralizadas

Las medidas de seguridad interna tienen el riesgo de generar conflictos de intereses, ya que los equipos pueden priorizar los intereses corporativos y de los inversores sobre los públicos. Depender de auditores centralizados o internos puede comprometer la privacidad y la seguridad de los datos con fines comerciales.

Las revisiones descentralizadas ofrecen una posible solución a estas preocupaciones. Una revisión descentralizada es un proceso en el que la evaluación y supervisión de los sistemas de IA se distribuyen entre una comunidad diversa en lugar de limitarse a una sola organización.

Al fomentar la participación global, estas revisiones aprovechan el conocimiento y la experiencia colectivos, garantizando evaluaciones más sólidas y exhaustivas de los sistemas de IA. Este enfoque refleja la evolución de las prácticas de seguridad en el mundo de las criptomonedas, donde los concursos de auditoría y las revisiones colaborativas han mejorado significativamente la seguridad de los contratos inteligentes: acuerdos digitales autoejecutables.

Seguridad de la IA en el mundo de las criptomonedas

La intersección de la IA y la tecnología blockchain presenta desafíos de seguridad únicos. A medida que la IA emerge como una creciente subvertical dentro de la industria de la criptografía, cuyo valor se prevé superar los 2.700 millones de dólares para 2031, existe una necesidad apremiante de protocolos integrales de seguridad de contratos inteligentes e IA.

En respuesta a estos desafíos, Hats Finance, un mercado descentralizado de competencias de auditoría y recompensas de errores inteligentes, está implementando un programa descentralizado de seguridad de IA diseñado para democratizar el proceso de revisiones de seguridad de IA. Al democratizar la seguridad de la IA a través de competiciones impulsadas por la comunidad, Hats Finance pretende aprovechar la experiencia global para garantizar que los sistemas de IA sean resilientes y seguros.

Los investigadores de seguridad de Web3 pueden participar en concursos de auditoría para obtener recompensas. Fuente: Sombreros Finanzas

La investigación tradicional sobre seguridad de la IA a menudo se ha limitado a instituciones selectas, dejando sin explotar una gran cantidad de experiencia global. Hats Finance propone un modelo en el que la seguridad de la IA no es responsabilidad de unos pocos sino un esfuerzo colectivo.

Cómo funciona la revisión descentralizada de IA

El primer paso en el proceso de Hats Finance es que los desarrolladores envíen modelos de IA. Estos desarrolladores, que van desde investigadores independientes hasta grandes organizaciones, proporcionan sus modelos de IA para su evaluación. Al hacer que estos modelos estén disponibles para su revisión, los desarrolladores están dando un paso crucial hacia la transparencia y la responsabilidad.

Una vez enviados los modelos de IA, entran en la fase de participación abierta. En esta etapa, se invita a participar en el proceso de revisión a una comunidad diversa de expertos de todo el mundo. La naturaleza global de esta comunidad garantiza que el proceso de revisión se beneficie de una amplia gama de perspectivas y conocimientos.

A continuación, los modelos de IA se someten a evaluaciones multifacéticas en las que cada modelo es evaluado rigurosamente por un grupo diverso de expertos. Al incorporar varios puntos de vista y experiencia, el proceso de evaluación proporciona un análisis de las fortalezas y debilidades del modelo e identifica posibles problemas y áreas de mejora.

Después de una evaluación exhaustiva, se recompensa a los participantes que contribuyeron al proceso de revisión. Estas recompensas sirven como incentivos para que los expertos participen en el proceso de revisión y aporten sus valiosos conocimientos.

Finalmente, se genera un informe de seguridad completo para cada modelo de IA. Este informe detalla los hallazgos de la evaluación, destacando cualquier problema identificado y brindando recomendaciones para mejorar. Los desarrolladores pueden utilizar este informe para perfeccionar sus modelos de IA, abordar cualquier inquietud destacada y mejorar su seguridad y confiabilidad generales.

Fuente: Sombreros Finanzas

El modelo Hats Finance democratiza el proceso e incentiva la participación, asegurando que los modelos de IA sean examinados por un grupo diverso de expertos.

Adoptar la estructura DAO para una mayor transparencia

Hats Finance está haciendo la transición a una organización autónoma descentralizada (DAO) para alinearse aún más con sus objetivos. Una DAO es un sistema en el que los miembros toman decisiones colectivamente, lo que garantiza la transparencia y la gobernanza compartida. Este cambio, que se producirá después de la venta pública del pool de arranque de liquidez y el evento de generación de tokens del token nativo de Hats Finance, HAT, tiene como objetivo sostener el ecosistema de investigadores de seguridad y atraer talento global para las revisiones de seguridad de la IA.

Hat Hunters, $HAT LBP está programado para la próxima semana🔥

Inicio: 22 de julio de 2024, 15:00 UTC
Finaliza: 25 de julio de 2024, 15:00 UTC

🌐 Plataforma: @FjordFoundry
🔗 Red: Decisión
📦 Oferta: 4.000.000 de tokens (4% de la oferta total)
🚫 Adquisición de derechos: Ninguno

Tira del hilo para saberlo todo🧵 pic.twitter.com/A8MdUyAKij

– Hats.Finance 🦇🔊 (@HatsFinance) 16 de julio de 2024

A medida que la IA sigue dando forma al mundo, garantizar su implementación segura y ética se vuelve cada vez más crucial. Hats Finance, participante del Cointelegraph Accelerator, ofrece una solución prometedora al aprovechar las revisiones descentralizadas e impulsadas por la comunidad para abordar los problemas de seguridad de la IA. Al hacerlo, democratiza el proceso y fomenta un panorama de IA más seguro y confiable, alineándose con el objetivo más amplio de integrar la IA de maneras que sean beneficiosas y seguras para todos.

Obtenga más información sobre Hats Finance

Descargo de responsabilidad. Cointelegraph no respalda ningún contenido o producto de esta página. Si bien nuestro objetivo es brindarle toda la información importante que podemos obtener en este artículo patrocinado, los lectores deben hacer su propia investigación antes de tomar cualquier acción relacionada con la empresa y asumir la total responsabilidad de sus decisiones, y este artículo tampoco puede considerarse como un consejo de inversión. .