La reciente decisión de la administración Biden de limitar el acceso de China a paquetes de software específicos, como el empleado en OpenAI, que impulsa ChatGPT, ha ampliado el alcance de las discusiones sobre la viabilidad de frenar la propagación de la inteligencia artificial. Surgen preocupaciones a medida que los modelos de IA de código abierto se vuelven populares porque, hasta cierto punto, estas regulaciones pueden volverse ineficaces debido a esta nueva tendencia creciente.

Estados Unidos refuerza los controles de exportación de IA

El gobierno de EE. UU. intenta evitar la propagación de herramientas de IA que pueden usarse para violaciones de seguridad aumentando los controles de exportación para dejar de suministrar modelos de IA que pertenecen a propietarios particulares. Estas nuevas medidas, que abarcan a China y algunos otros países, como Rusia e Irán, harán más difícil conocer y obtener tecnologías destinadas a la guerra o a los ciberataques. Se pueden denominar modelos personalizados, que no son de código abierto y son creados por líderes tecnológicos con sede en EE. UU. como OpenAI, Google DeepMind y Anthropic.

Mientras que el Departamento de Comercio de EE.UU. se entrega al proceso de redacción de nuevas regulaciones para implicar a qué control, por otro lado, la comunidad de inteligencia de EE.UU. está trabajando en nuevas formas de recopilar y analizar datos para atacar e interrumpir aún más las actividades terroristas dentro y más allá de las fronteras de EE.UU. . Estas sanciones se producen después de años de bloqueos anteriores a la exportación de mejores aparatos de inteligencia artificial a China, que han afectado significativamente a los mayores productores estadounidenses, como Nvidia. Por lo tanto, Nvidia ha comenzado a enviar chips menos capaces que no necesitan una licencia de exportación especial para atraer a los mercados fuera de Estados Unidos.

Los modelos de IA de código abierto desafían las restricciones a las exportaciones

Sin embargo, aunque estas regulaciones tienen como objetivo específico excluir los modelos de IA integrados, existe una tendencia creciente a adoptar modelos de código abierto en la industria, lo que, a su vez, puede, en algunos casos, resultar en el debilitamiento de estas medidas. Los modelos de código abierto son abiertos, lo que significa que el código y los datos de entrenamiento son aquellos que cualquiera puede obtener desde cualquier lugar del mundo. Esto queda claramente demostrado por el reciente plan de Meta de lanzar su modelo LLaMA 3 como código abierto y el previsto lanzamiento de la familia de modelos abiertos por parte de Google, y plantea dudas sobre si habrá un logro deseado si el acceso a modelos propietarios permanecer cerrado.

El analista senior de GlobalData, Josep Bori, comenta que el movimiento hacia el código abierto hace que las regulaciones sean menos significativas debido al hecho de que no existe protección de patentes; por lo tanto, cualquiera puede acceder a cualquier modelo no propietario de forma gratuita y utilizarlo. Aunque hasta ahora parece fácil hacerlo, sostiene que controlar la tecnología de IA es incluso más difícil de lo que creemos.

Las crecientes limitaciones en Oriente debido a la restricción de la difusión de la IA de esta manera pueden dividir la esfera de la tecnología y desarrollar desafíos a largo plazo que podrían afectar el sistema de inteligencia artificial global. Christoph Cemper, director ejecutivo de AIPRM, se muestra bastante escéptico en cuanto a que el escenario del fin del mundo no obstaculizaría el desarrollo de sistemas seguros de IA. Hasta ahora, la investigación de la IA ha sido principalmente una tarea global y la cooperación internacional ha ido en aumento. Aún así, los países autoritarios podrían intentar dividir el campo, y esto podría tener un impacto negativo en el progreso.

La situación podría surgir en los sótanos, ya que otro ecosistema de IA paralelo podría interferir con el comercio global y, por lo tanto, podría tener un gran impacto en las empresas que dependen de cadenas de suministro transfronterizas. La práctica existente, que depende de la cooperación entre empresas estadounidenses y de Huawei, está ahora en peligro porque nuevas restricciones podrían romper con esta práctica de larga data. Un efecto colateral de la IA que ahora obviamente ha afectado el acceso parece imprudente cuando se hace de manera cooperativa para abordar los grandes desafíos que existen hoy para la humanidad, dice Cemper.

Implicaciones globales para el mercado de la IA

Seguramente el mercado de la IA todavía está experimentando algunos problemas restrictivos, lo que demuestra un alto nivel de crecimiento. Un análisis de mercado realizado por GlobalData calcula que el mercado mundial de la IA alcanzará un valor de 909 mil millones de dólares para 2030, y la tasa de crecimiento anual compuesta (CAGR) a partir de 2022 será del 35%. De ahora en adelante, se prevé que el mercado de chips de IA tendrá un valor total de alrededor de £116 mil millones para 2030 debido a la creciente demanda de diferentes sectores de la economía.

La evolución de las regulaciones podría transformar las cadenas de valor globales y reestructurar las industrias, lo que podría sonar como la sentencia de muerte para las ganancias de las empresas si tienen que idear nuevas estrategias comerciales. Se especula mucho que la reciente restricción de los controles de exportación es directamente proporcional a una lucha feroz para ganarse a las empresas tecnológicas de Estados Unidos y China. Es un catalizador para la innovación en ambas partes, con una reducción potencial de la colaboración.

La competencia de la solución de la administración estadounidense se predecirá por la forma en que las medidas mencionadas logren desacelerar la frenética adquisición de tecnología de inteligencia artificial de los competidores sin comprometer la innovación ni aumentar los problemas económicos de los dos países.