Brad Smith, presidente de la gran empresa tecnológica Microsoft, ha llamado a los gobiernos a "actuar más rápido" y a las corporaciones "dar un paso al frente" en medio de una aceleración masiva en el desarrollo de la inteligencia artificial (IA).

Hablando en un panel el 25 de mayo frente a legisladores estadounidenses en Washington D.C., Smith hizo el llamado mientras proponía regulaciones que podrían mitigar los riesgos potenciales de la IA, según un informe del New York Times.

La compañía ha pedido a las empresas que implementen "frenos de seguridad" para los sistemas de IA que controlan la infraestructura crítica y desarrollen un marco legal y regulatorio más amplio para la IA, entre otros.

La IA puede ser el avance tecnológico más trascendental de nuestra vida. Hoy anunciamos un plan de cinco puntos para la gobernanza de la IA. Aborda cuestiones actuales y emergentes, reúne a los sectores público y privado y garantiza que esta herramienta sirva a toda la sociedad. https://t.co/zYektkQlZy

— Brad Smith (@BradSmi) 25 de mayo de 2023

Smith es otro peso pesado de la industria que ha dado la voz de alarma sobre el rápido desarrollo de la tecnología de IA. El ritmo vertiginoso de los avances en IA ya ha dado lugar a una serie de desarrollos perjudiciales, incluidas amenazas a la privacidad, pérdidas de empleos a causa de la automatización y vídeos "deep fake" extremadamente convincentes que difunden sistemáticamente estafas y desinformación en las redes sociales.

El ejecutivo de Microsoft dijo que los gobiernos no deberían soportar todo el peso de las medidas y que las empresas también deben trabajar para mitigar los riesgos del desarrollo desenfrenado de la IA.

Los comentarios de Smith llegan a pesar de que Microsoft también ha estado trabajando en inteligencia artificial y, según se informa, ha desarrollado una serie de nuevos chips especializados que ayudarían a impulsar el chatbot viral de OpenAI, ChatGPT.

Aun así, Smith argumentó que Microsoft no estaba tratando de eludir la responsabilidad, ya que se comprometió a llevar a cabo su propia protección relacionada con la IA independientemente de si el gobierno lo obligaba, y afirmó:

“No hay ni un ápice de abdicación de responsabilidad”.

El 16 de mayo, el fundador y director ejecutivo de OpenAI, Sam Altman, testificó ante el Congreso, donde abogó por el establecimiento de una agencia de supervisión federal que otorgaría licencias a las empresas de IA.

El senador Lindsey Graham pregunta a los testigos en la audiencia sobre la regulación de la inteligencia artificial si debería existir una agencia para licenciar y supervisar las herramientas de IA. Todos dicen que sí, pero la directora de privacidad y confianza de IBM, Christina Montgomery, tiene estipulaciones: pic.twitter.com/UD7R8N7s23

— Yahoo Finanzas (@YahooFinance) 16 de mayo de 2023

Cabe destacar que Smith respaldó la idea de Altman de entregar licencias a los desarrolladores, diciendo que los servicios y desarrollos de IA de “alto riesgo” solo deberían llevarse a cabo en centros de datos de IA autorizados.

Desde que ChatGPT se lanzó por primera vez en noviembre del año pasado, ha habido pedidos generalizados de una supervisión más estricta de la IA, y algunas organizaciones incluso han sugerido que el desarrollo de la tecnología debería detenerse temporalmente.

El 22 de marzo, el Future of Life Institute publicó una carta abierta en la que pedía a los líderes de la industria que “pausaran” el desarrollo de la IA. La carta estaba firmada por varios de los principales líderes de la industria tecnológica, entre ellos el director ejecutivo de Tesla, Elon Musk, y el cofundador de Apple, Steve Wozniak. En el momento de la publicación, la carta había reunido más de 31.000 firmas.

AI Eye: ¿Gana un 500 % con los consejos sobre acciones de ChatGPT? Bard se inclina a la izquierda, memecoin de IA de 100 millones de dólares