Roman Yampolsky, un experto en seguridad de la IA, no está de acuerdo con la reciente evaluación de Elon Musk de que sólo hay entre un 10 y un 20% de posibilidades de que la IA mate a la humanidad.

¿Condenará en última instancia la inteligencia artificial a la humanidad? Dependiendo del experto en ciberseguridad con el que hable, las probabilidades varían mucho, pero un experto definitivamente tiene una opinión sombría o más bien apocalíptica que Elon Musk no comparte.


Business Insider informó revelaciones de la reciente Cumbre de la Abundancia (el mes pasado) donde, durante el "Gran Debate sobre la IA", Musk estimó el riesgo de que la IA acabe con la humanidad en aproximadamente un 10% o un 20%. Obviamente, esto es una especie de suposición psíquica, pero la esencia general de la filosofía del multimillonario es que debemos avanzar en el desarrollo utilizando inteligencia artificial, ya que los probables resultados positivos superan cualquier escenario negativo.


Elon Musk cree en un futuro brillante para la humanidad, donde la inteligencia artificial ayude a las personas y no intente destruirnos.



En la valoración de Musk, lo que no se menciona es que el escenario negativo que corremos es el de la destrucción de toda la humanidad. Podría decirse que esto inclina fuertemente la balanza en contra del impacto positivo de los chatbots. En cualquier caso, la teoría de la probabilidad de Musk definitivamente no es compartida por Roman Yampolsky, director del Laboratorio de Ciberseguridad de la Universidad de Louisville, experto en seguridad de la IA y autor de numerosos libros sobre el tema.

Yampolsky expresó la opinión de que Musk es conservador y que la probabilidad de un desenlace fatal en el que la IA acabe con la humanidad, o nos esclavice, o un escenario similar impensable, es muy superior al 20%. Entonces, ¿cuál es la probabilidad de muerte, según el científico experto ruso? Bueno, quizás no le guste saber que Yampolsky estima que esta probabilidad es del 99,999999%. Lo que, por supuesto, significa casi un cien por cien de certeza.

El experto en seguridad ruso está tratando de llegar a todos nosotros y plantear preocupaciones muy serias sobre el desarrollo de la IA, en lugar de limitarse a predecir la ruina inminente de la humanidad. Pero estos temores deben ser extremadamente convincentes para que él haga una evaluación tan siniestra. La filosofía subyacente de Yampolsky es que, dado que una inteligencia artificial suficientemente avanzada será imposible de controlar una vez creada, la mejor opción es tomar medidas ahora para evitar que surja dicha IA. Por supuesto, todo el mundo entiende de dónde viene este punto de vista.

Un informe más optimista afirma que la probabilidad de que nuestra inteligencia artificial desaparezca oscila entre el 5% y el 50%, según los principales expertos en tecnología de Silicon Valley. Incluso un 50% de posibilidades de que se produzca un apocalipsis es preocupante, seamos honestos. Si te ofrecieran una pastilla y te dijeran que tienes un 50% de posibilidades de adquirir habilidades sobrehumanas o un 50% de posibilidades de morir instantáneamente, ¿la tomarías? Pensamos que nos negaríamos, pero hay quienes podrían estar dispuestos a correr ese riesgo.

#BullorBear #BinanceLaunchpool #TwitterCryptoRevolution #ElonMuskTalks #GPT-4