Según Cointelegraph, el profesor y autor de Wharton Ethan Mollick sugirió recientemente que los operadores financieros serían los primeros en darse cuenta si la inteligencia artificial (IA) se vuelve más inteligente que los humanos. Mollick compartió sus puntos de vista en la plataforma de redes sociales X el 24 de septiembre, lo que provocó numerosas respuestas de la comunidad de criptomonedas.

Los comentarios de Mollick se centraron en la inteligencia artificial general (IAG), un término que designa a un sistema de IA capaz de realizar cualquier tarea que un humano podría realizar, si se le concedieran los recursos adecuados. Insinuó que el potencial de dominar el mercado financiero global a través de un sistema de IA avanzado sería irresistible para la organización que lo respalda. Mollick afirmó: “Si la IAG es alcanzable, las primeras personas que lo sabrán serán los operadores, que de repente descubrirán que todas sus buenas estrategias y operaciones ya no funcionan, y que una empresa desconocida está del lado ganador de todas ellas”.

Si bien no existe un punto de referencia científico que indique cuándo o cómo un sistema de IA normal se convertiría en un sistema de IA general, algunas empresas involucradas en el desarrollo de IA afirman que la IA de nivel humano será posible dentro de unos pocos años. En algunos escenarios, los científicos predicen que la IA general podría surgir de los esfuerzos combinados de muchos desarrolladores de una manera autoevolutiva que incluso podría sorprender a sus creadores. Un sistema de IA de este tipo podría infiltrarse en el sistema de comercio financiero, posiblemente a través de la manipulación de criptomonedas o altcoins, y llevar a cabo esfuerzos coordinados de comercio masivo en activos digitales. Esto también podría ocurrir dentro de los mercados de valores o los sistemas bancarios de cualquier nación en red.

Sin embargo, si el desarrollo de la IAG requiere una supervisión y una guía humanas continuas, los comerciantes podrían no ser los primeros humanos afectados por su aparición. Un desarrollador de IA cuestionó recientemente: “Si el o1 de OpenAI puede pasar la entrevista de contratación de ingenieros de investigación de OpenAI para codificación (con una tasa del 90% al 100%), ¿por qué seguirían contratando ingenieros humanos reales para este puesto?”. Añadió que “todas las empresas están a punto de hacerse esta pregunta”. La primera señal de que las máquinas se han vuelto tan capaces como los humanos podría ser cuando las empresas dejen de contratar ingenieros y desarrolladores.