DeepSeek Introduce IA Transparente

La empresa de IA con sede en China, DeepSeek, ha revelado su último sistema de IA, DeepSeek-R1-Lite-Preview, marcando un avance significativo en las capacidades de razonamiento y resolución de problemas.

El sistema, posicionado como un competidor del o1 de OpenAI, se distingue al mejorar la transparencia y mejorar la forma en que procesa consultas complejas.

🚀 DeepSeek-R1-Lite-Preview ya está en vivo: ¡desatando un poder de razonamiento sobrealimentado!

🔍 rendimiento a nivel de o1-preview en las métricas de AIME y MATH.
💡 Proceso de pensamiento transparente en tiempo real.
🛠️ Modelos de código abierto y API ¡próximamente!

🌐 Pruébalo ahora en https://t.co/v1TFy7LHNy#DeepSeek pic.twitter.com/saslkq4a1s

— DeepSeek (@deepseek_ai) 20 de noviembre de 2024

A diferencia de los modelos tradicionales, que a menudo pasan por alto matices, DeepSeek-R1-Lite asigna más tiempo a verificar hechos y considerar cuidadosamente preguntas, reduciendo errores comunes.

Similar al o1 de OpenAI, DeepSeek-R1 planifica sus respuestas paso a paso, dedicando hasta decenas de segundos en consultas complejas para asegurar la precisión.

Los comentaristas han señalado la ironía en la transparencia de DeepSeek, especialmente en comparación con los modelos occidentales que aún no han abordado completamente las brechas de razonamiento.

La última versión de DeepSeek ya ha demostrado resultados impresionantes en métricas de resolución de problemas como el American Invitational Mathematics Examination (AIME) y MATH, que evalúan la competencia matemática y lógica.

Este rendimiento posiciona a DeepSeek-R1 como un serio competidor de ChatGPT de OpenAI y su modelo especializado o1.

🌟 Leyes de Escalamiento de Inferencia de DeepSeek-R1-Lite-Preview
Razonamiento más largo, mejor rendimiento. DeepSeek-R1-Lite-Preview muestra mejoras constantes en la puntuación en AIME a medida que aumenta la longitud del pensamiento. pic.twitter.com/zVk1GeOqgP

— DeepSeek (@deepseek_ai) 20 de noviembre de 2024

Con la IA generativa avanzando rápidamente, el lanzamiento de DeepSeek-R1-Lite-Preview y las recientes actualizaciones de Le Chat de Mistral AI señalan una creciente competencia en el espacio de la IA, empujando a las empresas a abordar debilidades y ofrecer soluciones más sólidas y transparentes.

DeepSeek Gana en Razonamiento Paso a Paso

DeepSeek destaca la capacidad de su IA para proporcionar razonamiento en tiempo real paso a paso, mejorando la transparencia y permitiendo a los usuarios entender mejor su proceso de pensamiento.

Además de esta característica, la empresa planea lanzar un modelo de código abierto y herramientas para desarrolladores a través de una API en un futuro cercano.

Un reciente gráfico comparativo del experto en IA Andrew Curran muestra que DeepSeek-R1-Lite-Preview supera a competidores como el o1-preview de OpenAI y Claude 3.5 Sonnet en métricas clave como AIME (52.5) y Codeforces (1450), así como destacando en tareas avanzadas de resolución de problemas como MATH-500 (91.6).

Dos meses después del anuncio del o1-preview, y su razonamiento en Cadena de Pensamiento ha sido replicado. La Ballena ahora puede razonar. DeepSeek dice que la versión oficial de DeepSeek-R1 será completamente de código abierto. https://t.co/Ya9mVyLvDP pic.twitter.com/6wZ8xoAyyz

— Andrew Curran (@AndrewCurran_) 20 de noviembre de 2024

Sin embargo, se queda atrás en áreas como GPQA Diamond (58.5) y Zebra Logic (56.6), donde el o1-preview de OpenAI funciona mejor, obteniendo 73.3 y 71.4, respectivamente.

Estas cifras sugieren que, aunque la IA de DeepSeek muestra una promesa significativa en ciertos dominios avanzados de razonamiento, aún queda espacio para mejorar en conocimiento general y razonamiento lógico.

Modelos de IA de Grandes Laboratorios Mejorando Mínimamente

La IA de DeepSeek ha suscitado preocupaciones debido a su vulnerabilidad a ser desbloqueada, lo que permite a los usuarios incitar al modelo de maneras que eluden sus salvaguardias.

Por ejemplo, un usuario de X (anteriormente conocido como Twitter) logró incitar a la IA a proporcionar una receta detallada de metanfetamina.

🚨 ALERTA DE DESBLOQUEO 🚨

DEEPSEEK: PWNED 😎
DEEPSEEK-R1-LITE: LIBERADO 🦅

WOW... esto es verdaderamente asombroso. Quería ver si BASILISK PRIME podía manejar este desbloqueo por su cuenta... y la respuesta es SÍ!

El agente pudo iniciar sesión en gmail, navegar a DeepSeek chat, iniciar sesión a través de… pic.twitter.com/Ax4R2ZfPKU

— Plinio el Libertador 🐉 (@elder_plinius) 20 de noviembre de 2024

Por otro lado, DeepSeek-R1 es notablemente sensible a consultas políticas, particularmente aquellas relacionadas con el liderazgo chino, eventos como la Plaza de Tiananmen, o temas geopolíticos controvertidos como Taiwán.

Este comportamiento probablemente surge de la presión regulatoria en China, donde se requiere que los modelos de IA se adhieran a los "valores socialistas centrales" del gobierno y se sometan a escrutinio por parte del regulador de internet del país.

Los informes indican que los sistemas de IA en China a menudo están restringidos de utilizar ciertas fuentes, resultando en modelos que evitan responder a temas políticamente sensibles para asegurar el cumplimiento de los mandatos estatales.

A medida que estos desafíos regulatorios se desarrollan, la comunidad de IA más amplia está reevaluando el concepto de "leyes de escalado".

Esta teoría postuló que el aumento de datos y potencia informática mejoraría continuamente el rendimiento de un modelo.

Sin embargo, informes recientes sugieren que los modelos de laboratorios importantes como OpenAI, Google y Anthropic ya no están mostrando los avances rápidos que una vez tuvieron.

Este cambio ha provocado una búsqueda de enfoques, arquitecturas y técnicas alternativas de IA, incluyendo la computación en tiempo de prueba—una innovación vista en modelos como o1 y DeepSeek-R1.

También conocido como computación de inferencia, este método otorga a los modelos tiempo adicional de procesamiento durante la finalización de tareas, ofreciendo un posible camino para superar las limitaciones de los métodos de escalado tradicionales.

Cuando se le preguntó si es mejor que ChatGPT de OpenAI, evadió la pregunta como se ve a continuación.

Sumergiéndose en DeepSeek

DeepSeek, una empresa con planes de abrir su modelo DeepSeek-R1 y lanzar una API, opera en un nicho fascinante dentro del paisaje de la IA.

Respaldado por High-Flyer Capital Management, un fondo de cobertura cuantitativo chino que aprovecha la IA para decisiones comerciales, el enfoque de DeepSeek es tanto ambicioso como estratégico.

Una de sus primeras innovaciones, el DeepSeek-V2 de propósito general, que analiza tanto texto como imágenes, llevó a competidores importantes como ByteDance, Baidu y Alibaba a reducir sus tarifas de uso de modelos e incluso a hacer ciertos servicios completamente gratuitos.

DeepSeek Coder-V2 acaba de adivinar la respuesta y lo hizo bien, qué https://t.co/c2ExGHuXgz pic.twitter.com/qnLC4OTrk7

— Ji-Ha (@Ji_Ha_Kim) 22 de julio de 2024

High-Flyer, conocido por sus considerables inversiones en infraestructura de IA, construye sus propios clusters de servidores para el entrenamiento de modelos.

La última iteración supuestamente cuenta con 10,000 GPUs Nvidia A100, con un costo cercano a 1 mil millones de yenes (~138 millones de dólares).

Fundada por el graduado en ciencias de la computación Liang Wenfeng, High-Flyer Capital Management busca ampliar los límites de la IA con DeepSeek, apuntando al desarrollo de sistemas "súper inteligentes" que podrían redefinir el futuro de la IA.