La guía de IA

Un blog sobre inteligencia artificial, generado 90% por inteligencia humana.

De China, DeepSeek, la carrera por la IA y por qué debería importarte

·

,

Image generated by ChatGPT

Hay una analogía que puede resumir lo que ha pasado estas semanas con DeepSeek y OpenAI: la carrera por desarrollar más y mejor inteligencia artificial (IA) es la carrera espacial de nuestra generación. El principal cambio es que esta vez no es la Unión Soviética sino China la que se encuentra enfrentada a Estados Unidos y el acontecimiento más reciente, para seguir con la metáfora, es que el gigante asiático no solo ha puesto un satélite en órbita; ha puesto un hombre en la luna.

Es que, en un mundo en que la IA es cada vez más ubicua, controlarla es controlar el flujo de información y, hasta ahora, la ventaja ganada por Estados Unidos en este aspecto—con potentes tanques de guerra como Meta, Google, OpenAI y sus respectivos modelos—parecía irreversible.

«En la guerra, practica el disimulo y tendrás éxito»

El arte de la guerra, Sun Tzu

Por las dudas y para asegurarse la victoria, los norteamericanos habían efectuado en los últimos años un ataque coordinado en principio letal: el bloqueo de la exportación de chips y GPUs de Ndivia, una herramienta que se creía indispensable para generar modelos tan potentes como, por ejemplo, los de OpenAI. Esta acción buscaba limitar la posibilidad de desarrollo de sus rivales políticos.

Y por un tiempo fue así. Los colosos tecnológicos estadounidenses siguieron desarrollando nuevas innovaciones y modelos cada vez más revolucionarios. En diciembre OpenAI, hasta ahora poseedor del modelo (pago) más potente, el modelo o1, hizo el equivalente en esta metáfora de guerra a un desfile militar para exponer su poderío: los 12 días de OpenAI, un evento que contó con un nuevo e innovador anuncio cada día, durante doce días.

Proclamando que gastar más era la única forma de progresar (sin importar cuántos ríos secaran o glaciares derritieran con sus grandes y costosos centros de procesamiento), Sam Altman (CEO de OpenAI), Mark Zuckerberg (CEO de Meta), Elon Musk (CEO de Tesla y Twitter, perdón, X) y sus secuaces siguieron su arremetida. La victoria de Donald Trump en las elecciones estadounidenses de 2024 solo sumó más viento a sus camisetas. Muchos de estos CEOs de tecnología otrora autoproclamados estandartes del progresismo ahora ocupaban lugares de privilegio en la ceremonia de asunción del nuevo presidente republicano. Mensaje recibido. Pero además, por si quedaba alguna duda, recién mudado a la Casa Blanca y flanqueado por los CEOs de OpenAI, Oracle y Softbank, Trump ponderó ante la prensa y a viva voz una inversión de 500 mil millones de dólares en Stargate, un nuevo proyecto de inteligencia artificial.

Estados Unidos se veía al frente de la carrera por la inteligencia artificial con mucha holgura y no hacía ningún esfuerzo por ocultar su triunfo. Sin embargo, el regodeo duraría poco.

«El supremo arte de la guerra es someter al enemigo sin luchar»

El arte de la guerra, Sun Tzu

Tan solo días después del pomposo anuncio, China pateó el tablero con el inesperado anuncio de un nuevo modelo de inteligencia artificial: el R1, de la empresa DeepSeek. De repente, esa holgada ventaja que Estados Unidos estaba tan seguro de tener, se esfumó. El modelo parecía tener un desempeño equiparable al del modelo o1 de OpenAI y mayor que cualquier otro modelo open source en el mercado.

Open source, sí, porque DeepSeek no fue publicado como un modelo pago; fue puesto a disposición de la comunidad tecnológica para que pudiera utilizarlo, descargarlo en sus computadoras e incluso refinarlo para adaptarlo a sus necesidades de forma completamente gratuita.

Inmediatamente, empresas como OpenAI—que ofrecen sus modelos más avanzados bajo planes de suscripciones—empezaron a preguntarse cómo era posible que China, supuestamente años atrás en avances de inteligencia artificial, pudiera haber logrado tal hazaña, incluso bajo las restricciones impuestas para obtener GPUs estadounidenses.

No tendrían que buscar mucho para encontrar la respuesta porque el lanzamiento de R1 se vio acompañado de la publicación de un paper detallando no solo su poderío, sino también cómo lo habían alcanzado. Y, ¿la sorpresa? Pues justamente que no había una gran sorpresa. China no había descubierto algún nuevo algoritmo mágico o GPU superpoderoso. Lo hecho por DeepSeek lo podría haber hecho cualquier otra empresa dedicada a la IA. Pero no lo hizo cualquier empresa. Lo hizo una empresa china. Es que, engañados por el jolgorio de liderar esta guerra tecnológica, los norteamericanos habían olvidado una vieja enseñanza: la necesidad es la madre de la invención.

«Ganará quien sabe cuándo pelear y cuándo no pelear»

El arte de la guerra, Sun Tzu

Dicen las malas lenguas que el impedimento a acceder a los poderosos GPUs de la estadounidense Ndivia sería, justamente, lo que propulsó a los científicos chinos a alcanzar este gran hito. Un hito que, como decíamos, no es grandioso por ser inesperado o excesivamente innovador. Más bien lo contrario: es sobresaliente por su simpleza.

Sin entrar en mayor detalle técnico, esto es lo importante a entender sobre cómo DeepSeek llegó a desarrollar su modelo R1:

  • Hasta ahora, la mayoría de los grandes modelos se desarrollaban utilizando algo llamado Supervised Fine Tuning (o SFT). SFT es una técnica que busca refinar modelos «preentrenados» con grandes cantidades de datos. En breve, implica proporcionar al modelo un nuevo conjunto de datos etiquetados con anotaciones e indicaciones. Por ejemplo, puede incluir prompts similares a las que podría recibir y sus respuestas esperadas. De cierta forma, es como agarrar al modelo de la mano y explicarle cómo desearíamos que resuelva ciertas situaciones.
  • Esta técnica suele ser complementada con otra llamada Reinforcement Learning (RL). En este caso, se recompensa o penaliza al modelo según sus respuestas. De esta forma, el modelo aprende qué se espera de él, pero lo hace de una forma menos supervisada que con SFT.
  • El diferencial de DeepSeek fue ponerse creativos con recursos limitados. Para lograrlo, redujeron considerablemente la etapa de supervised fine tuning (que requiere de costosos datos etiquetados) y se enfocaron en el método de reinforcement learning. Además, encontraron que podían conseguir más y mejores resultados si, como parte del proceso de RL, además de recompensar/penalizar al modelo por sus respuestas, le proporcionaban devoluciones sobre su proceso de razonamiento.

El resultado: un modelo con un desempeño igual o mejor que el de sus competidores, por un precio mucho menor. Se estima que, para desarrollar su modelo R1, DeepSeek utilizó unos 50 mil GPUs de Ndivia (algunos adquiridos previo al bloqueo de exportaciones y otros por vías alternativas). Pueden parecer muchos, pero se estima que empresas como OpenAI, Meta o Google utilizan unos 500 mil GPUs para entrenar a sus modelos.

Además, DeepSeek dice haber gastado solo unos 6 millones de dólares para entrenar este modelo. Si bien puede haber dudas sobre qué incluye este monto y si el total realmente es tan bajo, sigue estando muy lejos de los presupuestos astronómicos de sus competidores.

«Si tu oponente es de temperamento colérico, busca irritarlo. Pretende ser débil, para que se vuelva arrogante»

El arte de la guerra, Sun Tzu

¿Y ahora qué? ¿Ganó China la carrera de la inteligencia artificial? ¿Serán ellos quienes controlen el flujo de la información? No necesariamente. Pero en realidad tampoco parece haber sido ese el objetivo de esta batalla.

Si ese fuera el caso, China podría haberse guardado el secreto de cómo entrenó un modelo tan rápido y con tan bajos recursos. Los científicos de DeepSeek podrían no haber publicado un paper, haber lanzado un chatbot con la potencia de chatGPT de acceso gratuito, pero no totalmente open source, y conformarse con verlo trepar en los rankings de la App Store (como sucedió poco después de la publicación de R1).

Pero no hizo eso, DeepSeek mostró sus cartas y así como cualquier empresa podría haber realizado este descubrimiento, cualquier empresa puede ahora replicarlo. China publicó la receta de la Coca Cola para que Pepsi o cualquier otro la dupliquen. ¿Por qué?

Puede haber muchas razones, pero el colapso de las bolsas arrastradas por la caída en las acciones de las mayores tecnológicas el día luego de la publicación de R1 puede servirnos de indicio.

Quizás mañana Meta, Google, OpenAI o algún jugador más publiquen un modelo más poderoso que R1. Seguramente podrían haberlo hecho sin seguir las técnicas de DeepSeek, pero ahora también lo puede hacer otro. Lo puede hacer una empresa estadounidense con menos lazos con el gobierno, lo puede hacer una empresa europea. En teoría, lo podría hacer cualquiera. La carrera ahora está abierta para todos.

Y el hecho de que el modelo R1 sea open source implica que ya está siendo adoptado por desarrolladores en todo el mundo, ya que su transparencia permite refinarlo con facilidad, instalarlo en equipos propios por más seguridad y seguir construyendo sobre este avance.

Que ese fue otro gran hito de la R1 de DeepSeek: usó los avances en IA generativa de los últimos años como plataforma para saltar más alto. OpenAI y sus amigos querrán tildarlo de plagio, pero, después de todo, ¿no usó OpenAI todo el contenido público de internet (sin reparo alguno por proteger la propiedad intelectual de sus creadores) para entrenar a chatGPT? ¿No ha sido esta la forma en que siempre avanzó la ciencia? ¿Podría acusarse de plagio a un matemático por usar en su teoría conceptos de Pitágoras?

No podemos saber muy bien cómo va a seguir esta historia, pero lo que podemos saber es que este ha sido un punto de inflexión. China demostró que puede estar a la par de Estados Unidos en esta tecnología y también que cualquier otra potencia puede estarlo. Con esa simple acción, logró desestabilizar el dominio estadounidense. Hay quienes hablan de una democratización de la inteligencia artificial y veremos si verdaderamente es así (mi escepticismo no me permite mucha esperanza en este aspecto), pero lo que es seguro es que podemos esperar más movimientos.

Deja un comentario

¡Quiero más!

¿Te gustó este post? ¿Querés ser el primer humano en enterarte cuando se publique el próximo?