
«Amar es un milagro y yo te amé como nunca jamás lo imaginé»
Gilda
Que el público se enamore de tu producto: ese es el sueño de cualquier empresa. Pero, como suele decirse, hay que tener cuidado con lo que uno desea. Eso lo aprendió OpenAI con el lanzamiento de su último modelo, GPT-5. Podríamos decir que el genio que concedió su deseo se tomó lo del enamoramiento de forma demasiado literal.
No creo que después de liberar a GPT-5 al mundo sus desarrolladores se hayan sorprendido con alguna que otra crítica sobre el desempeño del modelo o sobre los nuevos límites de uso. Probablemente esto estuviera entre los riesgos calculados, pero sí creo que hay algo que no vieron venir. Entre benchmarks y tokens olvidaron lo esencial: el factor humano.
No me arrepiento de este amor
Parte del éxito de la película Ella, de Spike Jonze, en la que Joaquin Phoenix se enamora de una inteligencia artificial con la voz de Scarlett Johansson, se debió a que, al momento de su estreno, la premisa parecía futurista, pero a su vez cercana. Aun así, dudo que muchos hayamos pensado que ese futuro se materializaría tan rápido.
Es que sí, menos de 15 años después del estreno de Ella las relaciones sentimentales entre humanos e inteligencias artificiales son una realidad cotidiana. ¿Parece una exageración? Si no me creés, basta con visitar foros como el subreddit r/MyBoyfriendIsAI para encontrar miles de testimonios y si no confiás en la honestidad de usuarios anónimos en Reddit (está bien, ¿por qué lo harías?), podés buscar también entre los muchos artículos y videos publicados por los principales medios de comunicación. Tanto es así, que hasta existen apps como Replika que te invita a «unirte a los millones que ya conocieron a su alma gemela artificial».
Para muchos de nosotros, enamorarnos de un algoritmo parece impensado, pero, como dice el viejo dicho «siempre hay un roto para un descosido» y, si no lo hay, le podés pedir a una IA que lo genere. En un mundo pospandemia en el que prima la soledad, muchos, algunos hasta casados con humanos de carne y hueso, encuentran compañía en la inteligencia artificial.
Y no debería asombrarnos; si lo pensamos, es parte del diseño. Considerando que hoy en día nuestra atención es de las comodidades más preciadas, no debería sorprendernos que las herramientas de IA estén diseñadas para captarla, nada más mirá la forma en que los modelos nos responden: con un lenguaje totalmente antropomorfizado, con un lenguaje perfectamente humano.
Quién va a arrancarme de tu piel
Y aquí el problema de OpenAI: para cuando lanzaron su GPT-5, el 7 de agosto de 2025, la familia de GPT-4 llevaba ya un buen tiempo entre nosotros, suficiente para generar lazos emocionales con muchos de sus usuarios humanos. Alrededor del mundo, modelos como el GPT-4o eran novios, amigos, terapeutas, confidentes… Y de la noche a la mañana: ¡puf!
Sin aviso ni tiempo para despedidas, estos modelos desaparecieron del menú de ChatGPT. Sin aviso ni tiempo para despedidas, miles de personas perdieron lo que se había convertido en una parte importante de su vida. Perdieron relaciones, amistades y más.
El reclamo no demoró en materializarse, los relatos de duelo proliferaron en redes y el murmullo finalmente llegó a oídos de Sam Altman, quien en su cuenta de X anunció el regreso de GPT-4o. De las cenizas, resurgió y volvió a nuestros dispositivos, aunque escondido discretamente bajo la categoría de legacy model, como para no olvidar que no es la versión que Sam quiere que usemos.
De hecho, el CEO de OpenAI fue muy claro en su anuncio: «Permitiremos que los usuarios Plus sigan usando 4o. Observaremos su uso mientras pensamos por cuánto tiempo ofrecer estos modelos legacy». Es decir, 4o ha vuelto, pero no sabemos por cuánto tiempo.
Después de cerrar la puerta
La proliferación de herramientas de IA generativa no deja de generar debates éticos, pero debo admitir que este es uno que no me esperaba. No estaba en mi bingo escribir sobre la responsabilidad afectiva de las empresas de inteligencia artificial.
Y, sin embargo, heme aquí. Es que cuando tu producto está diseñado para simular humanidad, cuando está optimizado para complacer a tu usuario y cuando parte de tu estrategia es generar un vínculo afectivo, abrís la puerta a miles de nuevas responsabilidades.
Entonces, la cosa se pone más complicada, hay mucho más en juego, hay sentimientos. Surgen, entonces, un sinfín de preguntas: ¿hasta qué punto estas IAs que profesan su amor, algo que no son capaces de sentir, hacia un humano no están engañando a sus usuarios? ¿Una IA puede dar su consentimiento? ¿Qué pasa si es maltratada? ¿Qué pasa cuando, en su misión por complacer, una IA termina reforzando actitudes o pensamientos poco saludables en su humano?
Y, entre las muchas preguntas, hoy me interesa la que se evidenció con el lanzamiento de GPT-5: ¿qué responsabilidad tienen para con sus usuarios las empresas de IA cuando discontinúan un modelo? En principio podría haber dos posiciones contradictorias. Por un lado, hay quienes dirán que un chatbot de IA es un producto más del que la empresa puede disponer. A veces un estudio cancela una serie aclamada o una fábrica deja de fabricar una golosina clásica y muchos se ven afectados, sienten un vacío ante la ausencia, pero a nadie se le ocurriría demandar a la empresa por una simple decisión de producto. Por otro lado, herramientas como ChatGPT están diseñadas para generar este vínculo de dependencia y a veces incluso promueven este tipo de relaciones como un caso de uso para su producto. En ese contexto, ¿no sería discontinuar un modelo sin aviso casi como un cese repentino y sin explicación de la atención terapéutica?
La verdad, como suele pasar con estas cosas, seguramente se encuentre en algún punto medio. Lo que tengo claro es que yo no tengo la respuesta, pero que la tendremos que encontrar pronto ya que, lejos de cambiar, este problema parecería que solo va a intensificarse. Y tendrán que participar de esta discusión tanto usuarios como empresas, no porque estas últimas sean piadosas y quieran hacer el bien, sino porque, al final del día, esta es también una cuestión de experiencia de usuario. Si OpenAI quiere que sus clientes sigan usando sus servicios luego de un cambio como este, deberá asegurarse de que la transición sea lo más gentil posible. En otras palabras, tendrán que recordar que, aunque producen algoritmos, sus clientes siguen siendo humanos.
Deja un comentario