
«Uno de los principales casos de uso de ChatGPT es salud»
Sam Altman, CEO de OpenAI, en el lanzamiento de GPT-5
Sabíamos que en el correr de este año OpenAI lanzaría su familia de modelos GPT-5. El mismísimo Sam Altman se había encargado de hacérnoslo saber en numerosas entrevistas. Lo que no teníamos claro era qué tan innovador y disruptivo sería, a pesar de los evidentes intentos de Altman de generar hype alrededor de su producto estrella.
Este pasado jueves siete de agosto, con una ya clásica transmisión en vivo en el canal de YouTube de la empresa1, el misterio finalmente se develó. Si GPT-5 cumple o no con las muchas expectativas generadas a su alrededor es más que debatible. Sin embargo, no es en ello que se centra este artículo.
A menos de 24 horas del lanzamiento, sobran las lecturas sobre el impacto de este nuevo producto y sin dudas hay múltiples reseñas y videos con análisis mucho más ricos y profundos de los que yo podría producir. Pero este artículo busca en realidad digerir algo que, a juzgar por los titulares hasta ahora publicados en los principales medios, parecería haber pasado más desapercibido. Curioso, considerando que, al menos en mi entorno, fue el centro de las conversaciones tras terminar la transmisión.
«GPT-5 es el mejor modelo para la salud»
Su nombre es Carolina. Viste colores neutros, maquillaje sutil, pero expertamente aplicado y pelo extremadamente corto. Es presentada por Sam Altman—quien acaba de volver a nuestras pantallas—como la esposa de Felipe, «un colega». La presentación de la pareja se da luego de un breve discurso sobre las virtudes de ChatGPT, y en particular su nuevo modelo, en el campo de la salud. Para el espectador atento, no es difícil adivinar lo que está por suceder.
En una entrevista cuidada y claramente guionada (quizás por el mismo GPT-5), Altman conversa con la pareja sobre lo maravilloso que fue contar con ChatGPT durante la crisis de salud que Carolina atravesó recientemente. Ella, cuenta, fue diagnosticada con tres tipos de cáncer, uno de ellos extremadamente agresivo, en tan solo una semana. Se enteró de la noticia mediante un correo electrónico con el resultado de su biopsia. Desenredando el lenguaje técnico del informe que había recibido, pudo dilucidar que las noticias no eran buenas, pero gran parte de la información le era imposible de comprender. Angustiada, buscó claridad en ChatGPT, a quien le pidió que le tradujera el informe médico a un lenguaje más accesible.
¿Está mal? Capaz, pero, en una situación como la de ella, ¿quién de nosotros puede decir que no habría hecho lo mismo? La mayoría habríamos corrido a los brazos de ChatGPT, WebMD u otra herramienta de turno. Nuestro cerebro está programado así. Ante la incapacidad de predecir el resultado con la información a su disposición, se activa en modo ansiedad y nos manda en busca de algo de lo que aferrarse2.
Esto no solo le pasó a Carolina cuando recibió su diagnóstico. Tiempo después, cuando los médicos le presentaron distintas opciones de tratamiento, encontró muy difícil poder tomar esa decisión. Su caso, según relata, era sumamente complejo y los diferentes especialistas no coincidían en cuál era el mejor camino a tomar. Nuevamente, recurrió a ChatGPT en busca de consejos.
Errar es humano, pero también cosa de modelos
Quizás hasta aquí el relato no parezca problemático. El asunto es que lo que hizo Carolina, si bien es una reacción normal y en principio puede parecer un mecanismo inocuo para afrontar la situación, es en realidad muy peligroso.
En primer lugar, tenemos claro ya a esta altura que los modelos de lenguaje son propensos a alucinar, es decir, a inventar información (por más que OpenAI haya insistido en su lanzamiento que GPT-5 es diferente). Además, como modelos basados en predicción, es muy factible también que cometan errores. Si esto sucede cuando le estamos pidiendo sugerencias para solucionar los almuerzos de la semana, no es muy grave, pero en un caso como el de Carolina, el riesgo es enorme. Y no faltarán quienes digan que no es tan grave, que al fin y al cabo los médicos también cometen errores. A ellos digo que, si bien es verdad que los médicos, como buenos humanos, también se equivocan, al menos ellos son responsables penales por mala praxis. ¿Quién responde frente al mal consejo médico de un modelo de lenguaje?
En segundo lugar, por acertada que sea la información de salud provista por un modelo, es muy probable que le falte contexto del caso puntual o que el paciente, que ya bastante mal la está pasando, termine sacando conclusiones erróneas de los informes de la IA3. Si ya bastantes dolores de cabeza pasan los médicos cuando sus pacientes googlean, imagino cómo se sentirán ahora que pueden tener largas conversaciones con un algoritmo que consideran tiene la misma autoridad que un equipo de especialistas.
Y todo esto no es para criticar a Carolina y su esposo. Su reacción, la de acudir a ChatGPT en busca de información, es normal, es humana. La historia que relata la pareja no es la parte preocupante, es la forma en que se cuenta.
Con gran poder, viene gran responsabilidad
Una cosa es que dos individuos, en representación únicamente de ellos mismos y considerando la difícil situación que vivieron (y quizás aún viven) cuenten esta historia y hablen maravillas del acompañamiento médico de ChatGPT. Otra muy distinta, es que el dueño de ChatGPT, en calidad de tal, venda este servicio y enmarque el relato con frases como «todos conocen casos de personas que reciben [por parte de ChatGPT] consejos diarios o, en algunos casos, incluso diagnósticos que salvan vidas». Tampoco es lo mismo que la empresa haya decidido mostrar esta historia, de la forma en que la mostró4, en un segmento central del lanzamiento de un producto que viene anunciando hace más de un año.
Es, creo, la primera vez que veo a uno de los gigantes tecnológicos de la IA, a una de las empresas del mainstream, hacer este tipo de declaraciones que cuesta creer hayan sido aprobadas por un equipo legal. Se trata de aseveraciones peligrosas y de dudosa confiabilidad. Se me ocurre una única palabra para describir este segmento publicitario y es «irresponsable».
¿Y ahora?
No sé muy bien qué hacer ante esto, pero tengo claro que lo sucedido me dejó con un profundo sentimiento de incomodidad. Fue distinto, el tiempo dirá si se trató de un caso aislado o si es el tipo de acciones de marketing que podemos esperar de aquí en más de estos gigantes tecnológicos.
En todo caso, no puedo hacer más que reflexionar sobre lo sucedido y compartir esas reflexiones con otros que compartan esta incomodidad, intentar que esta anécdota no pase tan desapercibida. Porque, así como creo que el problema no radica en las acciones de individuos aislados como Carolina y Felipe, creo también que el antídoto, si lo hay, no se encuentra en un espacio individual, sino en la comunidad.
- Pueden encontrar la transmisión completa aquí, este segmento comienza alrededor del minuto 34:30 ↩︎
- A quienes estén interesados en este proceso, recomiendo encarecidamente el libro Unwinding Anxiety, de Judson Brewer. ↩︎
- Como este hombre que interpretó mal la información que le dio ChatGPT y acabó en el hospital tras sazonar sus ensaladas con bromuro de sodio. ↩︎
- No tengo pruebas, pero tampoco dudas de que la conversación siguió un libreto estricto, que la imagen de todos los presentes fue estrictamente curada, todo para generar las emociones deseadas en el público objetivo. ↩︎
Deja un comentario