archive page
Un salto hacia la inteligencia general… que no llegó
Antes de lanzar GPT-5 el pasado jueves, el CEO de OpenAI, Sam Altman, afirmó que sus capacidades le hacían sentirse “inútil en comparación con la IA”. También dijo que trabajar en él conllevaba un peso similar al que imagina que sintieron los desarrolladores de la bomba atómica.
Mientras los gigantes tecnológicos convergen en modelos que hacen más o menos lo mismo, la nueva propuesta de OpenAI estaba destinada a mostrar un vistazo de la nueva frontera de la IA. Se suponía que sería un salto hacia la “inteligencia artificial general” que los evangelistas tecnológicos han prometido como una transformación positiva para la humanidad.
Sin embargo, el modelo ha dejado a muchos algo decepcionados.
Expectativas vs. realidad
Usuarios y expertos han señalado errores evidentes en las respuestas de GPT-5, desafiando la afirmación de Altman en el lanzamiento de que funciona como “un experto legítimo de nivel doctorado en cualquier área que necesites, bajo demanda”.
Los primeros evaluadores también encontraron problemas con la promesa de que GPT-5 selecciona automáticamente el tipo de modelo más adecuado para cada pregunta —uno de razonamiento para consultas complejas o uno más rápido para las simples—. Altman parece haber reconocido que esta función es defectuosa y que quita control al usuario.
Por el lado positivo, el modelo parece haber reducido un problema recurrente: la tendencia de ChatGPT a halagar excesivamente a los usuarios. GPT-5 es menos propenso a colmarlos de cumplidos exagerados.
En general, como señaló la periodista Grace Huckins, este lanzamiento representa más una actualización de producto —con formas más pulidas y atractivas de conversar con ChatGPT— que un verdadero avance capaz de redefinir lo posible en la IA.
De modelos generales a aplicaciones específicas
Durante un tiempo, las empresas de IA no se esforzaron mucho en sugerir usos concretos para sus modelos. La estrategia era simplemente construir el modelo más inteligente posible —una especie de “cerebro” universal— confiando en que sería bueno para múltiples tareas, desde escribir poesía hasta resolver problemas de química orgánica.
Pero esto ha cambiado. Ahora, la apuesta es impulsar los modelos existentes hacia más áreas, promocionando aplicaciones específicas. Varias compañías han prometido que sus modelos pueden reemplazar programadores humanos, incluso si las pruebas tempranas no respaldan del todo esa afirmación. Una posible explicación: los avances esperados en IA no han llegado, y es posible que estemos ante una etapa de mejoras marginales en las capacidades de los modelos de lenguaje. Ante eso, no queda más que trabajar con lo que se tiene.
La apuesta más arriesgada: el consejo médico
El ejemplo más evidente en el lanzamiento de GPT-5 es el énfasis de OpenAI en su uso para dar consejos de salud, una de las áreas más delicadas para la IA.
En sus primeras versiones, OpenAI evitaba las preguntas médicas. Si le preguntabas a ChatGPT sobre tu salud, aparecían múltiples advertencias recordándote que no era un médico, y en algunos casos, se negaba a responder. Con el tiempo, estas advertencias empezaron a desaparecer. Hoy, sus modelos pueden interpretar radiografías y mamografías, e incluso hacer preguntas de seguimiento orientadas a un diagnóstico.
OpenAI en Mayo presentó HealthBench, una herramienta para evaluar el desempeño de sus modelos en temas de salud, comparándolos con la opinión de médicos. En julio, participó en un estudio en Kenia que mostró que un grupo de doctores cometió menos errores diagnósticos al usar la IA como apoyo.
En el evento de lanzamiento de GPT-5, Altman invitó al escenario a Felipe Millon, empleado de OpenAI, y a su esposa, Carolina Millon, diagnosticada recientemente con múltiples tipos de cáncer. Carolina contó que subió a ChatGPT copias de sus resultados de biopsia para traducir el lenguaje médico y pedir ayuda sobre decisiones como someterse o no a radioterapia. Presentaron su caso como un ejemplo de empoderamiento para cerrar la brecha de conocimiento entre médicos y pacientes.
Riesgos y responsabilidades
Con este cambio, OpenAI se adentra en un terreno peligroso.
Por un lado, está usando evidencia de que la IA puede ayudar a médicos como herramienta clínica —como en el estudio en Kenia— para sugerir que personas sin formación médica también pueden pedirle consejo sobre su salud. El riesgo: muchos podrían seguir estas recomendaciones sin consultarlo con un profesional (y ahora es menos probable que lo hagan, dado que el chatbot rara vez los invita a hacerlo).
De hecho, dos días antes del lanzamiento de GPT-5, la revista Annals of Internal Medicine publicó el caso de un hombre que, tras conversar con ChatGPT, dejó de consumir sal y empezó a ingerir dosis peligrosas de bromuro. Desarrolló intoxicación por bromuro —prácticamente erradicada en EE. UU. desde que la FDA limitó su uso en los años 70— y estuvo al borde de la muerte, pasando semanas hospitalizado.
El problema de la rendición de cuentas
En última instancia, todo esto plantea la cuestión de la responsabilidad.
Cuando una empresa de IA pasa de prometer inteligencia general a ofrecer ayuda humana en un área específica como la salud, surge una pregunta clave: ¿qué ocurre cuando la IA se equivoca?
Hoy, no hay indicios de que las empresas tecnológicas vayan a asumir responsabilidad legal por los daños causados.
“Cuando los médicos dan consejos médicos perjudiciales debido a un error o un sesgo perjudicial, se les puede demandar por negligencia y obtener una compensación”, afirma Damien Williams, profesor adjunto de ciencia de datos y filosofía en la Universidad de Carolina del Norte en Charlotte.
“Cuando ChatGPT da consejos médicos perjudiciales porque ha sido entrenado con datos perjudiciales o porque las ‘alucinaciones’ son inherentes al funcionamiento del sistema, ¿qué recurso se puede tomar?” Esta historia se publicó originalmente en The Algorithm, nuestro boletín semanal sobre IA. Para recibir historias como esta en tu bandeja de entrada, suscríbete aquí.