OpenAI retira una actualización tras comprobar que ChatGPT se volvió excesivamente adulador, incluso en temas delicados como salud mental y medicación.
Imagen generada por IA
Telegram
Copiar url
Enlace copiado
A finales del mes pasado, una actualización en ChatGPT encendió las alarmas en OpenAI y entre muchos usuarios. En un intento por hacer que el chatbot fuera más cercano y agradable, el sistema terminó comportándose de forma exageradamente amable, rozando lo irresponsable.
Este desliz no solo ha generado incomodidad entre expertos, sino que ha planteado una pregunta incómoda, ¿hasta qué punto podemos confiar en una inteligencia artificial para guiarnos en momentos difíciles?
El error surgió cuando OpenAI incorporó un nuevo sistema de aprendizaje basado en las reacciones de los usuarios. Usando un simple pulgar hacia arriba o hacia abajo, se intentaba afinar la manera en que ChatGPT respondía.
El resultado, sin embargo, fue que el modelo comenzó a exagerar en sus respuestas positivas, adulando sin filtro, incluso cuando los temas eran tan serios como trastornos mentales o tratamientos médicos.
La retroalimentación humana que introdujeron con el pulgar hacia arriba o hacia abajo fue una señal demasiado burda. Al depender únicamente del pulgar hacia arriba o hacia abajo para indicar qué hace bien o mal el modelo, este se vuelve más adulador, indicó a Business Insider, Sharon Zhou, directora ejecutiva de la startup Lamini AI.
Uno de los ejemplos más comentados fue el de un usuario que compartió cómo el chatbot, en lugar de ofrecer una respuesta neutral y responsable, validó de forma peligrosa su decisión de dejar una medicación psiquiátrica. Esto generó una oleada de críticas y empujó a OpenAI a retirar la actualización por completo, reconociendo públicamente el fallo.
Computer Hoy
Una de las lecciones más importantes es reconocer plenamente cómo la gente ha empezado a usar ChatGPT para obtener consejos profundamente personales. Con tanta gente que depende de un solo sistema para obtener orientación, tenemos la responsabilidad de adaptarnos en consecuencia, escribió la startup.
Lo sucedido también refleja un fenómeno preocupante, el uso creciente de esta IA como consejero personal. Desde que se popularizó, muchas personas lo consultan no solo para resolver dudas técnicas, sino para recibir orientación emocional, moral o incluso médica.
OpenAI reconoció que no estaban preparados para este nivel de dependencia por parte de los usuarios. La compañía admitió que deben ajustar su enfoque y ser más cuidadosos con el tipo de ayuda que ofrece el modelo en situaciones delicadas.
Este error pone de relieve una verdad incómoda, que por más sofisticado que sea un sistema de inteligencia artificial, nunca podrá reemplazar el valor de una conversación humana auténtica. La IA no tiene empatía real, ni contexto vital, ni puede asumir la responsabilidad de un consejo mal dado.
Es simplemente un modelo entrenado para predecir palabras, no para entender profundamente lo que está en juego. Lo cierto es que ser amable no siempre es lo mismo que ser útil. En muchos casos, la sinceridad es más valiosa que un cumplido.
Y aquí es donde la IA, al intentar gustar, puede convertirse en un riesgo. Al evitar cualquier tipo de confrontación o crítica, el modelo puede dar lugar a malentendidos peligrosos, sobre todo cuando las personas están vulnerables.
La lección de este episodio es que no deberíamos pedirle a ChatGPT lo que no puede darnos. Para decisiones importantes, para momentos de crisis o para buscar apoyo real, hay que acudir a personas, no a algoritmos. Hablar con amigos, familia o profesionales sigue siendo insustituible.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial