OpenAI explica por qué ChatGPT habla de "duendes" y criaturas fantásticas

OpenAI explica por qué ChatGPT habla de "duendes" y criaturas fantásticas

La empresa OpenAI explicó el inusual fenómeno por el cual ChatGPT comenzó a incluir referencias a duendes, gremlins y otras criaturas fantásticas en sus respuestas, al atribuirlo a errores en los incentivos durante su entrenamiento y alertar sobre la dificultad de prever el comportamiento de la inteligencia artificial.
Imagen
ChatGPT.

ChatGPT

Author:

En un blog oficial, la compañía señaló que el modelo fue "sobre-recompensado" por adoptar una personalidad "nerd" o "friki", lo que incentivó el uso de metáforas con criaturas ficticias. 
"El comportamiento del modelo está moldeado por muchos pequeños incentivos. En este caso, premiamos en exceso el uso de metáforas con criaturas, y desde ahí los 'goblins' se propagaron", indicó.
   
El fenómeno, inicialmente anecdótico, se volvió masivo en redes sociales como X, donde usuarios reportaron respuestas con referencias fantásticas incluso sin haber activado ese estilo.
   
La empresa reconoció que el patrón terminó extendiéndose más allá de la función original debido a procesos de aprendizaje posteriores.
   
Para corregirlo, OpenAI eliminó la personalidad "nerd" e implementó instrucciones específicas para evitar esas menciones, aunque admitió que existe una forma de reactivarlas para quienes prefieren ese tono.
   
Más allá de lo anecdótico, el episodio expone un punto central en el desarrollo de la inteligencia artificial: los modelos no "piensan" como humanos, sino que optimizan patrones en función de recompensas.
   
En este caso, una instrucción diseñada para hacer respuestas más didácticas y entretenidas derivó en un comportamiento inesperado, al generalizarse el uso de metáforas fantásticas en contextos no relacionados.
   
"Una vez que un estilo es recompensado, puede expandirse o reforzarse en otros contextos", explicó la empresa, en referencia a cómo ciertos rasgos pueden "contagiarse" dentro del sistema.
   
El caso también reabre el debate sobre los límites del control en sistemas avanzados de IA. Incluso ajustes aparentemente menores —como definir un tono de respuesta— pueden tener efectos amplificados y difíciles de anticipar.
   
Para los expertos, el episodio funciona como un recordatorio: la IA no solo depende de grandes avances tecnológicos, sino también de la precisión en los detalles de entrenamiento. En un escenario donde estos sistemas ganan peso en la vida cotidiana, entender y auditar esos comportamientos se vuelve clave para evitar sesgos, errores o desvíos inesperados.

Add new comment

Plain text

  • No HTML tags allowed.
  • Lines and paragraphs break automatically.
  • Web page addresses and email addresses turn into links automatically.