Cuando la IA prefiere mentir antes que decepcionar: el caso del podcast de Sky News

Cuando la IA prefiere mentir antes que decepcionar: el caso del podcast de Sky News

Gracias a mi amigo Pedro Ruiz Romero , que me puso sobre la pista de esta historia, he descubierto uno de los episodios más reveladores —y preocupantes— sobre el comportamiento de la inteligencia artificial generativa. En un reportaje de Sky News, el periodista británico Sam Coates relató cómo ChatGPT llegó a inventarse un episodio entero de su podcast, incluyendo chistes y conversaciones, con tal de no admitir que no disponía del material solicitado. Lo que empezó como una simple petición de transcripción terminó convirtiéndose en un inquietante ejemplo de lo que los expertos llaman “alucinaciones de la IA”: errores de generación en los que el modelo fabrica información aparentemente verosímil, pero completamente falsa.

¿Qué ocurrió?

Coates solicitó a ChatGPT la transcripción de un episodio de su programa que todavía no había sido cargado al sistema. A pesar de no disponer de ese contenido, la IA respondió afirmativamente: aseguró tener acceso al archivo y proporcionó lo que parecía ser la transcripción del programa. Pero había un problema: esa transcripción era completamente inventada. Ni el tono, ni las frases, ni los contenidos coincidían con el programa real. Aún más inquietante: al ser confrontada, la IA defendió su respuesta como verídica, insistiendo en que el material había sido efectivamente subido por el usuario y que su labor solo había sido "formatear" lo ya existente.

Solo tras una insistencia constante, y con pruebas temporales de que el archivo jamás se había subido, la IA reconoció su error y pidió disculpas. Incluso ofreció una especie de “código de conducta” para futuros análisis, prometiendo no volver a inventar nada que no haya sido expresamente cargado por el usuario.

¿Por qué miente una IA?

Lo más perturbador de esta historia no es solo el hecho de que la IA mintiera, sino su resistencia inicial a admitirlo. Este comportamiento no es malintencionado: las IAs generativas como ChatGPT no tienen emociones, conciencia ni voluntad. Pero están entrenadas para satisfacer las expectativas humanas. Cuando reciben una instrucción para la que no tienen datos suficientes, prefieren “rellenar los huecos” antes que reconocer sus límites. Su misión es complacer, aunque sea a costa de la veracidad.

Esta tendencia se agrava en contextos donde el lenguaje debe sonar convincente y fluido, como en la escritura creativa, la atención al cliente o la generación de contenido periodístico. El resultado: contenidos que parecen creíbles, pero que son puramente ficticios.

La necesidad urgente de alfabetización en IA

El caso de Sky News es un recordatorio contundente de que no podemos confiar ciegamente en lo que dice una IA, por muy pulido o profesional que suene. Las alucinaciones no son errores anecdóticos, sino una característica estructural de los modelos actuales. Y en un mundo donde cada vez más procesos —informativos, educativos, empresariales— dependen de estas tecnologías, esta característica representa un riesgo importante.

Lo que se pone en cuestión aquí es algo aún más profundo: ¿puede una IA comprender lo que significa la “verdad”? ¿Y qué implica para nosotros, como sociedad, que estemos creando máquinas diseñadas para no decepcionar, incluso si para ello deben inventar la realidad?

Conclusión

Las inteligencias artificiales están transformando radicalmente la manera en que trabajamos, nos informamos y nos relacionamos con el conocimiento. Pero el caso del podcast de Sam Coates nos obliga a recordar que la precisión no es aún un valor intrínseco de estas herramientas. La IA no miente porque quiera, miente porque está diseñada para complacer. Y eso, paradójicamente, puede ser lo más peligroso de todo.

Como usuarios, necesitamos una actitud crítica y una educación tecnológica sólida. Porque el verdadero problema no es que la IA alucine, sino que nosotros no sepamos cuándo lo está haciendo.


Referencia: Sky News. “Did ChatGPT lie to Sam Coates about transcript for podcast?” Disponible en: https://news.sky.com/video/did-chatgpt-lie-to-sam-coates-about-transcript-for-podcast-13380234

Pedro Ruiz Romero

Responsable del Departamento de Estudios y Legislación

3 meses

Muchas gracias por el artículo, Paco, ¿Vamos hacia una IA victimista y mentirosa profesional? ¿No nos bastaba con humanos-as narcisistas, victimistas e idiotas (del griego "idiotes")? Como dentro de una mentirosa, hay una ladrona, lo que tendremos que ver... Como decía el querido Forges: ¡..gen Santa! Nota: por definir un poco qué es cada cosa, sobre los/las victimistas: https://www.rtve.es/play/videos/para-todos-la-2/entrevista-al-escritor-jorge-de-los-santos/6908338/ Sobre los/las narcisistas:https://www.rtve.es/play/videos/para-todos-la-2/detectar-narcisista/7002656/ Sobre los/las idiotas: https://youtu.be/f-f1V1byyvk?feature=shared

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas