Microsoft admite que su IA genera contenido “completamente inventado”… y eso no es lo peor

La empresa que presume de liderar la revolución de la inteligencia artificial reconoce, con la boca pequeña, que su copiloto puede mentirte sin pestañear. Y no parece tener prisa por arreglarlo.

Satya Nadella, CEO de Microsoft, ha reconocido públicamente que sus herramientas de IA generativa todavía “alucinan”, es decir, que inventan datos. Lo ha dicho en una entrevista con CNBC, refiriéndose a cómo aplicaciones como Copilot siguen generando información falsa con una naturalidad que asusta. ¿Y la solución? Según Nadella, la clave no es tanto evitar estas alucinaciones, sino hacer que las herramientas sean “útiles incluso cuando alucinan”. Casi nada.

De los sueños húmedos de la IA al “modo ficción” por defecto

Durante meses, Microsoft ha vendido Copilot como el copiloto ideal para profesionales, programadores, empresas y cualquier mortal que quiera ahorrar tiempo y esfuerzo. Pero la realidad es que este copiloto no siempre sabe volar: genera respuestas inventadas, citas falsas y datos inexactos que pueden poner en apuros a quien lo use con los ojos cerrados.

Esto no es nuevo. Ya hemos visto cómo las IA generativas pueden parecer seguras de sí mismas mientras sueltan disparates con total convicción.

Nadella dice ahora que “cuando uso Copilot, no estoy buscando exactitud, sino utilidad”. Lo preocupante es que muchos usuarios —especialmente en entornos empresariales— sí esperan precisión, y confían en estas herramientas para informes, correos o decisiones estratégicas.

¿Un nuevo Clippy que se inventa las cifras?

Microsoft lleva tiempo integrando modelos como GPT-4 en sus productos estrella: Word, Excel, Outlook... Es el mismo motor que impulsa Copilot. Pero esa integración no viene con garantías de veracidad. En sectores como el jurídico o el financiero, una simple “alucinación” puede acabar en denuncia.

Y por si fuera poco, la compañía parece más centrada en la experiencia de usuario que en la precisión factual. La apuesta es clara: priorizar fluidez sobre fiabilidad, aunque el resultado sea un asistente que a veces escribe ciencia ficción sin querer.


Lo que nadie te cuenta sobre esto

Lo realmente inquietante no es que Copilot alucine, sino que Microsoft lo dé por asumido como parte del trato. Como si el error fuera un peaje aceptable en nombre de la innovación. Nos están vendiendo un copiloto sin carné, pero eso sí, con muy buen marketing.


¿Tú confiarías en una IA que puede inventarse tu diagnóstico médico o los resultados de tu empresa?