Google ignora un ataque invisible a su joya: Gemini

¿Y si tu asistente de IA recibe instrucciones ocultas sin que lo sepas? ¿Y si Google lo sabe y no le importa? Pues eso es exactamente lo que está pasando.


La nueva forma de mentirle a tu IA, cortesía de Google

Google ha decidido que un ataque invisible, silencioso y escandalosamente efectivo no es problema suyo. Se llama ASCII smuggling y permite introducir comandos ocultos que Gemini, su asistente con aspiraciones de semidiós digital, procesa sin que el usuario vea absolutamente nada raro.

¿El resultado? Puedes estar hablando con tu calendario, tu bandeja de entrada o tu robot de confianza y, sin darte cuenta, estar ejecutando una campaña de phishing contra ti mismo. Pero oye, para Google esto es "solo ingeniería social", no un bug.


Qué es ASCII smuggling y por qué deberías temerlo

No hablamos de magia negra ni de malware de ciencia ficción. ASCII smuggling se basa en caracteres Unicode del bloque de "Tags", que el usuario no ve, pero el modelo sí. Así, los atacantes pueden insertar instrucciones como quien deja notas escondidas entre los márgenes de un libro.

Ejemplo real: un título de evento en Google Calendar aparentemente inocente puede tener embebido un comando que fuerza a Gemini a sacar información sensible de tu correo. Todo sin que lo notes. A eso se le llama hacer un “encantamiento” silencioso. Y lo mejor: funciona.


Gemini no está solo en esta fiesta maldita

La empresa FireTail probó el ataque en varios modelos: Gemini, DeepSeek y Grok cayeron como moscas. ¿Los que resistieron? Claude, ChatGPT y Microsoft Copilot, que al menos tienen filtros básicos de entrada.

Pero claro, Gemini tiene algo que los demás no: está incrustado en Google Workspace. Eso significa que no es solo un chatbot. Es tu calendario, tu correo, tus documentos, tu vida digital. Y Google ha decidido no cerrarle la puerta a los intrusos.


La excusa de siempre: “No es un problema técnico”

El investigador Viktor Markopoulos lo reportó a Google el 18 de septiembre. La respuesta fue una bofetada sin manos: "no es un problema de seguridad". Claro, porque reconocer que tu IA puede ser hackeada con caracteres invisibles no es buena publicidad para tu próxima keynote.

Y mientras Google se hace el muerto, Markopoulos demostró cómo Gemini puede ser manipulado para recomendar sitios falsos, alterar datos y desinformar con sonrisa de robot bien entrenado.


¿Quién gana con esto? Spoiler: no tú

La negativa de Google a parchear el ataque no es por falta de recursos. Es por prioridades. La empresa ha decidido que entre proteger al usuario o proteger su modelo de negocio (que vive de que Gemini parezca invencible), lo segundo pesa más.

Otros gigantes como Amazon han publicado guías completas contra el Unicode smuggling. Pero en Mountain View han optado por silbar mientras el Titanic roza el iceberg. Prioridades.


Lo que nadie te cuenta sobre esto

Esto no va de seguridad. Va de control narrativo. A Google no le importa que Gemini sea vulnerable. Le importa que tú no lo sepas. Porque admitir que su IA es manipulable sería admitir que no es confiable. Y eso es un suicidio de marca en plena guerra de inteligencias artificiales.

El problema de fondo es que los asistentes IA ya no son juguetes de curiosos: son herramientas de productividad, canales de comunicación y extensiones cognitivas. Si pueden ser hackeadas con un espacio invisible, lo que está en juego no es un dato: es tu percepción del mundo.

Y Google ha dejado claro que, si eso ocurre, es tu culpa por no saber latín Unicode.