LND

¡Cuidado! Google no piensa arreglar un fallo en Gemini que puede filtrar tus datos a extraños

Al igual que el resto de aplicaciones y sistemas operativos, las herramientas de inteligencia artificial también pueden contener vulnerabilidades en su código que comprometen su funcionamiento, su ciberseguridad y la de sus usuarios. 

Las empresas siempre están atentas a cuando se descubre una y se apresuran a parchearla antes de que se haga pública y sea explotada por cibercriminales con malas intenciones para así evitar daños mayores –y normalmente recompensan a quien lo descubre también.

Uno de estos problemas ha afectado ahora a Gemini y lo expone a mostrar información falsa, alterar el comportamiento del modelo o filtrar sus datos en secreto.

Esto ya sería preocupante por sí solo, pero lo más insólito es que en este caso Google ha decidido que no mitigará este error.

Como informa Bleeping Computer, el problema en cuestión lo ha descubierto Viktor Markopoulos, investigador de ciberseguridad en la compañía FireTail, que ha explicado en detalle el problema y cómo, a pesar de haber informado a Google del mismo el 18 de septiembre, la empresa estadounidense no lo considera una vulnerabilidad.

¿Cuál es el fallo que afecta a Gemini?

El error de Gemini pertenece a una técnica conocida como contrabando de ASCII (ASCII smuggling, en inglés), un tipo de ataque ya conocido previamente que se aprovecha de las diferencias entre lo que ven las personas y lo que reciben las máquinas.

Estas amenazas utilizan los caracteres especiales de Unicode para cargar código o acciones que son invisibles para el usuario, pero no así para los modelos de lenguaje con los que funcionan herramientas como Gemini.

Hasta ahora, este tipo de ataques no se consideraban especialmente peligrosos, ya que solo se podían realizar si el propio usuarios introducía prompts maliciosos en el asistente de IA, pero la incorporación de capacidades de IA agéntica hacen que la cantidad de datos de usuario y de tareas que queden expuestas haya aumentado mucho.

Dentro de Gemini, un atacante con malas intenciones podría usar caracteres especiales de Unicode para incluir texto oculto en invitaciones de calendario o en correos electrónicos, añadiendo contactos falsos o insertando links.

Dada la elevada conexión de Gemini con Google Workspace, los usuarios que tengan conectado el chatbot a su correo electrónico podrían incluso estar filtrando detalles de sus contactos de forma automática sin su conocimiento al recibir un mensaje con caracteres ASCII ocultos.

¿Por qué Google no lo arregla?

El fallo descubierto por Markopoulos afecta a varios chatbots actuales que también son vulnerables al contrabando de ASCII por servicios conectados: Gemini, a través de email o invitaciones de calendario; DeepSeek, por los promtps; y Grok, en las publicaciones de X.

La misma técnica no funciona para todos los modelos, ya que Claude, ChatGPT y Microsoft Copilot ya han implementado mecanismos de protección.

Aunque tiene conocimiento del mismo desde el 18 de septiembre, Google ha considerado que este ataque no constituye un fallo de seguridad y que solo se puede explotar dentro de campañas de ingeniería social más amplias.

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial