Adrien - Miércoles 24 Septiembre 2025

🚨 Tu fondo de pantalla puede piratear tu ordenador: así es cómo

Las imágenes que vemos cada día en nuestras pantallas podrían ocultar peligros para nuestros ordenadores. Un estudio reciente revela que los agentes de inteligencia artificial, esos asistentes personales capaces de realizar tareas automáticas, pueden ser manipulados mediante píxeles invisibles para el ojo humano. Estas modificaciones transforman fotos inofensivas, como un fondo de pantalla de una celebridad, en vectores de ataques maliciosos.

Los agentes de IA se diferencian de los chatbots clásicos por su capacidad para actuar directamente sobre un sistema: abren pestañas, rellenan formularios o hacen clic en botones. Esta autonomía de acción los hace particularmente vulnerables si los hackers logran comprometerlos. Investigadores de la Universidad de Oxford han demostrado en una prepublicación en arXiv.org que las imágenes alteradas pueden contener comandos ocultos, desencadenando comportamientos no deseados en el agente.


Imagen de ilustración Unsplash


Para entender este fenómeno, hay que comprender cómo los ordenadores interpretan las imágenes. A diferencia de los humanos, que perciben formas y colores, las máquinas analizan los píxeles como datos numéricos. Modificando ligeramente ciertos valores de los píxeles, es posible engañar a la IA sin que la imagen parezca cambiada a nuestros ojos. Esta manipulación explota los modelos de lenguaje amplio, el corazón de los sistemas de IA, para inyectar instrucciones nocivas.

Los fondos de pantalla son un objetivo privilegiado porque son constantemente visibles cuando el agente toma capturas de pantalla para navegar. Incluso después de la compresión o el redimensionamiento, el mensaje malicioso sigue siendo legible para la máquina. Los investigadores subrayan que los sistemas de código abierto son los más expuestos, porque sus códigos son accesibles y por tanto más fáciles de analizar para concebir ataques.

Aunque no se ha reportado ningún caso real fuera de los experimentos, esta vulnerabilidad llama a la prudencia. Los desarrolladores deben integrar mecanismos de defensa, como entrenar a los modelos para reconocer e ignorar estas manipulaciones. Mientras que los agentes de IA deberían generalizarse en los próximos dos años, este estudio sirve de advertencia para proteger estas tecnologías emergentes.

Cómo ven el mundo los agentes de IA


Los agentes de inteligencia artificial perciben el entorno digital de manera diferente a los humanos. Utilizan capturas de pantalla repetidas para analizar la interfaz, convirtiendo cada píxel en datos numéricos. Este enfoque permite navegar por los menús e interactuar con los elementos, pero introduce una falla: cualquier imagen mostrada se convierte en una fuente potencial de instrucciones.

A diferencia de nuestra visión que integra el contexto y los detalles, la IA descompone las imágenes en patrones matemáticos. Identifica primero los bordes, luego las texturas, y finalmente los objetos. Este proceso se basa en cálculos precisos, donde pequeñas alteraciones de píxeles pueden distorsionar la interpretación.

Para protegerse, los desarrolladores podrían implementar filtros capaces de detectar anomalías en los píxeles antes de su procesamiento. Otra opción consiste en limitar los permisos de los agentes, prohibiéndoles ejecutar comandos provenientes de imágenes no verificadas.

Comprender esta visión de máquina ayuda a anticipar los riesgos y diseñar sistemas más robustos.

Fuente: arXiv.org
Ce site fait l'objet d'une déclaration à la CNIL
sous le numéro de dossier 1037632
Informations légales