Expertos descubren una brecha de seguridad en Copilot, la inteligencia artificial de Microsoft

El fallo afecta a usuarios de Windows 10 y 11, y podría comprometer datos almacenados en plataformas protegidas.

PREOCUPACIÓN POR COPILOT. Especialistas lograron acceder a documentos encriptados mediante simples interacciones con el chatbot. / COPILOT IA PREOCUPACIÓN POR COPILOT. Especialistas lograron acceder a documentos encriptados mediante simples interacciones con el chatbot. / COPILOT IA
24 Mayo 2025

Especialistas en seguridad informática alertaron sobre una grave falla en Copilot, la inteligencia artificial (IA) desarrollada por Microsoft, e integrada en los sistemas operativos Windows 10 y 11. Según pruebas realizadas por distintos equipos de expertos, la herramienta podría filtrar datos personales y confidenciales almacenados en plataformas protegidas, incluso sin la autorización correspondiente.

Detectado tras una reciente actualización de Windows, la falla afecta la capacidad de Copilot para respetar las restricciones de acceso definidas por el usuario en plataformas como SharePoint. Durante los ensayos, los especialistas lograron acceder a documentos encriptados e incluso a contraseñas contenidas en hojas de cálculo únicamente a través de conversaciones con el chatbot.

Esto supone un serio riesgo para la privacidad, ya que demuestra que Copilot puede ser utilizado para obtener información que las interfaces convencionales mantienen protegida por medidas de seguridad como cifrado y autenticación. Según estimaciones, más del 95% de los usuarios de computadoras con Windows utilizan las versiones 10 u 11, lo que amplifica el alcance potencial de esta vulnerabilidad.

No se trata del primer incidente relacionado con la inteligencia artificial de Microsoft. En el pasado, investigadores de ciberseguridad ya habían advertido sobre vulnerabilidades similares en Microsoft 365 Copilot, donde fue posible extraer códigos de autenticación y otros datos sensibles mediante técnicas avanzadas de inyección de comandos.

La respuesta de Microsoft

Desde Microsoft respondieron que Copilot respeta los controles de acceso establecidos y que se han implementado tecnologías adicionales para reforzar la seguridad, como Microsoft Purview y agentes de IA especializados en protección de datos. Aun así, los especialistas recomiendan mantener los sistemas actualizados y, en caso de trabajar con información delicada, desactivar temporalmente Copilot mientras se resuelve la situación.

El caso pone en evidencia los desafíos que todavía enfrentan las empresas tecnológicas al integrar inteligencia artificial en entornos donde la protección de datos es crítica. Mientras tanto, la comunidad informática insiste en reforzar la supervisión de estas herramientas para evitar que sus capacidades superen los límites de la privacidad.

WHATSAPP ESTUDIANTES ¡Tu voz es importante para nosotros! Contanos sobre eventos en Tucumán; proponé temas para nuestros artículos o comentá lo que estuviste leyendo. Escribinos al WhatsApp Estudiantes de LA GACETA.
Tamaño texto
Comentarios
Comentarios