La inteligencia artificial se ha convertido en una parte integral de los procesos de desarrollo de muchas empresas, lo que ha generado una mayor demanda de sistemas informáticos potentes. Los chips de procesamiento gráfico (GPU) se han convertido en la opción preferida para las empresas que buscan la potencia informática necesaria para ejecutar modelos de lenguaje grandes (LLM) y procesar datos de manera eficiente.
Sin embargo, a medida que más empresas confían en las GPU para aplicaciones de inteligencia artificial, están surgiendo preocupaciones de seguridad relacionadas con estos chips. A diferencia de las unidades de procesamiento central (CPU), que han sido refinadas durante años para garantizar la privacidad de los datos, las GPU fueron diseñadas principalmente para potencia de procesamiento gráfico en lugar de seguridad de datos. Esto las ha dejado potencialmente susceptibles a vulnerabilidades que podrían comprometer la privacidad y la integridad de los datos almacenados en la memoria de una GPU.
Una investigación reciente realizada por Trail of Bits, una empresa de seguridad con sede en Nueva York, ha revelado una vulnerabilidad conocida como LeftoverLocals que afecta a múltiples marcas y modelos de GPU populares, incluidos los de Apple, Qualcomm y AMD. LeftoverLocals puede permitir que atacantes con acceso previo al sistema operativo roben grandes cantidades de datos de la memoria de una GPU.
Explotar la vulnerabilidad de LeftoverLocals puede dar lugar a la filtración no autorizada de datos sensibles de la memoria local de una GPU. Esto incluye datos generados por los LLM, como consultas y respuestas, así como los parámetros que impulsan las respuestas del sistema. Es preocupante que la vulnerabilidad permita que los atacantes recopilen desde 5 megabytes hasta 180 megabytes de datos. Aunque esto pueda parecer una cantidad relativamente pequeña, en el mundo de las CPU, incluso un solo bit de datos filtrados se consideraría una violación significativa.
En su investigación, Trail of Bits creó un concepto para demostrar la vulnerabilidad LeftoverLocals. Los investigadores llevaron a cabo un ataque de LeftoverLocals en una GPU vulnerable, capturando la mayoría de la respuesta proporcionada por un LLM de código abierto llamado Llama.cpp. El programa de ataque desarrollado por los investigadores requería menos de 10 líneas de código, resaltando la facilidad potencial con la que los atacantes podrían explotar esta vulnerabilidad.
El verano pasado, los investigadores probaron 11 chips de siete fabricantes de GPU y descubrieron que las GPU de Apple, AMD y Qualcomm estaban todas afectadas. En septiembre, colaboraron con el Centro de Coordinación US-CERT y el Grupo Khronos para emitir una divulgación coordinada de la vulnerabilidad. La investigación de Trail of Bits confirmó que las GPU de Apple, Qualcomm y AMD son susceptibles a la vulnerabilidad LeftoverLocals. Esto significa que dispositivos populares como el iPhone 12 Pro de Apple y el MacBook Air M2, así como las GPU como la AMD Radeon RX 7900 XT, también son potencialmente vulnerables. Aunque los investigadores no encontraron evidencia de la vulnerabilidad en las GPU de Nvidia, Intel o Arm, es importante tener en cuenta que no se probaron todas las GPU, por lo que es posible que otras también sean vulnerables.
Tras la divulgación de la vulnerabilidad LeftoverLocals, Apple reconoció el problema y lanzó correcciones para la vulnerabilidad con sus últimos procesadores M3 y A17, presentados a fines de 2023. Sin embargo, esto significa que millones de iPhones, iPads y MacBooks existentes que dependen de generaciones anteriores de silicio de Apple todavía pueden ser vulnerables. Los investigadores también volvieron a probar la vulnerabilidad en varios dispositivos de Apple en enero y descubrieron que el MacBook Air M2 seguía siendo vulnerable, mientras que el iPad Air de tercera generación A12 parecía haber sido parcheado.
La creciente dependencia de las GPU para aplicaciones de inteligencia artificial exige un enfoque urgente para abordar sus vulnerabilidades de seguridad. A medida que las empresas continúan implementando modelos de aprendizaje automático poderosos y procesando grandes cantidades de datos, el riesgo de violaciones de datos y acceso no autorizado se vuelve cada vez más significativo. Los fabricantes de GPU deben dar prioridad a la seguridad en sus diseños y trabajar en el desarrollo de arquitecturas que brinden robustas garantías de privacidad de datos. Las vulnerabilidades asociadas con las GPU plantean un riesgo grave para la seguridad de los datos procesados por estos chips. A medida que la demanda de GPU sigue aumentando, es crucial que los fabricantes de chips aborden estas vulnerabilidades y mejoren las medidas de seguridad implementadas. La vulnerabilidad LeftoverLocals sirve como un recordatorio crítico de que la privacidad y la seguridad de datos deben estar a la vanguardia del desarrollo de GPU. Solo al abordar efectivamente estas preocupaciones, las empresas pueden mitigar los riesgos y aprovechar todo el potencial de la inteligencia artificial y las tecnologías de aprendizaje automático.
Deja una respuesta