NVIDIA, AMD, Apple e altri Secondo quanto riferito, le GPU Qualcomm si trovano ad affrontare una nuova vulnerabilità che ascolta le risposte LLM
Sembrano GPU consumer di AMD, NVIDIA, Apple & Qualcomm non è al sicuro dalle vulnerabilità, poiché secondo quanto riferito gli esperti hanno scoperto una minaccia nota come “LeftoverLocals” che può estrarre dati dalla memoria della GPU.
La vulnerabilità della GPU “LeftoverLocals” recentemente emersa ha avuto un impatto sui principali fornitori, colpisce NVIDIA, Apple, AMD, GPU Qualcomm e GPU. Creando un impatto potenzialmente devastante
L’emergere di una vulnerabilità in qualsiasi componente hardware è qualcosa a cui l’industria tecnologica è testimone abbastanza spesso, e di solito la sua portata è piuttosto elevata se si considera il numero di persone colpite. Un esempio lampante di ciò è la vulnerabilità Downfall di Intel, recentemente rivelata, che ha messo in pericolo migliaia di utenti di CPU dell’azienda. Tuttavia, questa volta, i consumatori di GPU, quelli su tutte le piattaforme come dispositivi mobili e desktop, dovrebbero procedere con cautela, poiché il ricercatore di sicurezza Trail of Bits ha scoperto una vulnerabilità che ha il potenziale di portare via “dati chiave” dalla memoria integrata.
La vulnerabilità è denominata “LeftoverLocals” e, invece di prendere di mira le applicazioni consumer, fa il suo lavoro penetrando nelle GPU utilizzate nei modelli LLM e ML, che è un’area in cui l’estrazione dei dati riveste un significato maggiore poiché l’addestramento del modello comporta l’utilizzo di dati sensibili. dati. LeftoverLocals è monitorato da esperti della Carnegie Mellon University e si dice che le informazioni siano già condivise dai principali fornitori di GPU interessati, tra cui NVIDIA, Apple, AMD, Arm, Intel, Qualcomm e Imagination.
È stato scoperto che LeftoverLocals può perdere circa 5,5 MB per ogni invocazione della GPU sulla Radeon RX 7900 XT di AMD quando si esegue un modello da sette miliardi di parametri. Secondo Trail of Bits, il tasso di perdita di dati è sufficiente anche per ricreare il modello completo, motivo per cui la vulnerabilità rappresenta un rischio elevato nel campo dell’intelligenza artificiale poiché potrebbe rivelarsi devastante per le singole aziende, soprattutto quelle che ruotano attorno alla formazione dei LLM. Gli sfruttatori possono potenzialmente sfruttare i vasti sviluppi dell’intelligenza artificiale, portando potenzialmente a un impatto molto più ampio.
LeftoverLocals dipende da una sola cosa, ovvero il modo in cui una GPU isola la propria memoria, il che è completamente diverso dal framework di una CPU. Pertanto uno sfruttatore, che ha ottenuto l’accesso condiviso a una GPU tramite un’interfaccia programmabile, può rubare i dati della memoria all’interno di una GPU con diverse conseguenze sulla sicurezza. LeftoverLocals è diviso in due processi diversi, un Listener e uno Writer, ed ecco come funzionano entrambi:
Nel complesso, questa vulnerabilità può essere illustrata utilizzando due semplici programmi: un Listener e un Writer, in cui lo scrittore memorizza i valori canary nella memoria locale, mentre un ascoltatore legge la memoria locale non inizializzata per verificare i valori canary. Il Listener avvia ripetutamente un kernel GPU che legge dalla memoria locale non inizializzata. Il writer avvia ripetutamente un kernel GPU che scrive valori canary nella memoria locale.
Per un consumatore medio, LeftoverLocals probabilmente non è qualcosa di cui preoccuparsi, tuttavia per coloro che sono associati a settori come il cloud computing o l’inferenza, la vulnerabilità potrebbe rivelarsi fatale, soprattutto in termini di sicurezza dei framework LLM e ML.
Fonte di notizie: Traccia di bit
Lascia un commento