Microsoft e OpenAI affermano che gli hacker utilizzano l’intelligenza artificiale generativa per migliorare gli attacchi cyber

Microsoft e OpenAI affermano che gli hacker utilizzano l’intelligenza artificiale generativa per migliorare gli attacchi cyber

Non è esattamente uno shock apprendere che i criminali informatici organizzati stanno iniziando a utilizzare strumenti e servizi di intelligenza artificiale generativa per nuovi tipi di attacchi. Oggi abbiamo molte più informazioni su come questi hacker sponsorizzati dallo stato utilizzano modelli linguistici di grandi dimensioni.

In un post sul blog , Microsoft, in collaborazione con OpenAI, ha annunciato una nuova ricerca su come gli hacker utilizzano gli LLM. Include informazioni su gruppi specifici che sono stati identificati come utilizzatori di strumenti di intelligenza artificiale generativa.

I gruppi hanno sede in paesi come Russia, Corea del Nord, Iran e Cina. Uno di questi è etichettato Forest Blizzard ed è collegato all’unità russa GRU 26165. Microsoft afferma che il gruppo è stato attivo nel prendere di mira organizzazioni legate all’invasione in corso dell’Ucraina.

Microsoft afferma che Forest Blizzard ha utilizzato LLM “per comprendere i protocolli di comunicazione satellitare, le tecnologie di imaging radar e parametri tecnici specifici”. La sua ricerca aggiunge che questo gruppo ha cercato di automatizzare attività come la selezione e la manipolazione dei file anche con LLM.

Un altro gruppo criminale informatico che secondo Microsoft utilizza l’intelligenza artificiale è stato etichettato come Salmon Typhoon. Il gruppo con sede in Cina ha una storia di attacchi al governo e agli appaltatori della difesa statunitense. Secondo Microsoft, Salmon Typhoon ha utilizzato gli LLM in vari modi. Includono la ricerca di errori di codifica e la traduzione di documenti tecnici informatici.

Microsoft afferma che continuerà a collaborare con OpenAI per ricercare l’uso dell’intelligenza artificiale da parte dei criminali informatici.

Nell’ambito di questo impegno, abbiamo adottato misure per interrompere risorse e account associati agli autori delle minacce, migliorare la protezione della tecnologia OpenAI LLM e degli utenti da attacchi o abusi e modellare i guardrail e i meccanismi di sicurezza attorno ai nostri modelli.

La società ha aggiunto che utilizzerà il proprio servizio Copilot for Security per individuare queste minacce informatiche basate su LLM.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *