ChatGPT diventerà una minaccia per la sicurezza informatica? Ecco a cosa fare attenzione
Chi non ha utilizzato ChatGPT a questo punto? È divertente, assolutamente affascinante se sei interessato all’intelligenza artificiale e gratuito (per ora).
Sebbene sia solitamente descritto come un chatbot, ChatGPT è molto più di questo. Può generare testi, spiegare argomenti complessi, fungere da traduttore, inventare barzellette e scrivere codice. Ma può anche essere utilizzato come arma da attori di minacce.
Come funziona ChatGPT e perché è attraente per i criminali informatici
ChatGPT (Generative Pre-trained Transformer) è stato sviluppato dal laboratorio di ricerca sull’intelligenza artificiale OpenAI e lanciato nel novembre 2022. È un modello linguistico di grandi dimensioni che utilizza una combinazione di tecniche di apprendimento automatico supervisionato e di rinforzo.
Forse ancora più importante, ChatGPT viene costantemente messo a punto e addestrato dagli utenti, che possono votare positivamente o negativamente le sue risposte, rendendolo ancora più accurato e potente, in quanto raccoglie i dati da solo.
Questo è ciò che distingue ChatGPT dagli altri chatbot. E se l’hai mai usato, sai che la differenza è immediatamente evidente: a differenza di altri prodotti simili, è in grado di partecipare attivamente a una conversazione e completare attività complesse con una precisione sbalorditiva, fornendo risposte coerenti e simili a quelle umane.
Se ti venisse mostrato un breve saggio scritto da un essere umano e uno scritto da ChatGPT, probabilmente faresti fatica a determinare quale sia quale. Ad esempio, ecco una parte del testo generato da ChatGPT quando gli è stato chiesto di scrivere un breve saggio su The Catcher in the Rye.
Questo non vuol dire che ChatGPT non abbia i suoi limiti, sicuramente li ha. Più lo usi, più noterai che è così. Per quanto potente sia, può ancora lottare con la logica elementare, commettere errori, condividere informazioni false e fuorvianti, interpretare male le istruzioni in modo comico ed essere manipolato per trarre conclusioni sbagliate.
Ma il potere di ChatGPT non risiede nella sua capacità di conversare. Piuttosto, risiede nella sua capacità quasi illimitata di completare compiti in massa, in modo più efficiente e molto più veloce di quanto potrebbe fare un essere umano. Con gli input e i comandi giusti e alcune soluzioni creative, ChatGPT può essere trasformato in uno strumento di automazione potente e inquietante.
Con questo in mente, non è difficile immaginare come un criminale informatico possa armare ChatGPT. Si tratta di trovare il metodo giusto, ridimensionarlo e fare in modo che l’IA completi quante più attività possibili contemporaneamente, con più account e su più dispositivi, se necessario.
5 cose che gli attori delle minacce potrebbero fare con ChatGPT
Esistono già alcuni esempi reali di ChatGPT utilizzato da attori di minacce, ma è più che probabile che venga utilizzato come arma in diversi modi o che lo sarà in futuro. Ecco cinque cose che gli hacker possono fare (e probabilmente stanno facendo) con ChatGPT.
1. Scrivi malware
Se ChatGPT può scrivere codice, può scrivere malware. Nessuna sorpresa lì. Ma questa non è solo una mera possibilità teorica. Nel gennaio 2023, la società di sicurezza informatica Check Point Research ha scoperto che i criminali informatici stanno già utilizzando ChatGPT per scrivere malware e vantarsene nei forum clandestini.
L’autore delle minacce scoperto da Check Point Research ha utilizzato il chatbot avanzato in modo piuttosto creativo, per ricreare il malware basato su Python descritto in alcune pubblicazioni di ricerca. Quando i ricercatori hanno testato il programma dannoso, il criminale informatico stava dicendo la verità: il suo malware generato da ChatGPT ha fatto esattamente ciò per cui era stato progettato.
2. Genera email di phishing
Per quanto potenti siano diventati i filtri antispam, le pericolose e-mail di phishing sfuggono ancora alle fessure e non c’è molto che la persona media possa fare se non segnalare il mittente al proprio provider. Ma c’è molto che un capace attore di minacce potrebbe fare con una mailing list e l’accesso a ChatGPT.
Con i comandi e i suggerimenti giusti, ChatGPT può generare email di phishing convincenti, automatizzando potenzialmente il processo per l’autore della minaccia e consentendogli di ridimensionare le proprie operazioni.
3. Crea siti Web truffa
Se cerchi solo su Google il termine “costruisci un sito web con ChatGPT”, troverai una serie di tutorial che spiegano in dettaglio come farlo. Sebbene questa sia una buona notizia per chiunque desideri creare un sito Web da zero, è anche un’ottima notizia per i criminali informatici. Cosa impedisce loro di utilizzare ChatGPT per creare una serie di siti truffa o pagine di destinazione di phishing?
Le possibilità sono quasi infinite. Un attore di minacce potrebbe clonare un sito Web esistente con ChatGPT e quindi modificarlo, creare siti Web di e-commerce falsi, eseguire un sito con truffe scareware e così via.
4. Crea contenuti spam
Per creare un sito Web falso, gestire una pagina di social media truffa o creare un sito imitatore, hai bisogno di contenuti, molti. E deve sembrare il più legittimo possibile affinché la truffa funzioni. Perché un attore di minacce dovrebbe assumere scrittori di contenuti o scrivere post di blog da solo, quando può semplicemente fare in modo che ChatGPT lo faccia per loro?
Certo, un sito Web con contenuti generati dall’intelligenza artificiale verrebbe probabilmente penalizzato da Google abbastanza rapidamente e non comparirebbe nei risultati di ricerca, ma ci sono molti modi diversi in cui un hacker potrebbe promuovere un sito Web, inviarvi traffico e truffare le persone i loro soldi o rubare le loro informazioni personali.
5. Diffondere disinformazione e notizie false
La disinformazione online è diventata un problema importante negli ultimi anni. Le notizie false si diffondono a macchia d’olio sui social media e le persone che non sanno niente di meglio spesso si innamorano di storie fuorvianti e talvolta letteralmente inventate. Ciò può avere conseguenze terribili nella vita reale e sembra che nessuno abbia idea di come fermare la diffusione di notizie false senza violare le leggi sulla libertà di parola.
Strumenti come ChatGPT potrebbero esacerbare questo problema. Gli attori delle minacce che hanno accesso a software in grado di generare ogni giorno migliaia di notizie false e post sui social media sembrano una ricetta per il disastro.
Non fidarti della nostra parola
Se non sei convinto, abbiamo chiesto a ChatGPT come lo userebbe un criminale informatico. Sembra concordare con il nocciolo di questo articolo.
Nelle mani sbagliate, ChatGPT diventa pericoloso
Si può solo immaginare di cosa sarà capace l’intelligenza artificiale tra cinque o dieci anni. Per il momento, è meglio ignorare l’hype e il panico e valutare razionalmente ChatGPT.
Come tutta la tecnologia, ChatGPT non è né intrinsecamente utile né dannoso. Nonostante alcune carenze, è di gran lunga il chatbot più capace mai rilasciato al pubblico.
Lascia un commento