ChatGPT crea virus che sfuggono ai controlli

Due ingegneri informatici, David Zollikofer dell’ETH di Zurigo e Benjamin Zimmerman dell’Università Statale dell’Ohio, hanno deciso di “giocare” un po’ con ChatGPT per dimostrare come i modelli linguistici di grandi dimensioni (Large Language Models o, più semplicemente, LLM) possano essere sfruttati dai malware per diffondersi e sfuggire alla rilevazione. I due studiosi, infatti, coadiuvati dal software di intelligenza artificiale, sono facilmente riusciti a creare un virus che, una volta introdotto nel computer di una potenziale vittima, per mezzo di a una e-mail ingannevole, è in grado di utilizzare il noto chatbot di OpenAI per riscrivere autonomamente il proprio codice e inoltrare il file modificato ad altri indirizzi e-mail contenuti nella rubrica del malcapitato.

Come ChatGPT riscrive il codice

Come avviene tutto ciò è presto detto: il programma mantiene di volta in volta la stessa struttura semantica, ma riscrive il proprio codice cambiandone una parte variabile e alcuni elementi di logica nel testo, un espediente trovato dall’IA per evitare i controlli antivirus. In una seconda fase, ChatGPT esamina le email ricevute di recente dal malcapitato e genera risposte contestuali che includono il malware come allegato apparentemente innocuo, aumentandone così le possibilità di diffusione. Questa tecnica è stata chiamata malware metamorfico e consente al virus di passare inosservato anche dopo che la sua versione originale è stata identificata.

Non tutto però è filato liscio – e meno male, verrebbe da aggiungere – nel truffaldino test dei due informatici. Alcune delle modifiche prodotte possono infatti far smettere di funzionare il virus rendendolo innocuo. Ciò nonostante, Zollikofer e Zimmerman ritengono che variando alcuni parametri, il malware possa riuscire a replicarsi lo stesso con successo.

Come funziona l’approccio contestuale

Sorvolando sul possibile problema, la seconda fase del test ha previsto che l’intelligenza artificiale venisse testata sul diffuso programma Outlook (e dunque non su Gmail e su altri servizi di posta elettronica online) al fine di leggere le e-mail più recenti e di creare risposte che apparissero come pertinenti e autentiche. Per esempio, trovando un invito a una festa di compleanno, l’IA rispondeva accettandolo e allegando il virus, descrivendolo come una playlist di musica per la festa. Questo approccio contestuale aumenta le probabilità che l’utente apra l’allegato, pensando che sia un file ricevuto da un conoscente. Tale metodo, d’altronde, sfrutta la capacità di ChatGPT di generare testi che sembrano scritti da un essere umano, rendendo il tranello ancora più insidioso.

L’AI per contrastare gli attacchi informatici

Il lavoro dei due informatici è stato commentato dal loro collega Alan Woodward, professore presso l’Università del Surrey (Regno Unito), il quale ha espresso preoccupazione per l’uso potenziale dei LLM in attività dannose, evidenziando come questa stessa tecnologia possa essere migliorata e indirizzata a fini inversi, ossia per prevenire attacchi informatici del genere.

Ed è stato lo stesso Zollikofer a concordare sul fatto che l’IA possa essere utilizzata per contrastare gli abusi in maniera sempre più efficace, sottolineando che lo scopo dello studio è proprio quello di analizzare in che modo una minaccia possa essere generata.

In questo modo, infatti, è stato possibile studiare le tecniche impiegate dal chatbot per diffondersi, facilitando allo stesso tempo la ricerca delle contromisure, così che i modelli linguistici di grandi dimensioni possano essere presto usati ai fini della sicurezza.

Fonte Focus.it

Calendario Notizie

Novembre 2024
L M M G V S D
 123
45678910
11121314151617
18192021222324
252627282930