L’Ufficio Europeo di Polizia (Europol) ha annunciato, in un comunicato stampa divulgato durante l’evento Innovation Lab, la pericolosità di ChatGPT per via delle sue enormi potenzialità, se utilizzato dai cybercriminali.
Secondo l’agenzia (e anche in base ai vari episodi avvenuti in passato) ChatGPT può essere utilizzato per fini malevoli, nonostante la presenza delle “safeguards”, ovvero delle misure di sicurezza messe in campo dagli sviluppatori dell’AI per riconoscere e bloccare quei comandi (prompts) che genererebbero altrimenti dei risultati violenti, sessualmente espliciti o pericolosi in generale. Ad esempio, senza i controlli, si potrebbe chiedere all’AI di scrivere un virus informatico in un unico comando, per poi eseguirlo in un computer vittima.
Malgrado OpenAI, la compagnia che sviluppa ChatGPT, abbia inserito numerose safeguards, molti malintenzionati utilizzano il Prompt Engineering, cioè la ricerca di determinati comandi che aggirino i controlli e, che quindi, “sblocchino” tutto il potenziale di ChatGPT, a discapito della legalità.
LEGGI ANCHE: “Elon Musk e Steve Wozniak contro lo sviluppo di ogni intelligenza artificiale: “più potente di GPT-4”: chiesto uno stop di 6 mesi“
I dettagli delle dichiarazioni dell’Europol su ChatGPT
Il rapporto pubblicato, intitolato “L’impatto dei modelli linguistici di grandi dimensioni sulle forze dell’ordine”, evidenzia i principali casi in cui ChatGPT viene utilizzato dai criminali informatici.
In particolar modo l’abilità dell’intelligenza artificiale di generare testi molto realistici, e anche di poter interpretare persone dei più disparati ceti sociali e che utilizzano un registro linguistico differente, permette ai criminali di realizzare testi credibili per il phishing.
Nel rapporto infatti, Europol dichiara:
“La capacità di ChatGPT di redigere testi altamente autentici sulla base di una richiesta dell’utente lo rende uno strumento estremamente utile per il phishing.
In particolare, il contesto dell’e-mail di phishing può essere facilmente adattato a seconda delle esigenze dell’attore della minaccia, spaziando da opportunità di investimento fraudolente alla compromissione della posta elettronica aziendale.”
Inoltre, viene sottolineata anche la capacità di ChatGPT di poter generare del codice sorgente funzionante, nei più comuni linguaggi di programmazione, per scopi malevoli, come VBA scripts che danneggiano il sistema operativo e, più in grande, dei veri propri malware.
Ciò è possibile spezzettando i prompts forniti all’AI, che scriverà quindi passo dopo passo il codice. Su questo, Europol afferma:
“ChatGPT è in grado di produrre codice in diversi linguaggi di programmazione.
Questo tipo di generazione automatica di codice è particolarmente utile per quei criminali con scarse o nulle conoscenze di sviluppo software. In particolare, i controlli che impediscono a ChatGPT di fornire codice potenzialmente dannoso funzionano soltanto se l’AI capisce cosa sta facendo.
Se le richieste sono suddivise in singoli passaggi, è molto semplice aggirare queste misure di sicurezza.”
Fonte: Europol.