Tecnologia
Pubblicità

Tecnologia

Rischi ChatGPT: anche i cybercriminali la stanno usando

di Alessandro Longo

Immagine non disponibile

Vari esperti, tra cui quelli di Checkpoint, hanno segnalato che i cybercriminali usano il chatbot per aiutarsi nella scrittura di codice

11 gennaio 2023
Pubblicità

3' di lettura

Sei un criminale comune e stanco della vita da strada, vuoi provare a darti al cyber-crime... Problema: non sai scrivere in codice. Né vuoi spendere soldi in ransomware fatti da altri. No problem, adesso c'è la soluzione: chiedere a un bot con intelligenza artificiale di scriverlo per te.
Vari esperti, tra cui quelli di Checkpoint, hanno segnalato che i cybercriminali cominciano a usare ChatGpt, il famoso bot di OpenAi, per aiutarsi nella scrittura di codice. Non solo: gli esperti dimostrano che è possibile usare il bot anche per compilare una mail di phishing. Perché un malware è inutile se non sai come iniettarlo nei sistemi della vittima.
È chiaro che quest'aiuto che viene dall'intelligenza artificiale non può trasformare un criminale qualsiasi in un cyber-attaccante, ma è una bella spintarella nella giusta direzione. O per meglio dire nella direzione sbagliata, se la si vede dal punto di vista della legge e della vittima.

“L'AI e in particolare ChatGpt facilitano le cose ai cybercriminali. Il bot di OpenAi una cosa fa di sicuro molto bene ed è proprio scrivere codice”, conferma al Sole24Ore Paolo Dal Checco, tra i più noti informatici forensi in Italia.
I ricercatori di Check Point Research (CPR) hanno segnalato almeno tre casi in cui cybercriminali mostrano, in forum underground, come hanno sfruttato l’intelligenza artificiale di ChatGpt per scopi malevoli.

Pubblicità

Insomma, se alcuni usano il bot per scrivere poesie per la mamma o compili di scuola (esempi reali), altri vi ricorrono per scopi meno edificanti. In un caso riportato da Checkpoint, un autore di malware ha rivelato in un forum utilizzato da altri criminali informatici come stesse sperimentando ChatGpt per vedere se poteva creare codice di malware. L'autore ha condiviso il codice di un software stealer (in grado di rubare informazioni sui computer delle vittime), basato su Python. Il software, sviluppato appunto con ChatGpt, può cercare, copiare ed esfiltrare 12 tipi di file comuni, come documenti Office, PDF e immagini da un sistema infetto.

Lo stesso autore di malware ha anche mostrato come ha utilizzato il bot per scrivere codice Java per scaricare il client SSH e telnet PuTTY ed eseguirlo di nascosto su un sistema tramite PowerShell. Un altro utente ha pubblicato uno script Python generato con il chatbot per crittografare e decrittografare i dati utilizzando gli algoritmi crittografici Blowfish e Twofish. I ricercatori del CPR hanno scoperto che, sebbene il codice possa essere utilizzato per scopi del tutto innocui, un cybercriminale potrebbe facilmente modificarlo in modo che venga eseguito su un sistema senza alcuna interazione da parte dell’utente, rendendolo così un ransomware. E quest'ultimo utente sembrava avere competenze tecniche molto limitate e infatti ha affermato che lo script Python generato con ChatGPT era il primo script che avesse mai creato.

Nel terzo caso, un criminale informatico ha detto di aver usato Chatgpt per creare un marketplace del Dark Web completamente automatizzato per lo scambio di dati di conti bancari e carte di pagamento rubati, strumenti malware, droghe, munizioni.“Per illustrare come utilizzare ChatGPT per questi scopi, il criminale informatico ha pubblicato un pezzo di codice che utilizza API di terze parti per ottenere prezzi aggiornati delle criptovalute (Monero, Bitcoin ed Ethereum) come parte del sistema di pagamento del marketplace del Dark Web”, ha osservato Checkpoint. “Certo, vanno scritte bene le domande. Il bot va Imboccato per scrivere un buon codice, quindi meglio essere un po' esperti. Poi, non si può dire ‘scrivi un ransomware' ma per esempio ‘sei un esperto di sicurezza, fammi un software per crittografia'”, dice Dal Checco.

“Poi si può chiedere di cambiare il codice di un ransomware per permettergli di sfuggire ai controlli di sicurezza”. “Insomma si riducono i costi di creazione e potenzialmente si amplia la platea degli attori di cybercrime”, aggiunge. È solo l'inizio: “In futuro prevedo bot con AI a cui puoi mostrare un sito e quello di crea in automatico un malware per superarne le sue specifiche vulnerabilità”. ChatGpt ha filtri etici che ora un utente malevolo deve aggirare; “ma è solo questione di tempo perché nascano simili bot ‘open', senza filtro alcuno”, aggiunge. Come già è StableDiffusion, alternativa open di Dall-E2 per la creazione immagini. Allo stesso modo: già adesso – come ha mostrato CheckPoint in un'altra analisi – è possibile usare ChatGpt per creare una mail di phishing, ma l'uso è limitato dai filtri. “In futuro si potrà dire a un bot: ‘scrivimi una mail di phishing personalizzata per un appassionato di corsa campestre e iPhone'”, dice Dal Checco.I criminali ora hanno un'arma in più, intelligente, per colpire persone e aziende.


Riproduzione riservata ©
Pubblicità
Visualizza su ilsole24ore.com

P.I. 00777910159   Dati societari
© Copyright Il Sole 24 Ore Tutti i diritti riservati
Per la tua pubblicità sul sito: 24 Ore System
Informativa sui cookie  Privacy policy