Come l’intelligenza artificiale modellerà il futuro del malware

ai-forma-malware

Mentre ci spostiamo verso il futuro, la prospettiva di sistemi basati sull'intelligenza artificiale diventa più allettante. L'intelligenza artificiale ci aiuterà a prendere decisioni, ad alimentare le nostre città intelligenti e, purtroppo, a infettare i nostri computer con brutti ceppi di malware.

Esploriamo cosa significa il futuro dell'IA per il malware.

Che cos'è l'IA nei malware?

Quando usiamo il termine "malware basato sull'intelligenza artificiale", è facile immaginare un caso in stile Terminator di un'intelligenza artificiale "impazzita" che sta causando il caos. In realtà, un programma dannoso controllato dall'IA non invierebbe i robot indietro nel tempo; sarebbe più subdolo di così.

Il malware basato sull'intelligenza artificiale è un malware convenzionale modificato tramite Intelligenza artificiale per renderlo più efficace. Il malware basato sull'intelligenza artificiale può utilizzare la sua intelligenza per infettare i computer più rapidamente o rendere gli attacchi più efficienti. Invece di essere un programma "stupido" che segue un codice predefinito, il malware basato sull'intelligenza artificiale può pensare da solo, fino a un certo punto.

In che modo l'IA migliora il malware?

Esistono diversi modi in cui l'intelligenza artificiale può migliorare il malware. Alcuni di questi metodi sono figurativi, mentre alcuni sono tangibili nel mondo reale in qualche modo.

Ransomware mirato dimostrato da DeepLocker

Uno dei più spaventosi esempi di malware basati sull'intelligenza artificiale è Deeplocker. Per fortuna, IBM Research ha sviluppato il malware come una prova di concetto in modo da non trovarlo in natura.

Il concetto di DeepLocker era di dimostrare come l'IA può trasferire il ransomware in un dispositivo di destinazione. Gli sviluppatori di malware possono fare un "colpo di pistola sparatutto" contro un'azienda con ransomware, ma c'è un'alta probabilità che non riescano a infettare i computer essenziali. Pertanto, l'avviso potrebbe aumentare troppo presto perché il malware raggiunga gli obiettivi più importanti.

DeepLocker era un software di teleconferenza che contrabbandava in una varietà unica di WannaCry. Tuttavia, non ha attivato il payload; invece, si limiterebbe a svolgere le sue funzioni di programma di teleconferenza.

Mentre faceva il suo lavoro, avrebbe scansionato i volti delle persone che lo usavano. Il suo obiettivo era infettare il computer di una persona specifica, quindi monitorava tutti mentre usavano il software. Quando rilevava la faccia del bersaglio, attivava il payload e causava il blocco del PC da parte di WannaCry.

Vermi adattativi che apprendono dal rilevamento

Un uso teorico dell'intelligenza artificiale nei malware è un worm che "ricorda" ogni volta che un antivirus lo rileva. Una volta che sa quali azioni causano l'individuazione di un antivirus, quindi smette di eseguire quell'azione e trova un altro modo per infettare il PC.

Ciò è particolarmente pericoloso, poiché l'antivirus moderno tende a scappare da regole e definizioni rigide. Ciò significa che tutto ciò che un worm deve fare è trovare un modo per non far scattare l'allarme. Una volta fatto, può informare gli altri ceppi sul buco nella difesa, in modo che possano infettare più facilmente altri PC.

Indipendenza dallo sviluppatore

Il malware moderno è abbastanza "stupido", non può pensare da solo o prendere decisioni. Esegue una serie di attività che lo sviluppatore gli ha assegnato prima che si verificasse l'infezione. Se lo sviluppatore desidera che il software faccia qualcosa di nuovo, deve trasmettere il prossimo elenco di istruzioni al proprio malware.

Questo centro di comunicazione è chiamato un server di "comando e controllo" (C&C) e deve essere nascosto molto bene. Se il server viene scoperto, potrebbe ricondurre all'hacker, terminando spesso con arresti.

Se il malware può pensare da solo, tuttavia, non è necessario un server C&C. Lo sviluppatore libera il malware e si mette a sedere mentre il malware fa tutto il lavoro. Ciò significa che lo sviluppatore non deve rischiare di uscire da solo mentre dà i comandi; possono semplicemente "impostare e dimenticare" il loro malware.

Monitoraggio delle voci dell'utente per informazioni sensibili

Se un malware basato sull'intelligenza artificiale ottiene il controllo del microfono di un bersaglio, può ascoltare e registrare ciò che le persone dicono nelle vicinanze. L'intelligenza artificiale quindi analizza ciò che ha ascoltato, lo trascrive in testo, quindi restituisce il testo allo sviluppatore. Questo semplifica la vita allo sviluppatore, che non deve attendere ore di registrazioni audio per trovare segreti commerciali.

Come può un computer "imparare?"

Il malware può imparare dalle sue azioni attraverso quello che viene chiamato "machine learning". Questa è un'area specifica dell'intelligenza artificiale, correlata a come i computer possono imparare dai loro sforzi. L'apprendimento automatico è utile per gli sviluppatori di AI perché non hanno bisogno di programmare per ogni scenario. Consentono all'intelligenza artificiale di sapere cosa è giusto e cosa non lo è, quindi lo imparano attraverso prove ed errori.

Quando l'IA addestrata dall'apprendimento automatico deve affrontare un ostacolo, prova diversi metodi per superarlo. Inizialmente farà un lavoro scadente nel superare la sfida, ma il computer noterà cosa è andato storto e cosa può essere migliorato. Nel corso di diverse iterazioni di apprendimento e di prova, alla fine si ottiene una buona idea di quale sia la risposta "corretta".

Puoi vedere un esempio di questi progressi nel video sopra. Il video mostra un'intelligenza artificiale che impara come far camminare correttamente diverse creature. Le prime generazioni camminano come se fossero ubriache, ma le successive mantengono la loro postura. Questo perché l'IA ha imparato dai fallimenti precedenti e ha fatto un lavoro migliore sui modelli successivi.

Gli sviluppatori di malware utilizzano questo potere di machine learning per capire come attaccare correttamente un sistema. Se qualcosa va storto, il sistema registra questo errore e nota cosa hanno fatto che ha causato quel problema. In futuro, il malware adatterà i suoi schemi di attacco per risultati migliori.

Come possiamo difenderci dall'intelligenza artificiale guidata dal malware?

Il grosso problema con l'intelligenza artificiale di apprendimento automatico è che sfruttano il modo in cui funzionano gli antivirus. A un antivirus piace lavorare tramite regole semplici; se un programma si adatta a una nicchia specifica che un antivirus sa essere dannoso, lo blocca.

Il malware basato sull'intelligenza artificiale, tuttavia, non funzionerà in modo rigido e stabilirà delle regole. Produrrà continuamente difese, cercando di trovare una via d'uscita. Una volta che si è fatto strada, può svolgere il suo lavoro senza ostacoli fino a quando l'antivirus non riceve aggiornamenti specifici per la minaccia.

Quindi, qual è il modo migliore per combattere questo malware "intelligente"? A volte è necessario combattere il fuoco con il fuoco e il modo migliore per farlo è introdurre programmi antivirus basati sull'intelligenza artificiale . Questi non usano regole statiche per catturare malware, come i nostri modelli attuali. Invece, analizzano cosa sta facendo un programma e lo interrompe se agisce in modo dannoso, secondo l'opinione dell'antivirus.

Un futuro definito dall'intelligenza artificiale

Le regole di base e le semplici istruzioni non definiranno gli attacchi malware in futuro. Invece, useranno l'apprendimento automatico per adattarsi e modellarsi per contrastare qualsiasi sicurezza incontrino. Potrebbe non essere così emozionante come il modo in cui Hollywood descrive l'IA maligna, ma la minaccia è molto reale.

Se desideri vedere alcuni esempi meno spaventosi di Intelligenza Artificiale, consulta questi siti Web basati sull'intelligenza artificiale.

Credito di immagine: sdecoret / Depositphotos

Leggi l'articolo completo: In che modo l'intelligenza artificiale modellerà il futuro del malware