27/11/2025

Data:

Social engineering: come l’AI rende le frodi più credibili

La social engineering è una truffa digitale che inganna le persone anziché utilizzare hacking tecnico. Con l'AI generativa, le tecniche di inganno sono diventate più rapide e potenti, consentendo agli attaccanti di creare facilmente siti web falsi, codici dannosi e email di phishing convincenti.

social-engineering-come-ai-rende-le-frodi-piu-credibili

Per esempio, con strumenti AI un’email di phishing può essere generata in circa 5 minuti, mentre un team umano ne impiegherebbe molte ore. Di conseguenza, i vecchi segnali di allarme (errori ortografici, richieste “romantiche” di aiuto, senso di urgenza esagerato) non funzionano più come prima: le truffe risultano personalizzate e realistiche, difficili da distinguere da comunicazioni genuine.

Un’infografica sull’argomento evidenzia come i deepfake – falsi video o audio creati con AI – siano ormai strumenti di frode potente. In un caso reale, il CEO di un’azienda energetica è stato convinto a versare oltre 200.000 euro a un falso fornitore, ingannato da un messaggio vocale deepfake credibile. Questi esempi dimostrano che l’intelligenza artificiale può generare audio e video falsi ma molto convincenti, mettendo a rischio decisioni aziendali e operazioni finanziarie. Allo stesso tempo, l’AI facilita anche la raccolta di informazioni pubbliche (spesso chiamata OSINT): scansionando profili social, siti web e comunicati aziendali, i truffatori ottengono in pochi minuti schede dettagliate su dipendenti e aziende. Con queste informazioni, gli attacchi possono essere diretti in modo chirurgico. In sintesi, l’intelligenza artificiale sta trasformando lo scenario delle frodi digitali: le truffe diventano sempre più intelligenti, personalizzate e difficili da individuare.

Social engineering potenziato dall’AI: i rischi principali

Gli attacchi di social engineering potenziati dall’AI stanno già causando ingenti perdite economiche e danni di reputazione. Solo nel 2024, le frodi via email sono costate alle aziende oltre 12 miliardi di dollari (solo negli Stati Uniti). Con l’AI si prevede un incremento di questi costi, perché gli attacchi diventano più credibili e diffusi. Ad esempio, deepfake molto sofisticati permettono ai truffatori di fingersi dirigenti e convincere i dipendenti a trasferire soldi: nel caso del finanziere cinese, un deepfake del volto del CEO gli ha fatto estorcere oltre 600.000 dollari fingendo una videoconferenza.

Il danno però non è solo monetario. Se un dirigente viene vittima di un deepfake che diffonde false informazioni, clienti e partner possono perdere fiducia nell’azienda. Inoltre, l’automazione su larga scala rende più complessa ogni difesa tradizionale. Un tempo gli attacchi erano sporadici e singoli, mentre oggi strumenti AI generano migliaia di email di phishing o chiamate fraudolente in parallelo. Di conseguenza, anche le aziende preparate rischiano di subire attacchi multipli contemporaneamente. Senza contromisure mirate, bastano poche email mirate (phishing) o comunicazioni ingannevoli per penetrare nelle reti aziendali o sottrarre dati sensibili.

Gli esperti sottolineano infatti che l’intelligenza artificiale ha aumentato drasticamente la personalizzazione degli attacchi. Ogni messaggio fraudolento può essere tarato sui punti deboli psicologici della vittima – autorità, urgenza, paura – rendendo estremamente difficile riconoscere la truffa. Insomma, non si tratta più di incidenti isolati: siamo di fronte a vere e proprie campagne sofisticate di social engineering, capaci di compromettere interi processi aziendali e diffondere frodi di nuova generazione.

Le principali tipologie di attacco basate sull’AI

  • Deepfake audio e video: L’AI può clonare voci e volti in modo estremamente realistico. In ambito aziendale un attaccante può simulare una videochiamata con un manager falso o generare un messaggio vocale del CEO che chiede un pagamento urgente. Ad esempio, nel 2024 un dipendente di una multinazionale è stato convinto a trasferire 25 milioni di dollari fingendo di ricevere istruzioni via video dal suo direttore finanziario. Tecniche di questo tipo sfruttano l’affidamento delle persone sul fattore umano: se a parlare sembra essere un collega o un superiore, la maggior parte non sospetterà nulla.
  • Email di phishing generate da AI: Strumenti generativi come ChatGPT possono comporre email mirate, coerenti e in diverse lingue, eliminando gli errori grammaticali tipici delle truffe del passato. Ricerche recenti indicano che entro pochi anni oltre la metà delle email di spam saranno scritte con l’AI. Nelle truffe più mirate (ad esempio per rubare denaro a un’azienda), l’AI può perfino studiare lo stile di scrittura di un manager e imitare le sue email per chiedere bonifici fraudolenti. Le email generate artificialmente risultano così spesso perfette dal punto di vista formale e rendono più difficile il compito dei filtri antispam automatici. Inoltre, gli aggressori possono affinare i loro messaggi testando vari contenuti in modo semplice e rapido, aumentando il tasso di successo dell’attacco.
  • Chatbot ingannevoli: Anche i sistemi di chat basati su AI possono essere usati come armi di inganno. Un truffatore può creare un bot che finge di essere un servizio di assistenza clienti o un collega e usarlo per indurre l’utente a fornire informazioni personali o credenziali riservate. Ad esempio, è possibile manipolare un chatbot affinché impersoni un dipendente affidabile e invii email di phishing chiedendo dati sensibili. In pratica, un utente pensa di parlare con un servizio legittimo ma, in realtà, sta consegnando i suoi dati a un programma malevolo creato appositamente. Questa tecnica sfrutta la tendenza delle persone a fidarsi degli strumenti automatizzati di risposta (chatbot, risponditori vocali, ecc.) e può ingannare sia i dipendenti sia i clienti.
  • Profilazione automatica degli obiettivi: L’AI accelera enormemente la raccolta di informazioni pubbliche sugli obiettivi (social engineering avanzato). Strumenti di data mining e agenti intelligenti possono scavare automaticamente in fonti aperte (social network, siti web aziendali, notizie) per creare profili dettagliati di dipendenti e aziende. Ad esempio, un sistema AI può leggere annunci di lavoro o post su blog per scoprire quali tecnologie usa un’azienda e quali figure chiave vi lavorano. Con questi dati, l’aggressore può preparare campagne di phishing molto mirate: ad esempio fingendo di essere un fornitore noto che chiede assistenza per un software aziendale. Più informazioni l’AI riesce a raccogliere, più il social engineering diventa preciso ed efficace, incrementando le probabilità di successo della frode.

Raccomandazioni strategiche per la sicurezza

Per difendersi dall’ondata di frodi basate sull’AI è fondamentale adottare misure sia tecnologiche sia organizzative. Ecco alcuni consigli chiave:

  • Formazione continua: Allenare regolarmente dipendenti e collaboratori con esempi concreti di attacchi sofisticati (deepfake, phishing avanzato, chatbot ingannevoli). Lo scopo è sviluppare un atteggiamento scettico verso richieste urgenti o insolite, anche se provengono da apparenti colleghi o superiori. Simulazioni reali possono aiutare il personale a riconoscere i segnali di un tentativo di frode.
  • Procedure più rigide: Introdurre sistemi di verifica aggiuntivi per operazioni critiche. Ad esempio, utilizzare l’autenticazione a due fattori (codici temporanei via SMS o app) per confermare ogni transazione finanziaria o accesso sensibile. Applicare il “doppio controllo”: prima di eseguire bonifici importanti, verificare sempre la richiesta attraverso un canale indipendente (ad es. una telefonata al manager che avrebbe inviato l’email). Queste pratiche rendono più difficile che una comunicazione fraudolenta possa portare a conseguenze reali.
  • Tecnologie di difesa avanzate: Investire in soluzioni di sicurezza che sfruttano a loro volta l’AI. Filtri email intelligenti, sistemi di analisi comportamentale e scanner di contenuti basati su AI possono individuare attività sospette anche quando l’attacco è molto realistico. Ad esempio, un motore di protezione delle email “intelligente” può riconoscere l’intento di phishing di una mail anche quando non ci sono link evidenti o segnali tradizionali. L’uso di strumenti di threat intelligence che segnalano automaticamente anomalie e potenziali minacce aiuta a proteggere i dati aziendali.
  • Limitare le informazioni pubbliche: Ridurre il materiale disponibile online che potrebbe aiutare i truffatori. Impostare i profili social aziendali e personali in modalità privata e pubblicare solo le informazioni strettamente necessarie. Meno dati conoscibili (organigrammi, tecnologie utilizzate, ecc.) ci sono sui siti web e i social, più difficile sarà per un attaccante pianificare un attacco mirato con l’AI.
  • Collaborazione di settore: Condividere tempestivamente segnalazioni di nuovi attacchi con enti di sicurezza e altre aziende. Stabilire collaborazioni con CERT (Computer Emergency Response Team) nazionali o internazionali e partecipare a gruppi di intelligence sulle minacce. In questo modo, le organizzazioni possono aggiornare rapidamente le proprie difese seguendo l’evoluzione delle tecniche criminali.

In sintesi, la strategia migliore contro il social engineering potenziato dall’AI combina tecnologia e consapevolezza umana. È necessario usare l’intelligenza artificiale come strumento di difesa (ad esempio filtri di sicurezza intelligenti e sistemi di riconoscimento dei deepfake) insieme a politiche interne rigide e formazione mirata. Solo così ogni comunicazione sospetta potrà essere “messa in discussione” e verificata, anche se appare perfettamente credibile.

L’evoluzione dell’AI nel crimine informatico è veloce, ma con un approccio proattivo e informato è possibile ridurre notevolmente il rischio delle truffe e delle frodi potenziate dall’intelligenza artificiale.

Iscriviti alla nostra Newsletter!

Rimani sempre aggiornato e ricevi novità e consigli utili.

Grazie per esserti iscritto alla nostra newsletter.
Ops! Qualcosa è andato storto.

Copyright ©2025 e-cons.it

E-CONS S.R.L.– Via del Lavoro 4 – 35040 Boara Pisani (PD) Tel: 0425-485621 – P.IVA – C.F. – Registro Imprese di Padova N. 01171060294 -PEC: e-cons@legalmail.it – Codice SDI: SUBM70N — Capitale Sociale 25.500 i.v.