5/5/2025
Allarme IA nelle aziende: 89% di app e tool fuori controllo
Un'indagine rivela una preoccupante situazione nelle aziende: l'89% delle applicazioni e degli strumenti di intelligenza artificiale generativa impiegati dai dipendenti operano al di fuori della supervisione aziendale.

Il rapporto "Enterprise GenAI Security Report 2025", pubblicato da LayerX Security, leader nelle soluzioni di sicurezza per browser aziendali, mette in luce come circa il 20% del personale aziendale abbia autonomamente installato almeno un'estensione AI nel proprio browser. Di queste, un allarmante 58% presenta permessi di accesso classificati come ad alto o critico rischio, consentendo potenzialmente il monitoraggio della navigazione, la lettura dei contenuti web e l'accesso a cookie e altri dati utente. Ancora più inquietante è il dato che indica come il 5,6% di queste estensioni di intelligenza artificiale sia potenzialmente dannoso, con la capacità di sottrarre informazioni sensibili.
Il report si basa su dati telemetrici reali provenienti da clienti aziendali e mira a delineare le modalità di interazione del personale con gli strumenti di intelligenza artificiale generativa e i conseguenti rischi per la sicurezza dei dati, evidenziando significative lacune in termini di sicurezza e conformità.
Un altro dato critico emerso dall'indagine è che il 71% delle connessioni agli strumenti di GenAI utilizzati dai dipendenti avviene tramite account personali, eludendo così i controlli aziendali.
Le principali cause di questa mancanza di controllo risiedono nell'utilizzo di account personali e strumenti non monitorati, che espongono dati sensibili a minacce nascoste non protette dall'azienda. A ciò si aggiungono una scarsa consapevolezza e una formazione inadeguata del personale, che pur agendo in buona fede, si comporta in modo imprudente. Incidono negativamente anche la mancanza di strumenti GenAI ufficialmente approvati e utilizzabili per scopi lavorativi, e l'assenza di politiche e regolamenti interni che ne disciplinino l'uso, portando a un pericoloso "fai da te" che sfugge al controllo del management.
I risultati del rapporto sottolineano l'urgenza di adottare un approccio proattivo e basato sul rischio per affrontare le minacce latenti derivanti dall'adozione di applicazioni di GenAI all'interno delle organizzazioni.
Di conseguenza, i CISO (Chief Information Security Officer) e i security manager dovrebbero implementare un framework completo per mitigare i rischi associati all'uso di strumenti di intelligenza artificiale. Ciò implica una meticolosa mappatura dell'utilizzo delle applicazioni di GenAI all'interno dell'organizzazione per comprendere il profilo di rischio aziendale e definire una strategia di intervento efficace.
Le aziende dovrebbero implementare strategie e procedure di auditing dell'IA a livello di endpoint per ottenere una visibilità completa sull'attività delle applicazioni di intelligenza artificiale utilizzate dai dipendenti, consentendo così di identificare potenziali perdite di dati. Parallelamente, è fondamentale limitare l'uso di account personali e imporre l'autenticazione Single Sign-On (SSO) per garantire che i dipendenti utilizzino account GenAI aziendali dotati di misure di sicurezza integrate.
_