Home Attualita Truffe e frodi, la nuova frontiera dell’IA

Truffe e frodi, la nuova frontiera dell’IA

L’intelligenza artificiale introduce grandi opportunità in tanti ambiti, ma apre anche le porte ad attività illecite sempre più sofisticate

Vero e falso, un confine sempre più fragile. L’avvento delle forme più moderne di intelligenza artificiale (IA) ha portato con sé preziose opportunità in tanti ambiti diversi, ma anche una criticità profonda, soprattutto nella società di oggi basata sull’informazione: una difficoltà sempre maggiore a distinguere tra ciò che è reale e ciò che non lo è. Immagini, suoni, voci, notizie sono già oggi facilmente replicabili dall’intelligenza artificiale, scenario che si acutizzerà sempre di più in futuro, vista la grande capacità di evoluzione di questa tecnologia. E le difficoltà a distinguere il vero dal falso non solo sollevano interrogativi di tipo etico e filosofico, ma comportano anche rischi concreti, ad esempio esponendo i cittadini a forme sempre più sofisticate di truffe e frodi.

I numeri lo sottolineano: solo nel 2024 sono aumentati del 15% i casi di truffe on-line, a cui si somma un +20% di frodi informatiche (dati del report 2024 della Polizia Postale). Idem il nostro territorio: secondo la Fabi (Federazione autonoma bancari italiani), nel 2024 l’Emilia-Romagna ha visto un’impennata di truffe e frodi informatiche, con un incremento medio di importi sottratti del 30% rispetto all’anno precedente. Colpita anche Rimini: 1,5 milioni di euro sottratti da raggiri con strumenti informatici, quasi l’8% del totale regionale.

Come gestire, dunque, una situazione in cui sono sempre meno i punti di riferimento per difendersi? Le armi migliori restano sempre la conoscenza e la consapevolezza di quali siano le minacce più diffuse e pericolose, da cui l’esigenza di un approfondimento sul tema.

Nuove frontiere

L’intelligenza artificiale sta trasformando il panorama delle truffe, da una parte integrando e implementando alcuni metodi già esistenti, dall’altra introducendone di nuovi. Tra i primi troviamo il già noto phishing, ossia la sottrazione di dati sensibili come codici, password o altre informazioni, attraverso falsi messaggi di testo o e-mail provenienti da aziende o istituti apparentemente autentici, che con gli strumenti di IA sono sempre più difficili da smascherare; oppure la creazione con IA di profili falsi sui social network, con cui approcciare le vittime, o l’utilizzo dei

chatbot, ossia gli assistenti virtuali utili per aiutare gli utenti nella navigazione dei siti web, che attraverso l’intelligenza artificiale diventano strumenti per sviare le vittime e indurle, impersonando rappresentanti del servizio clienti, a condividere dati sensibili o addirittura a inviare denaro. Altre truffe “classiche”, ma implementate dall’IA, sono il furto d’identità, con la creazione di immagini e documenti falsi con IA; le recensioni contraffatte di prodotti, per influenzare negativamente gli acquisti dei consumatori e, infine, la sempre presente “truffa romantica”, con l’intelligenza artificiale utilizzata per creare falsi profili interessati a cominciare una relazione e analizzare i dati delle vittime per manipolarle e indurle a inviare denaro.

Voce… clonata

Per quanto riguarda i nuovi metodi fraudolenti che utilizzano strumenti di intelligenza artificiale, un posto di rilievo è sicuramente occupato dal cosiddetto voice cloning, ossia la possibilità di clonare la voce di una qualsiasi persona, al fine di utilizzarla per ingannare amici o parenti. Un sistema estremamente inquietante, dal quale è molto difficile proteggersi e che spinge ad essere inevitabilmente chiusi e diffidenti nei confronti di qualsiasi interlocuzione telefonica, anche nei confronti degli affetti più cari. “ Il voice cloning sfrutta l’intelligenza artificiale per replicare una voce umana in modo sorprendentemente realistico. – spiegano gli esperti scientifici di Focus, che negli ultimi mesi ha dedicato ampio spazio al tema, vista l’allarmante diffusione di questi nuovi metodi illeciti – Basta un campione audio di soli tre secondi per catturare caratteristiche

come l’intonazione, l’accento e persino il ritmo del respiro. L’algoritmo utilizza questi dati per generare nuove frasi, che suonano esattamente come se fossero pronunciate dalla persona originale. La truffa più semplice consiste nell’invio di messaggi audio di emergenza tramite piattaforme come Whatsapp, in cui si esortano le vittime a trasferire denaro attraverso canali difficilmente tracciabili, come criptovalute o carte regalo”. Come difendersi da una minaccia così complessa? Anche in questo caso, le armi migliori sono la conoscenza e la consapevolezza. “ Per proteggere i cittadini occorre pianificare campagne di informazione mirate innanzitutto a rendere nota l’esistenza del problema. – sottolineano gli esperti – In caso di richieste di denaro e dati sensibili, prima di procedere, è buona abitudine adottare precauzioni. Se la comunicazione si svolge in tempo reale, un buon consiglio è stabilire una parola d’ordine con i propri amici o familiari, qualcosa di semplice ma nota solo a loro.

In alternativa, si può porre una domanda personale a cui soltanto il diretto interessato sa rispondere. Se la voce è contenuta in un messaggio vocale, invece, il modo migliore è telefonare di persona per verificare la situazione”.

Deepfake, non si può più credere ai propri occhi

Arriviamo alla minaccia più subdola introdotta dall’intelligenza artificiale, il cosiddetto

deepfake (di cui fa parte per certi versi anche la clonaziona della voce): si tratta di una tecnologia di IA che consente di manipolare immagini, video e audio creando contenuti fasulli che, però, appaiono spaventosamente autentici. Con opportunità sconfinate di utilizzi fraudolenti. Tra queste, la possibilità di sfruttare l’immagine dei personaggi più famosi della Rete, gli influencer. Come dimostra questa testimonianza riminese.

Mentre navigavo tranquillamente in Rete, mi imbatto in un video pubblicitario come ce ne sono tanti ormai ovunque. – racconta Francesco M., giovane di Rimini Lo spot mostra un famosissimo influencer che pubblicizza un videogioco utilizzabile con il proprio cellulare, invitando all’acquisto e all’utilizzo. Un video come ce ne sono tanti, che non desta particolari sospetti. Qualche giorno dopo, però, la sorpresa: esce un video ufficiale dello stesso influencer che spiega come quello spot sia completamente fasullo, finalizzato a spingere all’acquisto di un gioco venduto su canali poco trasparenti e privi di tutele per quanto riguarda pagamenti e transazioni”. A spaventare, in questo caso, la qualità tecnica della realizzazione. “ Come spiegato dallo stesso influencer, – conclude Francesco – i truffatori hanno utilizzato parte di un suo vero video pubblicato in passato, hanno scritto un testo pubblicitario e lo hanno fatto ‘recitare’ all’intelligenza artificiale, clonando la voce, facendola esprimere con lo stile preciso del personaggio e, addirittura, modificando il labiale per renderlo sincronizzato con le parole espresse. Un qualcosa di incredibile”. E la sensazione, purtroppo, è quella di muoversi sempre di più su un campo minato.