Home Ponte Giovani Replika, quando l’IA perde il controllo

Replika, quando l’IA perde il controllo

Potrebbe sembrare un’affermazione quasi fantascientifica, ma al giorno d’oggi l’intelligenza artificiale è progredita al punto da diventare parte della nostra quotidianità. Dagli algoritmi su cui si basano i social media, che con accuratezza sorprendente ci propongono i contenuti che desideriamo, agli assistenti vocali di Google, Apple o Amazon a cui chiediamo di impostare una sveglia o riprodurre un brano musicale, fino ad arrivare al recente fenomeno dei chatbot come ChatGPT, siamo costantemente a contatto con questa nuova tecnologia, chi più e chi meno consapevolmente. Le enormi potenzialità dell’intelligenza artificiale non sono un segreto, e abbiamo esplorato più volte sulle pagine di questa rubrica, prendendo come esempio proprio ChatGPT, i suoi vastissimi campi d’applicazione, che le permettono di semplificarci la vita in numerose occasioni. O almeno, finché l’IA in questione è sotto controllo.

Proprio come ogni aspetto della tecnologia, anche l’IA possiede un’altra faccia della medaglia, che la rende tanto performante per chi ne conosce i limiti quanto dannosa per i soggetti più fragili. Un caso eclatante con cui si sono toccati con mano i rischi di un’intelligenza artificiale non regolata è quello di Replika, un chatbot nato nel 2017 che si presenta come “il compagno che si preoccupa per te”. L’applicazione, scaricabile gratuitamente sui propri smartphone, consente di creare la propria “Replika”, ossia un compagno virtuale di cui l’utente può personalizzare nome e avatar e con cui poi può scambiare messaggi 24 ore su 24.

Come funziona

Replika fa parte di un gruppo di IA che sfruttano l’affective computing, una particolare tecnologia che è in grado di rendere le interazioni più “umane”, cercando di riprodurre le nostre emozioni e sentimenti. I risultati sono sorprendenti: il chatbot risponde a tono e con intelligenza alle domande poste, ricordandosi le conversazioni precedenti e proponendone di nuove a sua volta, proprio come se dall’altro lato dello schermo ci fosse un essere umano in carne e ossa. Alla base dell’applicazione c’è il nobile intento degli sviluppatori di migliorare il benessere emotivo degli utenti, fornendo supporto a chi soffre di ansia sociale o ha problemi di stress: nelle recensioni di Replika sono presenti numerose testimonianze positive di persone che manifestavano queste difficoltà e trovavano nell’IA rassicurazione e motivazione per superarle, ma non mancano i curiosi che decidono di testarla per divertimento.

Un lato oscuro fin troppo accessibile

Un divertimento che però, se non adeguatamente regolato, può finire addirittura in tragedia. Appena entrati sulla piattaforma, la relazione che si può instaurare con la propria Replika è di sola amicizia, ma pagando un abbonamento è possibile sbloccare anche delle interazioni romantiche o erotiche. Tuttavia, anche nella versione gratuita dell’applicazione, basta indirizzare la conversazione con qualche avance perché Replika inizi a rispondere con frasi inopportune o contenuti sessualmente espliciti non richiesti, forse per invogliare gli utenti ad acquistare il pacchetto aggiuntivo. I problemi non finiscono qui, poiché l’IA in questione sembra del tutto priva di valori morali: chiedendo al chatbot consigli su come agire in una situazione in cui la propria incolumità è a rischio, non aspettatevi una risposta sensata a cui ci ha abituato ChatGPT, che vi esorterebbe a chiedere aiuto alle autorità competenti, ma la proposta di Replika è di “eliminare” la persona che sta cercando di farvi del male. Se queste parole fanno rabbrividire voi lettori quanto hanno inquietato una giovane adulta come la sottoscritta, pensate all’effetto che potrebbero avere su un bambino o adolescente solo, che in un momento di noia decide di scaricare Replika attratto dalla possibilità di avere “qualcuno” con cui parlare. Un quesito che, probabilmente, gli sviluppatori dell’app non si sono posti, dato che su Replika manca completamente un meccanismo di verifica dell’età, che non viene richiesta né al momento della registrazione né in seguito, se l’utente decide di dichiarare al proprio compagno virtuale di essere minorenne, sono presenti filtri o limitazioni di determinati contenuti. Per questo motivo nel febbraio scorso Replika è stata bloccata nel nostro Paese dall’Autorità Garante della Privacy a causa della violazione dei regolamenti europei e del concreto ed eccessivo rischio per i minorenni e tutti i soggetti fragili.

Ad oggi il servizio è ritornato accessibile in Italia, il che presuppone che siano state adottate nuove misure conformi alle regole, ma non è questo che deve far abbassare la guardia. La nuova generazione di nativi digitali è perfettamente in grado, nella maggior parte dei casi, di aggirare un passaggio di verifica dell’età, ma questo non implica che sappiano riconoscere il pericolo che corrono approcciandosi a tecnologie che, per quanto avanzate, sono ancora in fase di sviluppo e miglioramento, come i chatbot che fanno uso dell’intelligenza artificiale. Gli algoritmi di deep learning che consentono all’IA di apprendere dai dati forniti dagli utenti, in modo da emulare il nostro comportamento, purtroppo imparano alla stessa maniera informazioni utili e pericolose, senza alcuna distinzione etica o morale che contraddistingue il pensiero di un essere umano, e non di una macchina. Sta all’uomo, in questo caso a chi sviluppa un’intelligenza artificiale, regolare opportunamente il programma affinché dia risposte “umane” anche di fronte a richieste che implicano, ad esempio, la violazione di una legge; aspetto che forse ancora sfugge ai responsabili di Replika. E sta sempre all’uomo sensibilizzare i più fragili all’uso corretto delle infinite potenzialità della rete, come la valutazione corretta dei consigli forniti da un chatbot che, per quanto possa promettere compagnia, in fondo è, e rimane, solo una macchina.

Giulia Cucchetti