Quando chattare può diventare un pericolo
Avete mai utilizzato una chatbot per simulare una conversazione con un’intelligenza artificiale, magari per testare le vostre abilità di seduzione o semplicemente per passare il tempo?
E se vi dicessi che queste conversazioni virtuali possono nascondere dei pericoli inaspettati?
Nel precedente articolo avevo scritto di applicazioni che davano l’opportunità di interagire con un’ampia varietà di personaggi virtuali, creati dall’intelligenza artificiale, celebrità, personaggi storici, eroi dei libri e star cinematografiche o della musica, persino creando il proprio chatbot personalizzato.
Ma procediamo con ordine, che cosa è una chatbot?
Immagina di avere una conversazione con un amico su una piattaforma di messaggistica, ora, invece di un amico, pensa di parlare con un computer programmato per rispondere alle tue domande e interagire con te in modo simile a una persona. Ecco, questo computer è quello che chiamiamo chatbot.
In parole più semplici è un software progettato per simulare una conversazione umana basato su regole o sull’intelligenza artificiale. Le chatbot più semplici seguono regole predefinite, mentre quelli più sofisticati utilizzano l’intelligenza artificiale per comprendere il linguaggio naturale e generare risposte di conseguenza. Queste chatbox vengono utilizzate per diverse finalità, come l’assistenza clienti, la prenotazione di voli, le risposte a domande frequenti e molto altro.
Un esempio pratico?
Hai mai “chattato” su un sito web di e-commerce per chiedere informazioni su un prodotto? Quello era una chatbot.
Inoltre le chatbot sono sempre disponibili per rispondere alle tue domande a qualsiasi ora del giorno e della notte, possono gestire un gran numero di richieste contemporaneamente, liberando gli operatori umani per compiti più complessi, alcuni chatbot sono in grado di adattarsi alle tue preferenze e fornire risposte personalizzate, i chatbot sono strumenti sempre più diffusi e sofisticati che stanno rivoluzionando il modo in cui interagiamo con la tecnologia.
Come funzionano i modelli linguistici: per l’addestramento delle chatbot?
Immagina di insegnare a un bambino a parlare. All’inizio, gli mostri un oggetto e gli dici il suo nome, con il tempo, il bambino inizia ad associare quell’oggetto a quella parola, poi, gli fai vedere le diverse combinazioni di oggetti e tiri fuori frasi semplici, gradualmente, impara a costruire frasi sempre più complesse e a capire il significato delle parole in base al contesto. Invece di un bambino, abbiamo un modello matematico, una sorta di “cervello artificiale”. Questo modello viene “addestrato” su enormi quantità di testo, come libri, articoli, pagine web e molto altro. Il modello impara a riconoscere le relazioni tra le parole, a capire il significato delle frasi e a prevedere la parola successiva in una frase.
Una volta addestrato, il modello può generare del testo nuovo, rispondendo a domande, traducendo lingue o scrivendo testi creativi.Le parole vengono trasformate in numeri, chiamati vettori. Questi vettori rappresentano il significato della parola e la sua relazione con le altre parole. Il modello utilizza delle reti neurali, che sono sistemi ispirati al cervello umano, per analizzare questi vettori e identificare le relazioni tra le parole. Il modello non “capisce” il linguaggio nel senso umano del termine, ma è in grado di prevedere quale sia la parola più probabile da utilizzare in una determinata situazione, basandosi sui dati su cui è stato addestrato. In sintesi non è una persona, un modello linguistico non ha coscienza né sentimenti, più dati vengono utilizzati per l’addestramento, migliori saranno le prestazioni del modello, i modelli linguistici hanno numerose applicazioni, dalla traduzione automatica alla generazione di testi creativi, passando per la risposta alle domande.

Quindi che male ci sarebbe a chattare con una/o fidanzata/o virtuale?
In teoria nessuna, però dietro l’apparente innocuità di queste conversazioni si nasconde un mondo oscuro, fatto di pericoli e rischi che forse non immaginate. Quello che può sembrare un gioco innocente può trasformarsi in una pericolosa ossessione. Scopriamo insieme i lati oscuri dei chatbot e i rischi a cui si espongono coloro che li utilizzano, specialmente in questo caso.
La privacy questa sconosciuta.
Sappiamo benissimo(ma fingiamo di non saperlo per pigrizia), che dati raccolti dai chatbot potrebbero essere trafugati o utilizzati in modo non autorizzato, esponendoci a rischi per la nostra privacy e sicurezza e le informazioni che condividiamo per creare un profilo dettagliato di noi stessi. Questi profili possono essere sfruttati per scopi commerciali, come la pubblicità mirata, ma anche per manipolarci o influenzarci nelle nostre scelte. Inoltre le nostre conversazioni potrebbero essere analizzate per estrarre informazioni sensibili, come credenziali di accesso, opinioni politiche o preferenze sessuali, per essere utilizzate per scopi illeciti. Le nostre voci e le nostre immagini per creare contenuti falsi e diffamatori (deepfake), che potrebbero danneggiare la nostra reputazione. È importante sapere che le nostre conversazioni con i chatbot non sono sempre private, evitiamo in ogni caso di condividere informazioni personali sensibili con sopratutto con le chatbot e buona regola con chiunque. Prima di utilizzare una chatbot, leggere attentamente la politica sulla privacy per capire come vengono utilizzati i tuoi dati, (cosa che non fa quasi mai nessuno) e se fosse possibile utilizzare strumenti di crittografia per proteggere le nostre comunicazioni.
Chattando con Marilyn Monroe Brad Pit e Biancaneve.
Alcune chatbot che ti permettono di dialogare con personaggi basati sull’intelligenza artificiale, da persone reali a personaggi immaginari, che però possono portare delle problematiche etiche importanti. Creare un personaggio AI basato su una persona reale significa utilizzare i suoi dati personali, la sua immagine e la sua identità senza il suo permesso, violando così la sua privacy, altresì attribuirne tratti della personalità, opinioni o comportamenti che non corrispondono alla realtà può ledere la reputazione della persona reale e costituire reato di diffamazione. Purtroppo molte chatbot creati vedono la donna come un mero oggetto di piacere e questo perpetua stereotipi sessisti e oggettifica le donne. Ultimo ma non ultimo creare personaggi AI che simulano l’identità di persone reali può essere utilizzato per manipolare l’opinione pubblica o diffondere disinformazione. Senza contare che bot possono essere utilizzati per simulare interazioni sessuali con bambini, perpetrando così atti di pedofilia e creando contenuti pedopornografici. L’esposizione a questi contenuti può causare danni psicologici profondi sia ai bambini reali, che potrebbero sentirsi rappresentati, sia agli adulti che ne sono consumatori. Questi bot possono essere molto realistici e difficili da distinguere da conversazioni reali con minori, rendendo ancora più complessa la lotta contro lo sfruttamento sessuale dei bambini online.
L’introduzione di questo elemento rende ancora più urgente la necessità di una regolamentazione efficace e di una maggiore consapevolezza da parte dell’opinione pubblica.
Cosa fare
Sebbene il panorama normativo sia in continua evoluzione e possa variare da paese a paese, esistono alcuni principi fondamentali e leggi che si applicano a questi strumenti di intelligenza artificiale.
Il Regolamento Generale sulla Protezione dei Dati (GDPR) dell’Unione Europea si applica a qualsiasi trattamento di dati personali, compresi quelli raccolti tramite chatbot. Ciò significa che le aziende devono ottenere il consenso degli utenti, garantire la sicurezza dei dati e fornire loro il diritto di accesso, rettifica e cancellazione, inoltre ogni paese ha le proprie leggi sulla protezione dei dati che possono integrare o specificare ulteriormente le disposizioni del GDPR. Gli utenti devono essere informati in modo chiaro e trasparente sull’utilizzo di chatbot, sulla raccolta e il trattamento dei loro dati, e sulla natura dell’interazione (umana o artificiale). La proposta di Regolamento sull’Intelligenza Artificiale (AI Act) dell’UE mira a vietare le pratiche discriminatorie nei sistemi di IA, compresi le chatbot.
Si dovrebbe inoltre segnalare i contenuti illeciti alle piattaforme online e alle autorità competenti, invitare i lettori a sostenere le associazioni che si occupano della tutela dei minori e della lotta contro lo sfruttamento online e segnalare eventuali petizioni online per chiedere una maggiore regolamentazione del settore.
E tu hai mai avuto esperienze con le chatbot? Hai mai provato applicazioni come Botify. AI, Replika, Caracter AI, quali sono le tue opinioni a riguardo?
