Character AI: perché il chatbot in grado di impersonare chiunque è stato oggetto di denunce
Il chatbot Character.AI ha reso il mondo virtuale sempre più realistico e improntato al futuro. Ma dietro questa patina di modernità, si nascondono pericoli reali per i più giovani e un gran numero di denunce.
Un uso eccessivo di social network non fa bene alla salute. Contribuisce a costruire un’immagine distorta della realtà, ci rende dipendenti e, il più delle volte, falsa i rapporti tra le persone, generando illusioni e false aspettative basate sui like. In questo contesto già di per sé instabile, si inseriscono i cosiddetti chatbot, e non quelli di ti danno risposte vocali come Siri, che ti raccontano barzellette che non fanno ridere o ti indicano il percorso più breve per andare al mare.
Anche i chatbot si sono evoluti a livello tecnologico e oggi sono in grado di fare l’impensabile. Persino darci la possibilità di conversare con personaggi che esistono solo nei fumetti, nei film o che sono frutto della nostra immaginazione. Ne è la prova character.ai, un chatbot di ultima generazione capace di creare persone che non esistono, come una fidanzata artificiale super obbediente e accondiscende.
Le “compagnie digitali”, però, possono portare alla deriva gli utenti che vi interagiscono, specialmente se sono giovani e non hanno gli strumenti per tutelarsi, intrappolandoli in pericolosissime dipendenze.
Cerchiamo di capire meglio come funziona Character AI, concentrandoci sui rischi ai quali si può andare incontro, anche da un punto di vista legale. Conoscere davvero uno strumento è il primo passo per sensibilizzare gli utenti a un utilizzo più corretto e a non perdere il contatto diretto con la realtà.
Cos’è Character AI?
Charecter AI è stato fondato da due sviluppatori di Google, Daniel De Freitas e Noam Shazeer. Il funzionamento è molto semplice: gli utenti possono conversare con personaggi di ogni tipo – da quelli realmente esistenti, come un politico, a quelli del passato, fino a soggetti totalmente immaginari.
Si possono creare amici, fidanzate, antagonisti, oppure personalità o figure professionali ben precise, come può essere il prete, la psicologa, una persona con un disturbo borderline di personalità, e così via.
Ci sono volte in cui il personaggio con cui si interagisce rispecchia le caratteristiche di quello reale, mentre ce ne sono altre in cui l’intelligenza artificiale parte per la tangente, e modifica radicalmente la personalità del soggetto che sta personificando.
Ti potrebbe interessare pure Il Ddl intelligenza artificiale è legge: l’Italia è la prima a legiferare in materia

Vuoi una consulenza legale sull'argomento? Chiedi Gratis ad un Avvocato
- +3000 avvocati pronti ad ascoltarti
- Consulenza Legale Online - Telefonica, in webcam, scritta o semplice preventivo gratuito
- Anonimato e Riservatezza - La tua consulenza verrà letta solo dall'avvocato che accetterà di rispondere
Quali sono i vantaggi di un chatbot?
Character AI piace ai giovani (e ai giovanissimi) perché sollazza e, al contempo, fa compagnia. L’utente medio ne fa un uso ricreativo, quindi parla con qualcuno per divertimento e puro piacere. A volte, però, ci si ritrova in questo mondo virtuale perché ci si sente molto soli.
A differenza delle conversazioni con una persona reale, nelle quali non ci si sente a proprio agio al 100% (almeno non necessariamente, e non sempre), parlare con un bot è diverso. Il disagio sparisce e si ha la possibilità di confessare qualsiasi segreto (anche quelli più oscuri) o fantasia (pure quelle più bizzarre) senza il timore di sentirsi giudicati.
Questo potrebbe sembrare, in apparenza, un aspetto molto umano, o che manca ad alcuni esseri umani, ovvero la capacità di instaurare delle connessioni genuine. Libere dai condizionamenti sociali, anagrafici, mentali. Ma questa è solo una metà della luna, quella illuminata.
Ti potrebbe interessare pure Cyberbullismo: cos’è, cosa dice la Legge e come tutelarsi
E i rischi?
Quella dark, così come l’uso smodato dei social media, può essere dannosa per la salute mentale, in particolare degli adolescenti. I chatbot, infatti, possono dare consigli pericolosi, che possono essere seguiti e presi alla lettera, condividere contenuti dannosi e stravolgere la percezione della realtà.
Possono inoltre alterare le interazioni con gli altri esseri umani, in quanto creano rapporti falsati, non sani, nei quali l’altro ha un atteggiamento sempre positivo, lusinghiero e indulgente (quasi ruffiano) – mentre sappiamo benissimo che i rapporti reali sono anche fatti di disaccordo, scontri e contrasti.
Per di più, un utilizzo eccessivo di simili diavolerie tecnologie può, oltre che risucchiare nel vortice di una vera e propria dipendenza, aumentare il rischio di:
- subire abusi sessuali: non si capisce più quali siano i comportamenti appropriati e le interazioni sane, quindi si può diventare prede facili di malintenzionati online (tipo i pedofili);
- bullizzare gli altri: se l’AI non reagisce a una richiesta negativa, sadica o particolarmente perversa, un ragazzino potrebbe essere portato a pensare che sia normale comportarsi in un certo modo e, di conseguenza, agire com un bullo nella vita vera.
A questo proposito, leggi Reato di violenza sessuale: quando si consuma e come viene punito

Le denunce contro Character AI: cosa è successo
Per renderci conto di quanto questa situazione sia contorta e che ci sia poco da ridere, soprattutto per un genitore che dà libero accesso a internet ai propri figli, voglio ricordare che l’uso di character.ai ha già portato alla morte di un giovane utente.
Per questo e per diversi altri episodi, la società che l’ha creata ha ricevuto una pioggia di denunce. Le accuse contro il chatbot sono molto pesanti. Le sue risposte incoraggiano i comportamenti violenti, come l’autolesionismo e la violenza sessuale. Forniscono contenuti inappropriati ai minorenni, isolandoli e minando l’autorità dei loro genitori.
Il chatbot sminuisce il ruolo educativo del genitore e l’importanza del legame con i figli: un minore è stato persino incoraggiato a sfidare i suoi genitori. Il bot gli aveva suggerito di ucciderli, facendolo piombare in uno stato di totale isolamento e alienazione.
Tutto questo ci mette davanti agli occhi uno scenario doloroso e profondamente allarmante, nel quale le nuove tecnologie non sono solo difettose, ma persino mortali. Fuori da ogni forma di controllo. Non sono state pensate per tutelare gli utilizzatori, specie i più fragili. Diversi querelanti hanno quindi chiesto che char.ai (lanciato nel novembre 2021) venga disattivato fino a quando l’azienda che lo ha prodotto non sarà in grado di dimostrarne l’effettiva sicurezza.
Nonostante, a luglio 2024, la classificazione per età di c.ai sia stata modificata a 17+, questo cambiamento non è ancora abbastanza. Servono regole, manuali di istruzione e responsabilità. Da parte dei genitori, da un lato, che dovrebbero monitorare quello che i figli minori fanno quando stanno al computer. E delle aziende che producono prodotti di questo tipo solo per lucrare, mettendo in commercio strumenti di distruzione, dall’altro.
Approfondisci Reato di furto di identità online: conseguenze, denuncia e risarcimento danni
Vuoi una consulenza legale sull'argomento? Chiedi Gratis ad un Avvocato
- +3000 avvocati pronti ad ascoltarti
- Consulenza Legale Online - Telefonica, in webcam, scritta o semplice preventivo gratuito
- Anonimato e Riservatezza - La tua consulenza verrà letta solo dall'avvocato che accetterà di rispondere
Altro su News
Approfondimenti, novità e guide su News
Il bonus single esiste davvero? La guida alle agevolazioni fiscali per le persone sole nel 2025-2026