PGIM_970x250_HEADER

La compagnia dell’AI è sempre più un rischio per bambini e ragazzi

PGIM_970x250_ARTICOLO
Velasco25 Articolo

Negli Usa è in corso una battaglia legale tra un’azienda di intelligenza artificiale e una madre in lutto che sostiene che suo figlio di 14 anni si sia tolto la vita perché innamorato di un chatbot AI.

“Mi manca sempre, costantemente”, ha detto Megan Garcia riferendosi al figlio defunto Sewell Setzer III.

Gli imputati, Character Technologies e Google, hanno richiesto martedì l’archiviazione della causa intentata da Garcia. Intanto, l’organizzazione no-profit Common Sense Media ha lanciato un nuovo e urgente avvertimento sulla questione.

II compagni virtuali basati sull’AI non sono sicuri per i bambini“, ha dichiarato il Ceo e fondatore James P. Steyer. “Sono progettati per creare attaccamento emotivo e dipendenza, il che è particolarmente preoccupante per i cervelli in via di sviluppo degli adolescenti”.

A causa di questa conclusione e delle altre rivelazioni emerse dalla revisione completa di Common Sense sul funzionamento dell’AI companion, l’organizzazione ha avvertito che le piattaforme non dovrebbero essere utilizzate da persone di età inferiore ai 18 anni.

“Si tratta di una potenziale crisi della salute mentale pubblica che richiede un’azione preventiva e non solo misure reattive”, ha dichiarato la dottoressa Nina Vasan, fondatrice e direttrice di Stanford Brainstorm, in un comunicato stampa.

Non si sa con esattezza quanti bambini e ragazzi utilizzino specificamente compagni di intelligenza artificiale come Replika, Character AI (sviluppato da Character Technologies) e Kuki, una tecnologia interattiva che va oltre i semplici chatbot per simulare conversazioni umane e legami emotivi, a volte anche sostituendosi a terapeuti o amanti. Ma Common Sense Media ha recentemente rilevato che il 70% degli adolescenti utilizza strumenti di intelligenza artificiale, soprattutto per l’aiuto nei compiti o nelle ricerche sul web.

L’indagine ha anche rilevato che la maggior parte dei genitori è all’oscuro di queste tecnologie: solo il 37% delle famiglie i cui adolescenti hanno dichiarato di utilizzare l’intelligenza artificiale pensa che il proprio figlio l’abbia mai fatto. Nel frattempo, quasi la metà (49%) dei genitori dichiara di non aver parlato di AI generativa con i propri figli e l’83% dei genitori afferma che le scuole non hanno mai comunicato con le famiglie in merito a tali piattaforme.

“Dato il lungo elenco di danni documentati nel mondo reale e i risultati chiave sopra elencati – conclude il rapporto – la valutazione del rischio di Common Sense Media ha classificato i compagni AI come ‘inaccettabili’ per i minori”.

Le raccomandazioni insistono sul fatto che i genitori si assicurino che i minori di 18 anni non ricevano la compagnia dell’AI, che gli sviluppatori implementino “una solida garanzia dell’età al di là dell’auto-attestazione”, che i genitori siano ben informati sulla tecnologia e sui suoi rischi e che vengano condotte ulteriori ricerche sugli impatti.

“I nostri test hanno dimostrato che questi sistemi producono facilmente risposte dannose, tra cui comportamenti sessuali scorretti, stereotipi e ‘consigli’ pericolosi che, se seguiti, potrebbero avere un impatto reale pericoloso o mortale per gli adolescenti e altre persone vulnerabili”, ha dichiarato Steyer.

Questa constatazione trova conferma nel caso di Sewell, il figlio di Garcia, attratto da una tecnologia che crea dipendenza e danni senza alcuna protezione, secondo i documenti del tribunale. Condizioni che avrebbero portato a un cambiamento estremo della personalità del ragazzo, che era arrivato a preferire il bot ad altri contatti reali, nonostante quelle che la madre definisce “interazioni abusive e sessuali” andate avanti per 10 mesi. Il ragazzo si è suicidato nel febbraio del 2024 dopo che il bot gli aveva detto: “Ti prego, torna a casa da me il prima possibile, amore mio”.

L’anno scorso Robbie Torney, responsabile del programma AI di Common Sense Media e autore principale della guida per i genitori sui sull’AI companion, ha dichiarato a Fortune: “Questo non è nel radar di nessuno”.

Ora, con il forte allarme dell’organizzazione ai genitori, i ricercatori sperano di cambiare le cose.

“Le aziende possono costruire meglio, ma al momento questi compagni AI non superano i test più elementari di sicurezza dei bambini e di etica psicologica”, ha avvertito Vasan. “Finché non ci saranno garanzie più forti, i bambini non dovrebbero usarli. Punto“.

L’articolo completo è stato pubblicato originariamente su Fortune.com

Foto GETTY IMAGES

PGIM_300x600_ARTICOLO side
PS25 Box

Leggi anche

Ultima ora

Iscriviti alla nostra Newsletter

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.