Lilly H
Cerca
Close this search box.

Tecnologia, se con l’AI c’è il rischio di generare immagini pedopornografiche

intelligenza artificiale bambini

I massimi pubblici ministeri di tutti e 50 gli Stati americani stanno esortando il Congresso a studiare come l’intelligenza artificiale possa essere utilizzata per sfruttare i minori attraverso la pornografia e a elaborare una legislazione per proteggerli ulteriormente.

In una lettera inviata martedì scorso ai leader repubblicani e democratici della Camera e del Senato, i procuratori generali di tutto il Paese chiedono ai legislatori federali di “istituire una commissione di esperti per studiare i mezzi e i metodi dell’IA che possono essere utilizzati specificamente per sfruttare i minori” e di ampliare le restrizioni esistenti sui materiali di abuso sessuale minorile, in riferimento anche alle immagini generate dall’intelligenza artificiale.

“Siamo impegnati in una corsa contro il tempo per proteggere i minori del nostro Paese dai pericoli dell’AI”, scrivono i pubblici ministeri nella lettera, condivisa in anticipo con The Associated Press. “In effetti, le mura proverbiali della città sono già state sfondate. Ora è il momento di agire”. Il procuratore generale della Carolina del Sud, Alan Wilson, ha guidato lo sforzo per ottenere le firme dei rappresentanti di tutti e 50 gli Stati e di quattro territori degli Stati Uniti. La scorsa settimana il repubblicano, eletto l’anno scorso per il suo quarto mandato, ha dichiarato ad Associated Press di sperare che i legislatori federali traducano in azione il sostegno bipartisan del suo gruppo.

“Tutti sono concentrati su ciò che ci divide”, ha detto Wilson, che ha coordinato la coalizione con i suoi omologhi nel Mississippi, nella Carolina del Nord e nell’Oregon. “La mia speranza è che, per quanto estremi o polarmente opposti possano essere i partiti e le persone che ve ne fanno parte, si possa pensare che la protezione dei bambini dalle nuove tecnologie innovative e sfruttatrici sia qualcosa su cui anche gli individui più diametralmente opposti possano concordare – e sembra che sia così”.

Il Senato quest’anno ha tenuto audizioni sulle possibili minacce rappresentate dalle tecnologie legate all’intelligenza artificiale. A maggio, il Ceo di OpenAI, Sam Altman, la cui azienda è alla  base del chatbot gratuito ChatGPT, ha dichiarato che l’intervento governativo sarà cruciale per mitigare i rischi dei sistemi di IA sempre più potenti. Altman ha proposto la creazione di un’agenzia statunitense o globale che conceda licenze ai sistemi di AI più potenti e abbia l’autorità di “ritirare quella licenza e garantire la conformità agli standard di sicurezza”.

Anche se non ci sono segni immediati che il Congresso elaborerà nuove regole generali sull’AI, come stanno facendo i legislatori europei, le preoccupazioni della società hanno portato le agenzie statunitensi a promettere di contrastare i prodotti dannosi basati sull’AI che violano le leggi esistenti sui diritti civili e la protezione dei consumatori. Oltre all’azione federale, Wilson ha detto che sta incoraggiando i suoi colleghi procuratori generali a esaminare le leggi dei loro Stati per individuare possibili aree di intervento.

“Abbiamo cominciato a chiederci se le leggi sull’abuso dei minori esistenti siano adeguate alla novità di questa nuova tecnologia”, ha dichiarato Wilson. Secondo il procuratore, tra i pericoli che l’AI comporta vi è la creazione di scenari ‘deepfake’ – video e immagini che sono state create o modificate digitalmente con l’intelligenza artificiale o il machine learning – di un bambino che è già stato abusato, o l’alterazione dell’aspetto di un vero bambino a partire da una fotografia presa dai social media, in modo da raffigurare abusi.

“Il tuo bambino non è mai stato aggredito, il tuo bambino non è mai stato sfruttato, ma la sua somiglianza viene utilizzata come se lo fosse”, ha detto. “Abbiamo il timore che le nostre leggi potrebbero non affrontare la natura virtuale di questi abusi, anche se un bambino non è stato effettivamente sfruttato, anche se vengono diffamati e certamente la loro immagine viene sfruttata”. Una terza possibilità, ha sottolineato, è la creazione del tutto digitale di un’immagine di un bambino non reale, con lo scopo di creare materiale pornografico.

“L’argomento sarebbe, ‘Beh, non sto facendo del male a nessuno – anzi, non è nemmeno una persona reale’, ma si sta creando una domanda per l’industria che sfrutta i minori”, secondo Wilson. Nel settore tecnologico sono stati compiuti alcuni passi per affrontare il problema. A febbraio, Meta, così come siti per adulti come OnlyFans e Pornhub, hanno iniziato a partecipare a uno strumento online chiamato ‘Take It Down’, che consente alle persone di segnalare immagini e video espliciti di loro stessi su Internet. Il sito di segnalazione funziona per le immagini normali e per i contenuti generati dall’intelligenza artificiale.

L’AI è una grande tecnologia, ma è un disturbo per l’economia“, ha detto Wilson. “Ci sono nuove industrie, nuove tecnologie che stanno disturbando tutto, e lo stesso vale per la comunità delle forze dell’ordine e per la protezione dei bambini. I ‘cattivi’ si stanno evolvendo sempre di più su come possono sfuggire all’ingiustizia, e noi dobbiamo evolverci con loro”.

L’articolo originale è disponibile su Fortune.com.

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.