GILEAD
Cerca
Close this search box.

ChatGPT: prove di dialogo fra Garante e OpenAI

Gilead

Pace fatta? È presto per dirlo, ma l’annunciato incontro fra Garante della Privacy italiano e OpenAI sembra aver posto le basi per un dialogo proficuo.

La società statunitense – come si legge nella nota congiunta pubblicata sul sito del Garante – ha voluto ribadire la convinzione di aver rispettato le norme in tema di protezione dei dati personali, ma ha anche confermato la sua volontà di collaborare con l’Autorità italiana.

L’obiettivo è quello di arrivare a una positiva soluzione delle criticità rilevate dal Garante riguardo a ChatGPT, con l’impegno di lavorare per assicrare una maggiore trasparenza nell’utilizzo dei dati personali raccolti e maggiori garanzie per i minori. Già nelle prossime ore OpenAI fornirà le prime documentazioni in merito, che il Garante valuterà al fine della riabilitazione del servizio.

I retroscena raccontano di un fondato timore, da parte di OpenAI, che l’esempio italiano possa essere seguito da altri Stati europei, e non solo. Anche l’autorità del Canada, seguendo le orme del Garante italiano, ha aperto un’indagine su OpenAI.

Le motivazioni ricalcano quelle italiane: la procedura “è stata avviata a seguito di una denuncia secondo cui le informazioni personali sono state raccolte, utilizzate e comunicate senza consenso”, come ha reso noto l’Ufficio del Commissario per la privacy del Canada, Philippe Dufresne, che avrebbe giustificato l’azione sostenendo di voler “stare al passo con i progressi tecnologici in rapida evoluzione, e questa è una delle mie principali aree di interesse in qualità di Commissario”.

E l’Italia, pur aspramente criticata su più fronti per l’azione intrapresa nei confronti di OpenAI, non è sola in questo esercizio di democrazia digitale. Germania, Spagna, Irlanda e Francia hanno infatti annunciato di voler procedere con azioni simili. E questo spiegherebbe la premura con cui dall’America si è voluto procedere nel delineare un dialogo per analizzare e risolvere la questione privacy.

Alla videoconferenza fra OpenAI e l’Autorità italiana, evento già molto atteso, ha partecipato anche il Ceo di OpenAI, Sam Altman, nella parte iniziale. Presenti i membri del Collegio del Garante – Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza – oltre a Che Chang,  deputy general Counsel di OpenAi, Anna Makanju, responsabile public policy e Ashley Pantuliano, associate general Counsel.

L’Autorità  ha sottolineato ancora una volta di non avere alcuna intenzione di porre un freno allo sviluppo dell’AI e dell’innovazione tecnologica, ribadendo anzi l’importanza del rispetto delle norme a tutela dei dai personali dei cittadini italiani ed europei.

Dal canto suo, OpenAI si è impegnata a rafforzare la trasparenza nell’uso dei dati personali degli interessati, a migliorare i meccanismi esistenti per l’esercizio dei diritti e le garanzie per i minori e ad inviare al Garante già nelle prossime ore un documento che indichi le misure che rispondano alle richieste dell’Autorità, che il Garante si riserva di valutare le misure proposte dalla società, anche riguardo al provvedimento adottato nei confronti di OpenAI.

Intanto l’azienda ha voluto chiarire, anche sul suo blog, la sua ‘poetica della sicurezza’. OpenAI si impegna a mantenere l’AI potente sicura e ampiamente vantaggiosa”, si legge nel post pubblicato dal gestore di ChatGPT, che continua: “Sappiamo che i nostri strumenti di AI forniscono molti vantaggi alle persone oggi. I nostri utenti in tutto il mondo ci hanno detto che ChatGPT aiuta ad aumentare la loro produttività, migliorare la loro creatività e offrire esperienze di apprendimento personalizzate. Riconosciamo anche che, come qualsiasi tecnologia, questi strumenti comportano rischi reali, quindi lavoriamo per garantire che la sicurezza sia integrata nel nostro sistema a tutti i livelli. Prima di rilasciare qualsiasi nuovo sistema, conduciamo rigidi test, coinvolgiamo esperti esterni per il feedback, lavoriamo per migliorare il comportamento del modello con tecniche come il reinforcement learning con il feedback umano e costruiamo sistemi di sicurezza e monitoraggio ampi”.

In merito a ChatGPT, l’azienda chiarisce che “dopo che il nostro ultimo modello, GPT-4, ha terminato la formazione, abbiamo impiegato più di 6 mesi per rendere il sistema più sicuro e allineato prima di rilasciarlo pubblicamente. Crediamo che i sistemi di AI potenti debbano essere soggetti a rigorose valutazioni di sicurezza. La regolamentazione è necessaria per garantire che tali pratiche vengano adottate e ci impegniamo attivamente con i governi sulla migliore forma che questa regolamentazione potrebbe assumere”.

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.