Dopo che il governatore della California ha posto il veto su quella che sarebbe stata un’ampia legislazione sulla sicurezza dell’intelligenza artificiale, una dirigente di Google DeepMind chiede che si trovi un consenso su ciò che renderebbe l’intelligenza artificiale sicura, responsabile e incentrata sull’uomo.
“La mia speranza per il settore è che si possa arrivare a una coerenza, in modo da poter vedere tutti i benefici di questa tecnologia”, ha dichiarato Terra Terwilliger, direttore delle iniziative strategiche di Google DeepMind, l’unità di ricerca sull’intelligenza artificiale dell’azienda. Terrawilliger è intervenuta mercoledì al Fortune Most Powerful Women Summitinsieme a Noosheen Hashemi, CEO e cofondatore di January AI, Aidan Madigan-Curtis, general partner di Eclipse Ventures, e Dipti Gulati, CEO per la revisione e l’assicurazione di Deloitte & Touche LLP U.S.
Le donne hanno affrontato il tema dell’SB-1047, la discussa proposta di legge californiana che avrebbe imposto agli sviluppatori dei più grandi modelli di IA di soddisfare determinati requisiti di test di sicurezza e di riduzione del rischio. Madigan-Curtis ha suggerito che se aziende come OpenAI stanno costruendo modelli che sono davvero così potenti come dicono di essere, ci dovrebbero essere alcuni obblighi legali per svilupparli in modo sicuro.
“È così che funziona il nostro sistema, no? Spingere e attrarre”, ha detto Madigan-Curtis. “La cosa che rende spaventoso l’essere medico è che si può essere citati in giudizio per negligenza medica”.
L’oramai defunta proposta di legge californiana prevedeva che le aziende dovessero creare un modo per spegnere il proprio modello nel caso in cui fosse stato utilizzato per qualcosa di catastrofico, come la costruzione di armi di distruzione di massa. “Se il vostro modello viene usato per terrorizzare una certa popolazione, non dovremmo essere in grado di spegnerlo o, insomma, di impedirne l’uso?”, ha chiesto. Terwilliger di DeepMind auspica una regolamentazione che tenga conto dei diversi livelli dello stack dell’IA. Ha detto che i modelli fondamentali hanno responsabilità diverse dalle applicazioni che utilizzano quel modello. “È davvero importante che tutti noi ci impegniamo ad aiutare le autorità di regolamentazione a comprendere queste distinzioni, in modo da avere una regolamentazione stabile e sensata”, ha affermato.
Ma la spinta a costruire in modo responsabile non dovrebbe provenire necessariamente dal governo, ha detto Terwilliger. Anche se i requisiti normativi sono in continua evoluzione, costruire l’IA in modo responsabile sarà la chiave per l’adozione a lungo termine della tecnologia, ha aggiunto. Questo vale per ogni livello della tecnologia, dall’assicurarsi che i dati siano puliti alla creazione di barriere di sicurezza per il modello.
“Penso che dobbiamo credere che la responsabilità sia un vantaggio competitivo, e quindi capire come essere responsabili a tutti i livelli dello stack farà la differenza”, ha detto.
Questa storia è stata pubblicata originariamente su Fortune.com