Nonostante negli ambienti tecnologici si parli spesso del fatto che i progressi dell’intelligenza artificiale generativa stiano portando sulla buona strada per raggiungere un livello di “intelligenza umana”, ci sono alcune cose che gli esperti del settore ritengono che l’AI non possa semplicemente fare.
Secondo Ann Skeet, direttrice al Markkula Center for Applied Ethics della Santa Clara University, specializzata in etica della leadership, il ragionamento morale e il giudizio sono due componenti chiave della cognizione umana che una tecnologia come l’AI non può coltivare in modo significativo. Skeet ha parlato a una platea di dirigenti tecnologici ed esperti di AI durante la conferenza Brainstorm AI di Fortune, tenutasi martedì a San Francisco, insieme a Kathy Pham, vicepresidente per l’intelligenza artificiale di Workday (sponsor di Brainstorm AI), e Raj Mukherjee, vicepresidente esecutivo del prodotto di mercato e dell’esperienza utente di Indeed.
“Il ragionamento morale è evolutivo, proprio come imparare a leggere e scrivere”, ha detto Skeet. “In definitiva, si arriva a una coscienza completa a circa 40 anni, ma per alcune persone non accade mai. Dobbiamo essere consapevoli che l’intelligenza artificiale non può farlo, non ha la capacità di ragionare moralmente”. Alcuni dei presenti hanno espresso un’opinione comune tra i sostenitori dell’AI, gli ottimisti e gli investitori, secondo cui l’intelligenza artificiale e le macchine in generale si svilupperanno a un ritmo tale nei prossimi decenni che la tecnologia sarà semplicemente migliore degli esseri umani. Anche se questo esito fantascientifico si verificasse, Pham di Workday sostiene che gli esperti devono pensare a “quali parti vogliamo preservare solo per la nostra umanità”.
Mukherjee di Indeed ha aggiunto: “Dovremmo pensare al mondo che vogliamo creare”. Pham, Skeet e Mukherjee hanno concordato sul fatto che gli usi e i risultati tecnologici sono ancora sotto il controllo delle persone e dei leader. “È qui che decidiamo se vogliamo lavorare per la tecnologia o farla lavorare per noi”, ha detto Skeet. Ha aggiunto che dieci anni fa, quando ha iniziato il suo lavoro all’Università di Santa Clara, era impossibile riunire i dirigenti d’azienda in una stanza per discutere di etica, mentre ora è l’unica cosa che questi leader vogliono fare. Pham ha esortato le persone che occupano posizioni di potere a riflettersi su quando fermarsi con l’uso dell’IA in futuro, citando i recenti commenti dell’attore e regista Ben Affleck alla CNBC: “L’arte è sapere quando fermarsi”. “Forse mettere in atto una buona leadership è anche sapere quando dire basta”, ha detto Pham.
Questa storia è stata pubblicata originariamente su Fortune.com