Chiedilo all’AI. Una risposta sempre più frequente, anche nei laboratori. Forse ve ne sarete accorti: l’intelligenza artificiale sta assumendo un ruolo sempre più centrale nella ricerca scientifica, modificando profondamente il modo in cui gli studiosi analizzano dati, formulano ipotesi e diffondono i propri risultati.
Strumenti come ChatGPT, Claude e DeepSeek non si limitano più a semplici funzioni di supporto, ma stanno ridefinendo le metodologie di lavoro, offrendo capacità avanzate di elaborazione del linguaggio naturale, analisi di dataset complessi e persino generazione di nuove idee. Ma fino a che punto possiamo affidarci a queste tecnologie? E quale sarà il futuro del rapporto tra intelligenza artificiale e creatività umana?
A tentare di rispondere a queste domande è un’analisi inviata al Journal of Informetrics da Francesco Branda e Massimo Ciccozzi (Università Campus Bio-Medico di Roma), con Fabio Scarpa (Università di Sassari). Questa volta i ‘tre moschettieri dell’epidemiologia’ sottolineano come l’adozione consapevole dell’intelligenza artificiale può rappresentare un valore aggiunto per la scienza, a patto che l’AI venga integrata in un processo in cui l’intuizione e il pensiero critico umano rimangano al centro.
I vantaggi e gli ‘effetti collaterali’
“L’introduzione di AI avanzate ha senza dubbio ampliato le possibilità della ricerca scientifica. Grazie alla capacità di elaborare grandi volumi di dati e di identificare correlazioni altrimenti difficili da individuare, questi strumenti permettono di velocizzare il processo di scoperta e di ottimizzare il lavoro dei ricercatori”, ammettono i ricercatori. Tuttavia, l’uso indiscriminato dell’AI potrebbe avere “effetti collaterali” significativi.
Uno dei rischi principali è la progressiva perdita di autonomia intellettuale da parte degli scienziati. Se le nuove generazioni di ricercatori si abituano a delegare all’intelligenza artificiale compiti fondamentali come la formulazione di ipotesi o l’analisi critica dei dati, vi è il pericolo di un indebolimento della capacità di pensiero indipendente.
Una scienza automatizzata
“La scienza non è solo un processo di raccolta ed elaborazione di dati, ma un’attività profondamente umana, guidata dall’intuizione, dalla creatività e dalla capacità di mettere in discussione le proprie convinzioni”, ricorda a Fortune Italia Francesco Branda. “Il rischio maggiore è che l’uso indiscriminato dell’AI porti a una scienza sempre più automatizzata, in cui le intuizioni originali vengono sostituite da schemi predefiniti e da modelli predittivi basati esclusivamente sui dati preesistenti”.
Google co-scientist
Una delle innovazioni più discusse in questo ambito è Google co-scientist, un sistema progettato per affiancare i ricercatori in ogni fase del lavoro scientifico, dall’analisi dei dati fino alla scrittura di articoli. A differenza delle AI tradizionali, questa piattaforma non si limita a generare testo o a fornire suggerimenti generici, ma è in grado di integrare diverse funzioni avanzate, come la visualizzazione dei dati, il riconoscimento di pattern e la generazione di ipotesi basate su correlazioni statistiche.
“Un sistema del genere – ammettono i ricercatori – potrebbe rappresentare un passo avanti significativo nella democratizzazione della scienza, rendendo più accessibili strumenti di alto livello anche per ricercatori e istituzioni con minori risorse. Tuttavia, l’adozione su larga scala di tecnologie come questa pone interrogativi etici e pratici. Se l’accesso a tali strumenti dovesse dipendere da costi elevati o da infrastrutture avanzate, si rischierebbe di accentuare il divario tra le grandi istituzioni di ricerca e quelle con minori risorse economiche. Inoltre, la crescente dipendenza da piattaforme AI sviluppate da aziende private potrebbe sollevare problemi di trasparenza e controllo sull’integrità dei dati scientifici”.
La sfida
Insomma, è in ballo il futuro della ricerca come la conosciamo noi. “L’intelligenza artificiale non deve essere vista come un sostituto della mente umana, ma come un supporto che amplifica le capacità degli scienziati senza snaturarne il ruolo”, sostengono i tre studiosi. Un modello basato sulla collaborazione tra AI e ricercatori, il cosiddetto approccio “human-in-the-loop”, appare loro la soluzione più equilibrata. In questo scenario l’AI agisce come strumento di potenziamento analitico, mentre il ricercatore mantiene il controllo sui processi decisionali e interpretativi.
Cogito ergo sum
“La vera sfida del futuro non sarà quella di sostituire lo scienziato con l’AI, ma di trovare il giusto equilibrio tra automazione e creatività, affinché la scienza mantenga la sua essenza profondamente umana”, concludono gli studiosi. Cogito ergo sum, come direbbe Cartesio. Ma se l’AI sarà capace di coltivare il dubbio?