Nel 2026, mentre l'IA invade smartphone e laptop, emerge un dibattito che va oltre l'uso pratico: è davvero uno strumento o piuttosto una scienza autonoma? Gianna Martinengo, figura riconosciuta negli studi di intelligenza artificiale, sostiene una tesi che cambierebbe il modo di percepire questa tecnologia. Non si tratta semplicemente di un'opinione accademica: le implicazioni di questa visione toccano come investiamo in ricerca, come regoliamo l'IA, e come educhiamo i professionisti del settore.

Perché questa distinzione conta davvero

La differenza tra uno strumento e una scienza non è puramente semantica. Un martello è uno strumento: ha uno scopo specifico, funziona secondo regole fisiche note, e la sua utilità dipende da chi lo usa. Una scienza, invece, è un sistema di conoscenza in evoluzione continua, con metodologie rigorose, principi fondamentali e una comunità dedicata che mette in discussione i presupposti stessi su cui si fonda.

L'intelligenza artificiale nel 2026 ha ormai il profilo di una vera scienza. Non è più una semplice applicazione che gira sul processore dello smartphone: è un campo con decine di migliaia di ricercatori che pubblicano annualmente su riviste peer-reviewed, con framework teorici consolidati (dall'apprendimento supervisionato al reinforcement learning), con dibattiti aperti su questioni fondamentali ancora irrisolte come l'interpretabilità dei modelli e il controllo dell'allineamento alle intenzioni umane.

Se continuassimo a vederla solo come uno strumento, commetteremmo l'errore di chi, nel Seicento, considerava il telescopio semplicemente un gadget ottico, perdendosi la rivoluzione scientifica che rappresentava.

Le prove concrete che l'IA è scienza

Ci sono segnali tangibili che supportano la visione di Martinengo. Negli ultimi anni, la comunità scientifica ha dimostrato che l'IA funziona con metodi scientifici autentici.

Riproducibilità e validazione peer-reviewed

I ricercatori pubblicano codice, dataset e parametri nei repository pubblici perché altri possano replicare gli esperimenti. Nature, Science e Nature Machine Intelligence pubblicano ormai regolarmente articoli su IA e machine learning con lo stesso rigore richiesto per studi di fisica quantistica o biologia molecolare. Una scoperta in questo campo deve superare lo stesso scrutinio di qualsiasi altra disciplina scientifica: revisori esperti controllano metodologia, validità statistica e conflitti di interesse.

Competizione tra teorie e paradigmi

Non esiste un'unica "ricetta" per costruire IA efficace. Convivono approcci diversi – reti neurali profonde, metodi bayesiani, sistemi simbolici ibridi – e questi competono sulla base di evidenze empiriche. I ricercatori non seguono autorità, ma evidenze. Negli ultimi anni, il dibattito su quale approccio sia più promettente per raggiungere l'intelligenza generale ha generato centinaia di pubblicazioni, esperimenti e contro-esperimenti.

Problemi aperti e confutabilità

Gli algoritmi di IA falliscono in modi specifici, identificabili e spiegabili. Le allucinazioni nei modelli linguistici (quando l'IA inventa informazioni false), il bias negli algoritmi di classificazione, la vulnerabilità agli attacchi avversariali – questi sono problemi che gli scienziati cercano attivamente di risolvere con metodologie rigorose. Nel 2025-2026, il numero di paper dedicati all'affidabilità dell'IA ha superato qualsiasi altra categoria di ricerca nel campo.

Strutture accademiche consolidate

Le università costruiscono interi dipartimenti attorno all'IA. Nel 2026, il numero di dottorati in Machine Learning e IA ha superato quelli in molte discipline scientifiche tradizionali come astronomia o geologia. MIT, Oxford, Stanford e l'Università di Toronto hanno creato veri e propri college dedicati all'IA, con i loro curricula, le loro riviste interne e i loro seminari specializzati.

Come questa visione cambia la pratica

Se accettiamo che l'IA è una scienza, non uno strumento, cambiano profondamente le aspettative e le responsabilità di chi la sviluppa e la utilizza.

Per gli sviluppatori e i data scientist

Non basta che un modello di IA funzioni. Come uno scienziato, devi capire perché funziona, quali sono i suoi limiti teorici, come si comporta in scenari non visti durante l'addestramento. Su smartphone e laptop, questo significa costruire sistemi che non solo danno risultati, ma che sono intelligibili e controllabili. Significa documentare le assunzioni sottostanti, testare sistematicamente i casi limite, e ammettere quando l'IA non dovrebbe essere usata.

Per le aziende

Investire in IA non significa semplicemente acquistare un servizio cloud. Significa costruire una vera competenza scientifica interna. Le aziende che comprendono l'IA come scienza investono in ricerca a lungo termine, in team di ricercatori dedicati, in pubblicazioni e conferenze. Non è un costo secondario, è un'infrastruttura strategica.

Per le istituzioni di regolamentazione

Se l'IA è scienza, non può essere regolamentata come uno strumento generico. L'Europa non regola "l'uso del microscopio", regola specifiche discipline che usano microscopi. Allo stesso modo, la regolamentazione dell'IA deve essere granulare: diversa per IA medica, IA finanziaria, IA nei social network. Richiede autorità di controllo che comprendono profondamente i principi scientifici sottostanti, non solo le applicazioni.

La prospettiva che cambia tutto

C'è un aspetto che la maggior parte dei dibattiti ignora: se l'IA è una scienza, allora i suoi confini e le sue possibilità future sono aperti.

Uno strumento ha un potenziale massimo definito. Sappiamo cosa può fare un martello, una calcolatrice o una fotocamera. Una scienza, invece, evolve. Nel Seicento nessuno avrebbe potuto prevedere la meccanica quantistica semplicemente guardando il telescopio di Galileo. Allo stesso modo, non sappiamo cosa l'IA sarà tra vent'anni perché il campo evolve secondo logiche di ricerca scientifica impredibili.

Questa visione di Martinengo non è confortante per chi vuole certezze immediate, ma è realistica. L'IA che usiamo ogni giorno sul nostro telefono è già un'applicazione di una scienza profondissima, con decenni di teoria dietro ogni algorithm. Riconoscerlo significa prendere più seriamente il nostro dovere di controllare e comprendere cosa stiamo costruendo.

Domande Frequenti

D: Se l'IA è una scienza, non dovrebbe allora avere le stesse responsabilità di altre scienze come la medicina?

R: Esattamente. Molti ricercatori di IA sostengono che il campo dovrebbe avere gli stessi standard di trasparenza e accountability della ricerca biomedica. Nel 2025, organismi come l'ACM (Association for Computing Machinery) hanno pubblicato linee guida che equiparano il controllo etico dei progetti di IA a quelli dei trial clinici. Questo significa ethics board, revisioni indipendenti, e pubblicazione dei risultati negativi – pratiche comuni in medicina ma ancora rare nel machine learning industriale.

D: Ma allora chi dovrebbe insegnare IA nelle scuole: i dipartimenti di scienze o di informatica?

R: Attualmente il confine è sfumato e varia per paese. In alcuni atenei europei, i corsi di IA sono offerti