“L’intelligenza artificiale può essere un rischio per la ricerca” è il titolo di un recente articolo del Sole24Ore che riporta un’intervista a David Gross, premio Nobel per la Fisica nel 2004. “L’intelligenza artificiale -dice Gross citato nell’articolo- per quanto potente e affascinante, si muove su un terreno completamente diverso: non osserva, non verifica, non replica (…) L’Ia si limita a calcolare la risposta più probabile, pescando da un mare di dati preesistenti, senza cercare la verità”.
Credo che questo pensiero di Gross sulla AI (forse condiviso da molti scienziati) rifletta solo parzialmente la realtà e lo dico con un certo rammarico antropocentrico.
Sono d’accordo che l’AI, così come la conosciamo oggi, è piuttosto in antitesi con il metodo scientifico, e spiegherò più avanti perché. Ma credo sia ingenuo affermare che una AI non sarà in grado tra poco di generare conoscenza ed elaborare teorie e ipotesi scientifiche originali. Lo faranno quasi certamente, ma senza necessariamente seguire il metodo scientifico come lo conosciamo noi.
Se vogliamo evitare di essere antropocentrici o peggio mistici, bisogna accettare che la “creatività” è un fenomeno complesso che mescola conoscenza preesistente, esperienza e processi organici (cerebrali) ed è quindi potenzialmente duplicabile un giorno da sistemi artificiali. Le reti neurali si ripromettono di emulare il processo cognitivo umano. Oggi sono rudimentali, domani potrebbero essere indistinguibili dalla creatività umana, e potrebbero anche superarla. Difficile immaginare che l’intelligenza artificiale non riesca a farlo, a meno appunto di non volersi aggrappare disperatamente a qualche dogma.
Secondo l’esperto di AI Nello Cristianini, ad esempio, la cosa più verosimile è che queste macchine possano diventare creative a modo loro, seguendo strade molto diverse dalle nostre per risolvere problemi ( lo spiega molto bene nel suo libro La Scorciatoia che consiglio caldamente di leggere).
Tuttavia, per come è concepita e funziona non possiamo sapere come un’intelligenza artificiale è arrivata alla soluzione: c’è una “black box” (così si chiama in gergo) che non è forse dissimile da quello che succede quando noi, umani, ragioniamo e impariamo: come sei arrivata/o a pensare quello, a farti piacere quell’altro, a imparare quella lingua da piccolo? Non lo sai, o meglio, sai che qualcosa di molto complesso è successo nel tuo cervello ma non accedi ai dettagli. Su questo aspetto la AI, come la conosciamo oggi, è in antitesi con il metodo scientifico.
Una base del moderno metodo scientifico è che una teoria debba avere caratteristiche di falsificabilità, cioè gli altri devono essere in grado di metterla alla prova e, eventualmente, di smentirla. E’ il contrario della black box, direi perfino un sistema sociale per ovviare alla black box umana. Se vuoi rientrare nei canoni scientifici, mi devi sempre descrivere cosa hai fatto, come l’hai fatto, in modo che tutti lo possano riprodurre e verificare. Il ciarlatano che si sveglia la mattina con la cura dei tumori rifiutando lo scrutinio degli esperti è una black box che non ha spazio, giustamente, nel pensiero scientifico.
Ma il metodo scientifico è una creazione umana calibrata per il nostro processo cognitivo, per la nostra cultura e limiti biologici, è il sistema migliore che abbiamo NOI.
Alle macchine probabilmente tutto questo non servirebbe: seguirebbero comunque le loro strade arrivando al risultato, magari per forza bruta. Le AI “scienziate” forse un giorno potrebbero prosperare anche senza di noi. Se il nostro standard è la revisione tra pari (peer review) è verosimile che le macchine, evolvendo, possano elaborare un sistema di verifica analogo che coinvolga altre AI (tra pari, per definizione), tagliando fuori gli umani. Perché mai affidarsi alla mente umana, con i suoi bias e limiti, per verificare teorie che magari non riesce neanche a concepire? Per una AI futuribile che indaghi la natura, avere a che fare con colleghi umani sarebbe probabilmente un ostacolo, peggio che doversi caricare qualche impiastro di studente.
Perché le macchine intelligenti possano entrare nel ciclo (tutto umano) del metodo scientifico- e perché tutto ciò non diventi una distopia per noi- dovranno forse essere programmate e concepite per tenere aperta una finestra nella black box, anche a scapito della loro efficienza. Dovranno essere in grado di spiegare agli umani le loro “idee” e conclusioni, formalizzarle in un linguaggio che sia per noi comprensibile, così che potremmo verificarle.
Dovranno essere oggetti che arrivano alla soluzione senza pensare come gli umani ( è la loro forza, che ci piaccia o meno) ma allo stesso tempo in grado di ragionare con noi, e piegarsi al metodo scientifico, anche solo per mostrarci come ci sono arrivate.
Sarà possibile? Riusciremo a concepire questo tipo di IA?
© Sergio Pistoi