Tecnologia
Pubblicità

Tecnologia

Larson: «Sfatiamo la mitologia dell’intelligenza artificiale»

di Fabio Carducci

Intelligenza artificiale: i rischi ci sono. Come affrontarli

La tesi controcorrente dello scrittore di tecnologia e imprenditore americano: la strada che condurrà all’IA di livello umano esiste per ora solo nella nostra immaginazione

23 ottobre 2023
Pubblicità

4' di lettura

La strada che condurrà all’intelligenza artificiale di livello umano e poi alla super intelligenza esiste per ora solo nella nostra immaginazione. Non è vero che ormai l’abbiamo ineluttabilmente imboccata, anzi, non sappiamo neppure dove si trovi. É questa la tesi controcorrente, ma argomentata in modo stringente, sostenuta dallo scrittore e imprenditore americano Erik J. Larson nel suo Il mito dell’intelligenza artificiale (Harvard University Press), da poco pubblicato in italiano da Franco Angeli. Larson, singolare figura di tecnologo-umanista, è in questi giorni in Italia: venerdì scorso è stato ospite del Festival della Diplomazia a Roma, il 25 ottobre interverrà a Milano ai Digital Innovation Days. Classe 1971, ha un dottorato in filosofia all’Università del Texas ad Austin, ha creato due start-up finanziate da Darpa (l’agenzia della Difesa Usa) e lavorato per Cycorp su progetti di IA e con Digital Media Collaboratory di George Kozmetsky.

Perché secondo lei l’Intelligenza artificiale è un mito? Non è, come la descrivono i media, una potente tecnologia che può salvare o distruggere il mondo?
Per come viene percepita in California, ma anche nel resto del mondo, l’intelligenza artificiale è qualcosa di fantascientifico, una specie di Frankenstein, sogniamo di creare qualcosa. Ma non è questo che stiamo davvero facendo. Sono nel settore da 20 anni, e quello che stiamo facendo è creare strumenti. Invece usiamo il linguaggio, parlando di intelligenza artificiale, per mascherare una serie di sentimenti umani, come il desiderio di alcuni di diventare ancora più ricchi.

L’intelligenza artificiale è un rischio, un’opportunità o entrambi?
Credo che un rischio ci sia, ed è quello che la gente sbagliata usi una tecnologia potente. Un po’ come si temeva negli anni 50 del secolo scorso a proposito delle armi termonucleari. Ma in sostanza è un nuovo potente strumento che in realtà non ha una sua mente, non prende decisioni autonome, ma fa quello che è progettata per fare. È questo errore di percezione che mi ha spinto a scrivere il mio primo libro.

Che cosa può dirci sull’IA un approccio umanistico-scientifico come quello che lei sostiene?
Innanzitutto dobbiamo distinguere l’analisi di grandi basi di dati dal concetto di intelligenza artificiale. Quello che stiamo facendo per ora è prendere i dati di ciascuno di noi e analizzarli statisticamente. E questa statistica è sostanzialmente la stessa degli anni 60 con alcune innovazioni legate alle reti neurali (il cosiddetto attention mechanism) introdotte nel 2017. Ora abbiamo computer superveloci, ma quello che facciamo è centralizzare dati e analizzarli statisticamente. Il problema è che i dati siamo noi, e che quello che chiamiamo IA sono sostanzialmente didascalie di questi dati (data caption). Da questo punto di vista, non mi pare che siamo in un secolo particolarmente innovativo finora, mentre stiamo ripetendo vecchi errori con grandi corporation centralizzate e burocratiche.

Per spiegare le differenze tra intelligenza umana e artificiale lei fa riferimento alla distinzione tra diversi tipi di ragionamento…
Semplificando, l’intelligenza umana conosce tre tipi di ragionamento (o inferenza) quello deduttivo, quello induttivo e quello “intuitivo” noto come “abduzione”. L’intelligenza artificiale ha cercato per molti anni, ma con scarsi risultati, di simulare il ragionamento deduttivo. Poi è arrivato il web con l’enorme quantità di dati disponibili e il paradigma è radicalmente cambiato. Ora l’intelligenza artificiale – come ad esempio quella di ChatGpt - lavora sul ragionamento induttivo: big data, statistica, apprendimento automatico sulla base dei dati osservati. E i risultati sono straordinari: dalla traduzione automatica, al riconoscimento facciale … Ma quello che costituisce l’essenza dell’intelligenza umana – la capacità di formulare congetture sulla base di pochi indizi, che è alla base tanto del senso comune che delle scoperte scientifiche – resta un mistero che l’intelligenza artificiale non ha la minima idea di come programmare.

Dobbiamo chiedere ai governi, o a Bruxelles qui in Europa, o alle Nazioni Unite di regolare l’IA, o dobbiamo rimetterci alla capacità di autoregolamentazione del settore privato?
Credo che nessuno al mondo sia ancora in grado di rispondere a questa domanda, ma la mia opinione è che questo non sia un processo che si possa auto regolare. È come quando le auto non avevano gli airbag, e poi sono diventati obbligatori per legge.

Lei è anche un ricercatore specializzato nell’elaborazione del linguaggio naturale: come vede il futuro di questo settore, dominato nel dibattito mediatico dal tema ChatGpt?
Credo che ci siano limiti agli attuali grandi modelli di elaborazione del linguaggio naturale: non credo che vedremo presto un ChatGpt5, non sono rimasti abbastanza nuovi dati. Per il momento useremo i modelli noti per scopi specializzati.

Il suo prossimo libro si intitola “Il ritorno. Perché il 21° Secolo assomiglia al passato, non al futuro che volevamo”. Perché?
Sostengo che nel mondo in cui viviamo ci sembra di essere sul razzo spaziale del progresso, mentre siamo bloccati negli anni 50. È difficile avviare nuovi business che cambino il mondo con piccoli capitali: servono miliardi di dollari. E da questo punto di vista l’intelligenza artificiale non sarà certo di aiuto. Ma non voglio essere solo negativo, il mio auspicio è che riparta un vero processo di innovazione.


Pubblicità
Riproduzione riservata ©
Pubblicità
Visualizza su ilsole24ore.com

P.I. 00777910159   Dati societari
© Copyright Il Sole 24 Ore Tutti i diritti riservati
Per la tua pubblicità sul sito: 24 Ore System
Informativa sui cookie  Privacy policy