Tecnologia
Pubblicità

Tecnologia

L’intelligenza artificiale non dominerà il mondo

di Pierangelo Soldavini

Immagine non disponibile
(REUTERS)

(REUTERS)

Nel suo ultimo libro il filosofo americano Barry Smith spiega perché sono infondate le paure di un governo degli algoritmi sull’umanità

27 aprile 2024
Pubblicità

3' di lettura

L’intelligenza artificiale è il tentativo da parte dell’uomo di «utilizzare il software per emulare l’intelligenza degli esseri umani. Ma la complessità del sistema neurologico umano formatosi nel corso dell’evoluzione è impossibile da replicare: «I linguaggi umani e le società sono sistemi complessi, anzi sistemi complessi all’interno di altrettanti sistemi complessi», tanto da rendere impossibile una loro modellizzazione matematica. Non mostra incertezze su questo Barry Smith, filosofo, docente all’Università di Buffalo.

Il suo ultimo libro scritto con Jobst Landgrebe, matematico e imprenditore nell’ambito dell’AI, non lascia dubbi a partire dal titolo: «Why machines will never rule the world» (Routledge 2023). Il libro è stato presentato a Torino nel corso di una serata organizzata da Fondazione Crt e Istituto Bruno Leoni, in cui Smith è stato intervistato sulla base di domande messe a punto da Ai generativa. Noi abbiamo accettato la sfida di un’intervista parallela a quella fatta con ChatGPT4.

Pubblicità

Perché gli algoritmi non possono governare gli umani

Se l’intelligenza artificiale non potrà superare quella umana, perché ci fa così paura? «La paura in questo ambito è mal riposta. Ogni pezzo di software Ai è un algoritmo matematico: converte vettori binari fatti di 0 e 1 in altri vettori binari. Oggi questi algoritmi possono avere complessità molto elevata, con miliardi di parametri se espressi in forma di equazione matematica. Ma l’idea che questi algoritmi possano governare sugli esseri umani non ha senso. Fa parte dell’hype esagerato che supporta la fiducia nel potere sterminato di questa tecnologia, che fa il paio con i timori negli anni 80 secondo i quali i computer avrebbero preso il potere sul mondo» risponde Smith. Questi timori sono esagerati, ma non del tutto fuori luogo: «Può essere che questa tecnologia possa essere sfruttata da individui senza scrupoli per aumentare il loro potere. Ma io ritengo che anche questi timori siano esagerati: dobbiamo essere più preoccupati delle persone malintenzionate più che degli strumenti a loro disposizione».

Eppure un personaggio senz’altro eccentrico ma visionario come Elon Musk prevede che l’intelligenza umana sarà superata già l’anno prossimo. «Elon è un grande. Ma su questo prende una cantonata, ignorando la storia dell’intelligenza artificiale, fatta di alti e bassi. Attualmente siamo in un momento di grande entusiasmo per i large language models come ChatGPT. Ma siamo già in una fase calante, dal momento che le aziende non sempre riescono a trovare modalità per utilizzare questi modelli per migliorare la loro redditività».

L’intelligenza artificiale generale è una chimera

In questo senso l’AI “ristretta”, quella focalizzata su task specifici come il riconoscimento delle immagini o la traduzione di testi «si è dimostrata estremamente utile». Ma l’intelligenza artificiale generale, quella che ha poteri uguali o superiori agli esseri umani, appare una chimera. «Quando gli scienziati progettano l’Ai realizzano un algoritmo che viene eseguito da una macchina – prosegue- . Oggi di fatto è un pezzo di matematica statistica. La statistica si è rivelata molto utile fin dal XVII secolo e il software di Ai moderno ha permesso un progresso impressionante. L’Ai “stocastica” abilita poteri straordinari, per certi versi analoghi a quelli inseriti nei nostri cellulari, molti dei quali coinvolgono l’AI ristretta».

I computer quantistici sono limitati alla matematica

In questo quadro la tecnologia quantistica potrebbe garantire un salto quantico anche per l’intelligenza artificiale? «Già qualche anno fa i fisici parlavano di una bolla del quantum computing, perché risultava troppo complesso realizzare computer quantistici nella pratica. Oggi abbiamo dei quantum annealer, dispositivi pensati per risolvere problemi di ottimizzazione molto specifici e nulla più. Anche se ipotizzassimo che un giorno riusciremo a costruire computer quantistici più potenti, sarebbero comunque limitati alla matematica di ciò che è computabile secondo Turing, quindi alla stessa matematica richiesta per l’esecuzione da parte di qualsiasi macchina: porterebbe a significativi aumenti di velocità, ma nulla più».

Possiamo insegnare alle macchine la morale

Veniamo alle questioni etiche: possiamo pensare di insegnare alle macchine una morale che ne guidi le scelte? Anche su questo fronte Smith mostra poche incertezze. «Le macchine posso emulare diversi comportamenti umani, dal gioco degli scacchi alla diagnosi medica. Questa è l’Ai ristretta. Ci sono anche ambiti in cui possono copiare alcuni semplici casi di comportamento morale. Per esempio, possiamo utilizzarle per decidere la punizione per diverse infrazioni automobilistiche. Ma una Ai non potrà mai sostituire un vigile nella gestione del traffico o un medico nel suo giro in ospedale. Non credo spetti comunque a me decidere se gli umani devono sempre prendere la decisione finale, per esempio nel caso di utilizzo di armi letali. Osservo solo che molte persone che dovrebbero rispondere a questo tipo di questione fanno un errore banale: pensano che i sistemi di Ai debbano essere accettati solo se dimostrano di essere “esplicabili”. Ma l’idea che si possa spiegare come un algoritmo che lavora con miliardi di algoritmi riceve un input e produce un certo output è un’assurdità».

Riproduzione riservata ©
Pubblicità
Visualizza su ilsole24ore.com

P.I. 00777910159   Dati societari
© Copyright Il Sole 24 Ore Tutti i diritti riservati
Per la tua pubblicità sul sito: 24 Ore System
Informativa sui cookie  Privacy policy