Tecnologia
Pubblicità

Tecnologia

Intelligenza artificiale, prima delle regole occorre investire nella ricerca e nell’etica

di Roberto Marseglia*

Immagine non disponibile
(wladimir1804 - stock.adobe.com)

(wladimir1804 - stock.adobe.com)

Per controllare questa rivoluzione digitale e non subirla è necessario continuare a investire in ricerca tecnica e nella formalizzazione di una posizione nell'ambito della digital ethics

25 maggio 2023
Pubblicità

3' di lettura

«Il vero rischio dell’IA non sono gli intenti malevoli, ma la competenza. Un’IA super intelligente sarà estremamente efficace nel raggiungere i suoi obiettivi, e se questi non sono allineati con i nostri, siamo nei guai».
Questa risposta che diede il noto astrofisico inglese Stephen Hawking sui rischi dell'intelligenza artificiale nel – ormai lontano – 2015 e che sembra far riferimento a un futuro distopico lontanissimo è invece oggi al centro del dibattito sulla materia.
Dall'aprile scorso è iniziato, alla Camera dei Deputati, un ciclo di audizioni di esperti sul tema dell'intelligenza artificiale con l'obbiettivo di raccogliere quante più informazioni possibili per consentire al legislatore di avere i giusti elementi per iniziare un'opportuna azione regolatoria sul tema degli algoritmi.
I primi due studiosi ad essere sentiti sono stati il professor Paolo Benanti, professore di etica della Pontificia Università Gregoriana, e la professoressa Rita Cucchiara, professore di ingegneria e direttore dell'Artificial Intelligence Research and Innovation Center. Oltre alla primaria ed indiscutibile caratura internazionale dei due speaker selezionati, salta all'occhio che il tema della digital ethics - di nuovo – è stato proposto come urgente e meritorio di primaria attenzione. Mai scelta fu più azzeccata.
L'azione di policy making su questo tema dell'Unione Europea, d'altra parte, era cominciata proprio con un documento - Ethics guidelines for trustworthy AI - il cui obiettivo era quello di definire i requisiti etici chiave che i sistemi di IA dovrebbero soddisfare per essere considerati affidabili dall'Unione Europea.
Non solo. Un recente articolo del Financial Times a firma di Ian Hogarth ha proposto una tematica corretta, ripresa nei giorni successivi da Forbes e successivamente sulla copertina dell'Economist: l'evoluzione della tecnologia e la crescita in dimensione delle intelligenze artificiali a nostra disposizione, soprattutto quelle capaci di auto-apprendere, pone delle nuove questioni etiche cui è opportuno dedicare la giusta attenzione.
Tra queste, forse la più interessante, è la spesso citata tematica dell'AI alignment. Per allineamento si intende il processo di progettazione di sistemi di IA che si comportino in modo coerente con i valori umani e che garantiscano che questi sistemi rimangano allineati anche quando diventano più avanzati e complessi. Tematica, dunque, al centro della suddetta risposta del prof. Hawking.
Due quindi i problemi che si pongono.
Il primo, quando il sistema intelligente diventa davvero complesso è molto difficile a priori conoscere i possibili effetti collaterali di obbiettivi ad esso mal posti. Un esempio teorico potrebbe essere quello di far gestire un fondo monetario ad un'AI avanzata con l'obbiettivo di esaurire la povertà nel più breve tempo possibile e spendendo meno denaro possibile. Probabilmente, il sistema interromperebbe quasi subito ogni forma di spesa nella convinzione che tutte le persone che non possono comprare da mangiare moriranno in fretta e quindi la povertà verrebbe esaurita. Obbiettivo quindi raggiunto? A che prezzo?
Il secondo, nella misura in cui si decida di limitare lo spazio delle soluzioni possibili che l'intelligenza artificiale può fare sue per tenere conto dei valori umani condivisi, ad esempio con opportune funzioni ricompensa, è necessario definire degli ethical landmarks che rappresentano il nostro essere e il nostro modo di pensare. Questi, però, non sono necessariamente universali e, anzi, alcuni studi suggeriscono che non lo siano. Per fare parte di questa rivoluzione digitale e non subirla è quindi necessario continuare a investire in ricerca tecnica e nella formalizzazione di una posizione nell'ambito della digital ethics.
Sarà sufficiente? Sarà questa l'unica strada da percorrere? È molto difficile dirlo ora ed in effetti in queste settimane vengono fatte parecchie proposte diverse – alcune interessanti - che puntano a trovare gli opportuni strumenti di gestione del transitorio. Tra queste è opportuno citare quella suggerita in un tweet da Elon Musk: “La soluzione “meno peggio” al problema del controllo dell’AGI (artificial general intelligence, ndr) che mi viene in mente è quella di dare un voto a ogni “umano verificato”.” Se dunque un umano “verifica” di essere un umano (quasi invertendo l'ordine della prova del test di Turing) avrà diritto a votare. Chi vivrà, vedrà.

*Roberto Marseglia, research assistant presso Università degli Studi di Pavia

Pubblicità
Leggi anche


Riproduzione riservata ©
Pubblicità
Visualizza su ilsole24ore.com

P.I. 00777910159   Dati societari
© Copyright Il Sole 24 Ore Tutti i diritti riservati
Per la tua pubblicità sul sito: 24 Ore System
Informativa sui cookie  Privacy policy