Tecnologia
Pubblicità

Tecnologia

Umanità a rischio di estinzione per colpa dell’Ai. Ancora un nuovo (l’ennesimo) allarme

di Luca Tremolada

Perché non dobbiamo avere paura di ChatGpt

Tra firmatari gli ad di OpenAI e Google Deepmind e anche Geoffrey Hinton, “padrino” dell'Ai

30 maggio 2023
Pubblicità

2' di lettura

Un nuovo allarme, il terzo in pochi mesi, certamente il più catastrofico. Dopo la lettera del fondatore di Tesla, Elon Musk, che chiedeva all'industria dell’intelligenza artificiale di fermarsi per riflettere e l'avvertimento di Sam Atlman, papà di ChatGpt di andarsene dall'Europa - avvertimento subito rientrato il giorno dopo - arriva l'allarme lanciato da alcuni leader del settore.

Nello specifico, 350 manager hanno firmato una lettera del no profit Center for AI Safety per dirci che l'intelligenza artificiale pone una minaccia esistenziale all’umanità e dovrebbe essere considerata un rischio sociale come le pandemie e le guerre nucleari. Leggiamo meglio: “Mitigare il rischio di estinzione” posto dall’intelligenza artificiale “dovrebbe essere una priorità insieme ad altri rischi sociali come le pandemie e le guerre nucleari”.

Pubblicità

Le giravolte di Sam Altman

Fra i firmatari della lettera, riporta il New York Times, ci sono l’amministratore delegato di OpenAI, Sam Altman, il numero uno di Google DeepMind, Demis Hassabis, e il leader di Anthropic, Dario Amodei. E anche Geoffrey Hinton, uno dei padrini dell’Ai che si era “licenziato” da Google per avere le mani più libere per avvertire il mondo dei rischi dell’Ai.
E forse occorrerebbe partire dai firmatari per contestualizzare questi allarmi. Tra tutti Sam Altman, il papà di ChatGpt, ultimamente è il più allarmato.

Il 29 marzo scorso, commentando la lettera firmata da Elon Musk che chiedeva lo stop allo sviluppo dei chatbot, l’ad di OpenAi si era detta d'accordo ma solo con alcune parti. “Mancano le sfumature tecniche”. E poi, aggiunse, “non era il modo giusto per richiedere migliori linee guida sulla sicurezza”. La settimana scorsa davanti al Senato Usa è tornato sull'argomento paragonando l'Ai all'energia e chiedendo una Aiea (Agenzia internazionale dell'energia atomica) per regolare il settore. Durante un tour in Europa, ha poi dichiarato che OpenAi era pronta ad andarsene dal mercato europeo qualora non dovesse trovare una “quadra” con i regolamenti dell’Ue.

Il nodo dei Big e la monetizzazione dell’Ai

Ricordiamo, sempre per fornire qualche informazione di contesto, che ad aprile il Garante della privacy italiano aveva bloccato l'accesso a ChatGpt per due settimane chiedendogli di rispettare al legge europea sulla privacy e la gestione dei dati. E che a breve, a giugno, dovrebbe andare in porto l'Ai Act, la Direttiva europea che disciplinerà tutte le forme di Ai per tutti gli Stati del vecchio continente.

La minaccia è durata meno di 24 ore, perché poi Altman avrebbe spiegato di essere stato frainteso dopo un ammonimento da parte del Commissario Thierry Breton, che ha accusato l’azienda di ricatto, Altman ha twittato che “non ci sono piani per andarsene”. Poi il silenzio fino alla lettera di oggi. I maligni scrivono che la richiesta giusta di regole in realtà sottenda la volontà dei big tech di impedire che l'intelligenza artificiale diventi open source, più trasparente e aperta a tutti e quindi più difficile da monetizzare. Come sanno bene i Chatbot, le parole sono importanti. E ogni parola va inserita nel contesto più opportuno.


Riproduzione riservata ©
Pubblicità
Visualizza su ilsole24ore.com

P.I. 00777910159   Dati societari
© Copyright Il Sole 24 Ore Tutti i diritti riservati
Per la tua pubblicità sul sito: 24 Ore System
Informativa sui cookie  Privacy policy