"Sappiamo che l'umanità potrebbe decidere di cacciare e uccidere tutti gli scimpanzé."
Elon Musk, in un'intervista con Fox News il 14 aprile, ha accennato al progetto di sviluppo di TruthGPT, un'IA che ricerca la verità, e ha espresso le sue preoccupazioni sul futuro atteggiamento dell'intelligenza artificiale nei confronti degli umani, trasmettendole al pubblico in modo più intuitivo di quanto fatto in precedenza attraverso l'esempio degli scimpanzé. Questa affermazione assume un'importanza ancora maggiore alla luce delle polemiche e delle critiche che la Neuralink, startup di neuroscienze fondata da Musk nel 2016, si è trovata ad affrontare per aver causato la morte di alcune scimmie a causa di forti dolori durante l'impianto di chip computerizzati nei loro cervelli.
Una scimmia con un Neuralink impiantato nel cervello. The Verge
TruthGPT, come suggerisce il nome, mostra una connessione tecnologica con ChatGPT, e sembra essere ancora in una fase iniziale di progettazione, non abbastanza sviluppato per rappresentare una terza opzione alternativa a Bard di Google e ChatGPT di Open AI. Tuttavia, la sua ragion d'essere, ovvero la creazione di un'IA che si sforza di comprendere l'essenza dell'universo, con la conseguente riduzione della probabilità di annientamento dell'umanità (parte interessante dell'universo), è un'argomentazione piuttosto convincente. Il pericolo principale dell'intelligenza artificiale che preoccupa maggiormente Elon Musk è la sua potenziale capacità di distruggere la civiltà.
Lo stesso giorno, 14 aprile, in un'intervista con CBS, Sundar Pichai, CEO di Google, ha previsto che tutti i prodotti di tutte le aziende saranno influenzati dal rapido sviluppo dell'IA, avvertendo la società di prepararsi all'evoluzione tecnologica. Tuttavia, ha ammesso che Google non comprende appieno come l'IA generi determinate risposte. Quando il conduttore ha chiesto come fosse possibile rilasciare l'IA nella società in tale stato di incertezza, Pichai ha risposto che non capiamo nemmeno completamente come funziona la mente umana.
Nel febbraio 2000, durante una conferenza internazionale sull'ambiente a Città del Messico, Paul Crutzen, chimico atmosferico olandese e premio Nobel per la chimica per la scoperta del buco nell'ozono, ha affermato che viviamo nell'Antropocene. L'Antropocene è un'epoca geologica caratterizzata dall'influenza umana sull'ambiente terrestre, e considerando le variazioni atmosferiche, è definita come l'epoca in cui l'umanità ha iniziato a esercitare un'influenza significativa sul pianeta a partire dalla rivoluzione industriale. Come dimostra la storia della civiltà umana, la capacità di distruggere l'ambiente terrestre o di determinare la sopravvivenza di altre specie deriva dall'intelligenza umana. Tuttavia, oggi ci troviamo ad affrontare l'arrivo dell'intelligenza artificiale (IA) e a dover gestire questa nuova entità sconosciuta e potenzialmente pericolosa senza una reale esperienza pregressa.
D'altra parte, Sam Altman, a capo di Open AI, ha dichiarato durante un podcast con il ricercatore di IA Lex Fridman il 26 marzo scorso che l'obiettivo è raggiungere l'intelligenza artificiale generale (AGI) in tempi brevi, superando il livello attuale. Poiché il momento in cui l'IA raggiungerà una superintelligenza potrebbe essere improvviso e rapido, ha spiegato che la creazione rapida di un'AGI, un livello superiore all'IA attuale, è la soluzione migliore per l'umanità, in modo da poter sviluppare un'IA amichevole per l'uomo durante il lungo periodo che intercorre tra l'AGI e la superintelligenza.
Queste tre figure, i cui nomi vengono citati più frequentemente nella cosiddetta "guerra dell'IA" in corso nel mondo, condividono un interesse comune per il tema della vita umana in compagnia dell'IA. Tuttavia, è importante ricordare che l'obiettivo finale delle loro narrazioni è la creazione di un sistema di elaborazione che produce determinati comportamenti, ovvero l'IA. Questo modello innovativo è implacabilmente incentrato sulla macchina e sui dati, e le persone che erano importanti nel mondo precedente possono essere sempre più descritte come fornitori di input comportamentali per soddisfare la sete di dati di sistemi sempre più autonomi. Per questo motivo, paradossalmente, diventa sempre più importante che l'attenzione e la discussione sulla verità, di cui parla Musk, tornino a essere rivolte all'umanità. È necessario discutere quali criteri e metodi possono aiutare le persone che appartengono a categorie lavorative in via di estinzione a riaffermare e utilizzare in modo più attivo la propria soggettività, se l'essere umano può ancora essere il soggetto che attribuisce un significato alle proprie esperienze, e quali dovrebbero essere le istituzioni e le comunità che ci aiutano a non dimenticare questa consapevolezza.
Il branding è una dichiarazione che afferma di essere sulla stessa strada dei clienti target. Forse, in questo momento, stiamo assistendo a tre tentativi di branding di algoritmi di IA basati sulla sopravvivenza della specie umana. Tra lo "spostamento dell'attenzione verso lo spazio" di Musk per la conservazione dell'umanità, l'""adattamento sociale nell'era della disinformazione e delle fake news"" di Pichai e la "timeline per lo sviluppo di un'IA amichevole per l'uomo" di Altman, quale algoritmo preferisci?
*Questo articolo è la versione originale pubblicata il 24 aprile 2023 su colonna firmata sul quotidiano elettronico.
Riferimenti
Commenti0