Questo è un post tradotto da IA.
L'era del branding algoritmico è arrivata
- Lingua di scrittura: Coreana
- •
- Paese di riferimento: Tutti i paesi
- •
- Tecnologia dell'informazione
Seleziona la lingua
Testo riassunto dall'intelligenza artificiale durumis
- Elon Musk ha annunciato lo sviluppo di TruthGPT, un'intelligenza artificiale che cerca la verità, avvertendo dei rischi dell'intelligenza artificiale, mentre il CEO di Google Sundar Pichai ha esortato la società a prepararsi al rapido sviluppo dell'intelligenza artificiale.
- Sam Altman di OpenAI sostiene che è nell'interesse dell'umanità realizzare il più rapidamente possibile l'intelligenza artificiale superintelligente, e gli esperti di intelligenza artificiale stanno esprimendo opinioni diverse sulla convivenza con l'intelligenza artificiale.
- Con l'accelerazione dello sviluppo dell'intelligenza artificiale, è diventata necessaria una ridefinizione del ruolo e del valore degli esseri umani, e lo sviluppo di un'intelligenza artificiale umana e l'adattamento sociale sono diventati cruciali.
"Sappiamo che l'umanità potrebbe decidere di cacciare e uccidere tutte le scimmie."
Elon Musk, in un'intervista a Fox News il 14 aprile, ha menzionato i piani per sviluppare TruthGPT, un'IA che ricerca la verità, esprimendo preoccupazioni sul futuro atteggiamento delle intelligenze artificiali nei confronti degli umani, illustrandole al pubblico in modo più intuitivo e diretto rispetto a qualsiasi altra spiegazione precedente, attraverso l'esempio delle scimmie. Questa dichiarazione assume un significato più realistico, considerando le critiche e le polemiche che il suo startup di neuroscienze Neuralink, fondata nel 2016, sta affrontando per aver causato un dolore estremo e la morte a scimmie durante i continui impianti di chip computerizzati nel loro cervello, a causa di accuse di maltrattamento degli animali.
Una scimmia con un Neuralink impiantato nel cervello. The Verge
TruthGPT, come suggerisce il nome, mostra una chiara relazione tecnologica con ChatGPT, e si ritiene che si trovi ancora in fase di progettazione iniziale, non essendo ancora pronto per diventare un'opzione alternativa rispetto a Bard di Google o ChatGPT di Open AI. Tuttavia, la sua ragion d'essere, ovvero creare un'IA che si sforzi di comprendere la natura dell'universo, riduce la probabilità che questa distrugga gli umani, che sono una parte interessante dell'universo, rendendo la sua logica sufficientemente convincente. Il principale timore di Elon Musk per quanto riguarda i rischi dell'intelligenza artificiale è il potenziale di distruggere la civiltà.
Lo stesso giorno, il 14 aprile, in un'intervista alla CBS, Sundar Pichai, CEO di Google, ha previsto che tutti i prodotti di tutte le aziende saranno influenzati dal rapido sviluppo dell'IA, avvertendo che la società deve prepararsi all'evoluzione delle tecnologie esistenti. Tuttavia, ha ammesso che Google non capisce completamente come l'IA produce determinate risposte. Quando il presentatore gli ha chiesto come si possa rilasciare l'IA nella società in tali condizioni, ha risposto che non comprendiamo completamente il funzionamento della mente umana.
Paul Crutzen, chimico atmosferico olandese, vincitore del premio Nobel per la chimica per la scoperta del buco nell'ozono, nel febbraio 2000, durante una conferenza internazionale sull'ambiente globale in Messico, dichiarò che viviamo nell'Antropocene. L'Antropocene è un'epoca geologica caratterizzata dall'influenza dell'uomo, definita come l'epoca in cui l'umanità ha iniziato ad avere un forte impatto sull'ambiente terrestre, a partire dalla rivoluzione industriale, basandosi sulle variazioni atmosferiche. Nel corso dello sviluppo della civiltà umana, il potere di distruggere l'ambiente terrestre o di determinare la sopravvivenza di altre specie deriva dalla nostra intelligenza. Ma ora è arrivata l'intelligenza artificiale (IA) e ci troviamo ad affrontare una situazione in cui rilasciamo nella società questa entità sconosciuta, potenzialmente pericolosa, senza avere precedenti esperienze su come gestirla.
D'altra parte, Sam Altman, a capo di Open AI, ha dichiarato in un podcast con il ricercatore di intelligenza artificiale Lex Fridman il 26 marzo scorso che l'obiettivo è raggiungere l'AGI (intelligenza artificiale generale), ovvero un'intelligenza artificiale più avanzata di quella attuale, il più rapidamente possibile. Poiché l'acquisizione della superintelligenza da parte dell'IA potrebbe verificarsi in modo improvviso e rapido, la creazione rapida di un'AGI più potente dell'IA attuale, per creare un'IA amichevole per l'uomo durante il lungo periodo che intercorre tra la creazione di un'AGI e il raggiungimento della superintelligenza, è la migliore soluzione per l'umanità.
Queste tre persone sono le più spesso menzionate nella guerra dell'IA in corso nel mondo, e condividono un interesse comune per il tema della vita umana in un mondo con l'IA. Tuttavia, dobbiamo ricordare che l'obiettivo finale delle loro storie è la creazione di sistemi informatici che si comportano in un determinato modo, ovvero l'IA. Questi modelli innovativi sono implacabilmente centrati su macchine e dati, e gli esseri umani che erano importanti nel mondo precedente possono essere sempre più descritti come fornitori di input comportamentali per soddisfare il bisogno di dati di sistemi sempre più autonomi. È per questo che, paradossalmente, diventa sempre più importante che l'attenzione e la discussione sul tema della verità, menzionati da Musk, si rivolgano di nuovo all'umanità. È necessario discutere quali criteri e metodi possono aiutare le persone che fanno parte delle professioni in via di estinzione a riaffermare e ad esercitare il proprio ruolo in modo più proattivo. Chi può ancora essere il soggetto che attribuisce significato alle esperienze che viviamo? Quali dovrebbero essere i dispositivi istituzionali e i temi della comunità che aiutano a non dimenticare questa consapevolezza?
Il branding è una dichiarazione per il pubblico di riferimento che si è sulla stessa strada. Forse stiamo assistendo a tre tentativi di branding di algoritmi di intelligenza artificiale basati sulla sopravvivenza della specie umana. Tra "cambiare l'attenzione allo spazio" di Musk per la conservazione dell'umanità, "l'adattamento sociale all'era delle informazioni false e false" di Pichai e "la roadmap per lo sviluppo di un'IA amichevole per l'uomo" di Altman, qual è l'algoritmo che preferisci?
*Questo articolo è il testo originale del 24 aprile 2023Colonna di opinione di Electronic Timespubblicato su .
Riferimenti