Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Questo è un post tradotto da IA.

Byungchae Ryan Son

L'era del branding algoritmico è arrivata

Seleziona la lingua

  • Italiano
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Testo riassunto dall'intelligenza artificiale durumis

  • Elon Musk ha annunciato lo sviluppo di TruthGPT, un'intelligenza artificiale che cerca la verità, avvertendo dei rischi dell'intelligenza artificiale, mentre il CEO di Google Sundar Pichai ha esortato la società a prepararsi al rapido sviluppo dell'intelligenza artificiale.
  • Sam Altman di OpenAI sostiene che è nell'interesse dell'umanità realizzare il più rapidamente possibile l'intelligenza artificiale superintelligente, e gli esperti di intelligenza artificiale stanno esprimendo opinioni diverse sulla convivenza con l'intelligenza artificiale.
  • Con l'accelerazione dello sviluppo dell'intelligenza artificiale, è diventata necessaria una ridefinizione del ruolo e del valore degli esseri umani, e lo sviluppo di un'intelligenza artificiale umana e l'adattamento sociale sono diventati cruciali.

"Sappiamo che l'umanità potrebbe decidere di cacciare e uccidere tutte le scimmie."


Elon Musk, in un'intervista a Fox News il 14 aprile, ha menzionato i piani per sviluppare TruthGPT, un'IA che ricerca la verità, esprimendo preoccupazioni sul futuro atteggiamento delle intelligenze artificiali nei confronti degli umani, illustrandole al pubblico in modo più intuitivo e diretto rispetto a qualsiasi altra spiegazione precedente, attraverso l'esempio delle scimmie. Questa dichiarazione assume un significato più realistico, considerando le critiche e le polemiche che il suo startup di neuroscienze Neuralink, fondata nel 2016, sta affrontando per aver causato un dolore estremo e la morte a scimmie durante i continui impianti di chip computerizzati nel loro cervello, a causa di accuse di maltrattamento degli animali.

Una scimmia con un Neuralink impiantato nel cervello. The Verge


TruthGPT, come suggerisce il nome, mostra una chiara relazione tecnologica con ChatGPT, e si ritiene che si trovi ancora in fase di progettazione iniziale, non essendo ancora pronto per diventare un'opzione alternativa rispetto a Bard di Google o ChatGPT di Open AI. Tuttavia, la sua ragion d'essere, ovvero creare un'IA che si sforzi di comprendere la natura dell'universo, riduce la probabilità che questa distrugga gli umani, che sono una parte interessante dell'universo, rendendo la sua logica sufficientemente convincente. Il principale timore di Elon Musk per quanto riguarda i rischi dell'intelligenza artificiale è il potenziale di distruggere la civiltà.


Lo stesso giorno, il 14 aprile, in un'intervista alla CBS, Sundar Pichai, CEO di Google, ha previsto che tutti i prodotti di tutte le aziende saranno influenzati dal rapido sviluppo dell'IA, avvertendo che la società deve prepararsi all'evoluzione delle tecnologie esistenti. Tuttavia, ha ammesso che Google non capisce completamente come l'IA produce determinate risposte. Quando il presentatore gli ha chiesto come si possa rilasciare l'IA nella società in tali condizioni, ha risposto che non comprendiamo completamente il funzionamento della mente umana.


Paul Crutzen, chimico atmosferico olandese, vincitore del premio Nobel per la chimica per la scoperta del buco nell'ozono, nel febbraio 2000, durante una conferenza internazionale sull'ambiente globale in Messico, dichiarò che viviamo nell'Antropocene. L'Antropocene è un'epoca geologica caratterizzata dall'influenza dell'uomo, definita come l'epoca in cui l'umanità ha iniziato ad avere un forte impatto sull'ambiente terrestre, a partire dalla rivoluzione industriale, basandosi sulle variazioni atmosferiche. Nel corso dello sviluppo della civiltà umana, il potere di distruggere l'ambiente terrestre o di determinare la sopravvivenza di altre specie deriva dalla nostra intelligenza. Ma ora è arrivata l'intelligenza artificiale (IA) e ci troviamo ad affrontare una situazione in cui rilasciamo nella società questa entità sconosciuta, potenzialmente pericolosa, senza avere precedenti esperienze su come gestirla.


D'altra parte, Sam Altman, a capo di Open AI, ha dichiarato in un podcast con il ricercatore di intelligenza artificiale Lex Fridman il 26 marzo scorso che l'obiettivo è raggiungere l'AGI (intelligenza artificiale generale), ovvero un'intelligenza artificiale più avanzata di quella attuale, il più rapidamente possibile. Poiché l'acquisizione della superintelligenza da parte dell'IA potrebbe verificarsi in modo improvviso e rapido, la creazione rapida di un'AGI più potente dell'IA attuale, per creare un'IA amichevole per l'uomo durante il lungo periodo che intercorre tra la creazione di un'AGI e il raggiungimento della superintelligenza, è la migliore soluzione per l'umanità.


Queste tre persone sono le più spesso menzionate nella guerra dell'IA in corso nel mondo, e condividono un interesse comune per il tema della vita umana in un mondo con l'IA. Tuttavia, dobbiamo ricordare che l'obiettivo finale delle loro storie è la creazione di sistemi informatici che si comportano in un determinato modo, ovvero l'IA. Questi modelli innovativi sono implacabilmente centrati su macchine e dati, e gli esseri umani che erano importanti nel mondo precedente possono essere sempre più descritti come fornitori di input comportamentali per soddisfare il bisogno di dati di sistemi sempre più autonomi. È per questo che, paradossalmente, diventa sempre più importante che l'attenzione e la discussione sul tema della verità, menzionati da Musk, si rivolgano di nuovo all'umanità. È necessario discutere quali criteri e metodi possono aiutare le persone che fanno parte delle professioni in via di estinzione a riaffermare e ad esercitare il proprio ruolo in modo più proattivo. Chi può ancora essere il soggetto che attribuisce significato alle esperienze che viviamo? Quali dovrebbero essere i dispositivi istituzionali e i temi della comunità che aiutano a non dimenticare questa consapevolezza?


Il branding è una dichiarazione per il pubblico di riferimento che si è sulla stessa strada. Forse stiamo assistendo a tre tentativi di branding di algoritmi di intelligenza artificiale basati sulla sopravvivenza della specie umana. Tra "cambiare l'attenzione allo spazio" di Musk per la conservazione dell'umanità, "l'adattamento sociale all'era delle informazioni false e false" di Pichai e "la roadmap per lo sviluppo di un'IA amichevole per l'uomo" di Altman, qual è l'algoritmo che preferisci?



*Questo articolo è il testo originale del 24 aprile 2023Colonna di opinione di Electronic Timespubblicato su .


Riferimenti


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Il dramma della governance di OpenAI, il futuro etico dell'IA L'episodio in cui il CEO di OpenAI, Sam Altman, è stato licenziato dal consiglio di amministrazione, ma è tornato dopo solo cinque giorni, rivela la struttura peculiare di OpenAI, che si propone di avere una missione per l'umanità, e le preoccupazioni sui

14 maggio 2024

L'intelligenza artificiale generativa nel 2023, il significato umano a venire Il 2023 è stato un anno di cambiamenti importanti per l'intelligenza artificiale, che ha dominato l'intero settore tecnologico, con la trasformazione delle piattaforme di intelligenza artificiale generativa, l'aumento della familiarità del pubblico e l'ac

16 maggio 2024

'Corpo' nell'era dell'intelligenza artificiale: guarda il corpo umano oltre lo schermo La fine del contratto di licenza tra UMG e TikTok ha sollevato discussioni sullo sviluppo della tecnologia AI e sui cambiamenti sociali che ne derivano. Sebbene la prospettiva evoluzionistica di Darwin preveda l'autonomia dell'AI e avverta di potenziali r

16 maggio 2024

Intelligenza artificiale che supera gli umani, una benedizione o una maledizione per il futuro? Lo sviluppo dell'intelligenza artificiale (IA) è un argomento caldo di dibattito: sarà una benedizione o una maledizione per l'umanità? L'IA potrebbe portare innovazioni in vari settori come la medicina, la scienza e l'economia, ma c'è anche la possibilit
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

25 maggio 2024

Il mio breve futuro personale L'IA porterà grandi cambiamenti al futuro degli sviluppatori. L'IA sostituirà i compiti semplici come la creazione di prototipi e lo sviluppo front-end, ma gli sviluppatori esperti si concentreranno sulla risoluzione di problemi strategici e sulla creazio
Mark Ball Blog
Mark Ball Blog
Immagine del mio futuro personale
Mark Ball Blog
Mark Ball Blog

26 marzo 2024

Mr. Know-All – 2023.7 Il primo numero della rivista mensile di intelligenza artificiale "Mr. Know-All" di luglio 2023 presenta Claude 2, Azure OpenAI, LangChain, LlamaIndex e altre tecnologie e tendenze di intelligenza artificiale all'avanguardia. In particolare, viene fornita
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 marzo 2024

L'avvento dell'era dell'IA, armonizzando l'innovazione tecnologica e l'etica Google e OpenAI hanno mostrato progressi innovativi nella tecnologia AI con il rilascio dei nuovi modelli AI "Gemini" e "GPT-4". Gemini è in grado di accettare input da diverse modalità, riassumere informazioni e fornire risposte a domande, e sarà integra
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

18 maggio 2024

Cos'è un modello linguistico di grandi dimensioni (LLM)? I modelli linguistici di grandi dimensioni (LLM) sono una tecnologia di base dell'intelligenza artificiale che impara da un'enorme quantità di dati di testo per acquisire capacità di elaborazione del linguaggio simili a quelle umane, e possono essere util
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 aprile 2024

Splunk, pubblica il rapporto sullo stato della sicurezza 2024 Secondo il rapporto sullo stato della sicurezza 2024 di Splunk, il 93% delle aziende utilizza l'intelligenza artificiale generativa, ma il 34% non ha ancora definito delle politiche. L'intelligenza artificiale generativa offre nuove opportunità sia per i
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

13 maggio 2024