Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Questo è un post tradotto da IA.

Byungchae Ryan Son

Il dramma della governance di OpenAI, il futuro etico dell'IA

Seleziona la lingua

  • Italiano
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Testo riassunto dall'intelligenza artificiale durumis

  • Si è verificato un evento in cui il CEO di OpenAI, Sam Altman, è stato licenziato dal consiglio di amministrazione per poi essere riassunto come CEO, evento che dimostra la struttura peculiare di OpenAI, composta da una parte non profit e una profit, e l'enfasi del consiglio di amministrazione sulla sicurezza.
  • Questo evento ha amplificato l'attenzione sociale sullo sviluppo e la regolamentazione dell'IA, rivelando una varietà di opinioni e interpretazioni sul futuro dell'IA.
  • In particolare, mostra come l'immaginazione del futuro dell'IA possa influenzare la realtà e solleva la richiesta di considerare diverse contesti sociali e culturali nel determinare il futuro dell'IA.

Qualche tempo fa, a pochi mesi dal lancio di ChatGPT, si è consumata una vera e propria tragedia all'interno del consiglio di amministrazione di OpenAI, un'organizzazione no profit che in pochi mesi è passata da zero a un fatturato annuo di 1 miliardo di dollari. L'amministratore delegato della società, Sam Altman, è stato licenziato e, dopo l'annuncio della sua partenza per Microsoft, è stato riassunto come CEO di OpenAI. Di solito, i CEO fondatori sono la forza più potente di un'azienda, quindi è raro che un consiglio di amministrazione licenzi un CEO fondatore, soprattutto se si tratta di una società gigantesca con un valore di mercato di 80 miliardi di dollari.


Tuttavia, il dramma serrato di cinque giorni è stato possibile grazie alla struttura insolita di OpenAI, che è legata a una dichiarazione di missione di "aiutare l'umanità". Guidati dall'obiettivo di "evitare che l'umanità e tutto l'universo osservabile scompaiano", i tre membri indipendenti del consiglio di amministrazione che si dice abbiano guidato la decisione di licenziare Altman sono tutti legati all'altruismo efficace (EA, effective altruism), che è direttamente collegato alla missione della società.

la struttura del consiglio di amministrazione di OpenAI


Nel corso dell'anno, Altman ha viaggiato in tutto il mondo, mettendo in guardia i media e i governi sui rischi esistenziali della tecnologia che stava sviluppando. Ha descritto la particolare struttura di OpenAI, no profit all'interno di una struttura a scopo di lucro, come un campanello d'allarme per lo sviluppo incontrollato di un'intelligenza artificiale potente. In un'intervista a Bloomberg a giugno, ha detto che il consiglio di amministrazione avrebbe potuto licenziarlo se avesse agito in modo pericoloso o contro gli interessi dell'umanità. In altre parole, la struttura era stata progettata intenzionalmente in modo che il consiglio di amministrazione, che privilegia la sicurezza rispetto al rischio di un'AGI fuori controllo, potesse licenziare il CEO in qualsiasi momento.


Allora, come dovremmo considerare la situazione attuale, in cui il nuovo CEO di OpenAI è lo stesso del precedente?


Non è facile liquidare tutto come un'avventura che alla fine non ha portato a cambiamenti. Il fatto è che abbiamo visto come le decisioni relative allo sviluppo di un'intelligenza artificiale etica, che può avere un impatto enorme sulla nostra società, siano state prese solo da un piccolo gruppo di persone. Sam Altman è diventato il simbolo di un'epoca in cui gli occhi del mondo sono puntati sullo sviluppo e la regolamentazione dell'IA. Abbiamo assistito a un processo in cui l'unico mezzo esterno che avrebbe potuto impedire le sue decisioni è stato effettivamente cancellato, e da questo abbiamo compreso l'importanza di avere ulteriori strumenti esterni.


Questo evento ha anche chiarito le posizioni e le interpretazioni dei catastrofisti, che temono che l'IA distruggerà l'umanità, dei transumanisti, che credono che la tecnologia accelererà un futuro utopico, dei sostenitori del libero mercato, che credono nel capitalismo di mercato, e dei sostenitori di una regolamentazione rigorosa per le grandi aziende tecnologiche, che credono che non sia possibile raggiungere un equilibrio tra i potenziali danni di una tecnologia dirompente e la brama di guadagno. Tutto questo nasce da una paura del futuro dell'umanità in un mondo con l'IA, e questo sottolinea la necessità di creare una comunità più diversificata in grado di prevedere questo futuro.


La professoressa Ye-Jin Choi della University of Washington, una delle 100 persone più influenti nel campo dell'intelligenza artificiale al mondo, ha spiegato nel suo discorso TED perché un'intelligenza artificiale in grado di superare gli esami di stato aggiunge in modo stupido e inutile passaggi inutili per misurare 6 litri d'acqua usando bollitori da 12 litri e 6 litri: la ragione è la mancanza diapprendimento del senso comuneche gli esseri umani acquisiscono nella società.


Quando prevediamo il futuro, spesso identifichiamo il nuovo da una prospettiva esterna, usando come riferimento i "limiti" che indicano la direzione del mainstream. Ciò che appare come una visione stabile del futuro dall'esterno è sempre in qualche modo una"esperienza vivida" astrattabasata sul presente. L'antropologo americano Arjun Appadurai ha sostenuto che l'immaginazione non è una capacità privata e personale, ma una pratica sociale. Questo significa che diverse immaginazioni del futuro possono diventare realtà. Questo evento può essere interpretato come uno dei paesaggi creati dall'immaginazione di un futuro incerto legato all'emergere dell'AGI.


Ora che abbiamo visto come le aspettative dei leader del settore sul futuro abbiano un significato politico importante, in futuro avremo bisogno di una comprensione più profonda del futuro immaginato e costruito collettivamente in diversi contesti sociali e culturali quando decideremo il futuro dell'IA. È giunto il momento di interrogarci su come creare opportunità per presentare attivamente le aspettative collettive basate su esperienze vivide all'interno di comunità diverse.



Riferimenti


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
L'era del branding algoritmico è arrivata Elon Musk, Sundar Pichai, CEO di Google, e Sam Altman di OpenAI, esperti di intelligenza artificiale, mettono in guardia sui rischi dell'intelligenza artificiale e propongono soluzioni diverse per il futuro dell'umanità. Leggi nel numero di elettronica de

10 maggio 2024

Il paradosso dei modelli AI leader, la trasparenza La mancanza di trasparenza nei sistemi AI all'avanguardia è diventata un problema serio. I ricercatori della Stanford University hanno analizzato 10 sistemi AI, tra cui GPT-4, e hanno concluso che nessun modello ha pubblicato in modo trasparente informazi

14 maggio 2024

L'intelligenza artificiale generativa nel 2023, il significato umano a venire Il 2023 è stato un anno di cambiamenti importanti per l'intelligenza artificiale, che ha dominato l'intero settore tecnologico, con la trasformazione delle piattaforme di intelligenza artificiale generativa, l'aumento della familiarità del pubblico e l'ac

16 maggio 2024

Mr. Know-All – 2023.7 Il primo numero della rivista mensile di intelligenza artificiale "Mr. Know-All" di luglio 2023 presenta Claude 2, Azure OpenAI, LangChain, LlamaIndex e altre tecnologie e tendenze di intelligenza artificiale all'avanguardia. In particolare, viene fornita
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 marzo 2024

Il mio breve futuro personale L'IA porterà grandi cambiamenti al futuro degli sviluppatori. L'IA sostituirà i compiti semplici come la creazione di prototipi e lo sviluppo front-end, ma gli sviluppatori esperti si concentreranno sulla risoluzione di problemi strategici e sulla creazio
Mark Ball Blog
Mark Ball Blog
Immagine del mio futuro personale
Mark Ball Blog
Mark Ball Blog

26 marzo 2024

Intelligenza artificiale che supera gli umani, una benedizione o una maledizione per il futuro? Lo sviluppo dell'intelligenza artificiale (IA) è un argomento caldo di dibattito: sarà una benedizione o una maledizione per l'umanità? L'IA potrebbe portare innovazioni in vari settori come la medicina, la scienza e l'economia, ma c'è anche la possibilit
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

25 maggio 2024

AI Full Stack completo con Open Source Nel panorama dell'intelligenza artificiale stanno emergendo sempre più modelli LLM (Large Language Model) open source. Modelli come Mistral, Llama e phi-2, con prestazioni elevate e licenze open source, sono stati rilasciati, e contemporaneamente vengono
RevFactory
RevFactory
RevFactory
RevFactory

5 febbraio 2024

Deloitte Global Group pubblica il report 'Global CEO Survey' 6 aziende su 10 a livello globale hanno adottato l'intelligenza artificiale generativa per l'automazione dei processi, e i CEO sono ottimisti sulla crescita delle aziende quest'anno, con il 46% che prevede il lancio di nuovi servizi e prodotti entro un an
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

9 maggio 2024

Splunk, pubblica il rapporto sullo stato della sicurezza 2024 Secondo il rapporto sullo stato della sicurezza 2024 di Splunk, il 93% delle aziende utilizza l'intelligenza artificiale generativa, ma il 34% non ha ancora definito delle politiche. L'intelligenza artificiale generativa offre nuove opportunità sia per i
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

13 maggio 2024