Questo è un post tradotto da IA.
Il dramma della governance di OpenAI, il futuro etico dell'IA
- Lingua di scrittura: Coreana
- •
- Paese di riferimento: Tutti i paesi
- •
- Tecnologia dell'informazione
Seleziona la lingua
Testo riassunto dall'intelligenza artificiale durumis
- Si è verificato un evento in cui il CEO di OpenAI, Sam Altman, è stato licenziato dal consiglio di amministrazione per poi essere riassunto come CEO, evento che dimostra la struttura peculiare di OpenAI, composta da una parte non profit e una profit, e l'enfasi del consiglio di amministrazione sulla sicurezza.
- Questo evento ha amplificato l'attenzione sociale sullo sviluppo e la regolamentazione dell'IA, rivelando una varietà di opinioni e interpretazioni sul futuro dell'IA.
- In particolare, mostra come l'immaginazione del futuro dell'IA possa influenzare la realtà e solleva la richiesta di considerare diverse contesti sociali e culturali nel determinare il futuro dell'IA.
Qualche tempo fa, a pochi mesi dal lancio di ChatGPT, si è consumata una vera e propria tragedia all'interno del consiglio di amministrazione di OpenAI, un'organizzazione no profit che in pochi mesi è passata da zero a un fatturato annuo di 1 miliardo di dollari. L'amministratore delegato della società, Sam Altman, è stato licenziato e, dopo l'annuncio della sua partenza per Microsoft, è stato riassunto come CEO di OpenAI. Di solito, i CEO fondatori sono la forza più potente di un'azienda, quindi è raro che un consiglio di amministrazione licenzi un CEO fondatore, soprattutto se si tratta di una società gigantesca con un valore di mercato di 80 miliardi di dollari.
Tuttavia, il dramma serrato di cinque giorni è stato possibile grazie alla struttura insolita di OpenAI, che è legata a una dichiarazione di missione di "aiutare l'umanità". Guidati dall'obiettivo di "evitare che l'umanità e tutto l'universo osservabile scompaiano", i tre membri indipendenti del consiglio di amministrazione che si dice abbiano guidato la decisione di licenziare Altman sono tutti legati all'altruismo efficace (EA, effective altruism), che è direttamente collegato alla missione della società.
la struttura del consiglio di amministrazione di OpenAI
Nel corso dell'anno, Altman ha viaggiato in tutto il mondo, mettendo in guardia i media e i governi sui rischi esistenziali della tecnologia che stava sviluppando. Ha descritto la particolare struttura di OpenAI, no profit all'interno di una struttura a scopo di lucro, come un campanello d'allarme per lo sviluppo incontrollato di un'intelligenza artificiale potente. In un'intervista a Bloomberg a giugno, ha detto che il consiglio di amministrazione avrebbe potuto licenziarlo se avesse agito in modo pericoloso o contro gli interessi dell'umanità. In altre parole, la struttura era stata progettata intenzionalmente in modo che il consiglio di amministrazione, che privilegia la sicurezza rispetto al rischio di un'AGI fuori controllo, potesse licenziare il CEO in qualsiasi momento.
Allora, come dovremmo considerare la situazione attuale, in cui il nuovo CEO di OpenAI è lo stesso del precedente?
Non è facile liquidare tutto come un'avventura che alla fine non ha portato a cambiamenti. Il fatto è che abbiamo visto come le decisioni relative allo sviluppo di un'intelligenza artificiale etica, che può avere un impatto enorme sulla nostra società, siano state prese solo da un piccolo gruppo di persone. Sam Altman è diventato il simbolo di un'epoca in cui gli occhi del mondo sono puntati sullo sviluppo e la regolamentazione dell'IA. Abbiamo assistito a un processo in cui l'unico mezzo esterno che avrebbe potuto impedire le sue decisioni è stato effettivamente cancellato, e da questo abbiamo compreso l'importanza di avere ulteriori strumenti esterni.
Questo evento ha anche chiarito le posizioni e le interpretazioni dei catastrofisti, che temono che l'IA distruggerà l'umanità, dei transumanisti, che credono che la tecnologia accelererà un futuro utopico, dei sostenitori del libero mercato, che credono nel capitalismo di mercato, e dei sostenitori di una regolamentazione rigorosa per le grandi aziende tecnologiche, che credono che non sia possibile raggiungere un equilibrio tra i potenziali danni di una tecnologia dirompente e la brama di guadagno. Tutto questo nasce da una paura del futuro dell'umanità in un mondo con l'IA, e questo sottolinea la necessità di creare una comunità più diversificata in grado di prevedere questo futuro.
La professoressa Ye-Jin Choi della University of Washington, una delle 100 persone più influenti nel campo dell'intelligenza artificiale al mondo, ha spiegato nel suo discorso TED perché un'intelligenza artificiale in grado di superare gli esami di stato aggiunge in modo stupido e inutile passaggi inutili per misurare 6 litri d'acqua usando bollitori da 12 litri e 6 litri: la ragione è la mancanza diapprendimento del senso comuneche gli esseri umani acquisiscono nella società.
Quando prevediamo il futuro, spesso identifichiamo il nuovo da una prospettiva esterna, usando come riferimento i "limiti" che indicano la direzione del mainstream. Ciò che appare come una visione stabile del futuro dall'esterno è sempre in qualche modo una"esperienza vivida" astrattabasata sul presente. L'antropologo americano Arjun Appadurai ha sostenuto che l'immaginazione non è una capacità privata e personale, ma una pratica sociale. Questo significa che diverse immaginazioni del futuro possono diventare realtà. Questo evento può essere interpretato come uno dei paesaggi creati dall'immaginazione di un futuro incerto legato all'emergere dell'AGI.
Ora che abbiamo visto come le aspettative dei leader del settore sul futuro abbiano un significato politico importante, in futuro avremo bisogno di una comprensione più profonda del futuro immaginato e costruito collettivamente in diversi contesti sociali e culturali quando decideremo il futuro dell'IA. È giunto il momento di interrogarci su come creare opportunità per presentare attivamente le aspettative collettive basate su esperienze vivide all'interno di comunità diverse.
Riferimenti