![translation](https://cdn.durumis.com/common/trans.png)
Ez egy AI által fordított bejegyzés.
Az OpenAI kormányzásának drámája, a mesterséges intelligencia etikai jövője
- Írás nyelve: Koreai
- •
-
Referencia ország: Minden ország
- •
- Informatika
Válasszon nyelvet
A durumis AI által összefoglalt szöveg
- Az OpenAI vezérigazgatója, Sam Altman, az igazgatóság által elbocsátották, majd visszatért a vezérigazgatói székbe. Ez az esemény az OpenAI egyedi, nonprofiton belül működő profitorientált struktúráját és az igazgatóságnak a biztonságra való hangsúlyozását mutatja.
- Ez az esemény fokozta a mesterséges intelligencia fejlesztésével és szabályozásával kapcsolatos társadalmi figyelmet, és feltárta a mesterséges intelligencia jövőjével kapcsolatos különböző álláspontokat és értelmezéseket.
- Különösen rámutat arra, hogy a mesterséges intelligencia jövőjével kapcsolatos képzelőerő hatással lehet a valóságra, és felmerül az az igény, hogy a mesterséges intelligencia jövőjének meghatározásakor figyelembe vegyük a különböző társadalmi és kulturális körülményeket.
Nemrégiben, néhány hónappal a ChatGPT megjelenése után, dráma bontakozott ki az OpenAI igazgatótanácsában, egy nonprofit szervezetben, amely néhány hónap alatt a nulláról évi 1 milliárd dolláros bevételre nőtt. A cég vezérigazgatója, Sam Altman, elbocsátásra került, majd miután bejelentették átmenetelét a Microsoftba, ismét visszatért az OpenAI vezérigazgatói posztjára. Általában a startup vezérigazgatók a cég leghatalmasabb ereje, és ritkán fordul elő, hogy az igazgatótanács elbocsát egy startup vezérigazgatót, főleg nem egy olyan cégnél, amelynek piaci értéke 80 milliárd dollár.
Ennek ellenére az öt napon át tartó dráma lehetőségét az OpenAI egyedi struktúrája biztosította, amely az "emberiségért" való küldetésnyilatkozatra épül. A céloknak megfelelően, melyek célja, hogy "megakadályozzák az emberiség és az észlelhető univerzum eltűnését", az igazgatótanács három független tagja, akikről ismert, hogy az Altman elbocsátásának mozgatórugói voltak, mind az effektív altruizmushoz (EA) és a cég küldetéséhez kapcsolódnak.
Az OpenAI igazgatósági struktúrája
Altman az év során körbeutazta a világot, figyelmeztetve a médiát és a kormányokat a fejlesztés alatt álló
technológiák létére vonatkozó kockázatokra, és leírta az OpenAI egyedi nonprofit-nonprofit struktúráját
mint egy figyelmeztetést a felelőtlen mesterséges intelligencia fejlesztésére, és elmondta a Bloombergnek
egy júniusban készült interjúban, hogy az igazgatótanács képes eltávolítani őt, ha kockázatos vagy az
emberiség érdekeit sértő cselekedetet hajt végre. Más szóval, a struktúra szándékosan úgy lett megtervezve,
hogy az igazgatótanács, amely a pénznél jobban a kordában tarthatatlan AGI megjelenésével kapcsolatos biztonságot
priorizálja, bármikor elbocsáthassa a vezérigazgatót.
De hogyan kell értékelnünk a jelenlegi helyzetet, amelyben az OpenAI új vezérigazgatója ugyanaz, mint az előző?
Nehéz ezt a helyzetet egyszerűen egy nem történt változásként elbocsátani, mert rámutat arra, hogy a mai társadalmunk legnagyobb hatású etikailag megalapozott mesterséges intelligencia fejlesztésekkel kapcsolatos döntéseket rendkívül kevés ember véleménye alapján hozzák meg. Sam Altman mostanra az AI fejlesztésének és szabályozásának globális középpontjává vált. Láttuk, hogy az egyetlen külső eszköz, amely megakadályozhatta volna a további döntéseit, gyakorlatilag megsemmisült, ami rámutat a további külső eszközök fontosságára.
Emellett az eset tisztázta a nézőpontokat és az értelmezéseket: a kihalásról aggódó apokalipszis-hívők, a technológiával való utópikus jövőbe vetett hittel rendelkező transzhumanisták, a szabadpiaci kapitalizmusban hitet vallók, valamint a szigorúbb szabályozást szorgalmazók, akik úgy vélik, hogy a hatalmas és pusztító technológiák potenciális káros hatásai és a pénzszerzés vágya közötti egyensúly nem megtalálható. Ez rámutat arra, hogy mindannyian az AI-val való együttélésünkkel kapcsolatos félelmeinktől vezérelve keressük a jövőnket, ami azt sugallja, hogy szükségünk van a jövő előrejelzésében résztvevő, sokszínűbb közösségekre.
Choi Ye-jin, a Washingtoni Egyetem professzora, aki a világ 100 legbefolyásosabb AI-személyiségének listáján szerepel, TED előadásában elmagyarázta, hogy az AI, amely képes különböző állami vizsgákat letenni, miért jár el buta módon, amikor 12 literes és 6 literes kannákkal 6 liter vizet mér, felesleges lépéseket adva hozzá.Ennek oka a közös tudás hiánya.- magyarázta.
A jövő előrejelzésekor gyakran a "korlátokat" használjuk mérőszámként, amelyek mutatják, hogy hova tart a fősodor, és kívülállók szemszögéből azonosítunk új dolgokat. Azonban ami kívülről stabil jövőképet jelent, az mindig is valamilyen szinten a jelenhez kötődik,"élő tapasztalat"-ból absztrahált elvárások.Arjun Appadurai, amerikai antropológus azt állítja, hogy a képzelet nem egyéni és személyes képesség, hanem társadalmi gyakorlat. Ez azt jelenti, hogy a különböző jövőképek valósággá válhatnak, és az eset az AGI megjelenésével kapcsolatos szorongó jövőképek által létrehozott táj egyikét szimbolizálhatja.
Most, hogy láthatóvá vált, hogy a jövőre vonatkozó elvárásoknak politikai jelentősége van az iparági vezetők részéről, a jövőben szükség lesz a jövővel kapcsolatos, kollektíven megálmodott és alakított, a társadalmi és kulturális kontextust figyelembe vevő mélyebb megértésre. Hogyan lehetne elősegíteni a változatos közösségekben élő, élő tapasztalatokon alapuló kollektív elvárások megosztását? Ennek a kérdésnek kellene lennie a központban.
Hivatkozások