![translation](https://cdn.durumis.com/common/trans.png)
To jest post przetłumaczony przez AI.
Dram w zarządzie OpenAI, etyczny przyszłość AI
- Język pisania: Koreański
- •
-
Kraj referencyjny: Wszystkie kraje
- •
- TO
Wybierz język
Tekst podsumowany przez sztuczną inteligencję durumis
- Zwolnienie i ponowne mianowanie na stanowisko dyrektora generalnego Sama Altmana, dyrektora generalnego OpenAI, jest wydarzeniem, które pokazuje niezwykłą strukturę organizacji non-profit, w której działa OpenAI, oraz nacisk rady na bezpieczeństwo.
- To wydarzenie zwiększyło zainteresowanie społeczne rozwojem i regulacją AI, ujawniając różne punkty widzenia i interpretacje przyszłości AI.
- W szczególności pokazuje, że wyobraźnia dotycząca przyszłości AI może mieć wpływ na rzeczywistość, podnosząc argument, że w określaniu przyszłości AI należy uwzględnić różne konteksty społeczne i kulturowe.
Niedawno, zaledwie kilka miesięcy po premierze ChatGPT, w zarządzie OpenAI, organizacji non-profit, która w ciągu kilku miesięcy zbiła miliard dolarów rocznego przychodu, rozegrał się wielki dramat. Dyrektor generalny firmy, Sam Altman, został zwolniony, a po ogłoszeniu jego przejścia do Microsoftu, ponownie powrócił na stanowisko dyrektora generalnego OpenAI. Zazwyczaj założyciele są największą siłą w firmie, dlatego rada nadzorcza rzadko zwalnia ich, a już na pewno nie w przypadku firmy o wartości 80 miliardów dolarów.
Mimo to, możliwe było, że ta napięta, 5-dniowa dramaturgia rozegrała się ze względu na wyjątkową strukturę OpenAI, która związana jest z jej deklaracją misji „dla ludzkości”. Trzech niezależnych członków rady nadzorczej, którzy, jak się uważa, przyczynili się do decyzji o zwolnieniu Altmana, wszyscy są powiązani z efektywnym altruizmem (EA), który jest powiązany z misją firmy i skupia się na celu „zapewnienia, aby ludzkość i wszystko, co można zaobserwować we wszechświecie, nie zniknęło”.
struktura zarządu OpenAI
W tym roku, podróżując po całym świecie i ostrzegając media i rządy przed egzystencjalnym zagrożeniem technologii, nad którą
pracował, Altman opisywał wyjątkową strukturę OpenAI, która łączy w sobie organizację non-profit i firmę komercyjną, jako
ostrzeżenie przed nieodpowiedzialnym rozwojem silnej AI. W wywiadzie dla Bloomberga w czerwcu wspomniał, że gdyby zachował się
ryzykownie lub działał wbrew interesom ludzkości, rada nadzorcza miałaby możliwość pozbawienia go stanowiska. Innymi słowy,
struktura ta została celowo zaprojektowana w taki sposób, aby rada nadzorcza, która stawia bezpieczeństwo ponad pieniądze w
kontekście pojawienia się niekontrolowanego AGI, mogła usunąć dyrektora generalnego w dowolnym momencie.
Jak więc powinniśmy postrzegać obecną sytuację, w której nowy dyrektor generalny OpenAI jest tym samym, co poprzedni?
Trudno jest zamknąć tę historię jako incydent, który niczego nie zmienił, ponieważ ujawnił, że decyzje dotyczące rozwoju etycznego sztucznej inteligencji, które mogą mieć największy wpływ na nasze społeczeństwo, podejmowane są przez bardzo niewielu. Sam Altman stał się symbolem ery, w której świat skupia się na rozwoju i regulacji sztucznej inteligencji. Zaobserwowaliśmy, jak jedyna zewnętrzna metoda, która mogła zapobiec jego decyzjom i działaniom, została praktycznie zlikwidowana, co z kolei potwierdza znaczenie innych zewnętrznych mechanizmów.
Ta sytuacja również wyjaśniła stanowiska i interpretacje różnych grup: katastroficy, którzy obawiają się, że AI zniszczy ludzkość, transhumaniści, którzy wierzą, że technologia przyspieszy utopijną przyszłość, zwolennicy swobodnego kapitalizmu rynkowego oraz zwolennicy surowej regulacji dużych firm technologicznych, którzy wierzą, że niemożliwe jest znalezienie równowagi między potencjalnymi szkodami wyniszczającej technologii a chciwością zysku. Oznacza to, że wszyscy wywodzą się z lęku o przyszłość człowieka żyjącego z AI, co podkreśla potrzebę stworzenia bardziej zróżnicowanych społeczności, które będą w stanie przewidywać tą przyszłość.
Profesor Ye-Jin Choi z Uniwersytetu Waszyngtońskiego, która została zaliczona do 100 najbardziej wpływowych osób w dziedzinie sztucznej inteligencji na świecie, wyjaśniła w swoim wystąpieniu na TED, że powodem, dla którego sztuczna inteligencja, która zdała egzaminy państwowe, wykonuje głupie i niepotrzebne czynności podczas mierzenia 6 litrów wody za pomocą dzbanków o pojemności 12 litrów i 6 litrów, jestbrak uczenia się zdrowego rozsądku, który jest nabywany w społeczeństwie.
Prognozując przyszłość, często identyfikujemy nowe rzeczy z perspektywy osoby zewnętrznej, korzystając z „granicy” jako punkt odniesienia, wskazującej kierunek, w którym podąża prąd główny. W tym przypadku, to, co z zewnątrz wydaje się stabilną wizją przyszłości, zawsze jest w pewnym stopniu oparte na„żywym doświadczeniu”, które zostało abstrakcyjnie przekształcone w oczekiwanie. Amerykański antropolog Arjun Appadurai argumentował, że wyobraźnia nie jest prywatną i indywidualną zdolnością, ale raczej praktyką społeczną. Oznacza to, że różne wyobrażenia o przyszłości mogą stać się rzeczywistością, a obecna sytuacja może być interpretowana jako jeden z krajobrazów stworzonych przez wyobraźnię dotyczącą niepewnej przyszłości związaną z pojawieniem się AGI.
Skoro już wiemy, że oczekiwania liderów branży dotyczące przyszłości mają znaczenie polityczne, potrzebujemy głębszego rozumienia przyszłości, która jest wspólnie wyobrażana i konstruowana w różnych kontekstach społecznych i kulturowych, aby podjąć decyzje dotyczące przyszłości AI. Nadszedł czas, aby zadać sobie pytanie, jak stworzyć możliwości przedstawiania kolektywnych oczekiwań opartych na żywym doświadczeniu w bardziej zróżnicowanych społecznościach.
Źródła