Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

To jest post przetłumaczony przez AI.

Byungchae Ryan Son

Dram w zarządzie OpenAI, etyczny przyszłość AI

  • Język pisania: Koreański
  • Kraj referencyjny: Wszystkie kraje country-flag

Wybierz język

  • Polski
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Nederlands
  • हिन्दी
  • Magyar

Tekst podsumowany przez sztuczną inteligencję durumis

  • Zwolnienie i ponowne mianowanie na stanowisko dyrektora generalnego Sama Altmana, dyrektora generalnego OpenAI, jest wydarzeniem, które pokazuje niezwykłą strukturę organizacji non-profit, w której działa OpenAI, oraz nacisk rady na bezpieczeństwo.
  • To wydarzenie zwiększyło zainteresowanie społeczne rozwojem i regulacją AI, ujawniając różne punkty widzenia i interpretacje przyszłości AI.
  • W szczególności pokazuje, że wyobraźnia dotycząca przyszłości AI może mieć wpływ na rzeczywistość, podnosząc argument, że w określaniu przyszłości AI należy uwzględnić różne konteksty społeczne i kulturowe.

Niedawno, zaledwie kilka miesięcy po premierze ChatGPT, w zarządzie OpenAI, organizacji non-profit, która w ciągu kilku miesięcy zbiła miliard dolarów rocznego przychodu, rozegrał się wielki dramat. Dyrektor generalny firmy, Sam Altman, został zwolniony, a po ogłoszeniu jego przejścia do Microsoftu, ponownie powrócił na stanowisko dyrektora generalnego OpenAI. Zazwyczaj założyciele są największą siłą w firmie, dlatego rada nadzorcza rzadko zwalnia ich, a już na pewno nie w przypadku firmy o wartości 80 miliardów dolarów.


Mimo to, możliwe było, że ta napięta, 5-dniowa dramaturgia rozegrała się ze względu na wyjątkową strukturę OpenAI, która związana jest z jej deklaracją misji „dla ludzkości”. Trzech niezależnych członków rady nadzorczej, którzy, jak się uważa, przyczynili się do decyzji o zwolnieniu Altmana, wszyscy są powiązani z efektywnym altruizmem (EA), który jest powiązany z misją firmy i skupia się na celu „zapewnienia, aby ludzkość i wszystko, co można zaobserwować we wszechświecie, nie zniknęło”.

struktura zarządu OpenAI


W tym roku, podróżując po całym świecie i ostrzegając media i rządy przed egzystencjalnym zagrożeniem technologii, nad którą pracował, Altman opisywał wyjątkową strukturę OpenAI, która łączy w sobie organizację non-profit i firmę komercyjną, jako ostrzeżenie przed nieodpowiedzialnym rozwojem silnej AI. W wywiadzie dla Bloomberga w czerwcu wspomniał, że gdyby zachował się ryzykownie lub działał wbrew interesom ludzkości, rada nadzorcza miałaby możliwość pozbawienia go stanowiska. Innymi słowy, struktura ta została celowo zaprojektowana w taki sposób, aby rada nadzorcza, która stawia bezpieczeństwo ponad pieniądze w kontekście pojawienia się niekontrolowanego AGI, mogła usunąć dyrektora generalnego w dowolnym momencie.


Jak więc powinniśmy postrzegać obecną sytuację, w której nowy dyrektor generalny OpenAI jest tym samym, co poprzedni?


Trudno jest zamknąć tę historię jako incydent, który niczego nie zmienił, ponieważ ujawnił, że decyzje dotyczące rozwoju etycznego sztucznej inteligencji, które mogą mieć największy wpływ na nasze społeczeństwo, podejmowane są przez bardzo niewielu. Sam Altman stał się symbolem ery, w której świat skupia się na rozwoju i regulacji sztucznej inteligencji. Zaobserwowaliśmy, jak jedyna zewnętrzna metoda, która mogła zapobiec jego decyzjom i działaniom, została praktycznie zlikwidowana, co z kolei potwierdza znaczenie innych zewnętrznych mechanizmów.


Ta sytuacja również wyjaśniła stanowiska i interpretacje różnych grup: katastroficy, którzy obawiają się, że AI zniszczy ludzkość, transhumaniści, którzy wierzą, że technologia przyspieszy utopijną przyszłość, zwolennicy swobodnego kapitalizmu rynkowego oraz zwolennicy surowej regulacji dużych firm technologicznych, którzy wierzą, że niemożliwe jest znalezienie równowagi między potencjalnymi szkodami wyniszczającej technologii a chciwością zysku. Oznacza to, że wszyscy wywodzą się z lęku o przyszłość człowieka żyjącego z AI, co podkreśla potrzebę stworzenia bardziej zróżnicowanych społeczności, które będą w stanie przewidywać tą przyszłość.


Profesor Ye-Jin Choi z Uniwersytetu Waszyngtońskiego, która została zaliczona do 100 najbardziej wpływowych osób w dziedzinie sztucznej inteligencji na świecie, wyjaśniła w swoim wystąpieniu na TED, że powodem, dla którego sztuczna inteligencja, która zdała egzaminy państwowe, wykonuje głupie i niepotrzebne czynności podczas mierzenia 6 litrów wody za pomocą dzbanków o pojemności 12 litrów i 6 litrów, jestbrak uczenia się zdrowego rozsądku, który jest nabywany w społeczeństwie.


Prognozując przyszłość, często identyfikujemy nowe rzeczy z perspektywy osoby zewnętrznej, korzystając z „granicy” jako punkt odniesienia, wskazującej kierunek, w którym podąża prąd główny. W tym przypadku, to, co z zewnątrz wydaje się stabilną wizją przyszłości, zawsze jest w pewnym stopniu oparte na„żywym doświadczeniu”, które zostało abstrakcyjnie przekształcone w oczekiwanie. Amerykański antropolog Arjun Appadurai argumentował, że wyobraźnia nie jest prywatną i indywidualną zdolnością, ale raczej praktyką społeczną. Oznacza to, że różne wyobrażenia o przyszłości mogą stać się rzeczywistością, a obecna sytuacja może być interpretowana jako jeden z krajobrazów stworzonych przez wyobraźnię dotyczącą niepewnej przyszłości związaną z pojawieniem się AGI.


Skoro już wiemy, że oczekiwania liderów branży dotyczące przyszłości mają znaczenie polityczne, potrzebujemy głębszego rozumienia przyszłości, która jest wspólnie wyobrażana i konstruowana w różnych kontekstach społecznych i kulturowych, aby podjąć decyzje dotyczące przyszłości AI. Nadszedł czas, aby zadać sobie pytanie, jak stworzyć możliwości przedstawiania kolektywnych oczekiwań opartych na żywym doświadczeniu w bardziej zróżnicowanych społecznościach.



Źródła


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Nadchodzi era brandingu algorytmów Elon Musk, Sundar Pichai, dyrektor generalny Google'a, i Sam Altman z OpenAI ostrzegają przed zagrożeniami ze strony sztucznej inteligencji i przedstawiają różne rozwiązania dla przyszłości ludzkości. W artykule opublikowanym 24 kwietnia 2023 r. w dzienni

10 maja 2024

Czy AI zabierze pracę nowym pracownikom? Microsoft wzmocnił swoją pozycję na rynku AI, zatrudniając założyciela Inflection AI. Konkurencja na rynku AI staje się coraz bardziej zacięta. Obok obaw o to, że AI zastąpi miejsca pracy, nowi pracownicy mogą wykorzystać AI do przyspieszenia swojego rozw

20 maja 2024

Paradoks przełomowych modeli AI, przejrzystość Brak przejrzystości w najnowocześniejszych systemach AI stał się poważnym problemem. Naukowcy ze Stanford University przeanalizowali 10 systemów AI, w tym GPT-4, dochodząc do wniosku, że żaden z nich nie ujawnia w sposób przejrzysty informacji, takich jak

14 maja 2024

Pan Wie-Wszystko – 2023.7 W lipcowym numerze miesięcznika AI „Pan Wie-Wszystko” z 2023 r. przedstawiamy najnowsze technologie i trendy w dziedzinie sztucznej inteligencji, takie jak Claude 2, Azure OpenAI, LangChain i LlamaIndex. Szczególnie skupiamy się na szczegółowym wyjaśnieni
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 marca 2024

Moja osobista wizja krótkiej przyszłości Sztuczna inteligencja zrewolucjonizuje przyszłość programistów. AI przejmie zadania rutynowe, takie jak tworzenie prototypów czy rozwój stron internetowych, ale utalentowani programiści skupią się na rozwiązywaniu problemów strategicznych i generowaniu in
Mark Ball Blog
Mark Ball Blog
Obrazek przedstawiający wizję przyszłości
Mark Ball Blog
Mark Ball Blog

26 marca 2024

Sztuczna inteligencja przewyższająca człowieka: błogosławieństwo czy przekleństwo przyszłości? Rozwój sztucznej inteligencji (AI) budzi gorące dyskusje na temat tego, czy przyniesie ludzkości błogosławieństwo, czy przekleństwo. AI może przynieść rewolucję w medycynie, nauce, ekonomii i innych dziedzinach, ale istnieje również ryzyko utraty kontroli
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

25 maja 2024

AI Full Stack tworzony z wykorzystaniem open source W ekosystemie AI pojawiają się coraz częściej nowe modele LLM (Large Language Models) z otwartym kodem źródłowym. Mistral, Llama, phi-2 to przykłady modeli o dużej mocy i otwartych licencjach, które zostały udostępnione publicznie. Równolegle rozwijane są
RevFactory
RevFactory
RevFactory
RevFactory

5 lutego 2024

Raport NetApp dotyczący złożoności chmury w 2024 r.: Perspektywa przyszłości sztucznej inteligencji na skalę globalną - rewolucja czy zagłada? Raport NetApp dotyczący złożoności chmury analizuje różnicę między liderami AI a gorzej radzącymi sobie firmami, podkreślając, że zintegrowana infrastruktura danych jest kluczowa dla sukcesu AI. Raport podkreśla znaczenie integracji danych na podstawie pr
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 kwietnia 2024

Raport Splunk dotyczący stanu bezpieczeństwa w 2024 roku Z raportu Splunk dotyczącego stanu bezpieczeństwa w 2024 roku wynika, że 93% firm korzysta z generatywnej sztucznej inteligencji, ale 34% z nich nie opracowało jeszcze odpowiednich polityk. Generatywna sztuczna inteligencja stwarza nowe możliwości zarówno
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

13 maja 2024