To jest post przetłumaczony przez AI.
Nadchodzi era brandingu algorytmów
- Język pisania: Koreański
- •
- Kraj referencyjny: Wszystkie kraje
- •
- TO
Wybierz język
Tekst podsumowany przez sztuczną inteligencję durumis
- Elon Musk ogłosił stworzenie TruthGPT, sztucznej inteligencji dążącej do prawdy, ostrzegając przed zagrożeniami ze strony sztucznej inteligencji, a Sundar Pichai, dyrektor generalny Google'a, wezwał do przygotowania społeczeństwa na szybki rozwój sztucznej inteligencji.
- Sam Altman z OpenAI twierdzi, że jak najszybsze pojawienie się superinteligentnej sztucznej inteligencji będzie korzystne dla ludzkości. Eksperci w dziedzinie sztucznej inteligencji przedstawiają różne opinie na temat współistnienia z nią.
- Szybki rozwój sztucznej inteligencji wymusił ponowne zdefiniowanie roli i wartości człowieka. Kluczowe znaczenie ma rozwijanie sztucznej inteligencji przyjaznej dla człowieka i jej społeczne dostosowanie.
"Wiemy, że ludzkość mogłaby zdecydować się na polowanie i zabicie wszystkich szympansów."
Elon Musk wspomniał o planach rozwoju TruthGPT, AI dążącego do prawdy, w wywiadzie dla Fox News 14 kwietnia. Porównując przyszłe zachowanie sztucznej inteligencji do szympansów, przedstawił swój punkt widzenia w sposób bardziej intuicyjny niż kiedykolwiek wcześniej. To stwierdzenie nabiera szczególnego znaczenia w kontekście kontrowersji i krytyki, z jakimi boryka się Neuralink, firma neurotechnologiczna założona przez Muska w 2016 roku. Firma ta jest oskarżana o znęcanie się nad zwierzętami, ponieważ w trakcie swoich ciągłych eksperymentów polegających na wszczepianiu chipów komputerowych do mózgów małp, doprowadzała je do niesamowitego bólu i śmierci.
Macaque z wszczepionym chipem Neuralink. The Verge
Jak sama nazwa wskazuje, TruthGPT wydaje się być powiązany technologicznie z ChatGPT, co sugeruje, że jest to projekt na wczesnym etapie rozwoju, który nie stanowi jeszcze realnej alternatywy dla Google Bard czy Open AI ChatGPT. Jednak jego argumentacja dotycząca zasadności tworzenia nowego AI, które stara się zrozumieć naturę wszechświata, a tym samym zminimalizować ryzyko wyginięcia ludzkości, która jest częścią tego fascynującego wszechświata, jest przekonująca. Największym zagrożeniem ze strony sztucznej inteligencji, o którym obawia się Elon Musk, jest potencjalne zniszczenie cywilizacji.
Tego samego dnia, 14 kwietnia, w wywiadzie dla CBS, Sundar Pichai, dyrektor generalny Google, przewidział, że szybki rozwój AI wpłynie na wszystkie produkty wszystkich firm, ostrzegając jednocześnie, że społeczeństwo musi przygotować się na ewolucję dotychczasowych technologii. Przyznał jednak, że Google nie do końca rozumie, w jaki sposób AI generuje konkretne odpowiedzi. Zapytany przez prowadzącego, w jaki sposób Google mogło wypuścić sztuczną inteligencję na rynek w takim stanie, odpowiedział, że nie do końca rozumiemy, jak działa ludzki umysł.
Paul Crutzen, holenderski chemik atmosfery, laureat Nagrody Nobla w dziedzinie chemii za odkrycie dziury ozonowej, podczas Międzynarodowej Konferencji Środowiska Ziemi w Meksyku w lutym 2000 roku ogłosił, że żyjemy w antropocenie. Antropocen to okres geologiczny, którego charakterystyczne cechy zostały ukształtowane przez człowieka, a początek datuje się na rewolucję przemysłową. Zmiany w atmosferze są jednym z kryteriów definiowania tego okresu, podczas którego ludzkość zaczęła odgrywać znaczącą rolę w kształtowaniu środowiska Ziemi. W procesie rozwoju cywilizacji ludzkiej, zdolność do niszczenia środowiska Ziemi lub wpływania na przetrwanie innych gatunków pochodziła z ludzkiej inteligencji. Jednak wraz z pojawieniem się sztucznej inteligencji (AI) stoimy przed nowym wyzwaniem - miejskim obcym i potencjalnie najgroźniejszym, którego nie potrafimy opanować.
Z kolei Sam Altman, szef Open AI, podczas rozmowy z Rexem Friedmanem w jego podcaście w lutym 2023 roku, przyznał, że celem Open AI jest stworzenie ogólnej sztucznej inteligencji (AGI) przewyższającej obecny poziom w jak najkrótszym czasie. Twierdzi, że pojawienie się superinteligencji może nastąpić nagle i szybko, dlatego też stworzenie AGI, które jest bardziej zaawansowane niż obecne AI, a następnie stopniowe przejście do etapu superinteligencji przez długi czas, tworząc przyjazne dla człowieka AI, to najlepsze rozwiązanie dla ludzkości.
W kontekście trwającej na świecie „wojny” AI, te trzy osoby, które najczęściej pojawiają się w dyskusjach, wyrażają wspólne zainteresowanie tematem przyszłości życia człowieka w świecie AI. Musimy jednak pamiętać, że ostatecznym celem ich opowieści jest stworzenie systemu komputerowego, który zachowuje się w określony sposób, czyli AI. Ten rewolucyjny model jest nieubłaganie skupiony na maszynach i danych, a człowiek, który w przeszłości odgrywał ważną rolę, może być postrzegany jako dostawca danych do zaspokojenia potrzeb coraz bardziej autonomicznych systemów. W tym kontekście, paradoksalnie, zwiększenie zainteresowania prawdą i dyskusja o niej, o których wspomniał Musk, stają się jeszcze ważniejsze dla ludzkości. Należy zastanowić się, jak pomóc osobom znikającym z rynku pracy w odzyskaniu poczucia własnej wartości i wzmocnieniu aktywności, jakie kryteria i metody można zastosować w tym celu, czy człowiek nadal będzie podmiotem nadającym sens naszym doświadczeniom, i jakie mechanizmy instytucjonalne i społecznościowe mogą nam w tym pomóc.
Branding to deklaracja, że znajdujesz się na tej samej ścieżce, co twoi klienci. Być może obecnie obserwujemy trzy różne podejścia do brandingu algorytmów AI, oparte na przetrwaniu ludzkości. „Przeniesienie uwagi na kosmos” Muska w celu ochrony ludzkości, „adaptacja społeczna w erze fałszywych informacji” Pichaia i „harmonogram rozwoju przyjaznego dla człowieka AI” Altmana - który z tych algorytmów jest dla Ciebie najbardziej atrakcyjny?
*Ten artykuł jest oryginalnym tekstem opublikowanym w dniu 24 kwietnia 2023 roku wKolumna elektroniczna.
Bibliografia