"Wiemy, że ludzkość mogłaby zdecydować o wytropieniu i zabiciu wszystkich szympansów."
Elon Musk, w wywiadzie dla Fox News z 14 kwietnia, wspomniał o planach rozwoju TruthGPT, sztucznej inteligencji dążącej do prawdy, i wyraził swoje obawy dotyczące przyszłego traktowania ludzi przez sztuczną inteligencję, posługując się przykładem szympansów w sposób bardziej intuicyjny dla odbiorców niż jakakolwiek poprzednia próba wyjaśnienia. Te słowa nabierają dodatkowego znaczenia w kontekście kontrowersji i krytyki, z którymi boryka się Neuralink, startup z dziedziny neurotechnologii założony przez niego w 2016 roku. Neuralink wielokrotnie poddawał małpy ekstremalnemu bólowi podczas wszczepiania komputerowych chipów do ich mózgów, co doprowadziło do śmierci zwierząt i wywołało oskarżenia o znęcanie się nad nimi.
Małpa z wszczepionym chipem Neuralink. The Verge
Nazwa TruthGPT sugeruje związek technologiczny z ChatGPT, co wskazuje, że na obecnym etapie jest to projekt na wczesnym etapie planowania, a nie gotowa alternatywa dla Bard od Google'a czy ChatGPT od Open AI. Jednakże jego argumentacja na rzecz rozwoju tej nowej sztucznej inteligencji, czyli że stworzenie sztucznej inteligencji starającej się zrozumieć naturę wszechświata zmniejszy prawdopodobieństwo eksterminacji ludzi, którzy są fascynującą częścią wszechświata, jest wystarczająco przekonująca. Największym zagrożeniem ze strony sztucznej inteligencji, o którym obawia się Elon Musk, jest potencjał do zniszczenia cywilizacji.
Tego samego dnia, 14 kwietnia, w wywiadzie dla CBS, Sundar Pichai, dyrektor generalny Google, przewidział, że szybki rozwój sztucznej inteligencji wpłynie na wszystkie produkty wszystkich firm i zaapelował do społeczeństwa o przygotowanie się na zmiany, jakie niesie ze sobą ewolucja technologii. Przyznał jednak, że Google nie do końca rozumie, w jaki sposób sztuczna inteligencja generuje konkretne odpowiedzi. Na pytanie prowadzącego, jak Google może wypuszczać sztuczną inteligencję na rynek w takim stanie, Pichai odpowiedział, że nie rozumiemy do końca, jak działa ludzki umysł.
Paul Crutzen, holenderski chemik atmosfery, laureat Nagrody Nobla za odkrycie dziury ozonowej, podczas Międzynarodowej Konferencji na temat Środowiska Ziemi w Meksyku w lutym 2000 roku stwierdził, że żyjemy w antropocenie. Antropocen to epoka geologiczna ukształtowana przez człowieka, a biorąc pod uwagę zmiany w atmosferze, można ją określić jako okres od rewolucji przemysłowej, w którym ludzkość wywiera ogromny wpływ na środowisko Ziemi. Ta zdolność do niszczenia środowiska Ziemi lub decydowania o przetrwaniu innych gatunków w trakcie rozwoju cywilizacji ludzkiej wynika z ludzkiej inteligencji. Jednakże obecnie pojawiła się sztuczna inteligencja (AI) i jesteśmy zmuszeni mierzyć się z tym nieznanym i potencjalnie najbardziej niebezpiecznym bytem, którego wprowadziliśmy do społeczeństwa bez wcześniejszych doświadczeń.
Z drugiej strony, Sam Altman, szef Open AI, w rozmowie z Lexem Friedmanem w jego podcaście 26 marca, ogłosił, że celem firmy jest jak najszybsze stworzenie sztucznej inteligencji ogólnego przeznaczenia (AGI), która przewyższałaby obecny poziom rozwoju. Uważa on, że moment, w którym sztuczna inteligencja osiągnie superinteligencję, może nastąpić nagle i szybko. Dlatego też, według niego, najlepszym rozwiązaniem dla ludzkości jest jak najszybsze stworzenie AGI, czyli sztucznej inteligencji o poziomie wyższym od obecnego, a następnie wykorzystanie czasu, który minie przed osiągnięciem superinteligencji, na rozwój sztucznej inteligencji przyjaznej człowiekowi.
W trwającej obecnie na świecie wojnie o sztuczną inteligencję, te trzy osoby najczęściej wymieniane w dyskusjach, wykazują wspólne zainteresowanie tematem życia człowieka w dobie sztucznej inteligencji. Jednakże musimy pamiętać, że ostatecznym celem ich narracji jest stworzenie systemu obliczeniowego, czyli sztucznej inteligencji, wykazującego określone zachowania. Ten innowacyjny model jest bezwzględnie skoncentrowany na maszynach i danych, a osoby, które były ważne w poprzednich epokach, mogą być postrzegane jako dostawcy danych służących zaspokojeniu potrzeb autonomicznych systemów. Z tego powodu, paradoksalnie, kluczowe znaczenie będzie miało ponowne skierowanie uwagi na ludzkość, w nawiązaniu do zainteresowania prawdą wyrażonego przez Muska. Jakie kryteria i metody mogą pomóc ludziom, których zawody znikają, odnaleźć i jeszcze bardziej rozwinąć swoją tożsamość? Czy nadal będziemy mogli przypisywać znaczenie swoim doświadczeniom? Jakie instytucje i społeczności powinny podejmować działania, by pomóc nam nie zapomnieć o tej świadomości? Na te pytania musimy odpowiedzieć.
Branding to deklaracja, że znajdujemy się na tej samej drodze co nasi klienci. Być może obecnie obserwujemy próby stworzenia trzech algorytmów brandingu AI opartych na przetrwaniu gatunku ludzkiego. Który z algorytmów preferujesz: "przeniesienie zainteresowania w kosmos" Muska w celu zachowania ludzkości, "adaptacja społeczeństwa do ery fałszywych i sfabrykowanych informacji" Pichai'a czy "harmonogram rozwoju przyjaznej człowiekowi AI" Altmana?
*Ten artykuł jest oryginalną wersją artykułu opublikowanego 24 kwietnia 2023 r. w kolumnie gazety elektronicznej.
Bibliografia
Komentarze0