Byungchae Ryan Son

Zmiana naszego związku z algorytmami

  • Język oryginalny: Koreański
  • Kraj: Wszystkie krajecountry-flag
  • TO

Utworzono: 2024-05-09

Utworzono: 2024-05-09 15:01

„Mamy teraz model AI, który analizuje język ludzki i wyodrębnia modele świata.”


Podczas wydarzenia charytatywnego, które odbyło się 19 listopada w Ontario w Kanadzie, kliniczny psycholog i profesor Uniwersytetu w Toronto, Jordan Peterson, odniósł się do ostatnich przykładów zastosowania ChatGPT i do nowego napięcia, jakie algorytmy będą generować w relacjach z ludźmi w przyszłości. Profesor Peterson ostrzegł, że generatywna sztuczna inteligencja, czyli modele przetwarzania języka naturalnego o dużej skali, wkrótce będzie w stanie wykorzystywać obrazy i ruchy do samodzielnego wyodrębniania wzorców, a następnie testować je w świecie, stając się tak inteligentną, że będzie w stanie zastąpić pracę naukowców w ciągu kilku sekund.


GPT-3, DALL-E, StableDiffusion – to obecnie podstawa niemal wszystkich systemów AI i wizualizacja zmiany paradygmatu w tej dziedzinie. Te potężne systemy, generujące obrazy i tekst na żądanie użytkownika, nieuchronnie prowadzą do konfliktów z twórcami w istniejących branżach. W listopadzie ubiegłego roku firma Microsoft, za pośrednictwem swojego narzędzia GitHub Copilot (GitHubCopilot), stanęła w obliczu zbiorowego pozwu o naruszenie praw autorskich licznych programistów, którzy udostępnili swoje kody na licencji open source w celu uczenia AI. Z kolei Amerykańskie Stowarzyszenie Przemysłu Fonograficznego (RIAA) w swoim oświadczeniu z października ubiegłego roku podkreśliło, że generowanie i remiksowanie muzyki przy użyciu AI może zagrozić nie tylko prawom muzyków, ale i ich sytuacji finansowej.


Te przykłady skłaniają do refleksji nad tym, czy metody szkolenia systemów i generowania wyników na podstawie chronionych prawem materiałów są sprawiedliwe dla wszystkich. Warto jednak zauważyć, że wiele z tych dyskusji koncentruje się na aspektach technologicznych. Ostatecznie, to ludzie wprowadzają tekst do modelu AI, aby uzyskać pożądane wyniki, dlatego powinniśmy przede wszystkim zainteresować się tym, jaki charakter powinny przyjąć relacje między ludźmi a algorytmami.


Algorytmy są już jednym z czynników kształtujących nasz świat, podobnie jak ludzie. Od dawna bierzemy pod uwagę kwestię społecznej kontroli nad brakiem przejrzystości algorytmów. W szczególności zdawaliśmy sobie sprawę z trudności w ocenie odpowiedzialności w przypadku braku przejrzystości oraz z obaw związanych z możliwością utrwalania się uprzedzeń, co mogłoby prowadzić do niesprawiedliwych wyników. Dlatego pytanie „jak powinniśmy traktować algorytmy?” może być kluczowe, a wskazówki na jego rozwiązanie możemy znaleźć w naszych doświadczeniach z algorytmami generującymi treści (content-generating algorithm).


Po pierwsze, świadomi jesteśmy istnienia algorytmów. Częste używanie słów „rekomendacje” i „wybór” w kontekście rozmów o treściach i reklamach pokazuje, że ludzie budują swoje słownictwo wokół algorytmów w kontekście zakupów online lub mediów społecznościowych. Ponadto jesteśmy ciekawi algorytmów. Często zastanawiamy się, dlaczego strona główna YouTube’a jest wypełniona treściami z konkretnych kategorii lub dlaczego nasze posty nie zyskują wystarczającej liczby wyświetleń, wyrażając swoje zainteresowanie algorytmami w formie negatywnych reakcji.


Na koniec chcemy, aby algorytmy były aktywne i żywe, istniejące dla nas. Często polegamy na algorytmach, aby wyrobić nowe nawyki, uczyć się, pamiętać. Próbujemy je całkowicie kontrolować. Używanie pozornie niepowiązanych hashtagów, włączanie trybu „Nie przeszkadzać” lub wysyłanie opinii na temat opcji reklamowych. A kiedy te próby kończą się niepowodzeniem, podejmujemy próby zerwania więzi z algorytmami, np. rezygnując z mediów cyfrowych lub czytając biuletyny.


Podsumowując, gdy relacje z algorytmami nie przebiegają zgodnie z naszymi oczekiwaniami, ludzie mają tendencję do utraty zaufania, negatywnej oceny i skupiania się na przeszłości. Jest to w dużej mierze podobne do naszych codziennych 'relacji społecznych'. Ponadto, jeśli relacje z dotychczasowymi algorytmami generującymi treści były w większości jednokierunkowe i związane z „konsumpcją”, to relacje z obecnymi modelami AI przetwarzającymi język naturalny w dużej skali można określić jako dwukierunkowe i związane z „generowaniem”. Ponieważ oczekiwane wyniki użytkownika nie są całkowicie oryginalne, ale oparte na czyichś utworach, musimy zdać sobie sprawę z tego, że nasza postawa i podejście do algorytmów generujących AI muszą się zasadniczo zmienić.


Nawet jeśli masz otwarte okno ChatGPT, algorytm AI po prostu czeka. Być może jego niesamowite możliwości są tylko fasadą, a w rzeczywistości, gdy zaczynasz coś pisać, pomaga Ci rozwinąć ukrytą relację społeczną z inną osobą w Twoim świecie.


*Ten artykuł jest oryginalną wersją opublikowaną 9 stycznia 2023 r. w kolumnie gazety elektronicznej.


Odnośniki


Komentarze0