![translation](https://cdn.durumis.com/common/trans.png)
To jest post przetłumaczony przez AI.
Ewolucja naszego związku z algorytmami
- Język pisania: Koreański
- •
-
Kraj referencyjny: Wszystkie kraje
- •
- TO
Wybierz język
Tekst podsumowany przez sztuczną inteligencję durumis
- Generatywna sztuczna inteligencja, w tym ChatGPT, rozwinęła się do tego stopnia, że jest w stanie zastąpić role ludzi, co rodzi problemy z naruszeniem praw twórców i wymusza przemyślenie nowego związku z algorytmami.
- Algorytmy wpływają na wiele aspektów naszego życia, a my je rozpoznajemy, jesteśmy wobec nich ciekawi i postrzegamy je jako byty aktywne.
- W szczególności generatywna sztuczna inteligencja wykorzystuje istniejące treści w procesie tworzenia wyników zgodnych z wymaganiami użytkownika, dlatego też konieczne jest ponowne zdefiniowanie relacji z algorytmami AI i rozważenie odpowiedzialności etycznej.
„Teraz mamy modele AI, które analizują ludzki język, aby wydobyć modele świata.”
W zeszłym miesiącu, 19 dnia, na wydarzeniu charytatywnym w Ontario w Kanadzie, kliniczny psycholog Jordan Peterson, profesor na Uniwersytecie w Toronto, wspomniał o ostatnich przykładach zastosowania ChatGPT, odnosząc się do napięcia, które powstanie między ludźmi a algorytmami w przyszłości. Profesor Peterson ostrzegł, że generatywne AI, czyli modele przetwarzania języka na dużą skalę, wkrótce będą w stanie samodzielnie wyciągać wzorce z obrazów i ruchów, a następnie testować je na świecie, stając się tak inteligentnymi, że będą w stanie wykonać zadania ludzkich naukowców w ciągu kilku sekund.
GPT-3, DALL-E, StableDiffusion – to obecnie podstawa prawie wszystkich systemów AI, a ich pojawienie się sygnalizuje zmianę paradygmatu w AI. Te potężne systemy, generujące obrazy i teksty na żądanie, nieuchronnie prowadzą do konfliktu z twórcami w istniejących już gałęziach przemysłu. W listopadzie ubiegłego roku firma Microsoft została pozwana za „GitHub Copilot”, oskarżając ją o naruszenie praw autorskich tysięcy autorów, którzy udostępniali kod na licencji open source w celu szkolenia AI. Ponadto Amerykańskie Stowarzyszenie Przemysłu Nagraniowego (RIAA) w październiku opublikowało oświadczenie, w którym podkreślono, że generowanie i remiksowanie muzyki opartej na AI może stanowić zagrożenie nie tylko dla praw autorskich muzyków, ale także dla ich sytuacji finansowej.
Takie przypadki przypominają o tym, czy systemy oparte na zbiorach danych wykorzystujących materiały chronione prawem autorskim do szkolenia i tworzenia wyników są rzeczywiście sprawiedliwe dla wszystkich. Należy jednak zauważyć, że wiele kontrowersji skupia się na nowym, technologicznym aspekcie. Ostatecznie to ludzie wprowadzają tekst do modelu AI, aby uzyskać pożądane rezultaty, co skłania do refleksji nad tym, jakiego rodzaju relacje powinniśmy budować z algorytmami.
Algorytmy już dawno stały się integralną częścią procesu tworzenia naszego świata, podobnie jak ludzie. Od dawna rozważaliśmy kwestię społecznego nadzoru nad nieprzejrzystością algorytmów. W szczególności byliśmy świadomi tego, że brak przejrzystości utrudnia ocenę odpowiedzialności, a ukryte uprzedzenia mogą prowadzić do niesprawiedliwych wyników. Dlatego ważniejsze pytanie brzmi: „Jak powinniśmy odnosić się do algorytmów?” – i możemy znaleźć odpowiedzi na to pytanie w relacjach z już znanymi algorytmami generującymi treści.
Po pierwsze,świadomi jesteśmy istnienia algorytmów. Słowa „rekomendacje” i „wybór” często pojawiają się w dyskusjach na temat treści i reklam, co świadczy o tym, że ludzie tworzą swoje słownictwo wokół algorytmów, które są centralne w ich doświadczeniach z zakupami online i mediach społecznościowych. Ponadtojesteśmy ciekawi algorytmów. Często zadajemy sobie pytania, dlaczego główna strona YouTube'a jest wypełniona treściami z określonych kategorii lub czemu nasza treść nie jest wystarczająco widoczna, co świadczy o naszej ciekawości dotyczącej algorytmów, często wyrażanej w negatywny sposób.
Na koniecchcemy, aby algorytmy istniały dla nas jak istoty aktywne i żywe. Zależymy od algorytmów, aby budować nowe nawyki, uczyć się, pamiętać, często starając się je w pełni kontrolować. Używamy niezwiązanych ze sobą hashtagów, włączamy tryb „nie przeszkadzać” lub wysyłamy opinie dotyczące opcji reklamowych. I kiedy wszystkie te próby okazują się nieskuteczne, decydujemy się na cyfrową detoksykację lub konsumpcję treści z biuletynów informacyjnych, aby odciąć się od algorytmów.
Podsumowując, ludzie mają tendencję do utraty zaufania, oceniania negatywnie i trzymania się przeszłości, gdy relacje z algorytmami nie przebiegają zgodnie z ich oczekiwaniami. I w znacznym stopniu przypomina to„relacje społeczne”,które budujemy na co dzień. Co więcej, podczas gdy relacje z tradycyjnymi algorytmami generującymi treści były w większości jednostronnymi relacjami w obszarze „konsumpcji”, relacje z obecnymi algorytmami AI opartymi na modelach przetwarzania języka na dużą skalę to relacje dwustronne w obszarze „tworzenia”. Ponieważ użytkownik wymaga wyników, które nie są całkowicie oryginalne, a opierają się na twórczości innych osób, należy uznać, że nasze podejście i postawa wobec algorytmów AI muszą się radykalnie zmienić.
Nawet jeśli masz otwarte okno z ChatGPT, algorytm AI po prostu czeka. Może jego niezwykłe możliwości są ukryte, a on po prostu pomaga rozkwitnąć nieujawnionym relacjom społecznym ze światem, do którego należysz, kiedy zaczynamy coś pisać.
*Ten tekst jest oryginalną wersją artykułu opublikowanego w dniu 9 stycznia 2023 r. wkolumnie elektronicznej gazety .
Odnośniki