![translation](https://cdn.durumis.com/common/trans.png)
To jest post przetłumaczony przez AI.
Paradoks przełomowych modeli AI, przejrzystość
- Język pisania: Koreański
- •
-
Kraj referencyjny: Wszystkie kraje
- •
- TO
Wybierz język
Tekst podsumowany przez sztuczną inteligencję durumis
- Naukowcy ze Stanford University przeanalizowali 10 najnowocześniejszych systemów AI, w tym GPT-4, i odkryli, że brakuje przejrzystości w modelach AI, w tym w kwestii zestawów danych, metod uczenia się.
- Szczególnie firmy AI, takie jak OpenAI i Google, stosują modele biznesowe zorientowane na zysk, co sprawia, że są niechętne do ujawniania danych, co może hamować rozwój technologii AI i prowadzić do ekskluzywnej przyszłości.
- Eksperci argumentują, że należy zwiększyć przejrzystość modeli AI w celu zapewnienia powtarzalności i wzmocnienia odpowiedzialności społecznej, wzywając do prowadzenia dyskusji na temat porozumień społecznych i regulacji w miarę rozwoju technologii AI.
Badanie opublikowane 18 października przez naukowców ze Stanford University pokazuje, jak głębokie i potencjalnie niebezpieczne są sekrety dotyczące GPT-4 i innych zaawansowanych systemów AI.
Introducing The Foundation Model Transparency Index, Stanford University
Zbadali oni łącznie 10 różnych systemów AI, w większości duże modele językowe, takie jak te używane w ChatGPT i innych czatbotach.
Wśród nich znalazły się powszechnie używane modele komercyjne, takie jak GPT-4 od OpenAI, PaLM 2 od Google i Titan Text od
Amazon, a także oceniono ich otwartość pod względem 13 kryteriów. Obejmowały one stopień przejrzystości, w jakim programiści ujawnili
dane użyte do trenowania modeli (w tym metody gromadzenia i etykietowania danych, a także czy zawierały materiały chronione prawami
autorskimi). Badano również, czy ujawnili sprzęt używany do trenowania i uruchamiania modeli, wykorzystywane ramki programistyczne oraz
zużycie energii w projekcie.
Wyniki pokazały, że żaden z modeli AI nie osiągnął powyżej 54% w skali przejrzystości w ramach wszystkich wspomnianych kryteriów. Ogólnie Titan Text od Amazona został uznany za najmniej transparentny, a Llama 2 od Meta za najbardziej otwarty. Interesujące jest to, że Llama 2, która jest ostatnio głównym wyzwaniem w kontekście modeli otwartych i zamkniętych, mimo że jest modelem open source, nie ujawniła danych użytych do trenowania, metod gromadzenia i zarządzania danymi. Oznacza to, że mimo rosnącego wpływu AI na nasze społeczeństwo, nieprzezroczystość w tej branży jest powszechna i trwale stwierdzana.
To oznacza, że branża AI grozi przekształceniem się w dziedzinę skoncentrowaną na zyskach, a nie na postępie naukowym, co może doprowadzić do ekskluzywnej przyszłości kontrolowanej przez określone firmy.
Eric Lee/Bloomberg via Getty Images
Sam Altman, CEO OpenAI, już teraz spotyka się z politykami na całym świecie, aby wyjaśnić im tę nową i nieznaną
inteligencję i zaoferować pomoc w ukształtowaniu odpowiednich przepisów. Chociaż w zasadzie popiera pomysł międzynarodowej
agencji do nadzoru nad AI, uważa też, że niektóre ograniczone reguły, np. zakaz wszelkich materiałów chronionych prawami
autorskimi w zbiorach danych, mogą stanowić niesprawiedliwą barierę. To jasne, że „otwartość”, która jest zawarta w nazwie
firmy OpenAI, utraciła swoją pierwotną radykalną przezroczystość.
Jednak warto zwrócić uwagę na to, że wyniki tego raportu ze Stanford wskazują, że nie ma potrzeby, aby firmy trzy- mały swoje modele w tajemnicy ze względu na konkurencję. Wyniki te są również wskaźnikiem tego, że prawie wszystkie firmy nie sprawdzają się w tej kwestii. Na przykład, żadna firma nie podała statystyk na temat tego, ile osób korzysta z jej modeli lub z jakich regionów lub segmentów rynku korzystają.
W organizacjach propagujących otwarte oprogramowanie krąży powiedzenie: „Gdzie wiele oczu, tam wiele widzi” (prawo Linusa). Surowe liczby pomogą zidentyfikować problemy i naprawić je.
Jednakże praktyki open source mają skłonność do stopniowego tracenia swojego społecznego prestiżu i uznania zarówno wewnątrz firm publicznych, jak i na zewnątrz,więc bezwzględne naganianie tej kwestii nie ma wiele sensu. Dlatego, zamiast skupiać się na ramie dotyczącym tego, czy model jest otwarty, czy zamknięty, lepiej jest skoncentrować dyskusję na stopniowym rozszerzaniu dostępu zewnętrznego do „danych”, które stanowią podstawę modeli AI..
W rozwoju naukowym istotne jest zapewnienie powtarzalności (Reproducibility),czyli możliwości powtórzenia określonych wyników badawczych. To pozwoli na konkretyzację sposobów zapewnienia przezroczystości w głównych elementach tworzenia modeli. Jeśli nie zrobimy tego, branża prawdopodobnie utknie w zamkniętym i stagnującym monopolu. Należy pamiętać, że jest to ważny priorytet w obecnej sytuacji, gdy AI szybko wpływa na różne gałęzie przemysłu.
Dziennikarze i naukowcy potrzebują rozumieć dane, a przezroczystość jest wymaganiem wstępnym dla planowanych działań politycznych. Dla społeczeństwa przezroczystość również jest ważna, ponieważ jako ostateczni użytkownicy systemów AI, możemy być zarówno sprawcami, jak i ofiarami potencjalnych problemów związanych z prawami własności intelektualnej, zużyciem energii i stronniczością. Sam Altman argumentuje, że ryzyko wyginięcia ludzkości wywołane przez AI jest jednym z zagrożeń o skali społecznej, podobnie jak pandemie czy wojna nuklearna, i powinno być priorytetem globalnym. Jednak nie możemy zapomnieć, że utrzymanie trwałego istnienia naszego społeczeństwa w zdrowych relacjach z rozwijającą się AI jest konieczne do osiągnięcia tego groźnego stanu.
*Ten artykuł jest oryginalną wersją kolumny opublikowanej 23 października 2023 roku w gazecie „Dziennik Elektroniczny”.
References