Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

To jest post przetłumaczony przez AI.

Byungchae Ryan Son

Paradoks przełomowych modeli AI, przejrzystość

  • Język pisania: Koreański
  • Kraj referencyjny: Wszystkie kraje country-flag

Wybierz język

  • Polski
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Nederlands
  • हिन्दी
  • Magyar

Tekst podsumowany przez sztuczną inteligencję durumis

  • Naukowcy ze Stanford University przeanalizowali 10 najnowocześniejszych systemów AI, w tym GPT-4, i odkryli, że brakuje przejrzystości w modelach AI, w tym w kwestii zestawów danych, metod uczenia się.
  • Szczególnie firmy AI, takie jak OpenAI i Google, stosują modele biznesowe zorientowane na zysk, co sprawia, że ​​są niechętne do ujawniania danych, co może hamować rozwój technologii AI i prowadzić do ekskluzywnej przyszłości.
  • Eksperci argumentują, że należy zwiększyć przejrzystość modeli AI w celu zapewnienia powtarzalności i wzmocnienia odpowiedzialności społecznej, wzywając do prowadzenia dyskusji na temat porozumień społecznych i regulacji w miarę rozwoju technologii AI.

Badanie opublikowane 18 października przez naukowców ze Stanford University pokazuje, jak głębokie i potencjalnie niebezpieczne są sekrety dotyczące GPT-4 i innych zaawansowanych systemów AI.

Introducing The Foundation Model Transparency Index, Stanford University


Zbadali oni łącznie 10 różnych systemów AI, w większości duże modele językowe, takie jak te używane w ChatGPT i innych czatbotach. Wśród nich znalazły się powszechnie używane modele komercyjne, takie jak GPT-4 od OpenAI, PaLM 2 od Google i Titan Text od Amazon, a także oceniono ich otwartość pod względem 13 kryteriów. Obejmowały one stopień przejrzystości, w jakim programiści ujawnili dane użyte do trenowania modeli (w tym metody gromadzenia i etykietowania danych, a także czy zawierały materiały chronione prawami autorskimi). Badano również, czy ujawnili sprzęt używany do trenowania i uruchamiania modeli, wykorzystywane ramki programistyczne oraz zużycie energii w projekcie.


Wyniki pokazały, że żaden z modeli AI nie osiągnął powyżej 54% w skali przejrzystości w ramach wszystkich wspomnianych kryteriów. Ogólnie Titan Text od Amazona został uznany za najmniej transparentny, a Llama 2 od Meta za najbardziej otwarty. Interesujące jest to, że Llama 2, która jest ostatnio głównym wyzwaniem w kontekście modeli otwartych i zamkniętych, mimo że jest modelem open source, nie ujawniła danych użytych do trenowania, metod gromadzenia i zarządzania danymi. Oznacza to, że mimo rosnącego wpływu AI na nasze społeczeństwo, nieprzezroczystość w tej branży jest powszechna i trwale stwierdzana.


To oznacza, że branża AI grozi przekształceniem się w dziedzinę skoncentrowaną na zyskach, a nie na postępie naukowym, co może doprowadzić do ekskluzywnej przyszłości kontrolowanej przez określone firmy.

Eric Lee/Bloomberg via Getty Images


Sam Altman, CEO OpenAI, już teraz spotyka się z politykami na całym świecie, aby wyjaśnić im tę nową i nieznaną inteligencję i zaoferować pomoc w ukształtowaniu odpowiednich przepisów. Chociaż w zasadzie popiera pomysł międzynarodowej agencji do nadzoru nad AI, uważa też, że niektóre ograniczone reguły, np. zakaz wszelkich materiałów chronionych prawami autorskimi w zbiorach danych, mogą stanowić niesprawiedliwą barierę. To jasne, że „otwartość”, która jest zawarta w nazwie firmy OpenAI, utraciła swoją pierwotną radykalną przezroczystość.


Jednak warto zwrócić uwagę na to, że wyniki tego raportu ze Stanford wskazują, że nie ma potrzeby, aby firmy trzy- mały swoje modele w tajemnicy ze względu na konkurencję. Wyniki te są również wskaźnikiem tego, że prawie wszystkie firmy nie sprawdzają się w tej kwestii. Na przykład, żadna firma nie podała statystyk na temat tego, ile osób korzysta z jej modeli lub z jakich regionów lub segmentów rynku korzystają.


W organizacjach propagujących otwarte oprogramowanie krąży powiedzenie: „Gdzie wiele oczu, tam wiele widzi” (prawo Linusa). Surowe liczby pomogą zidentyfikować problemy i naprawić je.


Jednakże praktyki open source mają skłonność do stopniowego tracenia swojego społecznego prestiżu i uznania zarówno wewnątrz firm publicznych, jak i na zewnątrz,więc bezwzględne naganianie tej kwestii nie ma wiele sensu. Dlatego, zamiast skupiać się na ramie dotyczącym tego, czy model jest otwarty, czy zamknięty, lepiej jest skoncentrować dyskusję na stopniowym rozszerzaniu dostępu zewnętrznego do „danych”, które stanowią podstawę modeli AI..


W rozwoju naukowym istotne jest zapewnienie powtarzalności (Reproducibility),czyli możliwości powtórzenia określonych wyników badawczych. To pozwoli na konkretyzację sposobów zapewnienia przezroczystości w głównych elementach tworzenia modeli. Jeśli nie zrobimy tego, branża prawdopodobnie utknie w zamkniętym i stagnującym monopolu. Należy pamiętać, że jest to ważny priorytet w obecnej sytuacji, gdy AI szybko wpływa na różne gałęzie przemysłu.


Dziennikarze i naukowcy potrzebują rozumieć dane, a przezroczystość jest wymaganiem wstępnym dla planowanych działań politycznych. Dla społeczeństwa przezroczystość również jest ważna, ponieważ jako ostateczni użytkownicy systemów AI, możemy być zarówno sprawcami, jak i ofiarami potencjalnych problemów związanych z prawami własności intelektualnej, zużyciem energii i stronniczością. Sam Altman argumentuje, że ryzyko wyginięcia ludzkości wywołane przez AI jest jednym z zagrożeń o skali społecznej, podobnie jak pandemie czy wojna nuklearna, i powinno być priorytetem globalnym. Jednak nie możemy zapomnieć, że utrzymanie trwałego istnienia naszego społeczeństwa w zdrowych relacjach z rozwijającą się AI jest konieczne do osiągnięcia tego groźnego stanu.


*Ten artykuł jest oryginalną wersją kolumny opublikowanej 23 października 2023 roku w gazecie „Dziennik Elektroniczny”.


References


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Dram w zarządzie OpenAI, etyczny przyszłość AI Zwolnienie przez radę dyrektorów Sama Altmana, dyrektora generalnego OpenAI, który powrócił po zaledwie 5 dniach, ujawniło niezwykłą strukturę OpenAI, która deklaruje misję na rzecz ludzkości, oraz budzące obawy potencjalne zagrożenia ze strony gigantyczn

14 maja 2024

Sztuczna inteligencja generatywna w 2023 roku i znaczenie człowieka w przyszłości Rok 2023 był rokiem, w którym sztuczna inteligencja (AI) zdominowała branżę technologiczną, przynosząc znaczące zmiany, takie jak przejście na platformy AI generatywnych, wzrost powszechności AI oraz osiągnięcie porozumienia w kwestii regulacji AI. W 2024

16 maja 2024

Głównym elementem pracy jest "Hybryda". OpenAI, twórca ChatGPT, w maju stał się 17. najpopularniejszą witryną internetową na świecie, notując większą liczbę odwiedzin niż Netflix czy Linkedin. Zwłaszcza wprowadzenie aplikacji mobilnej sprawiło, że generatywna AI wyszła poza fizyczne ograniczeni

13 maja 2024

AI Full Stack tworzony z wykorzystaniem open source W ekosystemie AI pojawiają się coraz częściej nowe modele LLM (Large Language Models) z otwartym kodem źródłowym. Mistral, Llama, phi-2 to przykłady modeli o dużej mocy i otwartych licencjach, które zostały udostępnione publicznie. Równolegle rozwijane są
RevFactory
RevFactory
RevFactory
RevFactory

5 lutego 2024

Pan Wie-Wszystko – 2023.7 W lipcowym numerze miesięcznika AI „Pan Wie-Wszystko” z 2023 r. przedstawiamy najnowsze technologie i trendy w dziedzinie sztucznej inteligencji, takie jak Claude 2, Azure OpenAI, LangChain i LlamaIndex. Szczególnie skupiamy się na szczegółowym wyjaśnieni
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 marca 2024

Pan Wszystkowiedzący 2 – sierpień 2023 Zajmiemy się przetwarzaniem plików PDF w celu uczenia się LLM na danych wewnętrznych firmy. Omówimy proces integracji wektorowych magazynów danych FAISS i ChromaDB przy użyciu interfejsu API OpenAI, LangChain i Streamlit. Podamy informacje o repozytorium
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 marca 2024

Co to jest LLM (Large Language Model)? Duże modele językowe (LLM) to kluczowa technologia sztucznej inteligencji, która uczy się ogromnych ilości danych tekstowych, aby zdobyć zdolności przetwarzania języka podobne do ludzkich. Mogą być wykorzystywane w różnych dziedzinach, takich jak chatboty
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 kwietnia 2024

Publiczne wersje modeli językowych OpenELM firmy Apple, Phi-3 firmy Microsoft i Llama 3 firmy Meta Najważniejsze firmy technologiczne, takie jak Apple, Microsoft i Meta, niedawno udostępniły własne, rozbudowane modele językowe, wsprowadzając świeży powiew do branży sztucznej inteligencji. Modele te, wprowadzone w ostatnim czasie, ewoluują w różnych kie
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

27 kwietnia 2024

Snowflake uruchamia „Arctic”, firmowy model językowy klasy korporacyjnej o najwyższym poziomie otwartości Snowflake wprowadził na rynek „Arctic”, otwartoźródłowy model językowy o dużej skali. Dostępny jest on na licencji Apache 2.0 i pozwala na bezpłatne wykorzystywanie komercyjne. „Arctic” charakteryzuje się najlepszymi w branży wydajnością i efektywnością.
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 kwietnia 2024