Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Ez egy AI által fordított bejegyzés.

Byungchae Ryan Son

A vezető AI modellek paradoxona: az átláthatóság

  • Írás nyelve: Koreai
  • Referencia ország: Minden ország country-flag

Válasszon nyelvet

  • Magyar
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी

A durumis AI által összefoglalt szöveg

  • A Stanford Egyetem kutatói 10 legkorszerűbb AI rendszert vizsgáltak meg, köztük a GPT-4-et is, és megállapították, hogy hiányzik az AI modellek átláthatósága az adatgyűjtemények, a képzési módszerek stb. tekintetében.
  • Különösen az OpenAI és a Google, mint vezető AI vállalatok, nyereségorientált üzleti modelljüket követve vonakodnak az adatok közzétételétől, ami gátolhatja az AI technológia fejlődését és a jövőben monopolhelyzet kialakulásához vezethet.
  • A szakértők azt javasolják, hogy növeljék az AI modellek átláthatóságát a reprodukálhatóság biztosítása és a társadalmi felelősségvállalás erősítése érdekében, és szorgalmazzák az AI technológia fejlődésével párhuzamos társadalmi konszenzus és szabályozási vita kialakítását.

A Stanford University research team published a study on the 18th, which shows how deep and potentially dangerous the secrets of GPT-4 and other state-of-the-art AI systems are.

Bemutatjuk az alapmodell-átláthatósági indexet, Stanford Egyetem


They examined a total of 10 different AI systems, most of which were large language models, such as those used in ChatGPT and other chatbots. This includes widely used commercial models like OpenAI's GPT-4, Google's PaLM 2, and Amazon's Titan Text, including how transparently developers have disclosed the data used in model training (how data was collected and annotated, whether copyrighted materials were included, etc.). They evaluated openness based on 13 criteria. They also investigated whether they disclosed the hardware used to train and run the models, the software frameworks used, and the energy consumption of the project.


The result was that none of the AI models achieved more than 54% on the transparency scale across all criteria mentioned. Overall, Amazon's Titan Text was rated as the least transparent, while Meta's Llama 2 was selected as the most open. What's interesting is that Llama 2, a leading representative of the recent open-source versus closed-source model opposition, is an open-source model, but it did not disclose the data used in training, the data collection and curation methods, etc. This means that despite the growing influence of AI on our society, industry-related opacity is a widespread and persistent phenomenon.


This means that the AI industry is at risk of becoming a profit-oriented field rather than a field of scientific development, potentially leading to a monopolistic future dominated by certain companies.

Eric Lee/Bloomberg a Getty Imagesen keresztül


OpenAI CEO Sam Altman has already met with policymakers around the world to actively explain this unfamiliar and new intelligence to them and offer to help refine related regulations. However, he generally supports the idea of an international body overseeing AI, but also believes that some limited rules, such as prohibiting all copyrighted material from data sets, could be unfair barriers. This is clear evidence that the 'openness' embedded in the company name OpenAI has been distorted from the radical transparency it presented at its inception.


However, it is also worth noting that the results of this Stanford report show that there is no need to keep their models so secret for the sake of competition. Because the results are also an indicator of the underperformance of almost all companies. For example, it is said that no company provides statistics on how many users rely on its models, or on the region or market segment where its models are used.


In organizations that follow the principle of open source, there is a proverb, 'Many eyes make all bugs shallow.' (Linus's law) Primitive numbers help identify problems that can be solved and fixed.


However, the practice of open source tends to gradually lose its social status and value recognition within and outside of public companies, so unconditional emphasis is not very meaningful. Therefore, rather than sticking to the framework of whether the model is open or closed, it may be a better choice to focus on the discussion on gradually expanding external accessibility to the 'data' that is the basis of powerful AI models.


For scientific progress, it is important to ensure reproducibilityof specific research results. Without specifying ways to ensure transparency towards the key components of each model generation, the industry is likely to remain in a closed and stagnant monopoly situation. And this should be considered a high priority in the current and future context, where AI technology is rapidly permeating all industries.


It has become important for journalists and scientists to understand data, and transparency is a prerequisite for planned policy efforts for policymakers. Transparency is also important for the public, as the end users of AI systems, who may become victims or perpetrators of intellectual property rights, energy use, and potential problems related to bias. Sam Altman argues that the risk of human extinction caused by AI should be a global priority, like pandemics or nuclear war. However, we should not forget that the existence of our society maintaining a healthy relationship with developing AI is a prerequisite for reaching the dangerous situation he mentioned.


This article is the original text published in the electronic newspaper named column on October 23, 2023.


References


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Az OpenAI kormányzásának drámája, a mesterséges intelligencia etikai jövője Az OpenAI vezérigazgatója, Sam Altman, az igazgatóság által elbocsátották, de 5 nap múlva visszatért. Ez az esemény feltárja az OpenAI különleges struktúráját, amely az emberiség küldetését hirdeti, és a technológiai óriások potenciális veszélyeire vonatk

2024. május 14.

Az algoritmikus márkanév korszakának eljövetele Elon Musk, a Google vezérigazgatója, Sundar Pichai és az OpenAI vezérigazgatója, Sam Altman, egyaránt figyelmeztetnek a mesterséges intelligencia veszélyeire, és különböző megoldásokat kínálnak az emberiség jövőjéért. Olvasd el a 2023. április 24-i Napi G

2024. május 10.

A generatív mesterséges intelligencia 2023-ban és az emberi jelentés utána 2023-ban a mesterséges intelligencia uralta a technológiai iparágat, és jelentős változásokat hozott, mint például a generatív mesterséges intelligencia platformok váltása, a tömeg számára való ismertség növekedése és a mesterséges intelligencia szabályoz

2024. május 16.

Nyílt forráskódú AI teljes verem Az AI ökoszisztémában egyre több nyílt forráskódú LLM (nagy nyelvi modell) jelenik meg. Megjelentek a Mistral, a Llama és a phi-2, amelyek erőteljes teljesítményt és nyílt licencet kínálnak, és a használatukhoz számos eszköz is fejlesztés alatt áll. A Lan
RevFactory
RevFactory
RevFactory
RevFactory

2024. február 5.

Mr. Know-All – 2023.7 A 2023. július havi „Mr. Know-All” havi AI magazin 1. számában bemutatjuk a legújabb AI technológiákat és trendeket, mint például a Claude 2-t, az Azure OpenAI-t, a LangChaint és a LlamaIndexet. Különösen részletesen foglalkozunk a LlamaIndex által biztos
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024. március 21.

Mr. Know-All 2. szám – 2023. augusztus A vállalati belső adatok LLM-hez való betanításához bemutatjuk a PDF-fájlok feldolgozásának módját. Az OpenAI API, a LangChain és a Streamlit használatával bemutatjuk a FAISS és a ChromaDB vektoros adatbázisok integrációját. Az alábbiakban megtalálhatók a
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024. március 21.

A Gemini 1.5 Flash, GPT-4o és más LLM-ek árai A GPT-4o, a Gemini 1.5 Pro, a Claude 3 Haiku, a Gemini 1.5 Flash és más legújabb AI-modellek teljesítményének és árainak összehasonlítása, hogy megtalálja az Önnek megfelelő modellt. Találja meg a leghatékonyabb modellt a bemeneti tokenek számának, a kime
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

2024. május 18.

A Snowflake bemutatta az Arctic-ot, az iparág legjobb nyitottságú, vállalati szintű LLM-jét A Snowflake kiadta az Arctic nevű nyílt forráskódú, nagyméretű nyelvi modellt. Az Apache 2.0 licenc alatt ingyenesen kereskedelmi célra is felhasználható, és az iparág legjobb teljesítményével és hatékonyságával büszkélkedhet. Kiemelkedő token-hatékonyság
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

2024. április 25.

Az Apple OpenELM / MS Phi-3 / Meta Llama 3 nyilvánosságra hozatala Az Apple, a Microsoft és a Meta, mint a főbb technológiai óriások, nemrégiben nyilvánosságra hozták saját fejlesztésű, nagy nyelvi modelljeiket, új szelet hozva az AI iparba. A most kiadott modellek a méretcsökkentés, az adatoptimalizálás és a kontextus m
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

2024. április 27.