Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Dit is een door AI vertaalde post.

Byungchae Ryan Son

De paradox van toonaangevende AI-modellen: transparantie

Selecteer taal

  • Nederlands
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • हिन्दी
  • Magyar

Samengevat door durumis AI

  • Onderzoekers van Stanford University hebben 10 geavanceerde AI-systemen geanalyseerd, waaronder GPT-4, en ontdekt dat AI-modellen een gebrek aan transparantie vertonen wat betreft datasets, trainingsmethoden, etc.
  • Met name OpenAI, Google en andere belangrijke AI-bedrijven nemen een terughoudende houding aan wat betreft het openbaar maken van gegevens, omdat ze een op winst gerichte bedrijfsmodel nastreven. Dit kan de ontwikkeling van AI-technologie belemmeren en leiden tot een monopoliepositie in de toekomst.
  • Experts pleiten voor meer transparantie in AI-modellen om reproduceerbaarheid te waarborgen en sociale verantwoordelijkheid te versterken. Ze roepen op tot maatschappelijk overleg en regelgeving naast de ontwikkeling van AI-technologie.

Een onderzoek dat op 18 augustus werd gepubliceerd door onderzoekers van Stanford University laat zien hoe diep en potentieel gevaarlijk het geheim is van GPT-4 en andere geavanceerde AI-systemen.

Introducing The Foundation Model Transparency Index, Stanford University


Ze onderzochten in totaal 10 verschillende AI-systemen, waarvan de meeste grote taalmodellen waren, zoals die die worden gebruikt in ChatGPT en andere chatbots. Dit omvatte veelgebruikte commerciële modellen, zoals GPT-4 van OpenAI, PaLM 2 van Google en Titan Text van Amazon. Ze beoordeelden de openheid van de systemen op 13 criteria, waaronder de transparantie van de ontwikkelaars over de gegevens die werden gebruikt om de modellen te trainen (inclusief de methoden voor het verzamelen en annoteren van gegevens en of er auteursrechtelijk beschermd materiaal is opgenomen). Ze onderzochten ook of de ontwikkelaars informatie openbaarden over de hardware die werd gebruikt om de modellen te trainen en uit te voeren, de softwareframeworks die werden gebruikt en het energieverbruik van het project.


De bevindingen waren dat geen enkel AI-model meer dan 54% scoorde op de transparantiecijfers over alle genoemde criteria. Over het algemeen scoorde Titan Text van Amazon het laagst op transparantie en werd Llama 2 van Meta het meest open beoordeeld. Interessant is dat Llama 2, die als een prominente speler in de recente controverse tussen open en gesloten modellen wordt beschouwd, ondanks zijn open-source-status niet de gegevens heeft vrijgegeven die werden gebruikt voor het trainen, inclusief de methoden voor het verzamelen en cureren van gegevens. Dit betekent dat de industrie nog steeds een wijdverbreid en voortdurend probleem heeft met ondoorzichtigheid, zelfs terwijl AI een steeds grotere invloed heeft op onze samenleving.


Dit betekent dat er een risico is dat de AI-industrie een sector wordt die meer gericht is op winst dan op wetenschappelijke vooruitgang, wat zou kunnen leiden tot een monopolie-achtige toekomst gedomineerd door een paar bedrijven..

Eric Lee/Bloomberg via Getty Images


De CEO van OpenAI, Sam Altman, heeft al publiekelijk verklaard dat hij wereldwijde beleidsmakers ontmoet om hen te informeren over deze vreemde en nieuwe intelligentie en om hen te helpen bij het concretiseren van relevante regelgeving. Hoewel hij in principe een internationale organisatie steunt die AI ​​regelt, gelooft hij dat sommige beperkte regels, zoals het verbieden van al het auteursrechtelijk beschermde materiaal uit datasets, een onredelijke hindernis zouden kunnen vormen. De naam 'OpenAI' impliceert een 'openheid' die duidelijk afwijkt van de radicale transparantie die ze oorspronkelijk beoogden.


Maar de bevindingen van het Stanford-rapport benadrukken ook dat er geen noodzaak is om hun modellen zo geheimzinnig te houden vanwege concurrentie. De bevindingen zijn immers ook een indicator van de slechte prestaties van bijna alle bedrijven. Er zijn bijvoorbeeld geen bedrijven die statistische gegevens verstrekken over het aantal gebruikers dat afhankelijk is van hun modellen of over de regio's of marktsegmenten die hun modellen gebruiken.


Er is een gezegde binnen open-source organisaties: 'Veel ogen zien alle bugs' (Linus's law). Ruwe cijfers helpen problemen te identificeren en te corrigeren.


Maar open-source-praktijken hebben de neiging om geleidelijk de sociale status en erkenning van openbare bedrijven, zowel intern als extern, te ondermijnen., dus het is niet zinvol om ze te overdrijven. In plaats van te focussen op het kader van open versus gesloten modellen, zou het beter zijn om de discussie te richten op het geleidelijk uitbreiden van de externe toegang tot de 'gegevens' die ten grondslag liggen aan krachtige AI-modellen..


Voor wetenschappelijke vooruitgang is het belangrijk om de reproduceerbaarheid (Reproducibility) van specifieke onderzoeksresultaten te garanderen.. Dit zou kunnen leiden tot concrete maatregelen om de transparantie te waarborgen voor de belangrijkste componenten van de modelcreatie. Zonder dit zal de industrie waarschijnlijk vast komen te zitten in een gesloten en stagnerende monopolie-achtige situatie. En dat is iets wat we moeten beschouwen als een belangrijke prioriteit gezien de huidige en toekomstige snelle penetratie van AI-technologie in alle sectoren.


Het is belangrijk voor journalisten en wetenschappers om gegevens te begrijpen, en transparantie is een voorwaarde voor geplande beleidsinspanningen voor beleidsmakers. Voor het publiek is transparantie ook belangrijk omdat ze, als eindgebruikers van AI-systemen, potentiële slachtoffers of daders kunnen zijn met betrekking tot intellectuele eigendom, energieverbruik en potentiële problemen met vooroordelen. Sam Altman beargumenteert dat het risico van uitsterven door AI ​​een wereldwijde prioriteit moet worden, vergelijkbaar met sociale risico's op schaal, zoals pandemieën of nucleaire oorlog. Maar we mogen niet vergeten dat een gezonde relatie met AI ​​essentieel is voor het voortbestaan van onze samenleving voordat we die gevaarlijke situatie bereiken.


*Dit artikel is de originele versie van een column die op 23 oktober 2023 in de elektronische krant werd gepubliceerd.


Referenties


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Het governance-drama van OpenAI: De ethische toekomst van AI De gebeurtenis waarbij Sam Altman, de CEO van OpenAI, door de raad van bestuur werd ontslagen, maar na vijf dagen terugkeerde, legt de vreemde structuur van OpenAI, dat een missie voor de mensheid beoogt, bloot en roept zorgen op over de potentiële risico

14 mei 2024

De kern van werk is 'Hybride'. OpenAI, de ontwikkelaar van ChatGPT, was in mei de 17e meest populaire website ter wereld, met meer bezoeken dan Netflix en LinkedIn. Met name door de lancering van de mobiele app is generatieve AI de fysieke beperking van het scherm ontsnapt en dichterbi

13 mei 2024

De betekenis van de mens in 2023 en daarna, in het tijdperk van generatieve AI 2023 was een jaar waarin AI de gehele technologische industrie overnam, wat leidde tot belangrijke veranderingen, waaronder de overgang naar generatieve AI-platforms, toegenomen bekendheid bij het publiek en overeenstemming over wetgeving inzake AI-regelg

16 mei 2024

AI Full Stack voltooien met open source In de AI-ecosysteem duiken steeds meer open source LLM (Large Language Model)-modellen op. Mistral, Llama, phi-2, en andere krachtige modellen met een open licentie zijn uitgebracht, en er worden verschillende tools ontwikkeld om deze te gebruiken. LangCh
RevFactory
RevFactory
RevFactory
RevFactory

5 februari 2024

Mr. Know-All – 2023.7 De eerste editie van het AI-maandblad "Mr. Know-All" van juli 2023 presenteert de nieuwste AI-technologieën en trends, zoals Claude 2, Azure OpenAI, LangChain en LlamaIndex. In het bijzonder wordt een gedetailleerde beschrijving gegeven van LlamaIndex, da
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 maart 2024

OpenELM van Apple / Phi-3 van MS / Llama 3 van Meta openbaar Apple, Microsoft en Meta, enkele van de grootste techbedrijven, hebben onlangs hun eigen grote taalmodellen openbaar gemaakt en zorgen voor een frisse wind in de AI-industrie. De modellen die nu zijn uitgebracht, zijn geëvolueerd in verschillende richting
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

27 april 2024

Wat is een LLM (Large Language Model)? Een groot taalmodel (LLM) is een kerntechnologie van kunstmatige intelligentie die enorme hoeveelheden tekstgegevens leert om menselijke taalverwerkingsvaardigheden te ontwikkelen. Het kan worden gebruikt in een verscheidenheid van gebieden, waaronder cha
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 april 2024

Snowflake lanceert 'Arctic', een enterprise-grade LLM met de hoogste openheid in de branche Snowflake heeft 'Arctic', een open-source groot taalmodel, gelanceerd. Arctic is beschikbaar onder de Apache 2.0-licentie voor gratis commercieel gebruik en biedt de beste prestaties en efficiëntie in de branche. Het biedt uitstekende token-efficiëntie en
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 april 2024

Mr. Know-All 6 - maart 2024 We stellen LM Studio voor, een platform waarmee je open-source LLM's zoals LLaMa, Falcon, MPT en StarCoder lokaal kunt uitvoeren, en diverse AI-tools en -services, waaronder Devin, een AI-software-engineer, en crewAI, een platform voor automatisering met
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 maart 2024