Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Questo è un post tradotto da IA.

Byungchae Ryan Son

Il paradosso dei modelli AI leader, la trasparenza

Seleziona la lingua

  • Italiano
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Testo riassunto dall'intelligenza artificiale durumis

  • I ricercatori della Stanford University hanno analizzato 10 sistemi AI all'avanguardia, tra cui GPT-4, e hanno scoperto che la trasparenza dei modelli AI, come set di dati e metodi di apprendimento, è carente.
  • In particolare, le principali aziende AI come OpenAI e Google stanno adottando un atteggiamento riluttante nella divulgazione dei dati, perseguendo modelli aziendali incentrati sui profitti, il che potrebbe ostacolare lo sviluppo della tecnologia AI e portare a un futuro esclusivo.
  • Gli esperti sostengono che la trasparenza dei modelli AI dovrebbe essere aumentata per garantire la riproducibilità e rafforzare la responsabilità sociale, sollecitando il dibattito su accordi sociali e regolamenti di pari passo con lo sviluppo della tecnologia AI.

Uno studio pubblicato il 18 agosto dai ricercatori della Stanford University mostra quanto siano profondi e potenzialmente pericolosi i segreti dietro GPT-4 e altri sistemi di intelligenza artificiale all'avanguardia.

Presentazione dell'indice di trasparenza dei modelli di fondazione, Università di Stanford


Hanno esaminato un totale di 10 diversi sistemi di intelligenza artificiale, la maggior parte dei quali erano modelli linguistici di grandi dimensioni come quelli utilizzati per ChatGPT e altri chatbot. Questo include modelli commerciali ampiamente utilizzati come GPT-4 di OpenAI, PaLM 2 di Google e Titan Text di Amazon. Hanno valutato la trasparenza in base a 13 criteri, inclusi quanto i sviluppatori sono stati trasparenti sui dati utilizzati per addestrare i modelli (inclusi i metodi di raccolta e annotazione dei dati e se sono stati inclusi materiali protetti da copyright). Hanno anche esaminato se sono stati pubblicati i dettagli sull'hardware utilizzato per addestrare ed eseguire i modelli, i framework software utilizzati e il consumo energetico del progetto.


I risultati hanno mostrato che nessun modello di intelligenza artificiale ha raggiunto oltre il 54% nella scala di trasparenza su tutti i criteri citati. Nel complesso, Titan Text di Amazon è stato classificato come il meno trasparente, mentre Llama 2 di Meta è stato classificato come il più aperto. È interessante notare che Llama 2, un modello di punta sia per i modelli di apertura che per quelli chiusi, è un modello open source, ma non ha divulgato i dati utilizzati per l'addestramento, i metodi di raccolta e cura dei dati. Ciò significa che, nonostante l'influenza crescente dell'intelligenza artificiale sulla nostra società, l'opacità del settore è un fenomeno diffuso e persistente.


Ciò significa chec'è il rischio che il settore dell'intelligenza artificiale diventi un'area incentrata sul profitto piuttosto che sul progresso scientifico, e che ciò possa portare a un futuro dominato da monopoli guidati da specifiche aziende..

Eric Lee/Bloomberg via Getty Images


Il CEO di OpenAI, Sam Altman, ha già incontrato responsabili politici di tutto il mondo per spiegare loro questa nuova intelligenza sconosciuta e offrire il suo aiuto per la definizione di regolamenti in materia. Sebbene sostengo in linea di principio l'idea di un'organizzazione internazionale per la supervisione dell'intelligenza artificiale, ritiene che alcune regole limitate, come il divieto di tutti i materiali protetti da copyright dai set di dati, potrebbero essere ostacoli ingiustificati. Questo spiega perché l'«apertura» nel nome dell'azienda OpenAI sembra essere mutata rispetto alla trasparenza radicale che era stata proposta all'inizio.


Tuttavia, è importante notare che i risultati del rapporto di Stanford suggeriscono che non è necessario mantenere i propri modelli così segreti per la concorrenza. Questo perché i risultati mostrano anche che quasi tutte le aziende stanno sottoperformando. Ad esempio, si dice che nessuna azienda fornisca statistiche su quanti utenti si affidano ai propri modelli o sulla parte del mercato o della regione in cui vengono utilizzati i propri modelli.


All'interno delle organizzazioni che operano secondo i principi dell'open source, c'è un detto: «più occhi ci sono, più facilmente si possono trovare i bug». I numeri grezzi aiutano a scoprire problemi che possono essere risolti e corretti.


Tuttavia,le pratiche open source tendono a far perdere gradualmente il loro status sociale e il loro valore all'interno e all'esterno delle aziende che sono pubbliche., quindi un'enfasi incondizionata non è molto significativa. Pertanto, invece di soffermarci sul quadro di riferimento di se un modello sia aperto o chiuso, sarebbe meglio concentrarsi suun'espansione graduale dell'accesso esterno ai «dati» che sono alla base dei potenti modelli di intelligenza artificiale..


Per il progresso scientifico, è importante averela riproducibilità (Reproducibility) assicurata per verificare se un particolare risultato di ricerca si ripete.. Ciò significa che, se non si concretizza un modo per garantire la trasparenza dei principali componenti della generazione di ciascun modello, il settore rischia di rimanere bloccato in una situazione di monopolio e staticità. E questo è qualcosa che dovrebbe essere preso in considerazione come una priorità assoluta, soprattutto oggi e in futuro, quando la tecnologia dell'intelligenza artificiale si sta diffondendo rapidamente in tutti i settori.


Per giornalisti e scienziati, è diventato importante comprendere i dati. Per i legislatori, la trasparenza è una condizione preliminare per gli sforzi politici previsti. Per il pubblico, la trasparenza è importante perché, come utenti finali dei sistemi di intelligenza artificiale, potrebbero essere i perpetratori o le vittime di potenziali problemi legati alla proprietà intellettuale, al consumo di energia e ai pregiudizi. Sam Altman sostiene che il rischio di estinzione dell'umanità causato dall'intelligenza artificiale dovrebbe diventare una priorità globale, insieme a rischi di scala sociale come le pandemie e la guerra nucleare. Tuttavia, non dobbiamo dimenticare che per raggiungere la situazione pericolosa di cui parla, la nostra società deve prima sopravvivere, e per questo è necessario mantenere un rapporto sano con l'intelligenza artificiale in evoluzione.


* Questo articolo è la versione originale del pezzo pubblicato sul giornale elettronico il 23 ottobre 2023.


References


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Il dramma della governance di OpenAI, il futuro etico dell'IA L'episodio in cui il CEO di OpenAI, Sam Altman, è stato licenziato dal consiglio di amministrazione, ma è tornato dopo solo cinque giorni, rivela la struttura peculiare di OpenAI, che si propone di avere una missione per l'umanità, e le preoccupazioni sui

14 maggio 2024

L'era del branding algoritmico è arrivata Elon Musk, Sundar Pichai, CEO di Google, e Sam Altman di OpenAI, esperti di intelligenza artificiale, mettono in guardia sui rischi dell'intelligenza artificiale e propongono soluzioni diverse per il futuro dell'umanità. Leggi nel numero di elettronica de

10 maggio 2024

L'intelligenza artificiale generativa nel 2023, il significato umano a venire Il 2023 è stato un anno di cambiamenti importanti per l'intelligenza artificiale, che ha dominato l'intero settore tecnologico, con la trasformazione delle piattaforme di intelligenza artificiale generativa, l'aumento della familiarità del pubblico e l'ac

16 maggio 2024

AI Full Stack completo con Open Source Nel panorama dell'intelligenza artificiale stanno emergendo sempre più modelli LLM (Large Language Model) open source. Modelli come Mistral, Llama e phi-2, con prestazioni elevate e licenze open source, sono stati rilasciati, e contemporaneamente vengono
RevFactory
RevFactory
RevFactory
RevFactory

5 febbraio 2024

Mr. Know-All – 2023.7 Il primo numero della rivista mensile di intelligenza artificiale "Mr. Know-All" di luglio 2023 presenta Claude 2, Azure OpenAI, LangChain, LlamaIndex e altre tecnologie e tendenze di intelligenza artificiale all'avanguardia. In particolare, viene fornita
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 marzo 2024

Splunk, pubblica il rapporto sullo stato della sicurezza 2024 Secondo il rapporto sullo stato della sicurezza 2024 di Splunk, il 93% delle aziende utilizza l'intelligenza artificiale generativa, ma il 34% non ha ancora definito delle politiche. L'intelligenza artificiale generativa offre nuove opportunità sia per i
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

13 maggio 2024

Snowflake lancia 'Arctic', un LLM aziendale con un'apertura di livello superiore Snowflake ha lanciato 'Arctic', un modello linguistico di grandi dimensioni open source. Arctic è disponibile per uso commerciale gratuito con licenza Apache 2.0 e vanta prestazioni ed efficienza di livello superiore nel settore. Offre un'eccellente effic
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 aprile 2024

Cos'è un modello linguistico di grandi dimensioni (LLM)? I modelli linguistici di grandi dimensioni (LLM) sono una tecnologia di base dell'intelligenza artificiale che impara da un'enorme quantità di dati di testo per acquisire capacità di elaborazione del linguaggio simili a quelle umane, e possono essere util
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 aprile 2024

L'avvento dell'era dell'IA, armonizzando l'innovazione tecnologica e l'etica Google e OpenAI hanno mostrato progressi innovativi nella tecnologia AI con il rilascio dei nuovi modelli AI "Gemini" e "GPT-4". Gemini è in grado di accettare input da diverse modalità, riassumere informazioni e fornire risposte a domande, e sarà integra
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

18 maggio 2024