Questo è un post tradotto da IA.
Il paradosso dei modelli AI leader, la trasparenza
- Lingua di scrittura: Coreana
- •
- Paese di riferimento: Tutti i paesi
- •
- Tecnologia dell'informazione
Seleziona la lingua
Testo riassunto dall'intelligenza artificiale durumis
- I ricercatori della Stanford University hanno analizzato 10 sistemi AI all'avanguardia, tra cui GPT-4, e hanno scoperto che la trasparenza dei modelli AI, come set di dati e metodi di apprendimento, è carente.
- In particolare, le principali aziende AI come OpenAI e Google stanno adottando un atteggiamento riluttante nella divulgazione dei dati, perseguendo modelli aziendali incentrati sui profitti, il che potrebbe ostacolare lo sviluppo della tecnologia AI e portare a un futuro esclusivo.
- Gli esperti sostengono che la trasparenza dei modelli AI dovrebbe essere aumentata per garantire la riproducibilità e rafforzare la responsabilità sociale, sollecitando il dibattito su accordi sociali e regolamenti di pari passo con lo sviluppo della tecnologia AI.
Uno studio pubblicato il 18 agosto dai ricercatori della Stanford University mostra quanto siano profondi e potenzialmente pericolosi i segreti dietro GPT-4 e altri sistemi di intelligenza artificiale all'avanguardia.
Presentazione dell'indice di trasparenza dei modelli di fondazione, Università di Stanford
Hanno esaminato un totale di 10 diversi sistemi di intelligenza artificiale, la maggior parte dei quali erano modelli linguistici di grandi dimensioni come quelli utilizzati per ChatGPT e altri chatbot. Questo include modelli commerciali ampiamente utilizzati come GPT-4 di OpenAI, PaLM 2 di Google e Titan Text di Amazon. Hanno valutato la trasparenza in base a 13 criteri, inclusi quanto i sviluppatori sono stati trasparenti sui dati utilizzati per addestrare i modelli (inclusi i metodi di raccolta e annotazione dei dati e se sono stati inclusi materiali protetti da copyright). Hanno anche esaminato se sono stati pubblicati i dettagli sull'hardware utilizzato per addestrare ed eseguire i modelli, i framework software utilizzati e il consumo energetico del progetto.
I risultati hanno mostrato che nessun modello di intelligenza artificiale ha raggiunto oltre il 54% nella scala di trasparenza su tutti i criteri citati. Nel complesso, Titan Text di Amazon è stato classificato come il meno trasparente, mentre Llama 2 di Meta è stato classificato come il più aperto. È interessante notare che Llama 2, un modello di punta sia per i modelli di apertura che per quelli chiusi, è un modello open source, ma non ha divulgato i dati utilizzati per l'addestramento, i metodi di raccolta e cura dei dati. Ciò significa che, nonostante l'influenza crescente dell'intelligenza artificiale sulla nostra società, l'opacità del settore è un fenomeno diffuso e persistente.
Ciò significa chec'è il rischio che il settore dell'intelligenza artificiale diventi un'area incentrata sul profitto piuttosto che sul progresso scientifico, e che ciò possa portare a un futuro dominato da monopoli guidati da specifiche aziende..
Eric Lee/Bloomberg via Getty Images
Il CEO di OpenAI, Sam Altman, ha già incontrato responsabili politici di tutto il mondo per spiegare loro questa nuova intelligenza sconosciuta e offrire il suo aiuto per la definizione di regolamenti in materia. Sebbene sostengo in linea di principio l'idea di un'organizzazione internazionale per la supervisione dell'intelligenza artificiale, ritiene che alcune regole limitate, come il divieto di tutti i materiali protetti da copyright dai set di dati, potrebbero essere ostacoli ingiustificati. Questo spiega perché l'«apertura» nel nome dell'azienda OpenAI sembra essere mutata rispetto alla trasparenza radicale che era stata proposta all'inizio.
Tuttavia, è importante notare che i risultati del rapporto di Stanford suggeriscono che non è necessario mantenere i propri modelli così segreti per la concorrenza. Questo perché i risultati mostrano anche che quasi tutte le aziende stanno sottoperformando. Ad esempio, si dice che nessuna azienda fornisca statistiche su quanti utenti si affidano ai propri modelli o sulla parte del mercato o della regione in cui vengono utilizzati i propri modelli.
All'interno delle organizzazioni che operano secondo i principi dell'open source, c'è un detto: «più occhi ci sono, più facilmente si possono trovare i bug». I numeri grezzi aiutano a scoprire problemi che possono essere risolti e corretti.
Tuttavia,le pratiche open source tendono a far perdere gradualmente il loro status sociale e il loro valore all'interno e all'esterno delle aziende che sono pubbliche., quindi un'enfasi incondizionata non è molto significativa. Pertanto, invece di soffermarci sul quadro di riferimento di se un modello sia aperto o chiuso, sarebbe meglio concentrarsi suun'espansione graduale dell'accesso esterno ai «dati» che sono alla base dei potenti modelli di intelligenza artificiale..
Per il progresso scientifico, è importante averela riproducibilità (Reproducibility) assicurata per verificare se un particolare risultato di ricerca si ripete.. Ciò significa che, se non si concretizza un modo per garantire la trasparenza dei principali componenti della generazione di ciascun modello, il settore rischia di rimanere bloccato in una situazione di monopolio e staticità. E questo è qualcosa che dovrebbe essere preso in considerazione come una priorità assoluta, soprattutto oggi e in futuro, quando la tecnologia dell'intelligenza artificiale si sta diffondendo rapidamente in tutti i settori.
Per giornalisti e scienziati, è diventato importante comprendere i dati. Per i legislatori, la trasparenza è una condizione preliminare per gli sforzi politici previsti. Per il pubblico, la trasparenza è importante perché, come utenti finali dei sistemi di intelligenza artificiale, potrebbero essere i perpetratori o le vittime di potenziali problemi legati alla proprietà intellettuale, al consumo di energia e ai pregiudizi. Sam Altman sostiene che il rischio di estinzione dell'umanità causato dall'intelligenza artificiale dovrebbe diventare una priorità globale, insieme a rischi di scala sociale come le pandemie e la guerra nucleare. Tuttavia, non dobbiamo dimenticare che per raggiungere la situazione pericolosa di cui parla, la nostra società deve prima sopravvivere, e per questo è necessario mantenere un rapporto sano con l'intelligenza artificiale in evoluzione.
* Questo articolo è la versione originale del pezzo pubblicato sul giornale elettronico il 23 ottobre 2023.
References