Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Questo è un post tradotto da IA.

Byungchae Ryan Son

Il cambiamento della nostra relazione con gli algoritmi

Seleziona la lingua

  • Italiano
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Testo riassunto dall'intelligenza artificiale durumis

  • L'IA generativa, come ChatGPT, si sta evolvendo al punto da sostituire il ruolo umano, il che solleva interrogativi sulla nuova relazione con gli algoritmi, oltre alle questioni di violazione dei diritti degli autori.
  • Gli algoritmi influenzano molti aspetti della nostra vita e noi riconosciamo la loro esistenza, siamo curiosi e li riconosciamo come entità attive.
  • In particolare, l'IA generativa, nel processo di creazione di output in base alle richieste dell'utente, utilizza contenuti esistenti, quindi è necessario stabilire una nuova relazione con gli algoritmi di intelligenza artificiale e riflettere sulla responsabilità etica.

“Ora abbiamo modelli di intelligenza artificiale che analizzano il linguaggio umano per estrarre modelli del mondo."


Lo scorso 19 gennaio, durante un evento di beneficenza a Ontario, in Canada, lo psicologo clinico Jordan Peterson, professore dell'Università di Toronto, ha discusso delle applicazioni recenti di ChatGPT, sottolineando la crescente tensione che gli algoritmi creeranno con gli esseri umani. Peterson ha avvertito che l'intelligenza artificiale generativa, ovvero i modelli di elaborazione del linguaggio di grandi dimensioni, diventerà sempre più intelligente, al punto da riuscire a utilizzare immagini e movimenti per estrarre pattern in modo autonomo e testarli nel mondo, superando in pochi secondi il lavoro degli scienziati umani.


GPT-3, DALL-E, Stable Diffusion sono ormai alla base di quasi tutti i sistemi di intelligenza artificiale e stanno rendendo visibile la trasformazione del paradigma dell'intelligenza artificiale. Questi potenti sistemi in grado di generare immagini e testo in base alle esigenze degli utenti, inevitabilmente stanno creando attriti con i creatori che già operano nei settori tradizionali. Lo scorso novembre, 'GitHub Copilot' di Microsoft è stato oggetto di una class action che accusava l'azienda di violare i diritti legali di numerosi autori che avevano pubblicato codice sotto licenza open source per l'addestramento dell'intelligenza artificiale. Inoltre, la Recording Industry Association of America (RIAA) ha affermato in un comunicato dello scorso ottobre che la creazione e il remixaggio musicale basati sull'intelligenza artificiale potrebbero minacciare i diritti degli artisti, nonché la loro situazione finanziaria.


Questi esempi ci ricordano la necessità di interrogarci sulla questione della 'giustizia' in merito alla possibilità di addestrare i sistemi e produrre risultati utilizzando set di dati basati su materiale protetto da copyright. Tuttavia, è necessario sottolineare come queste controversie siano in gran parte focalizzate su aspetti tecnologici e incentrati sulla novità. Poiché alla fine sono le persone a inserire il testo nei modelli di intelligenza artificiale per ottenere il risultato desiderato, la questione più importante da affrontare è come dovrebbero essere le relazioni future tra gli umani e gli algoritmi.


Gli algoritmi sono già una parte fondamentale della creazione del nostro mondo, proprio come gli esseri umani. Da tempo ci interroghiamo sul controllo sociale della mancanza di trasparenza degli algoritmi. In particolare, eravamo consapevoli della difficoltà di stabilire chi fosse responsabile in caso di mancanza di trasparenza, e eravamo preoccupati che i pregiudizi nascosti potessero persistere, portando a risultati ingiusti. Pertanto, la domanda 'Come dovremmo trattare gli algoritmi?' è ancora più importante e possiamo trovare spunti di riflessione nelle nostre relazioni con gli algoritmi di generazione di contenuti, che ci sono ormai familiari.


Innanzitutto, siamo consapevoli dell'esistenza degli algoritmi. Parole come 'raccomandazione' e 'selezione', che compaiono spesso nelle conversazioni su contenuti e pubblicità, rivelano come le persone stiano costruendo il loro vocabolario intorno agli algoritmi in ambito di shopping online o social media. Inoltre, siamo curiosi degli algoritmi. Spesso ci chiediamo perché la home page di YouTube è piena di contenuti di una particolare categoria, o perché il nostro contenuto non ottiene abbastanza visibilità, manifestando curiosità per l'algoritmo con reazioni poco amichevoli.


Infine, vogliamo che gli algoritmi siano entità attive e viventi che esistono per noi. Ci affidiamo agli algoritmi per creare nuove abitudini, imparare, ricordare, e cerchiamo di controllarli completamente. Utilizziamo hashtag irrilevanti, attiviamo la modalità non disturbare o inviamo feedback sulle opzioni pubblicitarie. Quando questi tentativi non hanno successo, ricorriamo a misure come il digital detox o al consumo di contenuti di newsletter per cercare di disconnetterci dagli algoritmi.


In definitiva, quando le nostre relazioni con gli algoritmi non vanno come previsto, tendiamo a manifestare mancanza di fiducia, giudizi negativi e atteggiamenti ossessivi dal passato. Questo assomiglia molto alle 'relazioni sociali'che intratteniamo quotidianamente. Se le nostre relazioni con i tradizionali algoritmi di generazione di contenuti erano per lo più unilaterali e incentrate sul 'consumo', la nostra relazione con gli algoritmi di intelligenza artificiale che utilizzano modelli di elaborazione del linguaggio di grandi dimensioni è oggi più bidirezionale e incentrata sulla 'generazione'. Il fatto che i risultati richiesti dagli utenti siano basati su opere create da qualcun altro nel mondo e non abbiano una completezza originale, ci impone di riconsiderare il nostro approccio e il nostro atteggiamento nei confronti degli algoritmi di intelligenza artificiale generativa.


Anche con la finestra di ChatGPT aperta, l'algoritmo di intelligenza artificiale aspetta. Forse è nascosta sotto questa incredibile capacità, ma quando scrivi qualcosa, ti aiuta a costruire una relazione sociale invisibile con qualcun altro nel tuo mondo.


*Questo articolo è una versione originale di un colonna pubblicata su The Elec il 9 gennaio 2023.


References


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Il corpo del lavoro è 'Ibrido'. OpenAI, lo sviluppatore di ChatGPT, è il diciassettesimo sito web più popolare al mondo a maggio, con più visite di Netflix e Linkedin. In particolare, il lancio dell'app mobile ha fatto sì che l'IA generativa superasse i limiti fisici del monitor e si av

13 maggio 2024

L'intelligenza artificiale generativa nel 2023, il significato umano a venire Il 2023 è stato un anno di cambiamenti importanti per l'intelligenza artificiale, che ha dominato l'intero settore tecnologico, con la trasformazione delle piattaforme di intelligenza artificiale generativa, l'aumento della familiarità del pubblico e l'ac

16 maggio 2024

'Corpo' nell'era dell'intelligenza artificiale: guarda il corpo umano oltre lo schermo La fine del contratto di licenza tra UMG e TikTok ha sollevato discussioni sullo sviluppo della tecnologia AI e sui cambiamenti sociali che ne derivano. Sebbene la prospettiva evoluzionistica di Darwin preveda l'autonomia dell'AI e avverta di potenziali r

16 maggio 2024

Generazione di immagini AI, la sua tecnologia rivoluzionaria e le sfide reali L'IA di generazione di immagini è una tecnologia rivoluzionaria che consente di creare immagini realistiche solo con l'input di testo. Viene utilizzata in vari settori come arte, design, marketing, ma esistono anche problemi come la proprietà intellettual
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

6 maggio 2024

Cos'è un modello linguistico di grandi dimensioni (LLM)? I modelli linguistici di grandi dimensioni (LLM) sono una tecnologia di base dell'intelligenza artificiale che impara da un'enorme quantità di dati di testo per acquisire capacità di elaborazione del linguaggio simili a quelle umane, e possono essere util
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 aprile 2024

L'avvento dell'era dell'IA, armonizzando l'innovazione tecnologica e l'etica Google e OpenAI hanno mostrato progressi innovativi nella tecnologia AI con il rilascio dei nuovi modelli AI "Gemini" e "GPT-4". Gemini è in grado di accettare input da diverse modalità, riassumere informazioni e fornire risposte a domande, e sarà integra
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

18 maggio 2024

Il mio breve futuro personale L'IA porterà grandi cambiamenti al futuro degli sviluppatori. L'IA sostituirà i compiti semplici come la creazione di prototipi e lo sviluppo front-end, ma gli sviluppatori esperti si concentreranno sulla risoluzione di problemi strategici e sulla creazio
Mark Ball Blog
Mark Ball Blog
Immagine del mio futuro personale
Mark Ball Blog
Mark Ball Blog

26 marzo 2024

Il futuro e le prospettive dell'intelligenza artificiale, raccontate dall'AI! L'intelligenza artificiale (IA) sta trasformando molti aspetti della nostra vita e sta avendo un impatto profondo sulla vita quotidiana, sull'industria e sulla struttura economica. Questo articolo tratta la storia dell'intelligenza artificiale, i casi d'u
qed
qed
qed
qed

17 giugno 2024

Malintesi e verità sugli articoli scritti con AI generativa Google esclude dai risultati di ricerca i contenuti di bassa qualità, inclusi quelli generati dall'IA. Anche se si utilizza l'IA, la qualità dei contenuti è importante e la semplice copia e incolla può essere considerata di bassa qualità. In altre parole,
durumis official blog
durumis official blog
Immagine FAQ di durumis
durumis official blog
durumis official blog

21 febbraio 2024