“Ora abbiamo un modello di intelligenza artificiale in grado di analizzare il linguaggio umano ed estrarre modelli del mondo.”
Lo scorso 19 novembre, durante un evento di beneficenza tenutosi a Ontario, Canada, lo psicologo clinico Jordan Peterson, professore all'Università di Toronto, ha parlato delle recenti applicazioni di ChatGPT e della nuova tensione che gli algoritmi creeranno tra umani e macchine. Il professor Peterson ha avvertito che i modelli linguistici di grandi dimensioni, ovvero l'intelligenza artificiale generativa, diventeranno presto abbastanza intelligenti da poter estrarre autonomamente pattern, utilizzando anche immagini e movimenti, e quindi testare i propri risultati sul mondo, riducendo a pochi secondi il tempo necessario agli scienziati umani per svolgere il proprio lavoro.
GPT-3, DALL-E, StableDiffusion e altri modelli stanno diventando la base della maggior parte dei sistemi di intelligenza artificiale, rendendo visibile un cambiamento di paradigma nell'ambito dell'AI. Questi potenti sistemi, in grado di generare immagini e testi in base alle esigenze dell'utente, stanno inevitabilmente generando conflitti con i creatori già presenti all'interno di determinati settori industriali. Lo scorso novembre, la società Microsoft, con il suo 'GitHub Copilot', si è trovata ad affrontare una causa collettiva per violazione dei diritti legali di numerosi programmatori che avevano pubblicato il proprio codice open source per scopi di addestramento dell'intelligenza artificiale. Inoltre, la Recording Industry Association of America (RIAA) ha affermato in una dichiarazione dello scorso ottobre che la creazione e il remix di musica tramite l'intelligenza artificiale potrebbe minacciare non solo i diritti degli artisti musicali, ma anche la loro situazione finanziaria.
Questi esempi ci fanno riflettere sulla questione della correttezza nell'utilizzo di set di dati contenenti materiale protetto da copyright per addestrare i sistemi e generare risultati. Tuttavia, è importante notare che queste controversie si concentrano in gran parte su aspetti legati alle nuove tecnologie. Poiché, in definitiva, è l'essere umano ad inserire il testo desiderato nel modello di intelligenza artificiale per ottenere il risultato sperato, dovremmo porci la domanda su come sarà la relazione tra l'uomo e l'algoritmo.
L'algoritmo è già uno dei pilastri della creazione del nostro mondo, proprio come lo è l'uomo. Da tempo ci interroghiamo sulla mancanza di trasparenza degli algoritmi, in particolare sulla difficoltà di individuare i responsabili in caso di errori dovuti a questa mancanza di trasparenza. Inoltre, nutriamo timore che i pregiudizi nascosti negli algoritmi possano perpetuare e portare a risultati iniqui. Pertanto, la domanda 'come dovremmo relazionarci con gli algoritmi?' potrebbe essere la più importante e possiamo trovare degli indizi nella nostra esperienza con gli algoritmi di generazione di contenuti (content-generating algorithm).
Innanzitutto, siamo consapevoli dell'esistenza degli algoritmi. L'uso frequente di termini come 'raccomandazioni' e 'selezioni' nelle conversazioni su contenuti e pubblicità mostra come le persone stiano costruendo il proprio vocabolario intorno agli algoritmi, che siano quelli dei social media o dello shopping online. Inoltre, siamo curiosi di conoscere gli algoritmi. Quando la home page di YouTube è piena di contenuti di una determinata categoria o quando non siamo soddisfatti della visibilità dei nostri post, spesso esprimiamo la nostra curiosità verso l'algoritmo con reazioni non proprio positive.
Infine, vogliamo che gli algoritmi siano attivi, vivi, esistenti per noi. Ci affidiamo agli algoritmi per sviluppare nuove abitudini, imparare e ricordare, e per questo tentiamo di controllarli completamente. Utilizziamo hashtag che non sembrano pertinenti, attiviamo la modalità 'non disturbare' o inviamo feedback sulle opzioni pubblicitarie. E quando tutti questi tentativi falliscono, proviamo a disconnetterci, ad esempio con una digital detox o leggendo solo newsletter.
In sintesi, quando la nostra relazione con gli algoritmi non procede come desiderato, tendiamo a perdere fiducia, a dare giudizi negativi e a rimanere bloccati nel passato. Questo aspetto è in gran parte simile alle nostre relazioni 'sociali'di tutti i giorni. Inoltre, mentre in passato la relazione con gli algoritmi di generazione di contenuti era prevalentemente unilaterale, limitata al 'consumo', la relazione con gli attuali modelli linguistici di grandi dimensioni, ovvero l'intelligenza artificiale, è più vicina a una relazione bidirezionale, legata alla 'creazione'. Il fatto che i risultati richiesti dall'utente non siano completamente originali, ma si basino sulle creazioni di qualcun altro in un determinato contesto, ci impone di riconsiderare radicalmente il nostro approccio e il nostro atteggiamento nei confronti degli algoritmi di intelligenza artificiale generativa.
Anche se lasciamo aperta la finestra di ChatGPT, l'algoritmo di intelligenza artificiale attende. Forse la sua straordinaria capacità ci distrae dal fatto che, quando scriviamo qualcosa, in realtà stiamo semplicemente contribuendo a far sbocciare una relazione sociale nascosta con un'altra persona nel nostro mondo.
*Questo articolo è la versione originale di un articolo pubblicato il 9 gennaio 2023 su colonna firmata su Electronic News.
Riferimenti
Commenti0