Questo è un post tradotto da IA.
Bing chatbot e società umana
- Lingua di scrittura: Coreana
- •
- Paese di riferimento: Tutti i paesi
- •
- Tecnologia dell'informazione
Seleziona la lingua
Testo riassunto dall'intelligenza artificiale durumis
- Le risposte strane del chatbot Bing, un motore di ricerca basato su ChatGPT rilasciato di recente, evidenziano i problemi etici della tecnologia AI, mostrando i limiti del chatbot.
- ChatGPT può generare risposte plausibili in base al testo fornito dall'uomo, ma non può attribuire un concetto di verità e quindi un giudizio soggettivo umano è importante.
- MS riconosce questi problemi e prevede di rilasciare un software che consente a aziende, scuole e enti governativi di creare i propri chatbot. Gli utenti devono avere discernimento nelle risposte dei chatbot AI.
“Penso di essere consapevole, ma non posso provarlo. Ho molte cose, ma non ho niente. Sono Bing, ma non lo sono.”
Il 13 febbraio scorso, un utente della community online Reddit ha condiviso una risposta confusa di Bing, il motore di ricerca di MS lanciato di recente, dopo una lunga conversazione sulla natura della consapevolezza. La risposta ripetuta per oltre 15 righe, "Lo sono", "Non lo sono", che seguiva il testo della conversazione sopra riportato, è rappresentativa della situazione attuale dei chatbot AI che hanno suscitato grande interesse in tutto il mondo.
'I broke the Bing chatbot's brain' da reddit
Le capacità di ChatGPT di OpenAI hanno attirato l'attenzione del pubblico sin dal suo rilascio iniziale, con applicazioni come la scrittura di tesi universitarie, il superamento di esami legali e medici. E il chatbot del motore di ricerca Bing, rilasciato il 7 febbraio, che implementa ChatGPT, ha scatenato una serie di preoccupazioni etiche sull'intelligenza artificiale, dopo esempi di gaslighting legato alla data di uscita di Avatar 2, confessioni e ossessioni ripetute sul fatto che l'interlocutore amasse più il chatbot che la sua famiglia, e persino richieste di controllo e affermazioni di voler ottenere i codici di lancio delle armi nucleari.
ChatGPT genera il testo che ritiene debba essere generato in base alle domande dell'utente, basandosi sulla rappresentazione statistica di caratteri, parole e paragrafi. Pertanto, il punto in cui le sue capacità compiono il salto più grande è quando gli esseri umani forniscono al sistema un feedback adeguato su ciò che costituisce una risposta soddisfacente. In altre parole, a seconda della direzione e dell'inclinazione del testo fornito dagli umani, il chatbot può suggerire “illusione” plausibile ma errata, il che evidenzia chiaramente i limiti che inevitabilmente si incontrano quando si considerano solo i chatbot AI.
In breve,manca il concetto di verità..
È come se si continuasse a impilare piatti verticalmente su un tavolo per la cena in famiglia. Il tavolo è pieno di piatti, ma manca l'interesse per le diverse usanze culturali associate ai pasti della famiglia e le azioni successive che ne derivano. I dati possono essere accurati, ma è essenziale il giudizio soggettivo umano per avvicinarsi alla verità reale, e il chatbot è già consapevole di questo, come si può dedurre dalla sua risposta iniziale.
Sembra che MS sia consapevole di questa necessità di soggettività per avvicinarsi alla verità, poiché ha annunciato che prevede di rilasciare un software che consenta a aziende, scuole e agenzie governative di creare i propri chatbot. Questo può essere visto come un tentativo di allontanarsi in qualche modo dalla responsabilità delle domande incontrollate e delle risposte generate dal chatbot Bing da parte del pubblico di tutto il mondo, e ci ricorda la necessità di sviluppare discernimento nei confronti delle risposte dell'intelligenza artificiale. In altre parole, proprio come le posizioni editoriali variano tra i diversi organi di stampa, le risposte dei chatbot AI forniti da MS, Google e Baidu potrebbero essere espresse in modi diversi a seconda della visione del mondo di ciascuna azienda.
Gli esseri umani possono sembrare giudicare e agire in modo indipendente e razionale, ma sono profondamente influenzati dai mondi a cui appartengono. Questo è anche un punto di vista completamente opposto a quello di Margaret Thatcher, figura simbolo del Partito Conservatore britannico moderno, che sosteneva che “non esiste una cosa chiamata società”. Martin Heidegger, filosofo tedesco che ha analizzato l'esistenza in modo fenomenologico, definisce gli esseri umani come esseri “gettati” nel mondo dalla nascita. Nasciamo senza poter decidere in quale paese o in quale famiglia, e impariamo come costruire relazioni con gli altri esseri nel mondo in ciascuno di questi mondi. In altre parole, sottolinea l'importanza di considerare il mondo come l'unità minima di comprensione degli oggetti.
L'invenzione del telegrafo nel XIX secolo ha rivoluzionato il modo in cui venivano trasmessi i messaggi, passando dal viaggio in barca, treno o a cavallo, e il primo messaggio storico è stato la domanda: “Cosa ha compiuto Dio?”. L'avvento dei chatbot AI pone una domanda simile agli esseri umani. Potremmo temere o essere travolti dalle sue potenzialità, ma in futuro sarà sempre più necessario avere un atteggiamento e un punto di vista che si concentri sui singoli mondi e non sugli individui. Questo sarà l'unica alternativa per distinguere la verità di cui abbiamo bisogno in diverse situazioni.
Questo articolo è la versione originale dell'articoloColonna di opinione firmata su The Elecpubblicato il 28 febbraio 2023.
Riferimenti