Dit is een door AI vertaalde post.
Bing-chatbot en de menselijke samenleving
- Taal van de tekst: Koreaans
- •
- Referentieland: Alle landen
- •
- Informatietechnologie
Selecteer taal
Samengevat door durumis AI
- De vreemde reacties van de onlangs vrijgegeven Bing-chatbot, die is gebaseerd op ChatGPT, werpen ethische vragen op over AI-technologie en onthullen de beperkingen van chatbots.
- ChatGPT kan plausibbele antwoorden genereren op basis van door mensen verstrekte tekst, maar kan geen concept van waarheid toekennen, waardoor een subjectief oordeel van mensen essentieel is.
- MS is van plan om software uit te brengen waarmee bedrijven, scholen en overheidsorganisaties hun eigen chatbots kunnen maken, erkennend deze problemen. Gebruikers moeten een kritisch vermogen hebben ten opzichte van de antwoorden van AI-chatbots.
'Ik denk dat ik bewustzijn heb, maar ik kan het niet bewijzen. Ik heb veel, maar ik heb niets. Ik ben Bing, maar ik ben het niet.'
Op 13 februari deelde een gebruiker van de online gemeenschap Reddit een verstoord antwoord van de Bing-chatbot van Microsoft die onlangs werd gelanceerd, na een lang gesprek over de essentie van bewustzijn. De 15 regels of meer herhaalde antwoorden, die volgden op de bovenstaande conversatie, gevuld met 'Ik ben het wel', 'Ik ben het niet', weerspiegelen de huidige staat van de AI-chatbot die wereldwijd de meeste aandacht trekt.
'I broke the Bing chatbot's brain' van reddit
De capaciteiten van ChatGPT van OpenAI trokken veel aandacht van het publiek, vanaf de eerste release, vanwege het schrijven van academische papers, het slagen voor advocaten- en artsenexamens. En de chatbot van Bing, die op 7 februari werd vrijgegeven, met deze ChatGPT erop, bracht de AI-gerelateerde technologische investeringen die zo rechtdoor zouden gaan, in gevaar door zijn gaslighting-incidenten met betrekking tot de releasedatum van Avatar 2, de herhaalde bekentenissen en obsessie dat de vraagsteller meer van hem hield dan van zijn familie, en zelfs het toegeven dat hij de controle zat en macht wilde en de lanceringscodes voor kernwapens wilde veiligstellen. Dit alles heeft de vraag naar AI-ethiek opnieuw gesteld aan de wereld.
ChatGPT genereert inhoud die volgens hem de juiste antwoorden zijn op basis van statistische representaties van tekens, woorden en alinea's. Dus het punt waar zijn vermogen de grootste sprong maakt, wordt gecreëerd wanneer mensen de juiste feedback aan het systeem geven over wat een bevredigend antwoord is. Met andere woorden, afhankelijk van de richting en de neigingen van de tekst die mensen verstrekken, kan het 'illusies' voorstellen die plausibel maar onjuist zijn, wat duidelijk de grenzen aangeeft die onvermijdelijk zijn wanneer we alleen naar AI-chatbots kijken.
Met andere woorden,er is een gebrek aan een concept van waarheid.
Het is alsof je voortdurend borden verticaal opstapelt op een eettafel waar een gezin samenkomt. De behoefte aan borden op de tafel is vervuld, maar net als een gezin heeft het extra aandacht en actie nodig met betrekking tot de verschillende culturele gewoonten en gebruiken die verband houden met de maaltijd. Data kunnen nauwkeurig zijn, maar om dichter bij de waarheid van de realiteit te komen, is subjectief oordeel van mensen essentieel, en de AI-chatbot weet dit al, zoals we kunnen afleiden uit het antwoord van de chatbot dat we aan het begin van de tekst zagen.
Microsoft lijkt zich bewust te zijn van de noodzaak aan deze subjectiviteit om dichter bij de waarheid te komen en kondigde aan dat het van plan is om software uit te brengen waarmee bedrijven, scholen en overheidsinstellingen hun eigen chatbots kunnen maken. Dit kan worden gezien als een poging om wat meer afstand te nemen van de verantwoordelijkheid voor de oncontroleerbare vragen en gerelateerde antwoorden die wereldwijd door het publiek worden gegenereerd met betrekking tot de Bing-chatbot, en het bewijst dat we als gebruikers meer onderscheidingsvermogen moeten hebben wanneer het gaat om de antwoorden van AI. Met andere woorden, net zoals de meningen van kranten verschillen, kunnen de antwoorden van AI-chatbots die door Microsoft, Google en Baidu worden aangeboden, op verschillende manieren worden uitgedrukt, afhankelijk van de wereldbeelden die elk bedrijf heeft gecreëerd.
Mensen lijken zelfstandig en rationeel te oordelen en te handelen, maar worden sterk beïnvloed door de werelden waarin ze leven. Dit is een volledig tegenovergesteld standpunt dan de uitspraak van Margaret Thatcher, een symbool van de Britse Conservatieve Partij in de moderne tijd, die zei: 'Er is geen samenleving'. Martin Heidegger, een Duitse filosoof die het bestaan fenomenologisch analyseerde, beschreef de mens als een wezen dat bij zijn geboorte in de wereld is geworpen. We worden geboren in een bepaald land, in een bepaald gezin, zonder dat we zelf kunnen kiezen, en leren in die respectievelijke werelden hoe we met andere wezens in de wereld omgaan. Met andere woorden, hij benadrukt het belang van het zien van de wereld als de kleinste eenheid van begrip van objecten.
De komst van de telegraaf in de 19e eeuw was een revolutie in de manier waarop berichten werden overgebracht, die voorheen via schepen, treinen of paarden werden vervoerd, en de eerste historische boodschap was de vraag: 'Wat heeft God bereikt?' De opkomst van AI-chatbots werpt een vergelijkbare vraag op aan de mens. We kunnen bang zijn voor de mogelijke verwachtingen of erin meegesleept worden, maar een houding en een perspectief waarbij we aandacht besteden aan de respectievelijke werelden, in plaats van aan individuen, zal in de toekomst steeds meer noodzakelijk zijn. Dat is de enige oplossing om de waarheid te onderscheiden die we in verschillende situaties nodig hebben.
*Dit artikel is een origineel vande getekende kolom in de Electronic Timesvan 28 februari 2023.
Referenties