![translation](https://cdn.durumis.com/common/trans.png)
Dit is een door AI vertaalde post.
De veranderende relatie tussen ons en algoritmen
- Taal van de tekst: Koreaans
- •
-
Referentieland: Alle landen
- •
- Informatietechnologie
Selecteer taal
Samengevat door durumis AI
- Generatieve AI, waaronder ChatGPT, is zo ver gevorderd dat het de rol van mensen vervangt, wat leidt tot zorgen over schending van de rechten van makers, en vraagt om reflectie op een nieuwe relatie met algoritmen.
- Algoritmen beïnvloeden veel aspecten van ons leven, en we erkennen het bestaan ervan, zijn nieuwsgierig naar hen en zien ze als actieve entiteiten.
- Met name generatieve AI maakt gebruik van bestaande content bij het genereren van output op basis van gebruikersverzoeken, wat vereist dat we de relatie met AI-algoritmen opnieuw definiëren en nadenken over ethische verantwoordelijkheid.
“We hebben nu AI-modellen die de modellen van de wereld kunnen extraheren door menselijke taal te analyseren.”
Tijdens een liefdadigheidsevenement in Ontario, Canada, op 19 januari, merkte Jordan Peterson, professor klinische psychologie aan de University of Toronto, op dat de recente opkomst van ChatGPT de nieuwe spanning tussen algoritmen en mensen in de toekomst zal vormen. Professor Peterson waarschuwde dat generatieve AI, een model voor grootschalige verwerking van natuurlijke taal, binnenkort slim genoeg zal worden om zelf patronen te extraheren uit afbeeldingen en bewegingen, die patronen te testen in de wereld en de rol van menselijke wetenschappers in slechts enkele seconden te vervullen.
GPT-3, DALL-E, StableDiffusion, enzovoort, vormen nu de basis van vrijwel alle AI-systemen en geven de AI-paradigmaverschuiving zichtbaar vorm. En deze krachtige systemen die afbeeldingen en tekst genereren op basis van gebruikersbehoeften, veroorzaken onvermijdelijk conflicten met makers binnen bestaande industrieën. In november werd Microsoft's 'GitHub Copilot' geconfronteerd met een collectieve rechtszaak die beweerde dat het de wettelijke rechten had geschonden van talloze auteurs die hun code onder een open source licentie hadden gepubliceerd voor AI-training. Bovendien benadrukte de Recording Industry Association of America (RIAA) in een verklaring in oktober dat AI-gebaseerde muziekschepping en remixing zowel de rechten van muzikanten als hun financiële situatie kunnen bedreigen.
Dergelijke voorbeelden roepen de vraag op of het eerlijk is om systemen te trainen en resultaten te genereren met behulp van datasets die gebaseerd zijn op auteursrechtelijk beschermd materiaal. Het is echter belangrijk om op te merken dat deze controverses zich grotendeels concentreren op het nieuwe technologiegestuurde aspect. Aangezien het tenslotte de mens is die tekst invoert in AI-modellen om de gewenste resultaten te verkrijgen, moeten we ons eerder afvragen wat de juiste relatie is tussen mensen en algoritmen in de toekomst.
Algoritmes zijn nu een spil in het creëren van onze wereld, net als mensen. We hebben al lang nagedacht over sociale controle met betrekking tot de ondoorzichtigheid van algoritmen. We weten vooral dat het moeilijk is om verantwoordelijkheid te bepalen wanneer doorzichtigheid ontbreekt, en we zijn bezorgd dat verborgen vooroordelen kunnen aanhouden en tot oneerlijke resultaten kunnen leiden. Daarom is de vraag 'hoe moeten we algoritmen behandelen?' misschien wel belangrijker, en we kunnen aanwijzingen vinden in onze reeds vertrouwde relatie met content-genererende algoritmen.
Ten eerste,we erkennen de aanwezigheid van algoritmen. De woorden 'aanbevelen' en 'selecteren', die vaak opduiken in gesprekken over content en advertenties, laten zien hoe mensen hun woordenschat aanpassen rond algoritmen in online winkelen of sociale media. Bovendien,we zijn nieuwsgierig naar algoritmen. Wanneer de startpagina van YouTube gevuld is met content van een bepaalde categorie, of wanneer we ons afvragen of onze geposte content voldoende zichtbaarheid krijgt, tonen we vaak onze nieuwsgierigheid naar algoritmen door middel van ongunstige reacties.
Ten slotte,we willen dat algoritmen actief en levendig voor ons bestaan, alsof ze levende wezens zijn. We vertrouwen op algoritmen om nieuwe gewoontes te ontwikkelen, te leren en te onthouden, en we proberen ze volledig te controleren. We proberen irrelevant lijkende hashtags te gebruiken, de niet-storen-modus te activeren of feedback te geven over advertentieopties. En als al deze pogingen mislukken, proberen we ons af te sluiten van algoritmen door middel van digitale detox of het consumptie van nieuwsbriefcontent.
Kortom, wanneer mensen merken dat hun relatie met algoritmen niet verloopt zoals ze willen, hebben ze de neiging om wantrouwen, negatieve beoordelingen en vastzitten in het verleden te vertonen. En dit is grotendeels vergelijkbaar met onze dagelijkse 'sociale relaties'.Bovendien, terwijl onze eerdere relatie met content-genererende algoritmen grotendeels eenzijdig was in het domein van 'consumptie', is onze huidige relatie met AI-algoritmen, met name grootschalige taalmodellen, meer een tweerichtingsverkeer in het domein van 'creatie'. Aangezien de resultaten die gebruikers vereisen gebaseerd zijn op het werk van iemand anders in de wereld, zelfs als ze niet volledig origineel zijn, moeten we erkennen dat onze aanpak en houding ten opzichte van generatieve AI-algoritmen radicaal moet veranderen.
Zelfs wanneer het ChatGPT-venster geopend is, wachten AI-algoritmen. Misschien worden ze gewoon overschaduwd door hun verbazingwekkende capaciteiten. Maar wanneer je iets schrijft, helpen ze misschien om een onzichtbare sociale relatie tot stand te brengen met anderen in je wereld.
* Dit artikel is de originele versie van de publicatie van 9 januari 2023 in deKolom van de Electronische Krant .
Referenties