Dit is een door AI vertaalde post.
We are hiring, humans
- Taal van de tekst: Koreaans
- •
- Referentieland: Alle landen
- •
- Informatietechnologie
Selecteer taal
Samengevat door durumis AI
- Payman AI heeft een AI-service gelanceerd die mensen betaalt, waardoor het potentieel wordt aangetoond van een nieuwe wervingsmarkt waar AI taken aan mensen uitbesteedt en hen betaalt.
- Om de betrouwbaarheid van AI te waarborgen, wordt een proces geïntroduceerd waarbij mensen betrokken zijn, waardoor de kans op fouten in AI wordt verminderd en het vertrouwen in het werk wordt vergroot.
- In een AI-gestuurde werkomgeving komen de transparantie en eerlijkheid van algoritmen, de nauwkeurigheid van gegevens en de belangrijkheid van het definiëren van de Job Title van een individu naar voren als kernfactoren in de nieuwe arbeidsmarkt.
Er verschijnt een nieuw type arbeidsmarkt.
Een paar weken geleden bracht Payman AI een AI-service uit die mensen betaalt, hoewel deze zich nog in een gesloten bètatest bevindt (AI that Pays Humans). De service legt uit dat de opdrachtgever een betaling doet op de rekening van de AI-agent van Payman, en vervolgens toegang geeft tot de AI, zodat realistische taken kunnen worden uitgevoerd die alleen door mensen kunnen worden gedaan.
Het voorbeeldproject 'Verzamelen van 10 recensies voor klantbeheer' laat zien hoe AI de minimale componenten van de door de opdrachtgever aangevraagde recensies concretiseert en organiseert en deelt op het platform. Mensen die geïnteresseerd zijn in deze opdracht, gaan dan de echte wereld in om recensies te verzamelen en in te dienen. De AI beoordeelt de geschiktheid van de recensies en betaalt vervolgens de aan elke persoon toegewezen kosten.
Deze aanpak kan momenteel worden gezien als een eenvoudige AI-toepassing. Maar het is opmerkelijk omdat het ten minste een aanwijzing geeft voor het gebied van 'vertrouwen', de meest voorkomende en moeilijk te verhelpen bottleneck bij de introductie van AI.
Een van de grootste angsten met betrekking tot de introductie van AI is de vraag of we kunnen voorkomen dat de AI verkeerde datapatronen leert en daardoor vooringenomen taken uitvoert. In februari 2023 werd Gemini, het AI-model van Google voor het genereren van afbeeldingen, bekritiseerd omdat het in plaats van witte mannen afbeeldingen van Aziatische vrouwen en zwarte mannen maakte voor afbeeldingen van het Duitse leger uit 1943. Dit was het resultaat van een overdreven focus op diversiteit in plaats van de verificatie van historische feiten.
Maar door zoals in het door Payman beschreven scenario mensen te betrekken en te beoordelen in de tussenliggende processen van het uitvoeren van een opdracht, kunnen we fouten opsporen en de verantwoordelijkheid voor het hele project verhogen, waardoor het vertrouwen in de service toeneemt. Met andere woorden, de algemene consensus die we uit dit scenario kunnen halen is dat AI mensen in dienst neemt om'taken uit te voeren die de mogelijkheden van AI overstijgen'.
Maar naarmate deze aanpak wijdverbreider wordt, moeten we er ook rekening mee houden dat mensen zich moeten aanpassen aan andere criteria om hun vaardigheden en ervaringen als werknemers te benadrukken.
Ten eerste verschuift de bron van vertrouwen in een situatie waarin AI de rol van werkgever op zich neemt naar de nauwkeurigheid van het algoritme en de betrouwbaarheid van de data. Omdat het vertrouwen in een bepaalde mate wordt bepaald door de manier waarop AI mensen beoordeelt en selecteert, zullen mensen die solliciteren op een project in de toekomst kunnen eisen dat er externe criteria worden geformuleerd waarmee kan worden geverifieerd dat de betrokken algoritmen transparant en eerlijk zijn en dat de data nauwkeurig en onbevooroordeeld is.
Bovendien, omdat vertrouwen in de traditionele arbeidsmarkt wordt gevormd door directe relaties tussen mensen, hebben recensies en aanbevelingsbrieven invloed op de beslissing om iemand in dienst te nemen. Op AI-gebaseerde werkplatformen kan echter alleen het interne reputatiesysteem als bron van vertrouwen dienen. Dit suggereert dat de feedback die gebruikers achterlaten over andere gebruikers met wie ze samenwerken, een meer beslissende rol zal spelen dan voorheen. Dit betekent dat er een groter risico is dat een situatie zoals de beoordelingsaanvallen op Thuisbezorgd.nl zich voordoet in de werkomgeving, waardoor ondernemers in de praktijk ernstige schade lijden.
Om een duidelijker beeld te krijgen, kunnen we het probleem van de functietitel bespreken.
In de werkomgeving is de functietitel niet alleen een aanduiding van de functie, maar ook een belangrijk symbool voor sollicitanten om hun waarde en vaardigheden te benadrukken. Vooral in AI-gebaseerde werkmodellen kan de functietitel worden gebruikt als een belangrijke indicator voor de beoordeling van de rol van een sollicitant. We hebben immers al ervaren dat in de selectieprocessen van grote bedrijven de beslissing over het slagen of falen van de sollicitatieprocedure wordt gebaseerd op technologie en criteria die op keywords zijn gebaseerd.
In de mid jaren '90 vroegen sommige onderzoekers die zich op de mens richtten zich af bij het zien van de titelUnderstanderop hun visitekaartje. Als we kijken naar de duidelijke onderscheiding tussen rollen die in verschillende sectoren door AI onderzoekers, UX-ontwerpers, enz. worden gevraagd, kunnen we zien dat de definitie van de functietitel moet worden vastgesteld op basis van zelfinzicht en een gedeeld begrip van de behoeften van de markt, zodat de sollicitant kan bepalen in welk vakgebied hij welke rol heeft gespeeld.
Dit roept de vraag op of in een AI-gestuurde werkomgeving de functietitel die een sollicitant in de toekomst definieert, in overeenstemming zal zijn met de criteria waarmee de AI de markt en de sector beoordeelt en hoe deze diverse beoordelingscriteria kunnen worden gegeneraliseerd. Misschien is dit wel de tijd om na te denken over de betekenis van 'vertrouwen' in een veranderende arbeidsmarkt.
Referenties