![translation](https://cdn.durumis.com/common/trans.png)
Ceci est un post traduit par IA.
Nous embauchons, humains
- Langue de rédaction : Coréen
- •
-
Pays de référence : Tous les pays
- •
- Technologies de l'information
Choisir la langue
Texte résumé par l'IA durumis
- Payman AI a lancé un service d'IA qui paie les humains, ce qui ouvre de nouvelles possibilités pour un marché du travail où l'IA confie des tâches aux humains et les rémunère.
- Pour garantir la fiabilité de l'IA, l'intégration de processus impliquant des humains permet de réduire les risques d'erreurs de l'IA et de renforcer la confiance dans les tâches effectuées.
- Dans un environnement de travail fondé sur l'IA, la transparence et l'équité des algorithmes, l'exactitude des données et l'importance de la définition du titre de poste individuel deviennent des éléments clés d'un nouveau marché du travail.
Un nouveau type de marché du travail émerge.
Il y a quelques semaines, Payman AI a lancé un service d'IA qui paie les humains (AI that Pays Humans), encore en phase de test bêta privée. Ce service explique que l'employeur effectue un paiement sur le compte de l'agent AI de Payman et lui accorde un accès pour réaliser des tâches qui ne peuvent être effectuées que par des humains dans le monde réel.
Le projet "Recueillir 10 avis pour la gestion de la clientèle" présenté en exemple montre comment l'IA définit et organise les éléments minimums requis pour les avis demandés par l'employeur, les partage sur la plateforme, et comment les personnes intéressées par cette mission sortent dans le monde réel pour collecter et soumettre des avis, que l'IA évalue pour leur pertinence, puis distribue les frais alloués à chaque personne.
Cette méthode peut sembler être un simple cas d'application de l'IA pour le moment. Cependant, elle est remarquable car elle offre des indices dans le domaine de la "confiance", l'un des goulets d'étranglement les plus courants et difficiles à résoudre dans l'adoption de l'IA.
La préoccupation de savoir si l'on peut éviter que l'IA ne réalise des tâches biaisées en raison d'un apprentissage de modèles de données erronés est l'une des principales craintes concernant l'adoption de l'IA. En février dernier, Gemini, le modèle d'IA générative de Google, a été critiqué pour avoir créé des images de femmes asiatiques et d'hommes noirs à la place d'hommes blancs sur des images de l'armée allemande de 1943, ce qui a conduit à la suspension temporaire du service. Ce résultat est dû à une concentration excessive sur la diversité, récemment mise en avant, plutôt qu'à une vérification des faits historiques.
Cependant, comme dans l'exemple présenté par Payman, l'inclusion d'une étape d'examen et de participation humaine dans le processus intermédiaire de la mission permet de détecter les erreurs, d'accroître la responsabilité globale du projet et de renforcer la confiance dans ce service. En résumé, le consensus général constaté dans ce cas est que l'IA embauche des humains pour"réaliser des tâches qui dépassent les capacités de l'IA".
Cependant, à mesure que cette approche se généralise, il est important de noter que les humains devront s'habituer à des critères différents pour faire valoir leurs compétences et leur expérience en tant que travailleurs.
Tout d'abord, dans un contexte où l'IA joue le rôle d'employeur, la source de confiance se déplace vers la précision des algorithmes et la fiabilité des données. Étant donné que la confiance dépend de la façon dont l'IA évalue et sélectionne les personnes, les humains qui postulent à des projets exigeront des critères externes de vérification de la transparence et de la justice des algorithmes utilisés, ainsi que de la précision et de l'absence de biais des données.
De plus, sur le marché du travail traditionnel, la confiance se crée dans les relations directes entre personnes, les références et les lettres de recommandation ayant un impact sur les décisions d'embauche. Sur les plateformes d'emploi basées sur l'IA, seuls les systèmes de réputation internes peuvent constituer une source de confiance. Cela laisse entrevoir que les commentaires et les évaluations laissés par les utilisateurs sur d'autres utilisateurs avec lesquels ils ont collaboré joueront un rôle plus déterminant qu'auparavant. Cela signifie que les situations de "terrorisme par étoiles" observées dans le monde réel, où les travailleurs indépendants sont gravement lésés par des évaluations négatives sur des plateformes comme "Deliveroo", pourraient se reproduire dans le monde du travail.
Pour une meilleure compréhension, prenons l'exemple de la réflexion sur le titre de poste.
Dans le monde du travail, le titre de poste ne se limite pas à une simple description de la fonction, mais constitue également un symbole important pour les candidats afin de mettre en avant leur valeur et leurs compétences. Dans les modèles d'emploi basés sur l'IA, le titre de poste peut être utilisé comme un indicateur clé pour déterminer le rôle du candidat. Tout comme nous sommes habitués à voir les décisions de sélection des CV dans le cadre des processus de recrutement des grandes entreprises basées sur des critères technologiques axés sur les mots-clés.
Au milieu des années 1990, certains chercheurs axés sur l'humain auraient été perplexes devant le titreUnderstanderfigurant sur leurs cartes de visite. Si l'on considère la distinction claire entre les rôles demandés dans les différents secteurs aujourd'hui, comme les chercheurs en IA, les concepteurs UX, etc., on constate que la définition du titre de poste doit être fondée sur une compréhension partagée de la conscience de soi et des besoins du marché pour permettre de déterminer le domaine et le rôle dans lequel le candidat a évolué.
Cela signifie qu'avec l'arrivée des environnements de travail basés sur l'IA, la question se pose de savoir dans quelle mesure le titre de poste défini par les candidats correspondra aux critères de compréhension du marché et du secteur par l'IA, et comment différents critères de jugement pourront être généralisés. Il est peut-être temps de réfléchir davantage à la notion de "confiance" dans un marché du travail en pleine mutation.
Références