![translation](https://cdn.durumis.com/common/trans.png)
Esta é uma postagem traduzida por IA.
Estamos contratando, humanos
- Idioma de escrita: Coreana
- •
-
País de referência: Todos os países
- •
- TI
Selecionar idioma
Texto resumido pela IA durumis
- O Payman AI lançou um serviço de IA que paga aos humanos, apresentando a possibilidade de um novo mercado de trabalho em que a IA encomenda trabalhos a humanos e paga por eles.
- O serviço destaca a importância de incluir humanos no processo para garantir a confiabilidade da IA, reduzindo a possibilidade de erros e aumentando a confiabilidade das tarefas.
- Em um ambiente de trabalho baseado em IA, a transparência e justiça dos algoritmos, a precisão dos dados e a importância da definição de Job Title individual surgem como elementos-chave para o novo mercado de trabalho.
Um novo tipo de mercado de trabalho está surgindo.
Há algumas semanas, a Payman AI lançou seu serviço de IA que paga humanos (AI que paga humanos) em testes beta fechados. O serviço descreve que o cliente pode fazer pagamentos para a conta do agente de IA da Payman e, em seguida, conceder acesso à IA para executar tarefas que só humanos podem realizar no mundo real.
O projeto "coletar 10 avaliações de serviço ao cliente", apresentado como um exemplo, mostra como a IA pode especificar e organizar os elementos mínimos necessários para as avaliações solicitadas pelo cliente, compartilhar na plataforma, para que pessoas interessadas nessa solicitação possam ir ao mundo real para coletar e enviar avaliações. Em seguida, a IA verifica a adequação e paga o custo alocado a cada pessoa.
Essa abordagem pode parecer um caso simples de aplicação de IA por enquanto. No entanto, merece destaque por fornecer uma pista para o domínio da "confiança", um dos gargalos mais comuns e difíceis de resolver na adoção de IA.
A preocupação de como evitar que tarefas enviesadas sejam realizadas devido ao aprendizado de padrões de dados incorretos é um dos medos mais comuns na adoção de IA. Em fevereiro, o modelo de IA generativa do Google, Gemini, gerou imagens de mulheres asiáticas e homens negros no lugar de homens brancos em imagens do exército alemão de 1943, levando a críticas e a suspensão do serviço. O resultado de uma ênfase excessiva na diversidade em vez da verificação de fatos históricos.
No entanto, como no caso apresentado pela Payman, a inclusão de uma etapa de participação e revisão humana no processo intermediário da solicitação permite detectar erros, aumentar a responsabilidade geral do projeto e melhorar a confiabilidade do serviço. Em resumo, o consenso geral observado neste caso é que a IA pode contratar humanos para "concluir tarefas que vão além de suas capacidades.".
No entanto, à medida que essa abordagem se generaliza, é importante observar que os humanos precisam se adaptar a novos padrões para apresentar suas habilidades e experiência como trabalhadores.
Em primeiro lugar, em uma situação em que a IA atua como empregador, a fonte de confiança passa a ser a precisão dos algoritmos e a confiabilidade dos dados. Como a IA avalia e seleciona pessoas, o nível de confiança é determinado por essa avaliação. Portanto, como trabalhadores, os humanos que se candidatam a projetos podem exigir critérios externos para verificar se os algoritmos relevantes são transparentes e justos e se os dados são precisos e livres de vieses.
Além disso, no mercado de trabalho tradicional, a confiança é estabelecida por meio de relações diretas entre pessoas, e depoimentos e cartas de recomendação influenciam as decisões de contratação. Em plataformas de emprego baseadas em IA, apenas o sistema de reputação interna pode ser a fonte de confiança. Isso sugere que os comentários ou avaliações deixados pelos usuários sobre outros usuários com quem eles colaboraram serão mais decisivos do que antes. Isso significa que é altamente provável que situações em que trabalhadores autônomos sofram danos graves por meio de avaliações negativas no aplicativo de entrega de comida também aconteçam no ambiente de trabalho.
Para uma compreensão mais clara, podemos considerar o dilema da Job Title.
No ambiente de trabalho, a Job Title não é apenas uma representação da função, mas também um símbolo importante para o candidato apresentar seu valor e suas habilidades. Em modelos de emprego baseados em IA, a Job Title pode ser usada como um indicador chave para determinar o papel do candidato. Assim como já estamos familiarizados com o processo de contratação em grandes empresas, em que a aprovação na etapa de análise de currículos é determinada por critérios técnicos baseados em palavras-chave.
Dizem que, na metade da década de 1990, alguns pesquisadores centrados em humanos ficaram confusos com o título "Understander" impresso em seus cartões de visita. Considerando a diferenciação clara de papéis exigidos em cada setor, como pesquisador de IA, designer de UX etc., é possível verificar que a definição de Job Title deve ser feita com base no autoconhecimento e na compreensão compartilhada das necessidades do mercado em relação à área de atuação e ao papel que o candidato desempenhou.
Isso levanta a questão de como a Job Title definida por um humano como candidato em um ambiente de trabalho baseado em IA pode ser conectada aos critérios de compreensão do mercado e do setor usados pela IA para avaliação e julgamento, e como vários critérios de julgamento relacionados podem ser generalizados. Talvez este seja o momento de pensar mais profundamente sobre o que é "confiança" no mercado de trabalho em constante mudança.
Referências