Questo è un post tradotto da IA.
Stiamo assumendo, umani
- Lingua di scrittura: Coreana
- •
- Paese di riferimento: Tutti i paesi
- •
- Tecnologia dell'informazione
Seleziona la lingua
Testo riassunto dall'intelligenza artificiale durumis
- Payman AI ha lanciato un servizio di intelligenza artificiale che paga gli umani, presentando la possibilità di un nuovo mercato del lavoro in cui l'IA assegna compiti agli umani e li paga.
- Per garantire l'affidabilità dell'IA, viene introdotto un processo che coinvolge le persone per ridurre la possibilità di errori dell'IA e aumentare l'affidabilità del lavoro.
- In un ambiente di lavoro basato sull'intelligenza artificiale, la trasparenza e l'equità degli algoritmi, l'accuratezza dei dati, l'importanza della definizione di un Job Title personale emergono come elementi chiave del nuovo mercato del lavoro.
Sta emergendo un nuovo tipo di mercato del lavoro.
Qualche settimana fa, Payman AI ha rilasciato un servizio AI che paga gli umani (AI that Pays Humans), attualmente in fase di beta test privato. Il servizio spiega che il committente effettua un pagamento sul conto dell'agente AI di Payman e, dopo aver concesso l'accesso all'AI, può eseguire attività che solo gli umani possono svolgere nel mondo reale.
Un esempio fornito è il progetto "Raccolta di 10 recensioni per il servizio clienti", in cui l'AI specifica e organizza gli elementi minimi richiesti per la recensione dal committente, condividendoli sulla piattaforma. Le persone interessate a questo incarico possono uscire nel mondo reale e raccogliere e inviare le recensioni, che vengono quindi esaminate dall'AI per determinarne la validità, e il costo assegnato a ciascun individuo viene pagato.
Questo metodo potrebbe sembrare un semplice caso di applicazione dell'AI. Tuttavia, è degno di nota perché fornisce un indizio sul problema del "trust", che è una delle più comuni e difficili da risolvere nel processo di implementazione dell'AI.
La preoccupazione se sia possibile prevenire situazioni in cui l'AI apprende schemi di dati errati ed esegue attività parziali è una delle più comuni paure che circondano l'implementazione dell'AI. Lo scorso febbraio, Gemini, il modello di AI generativo di Google, è stato criticato per aver creato immagini di donne asiatiche e uomini neri al posto di uomini bianchi in immagini di soldati tedeschi del 1943, e il servizio è stato temporaneamente sospeso. Ciò è il risultato di un'eccessiva enfasi sulla diversità di recente rispetto alla verifica dei fatti storici.
Tuttavia, come mostrato nell'esempio di Payman, l'inclusione di una fase di partecipazione e revisione umana nel processo intermedio dell'incarico consente di identificare gli errori e migliorare la responsabilità generale del progetto, aumentando la fiducia nel servizio. In sostanza, il consenso generale tratto da questo esempio è che l'AI impiega gli umani per‘completare attività che vanno oltre le sue capacità’.
Tuttavia, man mano che questo approccio diventa più diffuso, è necessario tener presente che gli umani devono abituarsi a standard diversi per mettere in mostra le proprie capacità ed esperienze come lavoratori.
Innanzitutto, in un contesto in cui l'AI funge da datore di lavoro, la fonte di fiducia si sposta sull'accuratezza degli algoritmi e l'affidabilità dei dati. Poiché il livello di fiducia è determinato dal modo in cui l'AI valuta e seleziona le persone, gli umani che si candidano a un progetto come lavoratori possono chiedere che vengano forniti standard esterni che consentano di verificare se gli algoritmi coinvolti sono trasparenti e equi e se i dati sono accurati e privi di pregiudizi.
Inoltre, nel mercato del lavoro tradizionale, la fiducia si formava nelle relazioni dirette tra le persone, quindi le recensioni o le lettere di raccomandazione avevano un'influenza sulle decisioni di assunzione. Nelle piattaforme di lavoro basate sull'AI, il sistema di reputazione interno può essere l'unica fonte di fiducia. Questo suggerisce che i feedback o le recensioni che gli utenti lasciano su altri utenti con cui collaborano saranno più determinanti in futuro. Questo significa che esiste una probabilità maggiore che situazioni come le recensioni negative su Deliveroo che danneggiano gravemente i lavoratori autonomi si verifichino anche nel contesto lavorativo.
Per una migliore comprensione, si può prendere in considerazione il problema del titolo di lavoro.
In un contesto lavorativo, il titolo di lavoro non è solo una rappresentazione del ruolo, ma anche un importante simbolo attraverso cui i candidati mettono in mostra il proprio valore e le proprie capacità. Nei modelli di occupazione basati sull'AI, il titolo di lavoro può essere utilizzato come misura chiave per valutare il ruolo del candidato. Come abbiamo già imparato a conoscere i processi di reclutamento delle grandi aziende, la valutazione per il superamento del processo di screening dei curricula si basa su criteri tecnici basati sulle parole chiave.
A metà degli anni '90, alcuni ricercatori incentrati sull'uomo si sono interrogati sul titoloUnderstanderche era stampato sulle loro carte da visita. Considerando l'attuale distinzione specifica del settore tra ricercatori di AI, designer UX e così via, è possibile affermare che la definizione del titolo di lavoro dovrebbe essere basata sulla consapevolezza di sé e sulla comprensione condivisa delle esigenze del mercato per quanto riguarda la valutazione del ruolo del candidato in quale settore e con quale ruolo.
Questo significa che con l'avvento di un ambiente di lavoro basato sull'AI, in futuro la domanda è se il titolo di lavoro definito dai candidati come lavoratori sarà in grado di essere collegato alla comprensione del mercato e del settore da parte dell'AI e come è possibile standardizzare diversi criteri di valutazione correlati. Forse è giunto il momento di riflettere più a fondo sulla natura della "fiducia" in un mercato del lavoro in continua evoluzione.
Riferimenti