![translation](https://cdn.durumis.com/common/trans.png)
Dies ist ein von KI übersetzter Beitrag.
Wir stellen ein, Mensch
- Schreibsprache: Koreanisch
- •
-
Referenzland: Alle Länder
- •
- IT
Sprache auswählen
Von durumis AI zusammengefasster Text
- Payman AI hat einen KI-Dienst eingeführt, der Menschen bezahlt, und damit die Möglichkeit eines neuen Stellenmarktes aufgezeigt, auf dem KI Menschen Aufgaben überträgt und sie dafür bezahlt.
- Um die Zuverlässigkeit der KI zu gewährleisten, wird ein Prozess eingeführt, an dem Menschen beteiligt sind, um die Wahrscheinlichkeit von KI-Fehlern zu verringern und das Vertrauen in die Arbeit zu erhöhen.
- In einer KI-gestützten Beschäftigungsumgebung stehen die Transparenz und Fairness von Algorithmen, die Genauigkeit von Daten, die Bedeutung der Definition individueller Jobtitel und andere Faktoren im Mittelpunkt der neuen Beschäftigungslandschaft.
Ein neuer Typ von Stellenmarkt taucht auf.
Vor einigen Wochen stellte Payman AI einen KI-Dienst vor, der sich noch in der geschlossenen Beta-Phase befindet, aber Menschen bezahlt (AI that Pays Humans). Der Dienst erklärt, dass der Auftraggeber eine Zahlung auf das Konto des KI-Agenten von Payman tätigt und dann der KI den Zugriff gewährt, um Aufgaben auszuführen, die in der realen Welt nur von Menschen ausgeführt werden können.
Als Beispiel wird das Projekt „Sammeln von 10 Rezensionen für die Kundenbetreuung“ angeführt, bei dem die KI die Mindestanforderungen an die vom Auftraggeber angeforderten Rezensionen präzisiert und zusammenfasst, die dann auf der Plattform geteilt werden. Personen, die sich für diesen Auftrag interessieren, gehen dann in die reale Welt, um Rezensionen zu sammeln und einzureichen. Die KI prüft die Richtigkeit der Rezensionen und zahlt dann den einzelnen Personen den zugeteilten Betrag.
Dieser Ansatz mag im Moment noch wie ein einfacher Fall der KI-Anwendung erscheinen. Allerdings ist er bemerkenswert, da er zumindest einen Hinweis auf das Problem des „Vertrauens“ bietet, das eines der häufigsten und am schwersten zu lösenden Engpässe bei der Einführung von KI ist.
Die Sorge, dass die KI aufgrund falscher Datenmuster voreingenommene Aufgaben ausführt, ist eine der größten Ängste vor der Einführung von KI. Im Februar wurde Googles generatives KI-Modell Gemini dafür kritisiert, dass es anstelle von weißen Männern Bilder von asiatischen Frauen und schwarzen Männern für Bilder von deutschen Truppen aus dem Jahr 1943 erzeugte, und der Dienst wurde vorübergehend eingestellt. Dies war das Ergebnis eines übermäßigen Fokus auf Diversität, der den Aspekt der historischen Faktenbestätigung in den Hintergrund drängte.
Wenn man jedoch, wie im Beispiel von Payman, Menschen in den mittleren Prozess der Auftragsbearbeitung einbezieht, so dass sie diese überprüfen und bewerten, können Fehler entdeckt und die Gesamtverantwortung für das Projekt erhöht werden, was wiederum das Vertrauen in den Dienst erhöht. Zusammenfassend lässt sich sagen, dass die allgemeine Übereinstimmung in diesem Fall darin besteht, dass die KI Menschen beschäftigt, um„Aufgaben zu erledigen, die über die Fähigkeiten der KI hinausgehen“.
Es ist jedoch wichtig, zu beachten, dass je verbreiteter dieser Ansatz wird, desto mehr müssen sich Menschen als Arbeitnehmer an andere Kriterien gewöhnen, um ihre Fähigkeiten und Erfahrungen zu präsentieren.
Zunächst einmal verschiebt sich die Quelle des Vertrauens in einem Umfeld, in dem die KI die Rolle des Arbeitgebers übernimmt, auf die Genauigkeit der Algorithmen und die Zuverlässigkeit der Daten. Da die KI bestimmt, wie Menschen bewertet und ausgewählt werden, hängt das Maß an Vertrauen davon ab, ob die Bewerber als Arbeitnehmer sicherstellen können, dass die zugrunde liegenden Algorithmen transparent und fair sind und die Daten korrekt und frei von Vorurteilen sind.
Auf dem traditionellen Arbeitsmarkt wurde Vertrauen durch direkte Beziehungen zwischen Menschen aufgebaut, so dass Erfahrungsberichte und Empfehlungsschreiben Einfluss auf die Einstellungsentscheidungen hatten. Auf KI-basierten Arbeitsplattformen hingegen kann nur das interne Bewertungssystem die Quelle des Vertrauens sein. Dies lässt erwarten, dass Feedback oder Rezensionen, die von Nutzern über andere Nutzer hinterlassen werden, mit denen sie zusammenarbeiten, eine größere Rolle spielen als zuvor. Dies bedeutet, dass es wahrscheinlich ist, dass die Situation des „Bewertungsterrorismus“ auf Lieferheld, der Kleinunternehmer in der realen Welt schwer schädigt, auch auf dem Arbeitsmarkt auftreten wird.
Um ein klareres Verständnis zu gewinnen, können wir uns mit der Frage der Jobtitel befassen.
Im Arbeitsumfeld sind Jobtitel nicht nur eine einfache Bezeichnung für eine Funktion, sondern auch ein wichtiges Symbol für Bewerber, um ihren Wert und ihre Fähigkeiten zu präsentieren. Besonders in KI-basierten Einstellungsmodellen können Jobtitel zu einem wichtigen Indikator für die Rolle des Bewerbers werden. Ähnlich wie wir bereits mit dem Prozess der Auswahl von Bewerbern in großen Unternehmen vertraut sind, bei dem der Erfolg der Bewerbung auf schriftlichen Bewerbungen auf Stichworten basiert.
Mitte der 1990er-Jahre fragten sich einige Forscher, die sich mit dem Menschen befassten, was sie mit dem Titel„Understander“auf ihren Visitenkarten meinten. Wenn man die klare Unterscheidung der von verschiedenen Branchen geforderten Rollen von KI-Forschern, UX-Designern usw. betrachtet, kann man feststellen, dass die Definition von Jobtiteln auf dem gemeinsamen Verständnis von Selbstwahrnehmung und der Bedürfnisse des Marktes beruhen sollte.
Dies wirft die Frage auf, ob die von Menschen als Bewerber definierten Jobtitel in einem Umfeld, in dem KI die dominante Kraft auf dem Arbeitsmarkt ist, mit den Kriterien übereinstimmen, die die KI verwendet, um den Markt und die Branche zu beurteilen. Wie können verschiedene Bewertungskriterien allgemeingültig gemacht werden? Vielleicht ist es jetzt an der Zeit, sich ernsthaft mit der Frage zu befassen, was „Vertrauen“ in einer sich verändernden Arbeitswelt bedeutet.
Referenzen