Unsere neuesten Nachrichten

Emotions-Tracking – KI am Arbeitsplatz: Arbeitnehmer haben Angst, beobachtet – und missverstanden zu werden.

Bitte teilen Sie unsere Geschichte!

Wir haben die Warnungen von Yuval Noah Harari gehört, dass, wenn wir nicht herausfinden, wie wir künstliche Intelligenz (KI) regulieren können, menschliche Gehirne werden bald gehackt”, eine Aussage, die wohl die schlimmsten Befürchtungen der Menschheit in Bezug auf KI anspricht. Dies gilt möglicherweise insbesondere, wenn man von Schwabs Berater Harari hört, dass „einen Menschen zu hacken bedeutet, diese Person besser kennenzulernen, als sie sich selbst kennt“, was es den Besitzern der Technologie ermöglichen kann, uns zunehmend zu manipulieren.

Wir glauben vielleicht, dass diese extreme Bedrohung unserer Privatsphäre irgendwann in der Zukunft eintreten wird, aber das Hacking, das Harari beschreibt, ist eher sprichwörtlich als wörtlich und findet bereits in Umgebungen wie Facebook und Youtube Hier werden wir dazu gebracht, Inhalte anzuzeigen, die die Algorithmen als für uns interessant erachten. Mittlerweile scheint es, als seien viele Menschen gegenüber Hacking und Manipulation allmählich desensibilisiert, sodass diese ohne allzu große Proteste zunehmen.

Aber wie würden Sie sich fühlen, wenn Ihr Arbeitsplatz Ihre Gefühle verfolgen würde? fragt Nazanin Andalibi Er ist Assistenzprofessor für Informationswissenschaften an der University of Michigan und diskutiert im folgenden Artikel die Emotions-KI, die bereits am Arbeitsplatz eingesetzt wird.

Emotions-Tracking – KI am Arbeitsplatz: Arbeitnehmer haben Angst, beobachtet – und missverstanden zu werden.

By Nazanin Andalibi

Künstliche Intelligenz für Emotionen verwendet biologische Signale Wie Stimmlage, Gesichtsausdruck und Daten von tragbaren Geräten sowie Text und die Art und Weise, wie Menschen ihre Computer benutzen, verspricht die Technologie, Gefühle einer Person zu erkennen und vorherzusagen. Sie wird sowohl in alltäglichen Kontexten wie der Unterhaltung als auch in wichtigen Bereichen wie am Arbeitsplatz, bei der Personalbeschaffung und im Gesundheitswesen eingesetzt.

Ein breites Branchenspektrum verwenden bereits Emotions-KI, darunter Callcenter, Finanzen, Bankwesen, Krankenpflege und Betreuung. Über 50 % der großen Arbeitgeber in den USA nutzen Emotions-KI Ziel ist es, Rückschlüsse auf den inneren Zustand der Mitarbeiter zu ziehen, eine Praxis, die wuchs während der COVID-19-PandemieBeispielsweise überwachen Callcenter die Äußerungen und den Tonfall ihrer Mitarbeiter.

Wissenschaftler haben Bedenken geäußert über Die wissenschaftliche Validität von Emotions-KI und sein Vertrauen auf umstrittene Theorien über EmotionenSie haben auch das Potenzial der Emotions-KI hervorgehoben für Verletzung der Privatsphäre und ausstellen rassischGeschlecht und Behinderung vorspannen.

Einige Arbeitgeber nutzen die Technologie als wäre es makellos, während einige Wissenschaftler versuchen, Reduzieren Sie die Verzerrung und verbessern Sie die Gültigkeitdiskreditieren es insgesamt oder vorschlagen Verbot von Emotions-KI, zumindest bis mehr über die Auswirkungen bekannt ist.

Ich studiere die soziale Auswirkungen der Technologie. Ich glaube, es ist entscheidend, die Auswirkungen der emotionalen KI auf die Menschen zu untersuchen, die ihr ausgesetzt sind, wie etwa Arbeitnehmer – insbesondere auf diejenigen, die aufgrund ihrer Rasse, ihres Geschlechts oder einer Behinderung ausgegrenzt werden. Kann KI tatsächlich Ihre Emotionen lesen? Nicht ganz.

Bedenken der Arbeitnehmer

Um zu verstehen, wohin der Einsatz von Emotions-KI am Arbeitsplatz führt, Karen Boyd und ich machte mich daran, zu untersuchen Vorstellungen der Erfinder von Emotions-KI am Arbeitsplatz. Wir analysierten Patentanmeldungen, die Emotions-KI-Technologien für den Arbeitsplatz vorschlugen. Zu den angeblichen Vorteilen, die die Patentanmelder geltend machten, gehörten die Beurteilung und Unterstützung des Wohlbefindens der Mitarbeiter, die Gewährleistung der Sicherheit am Arbeitsplatz, die Steigerung der Produktivität und die Unterstützung bei der Entscheidungsfindung, beispielsweise bei Beförderungen, Entlassungen und der Aufgabenzuweisung.

Wir haben uns gefragt, was Arbeitnehmer über diese Technologien denken. Würden sie die Vorteile auch wahrnehmen? Würden Arbeitnehmer es beispielsweise als vorteilhaft empfinden, wenn Arbeitgeber sie bei ihrem Wohlbefinden unterstützen würden?

Meine Mitarbeiter Shanley CorviteKat RoemmichTillie Ilana Rosenberg Ich habe eine Umfrage durchgeführt, die teilweise repräsentativ für die US-Bevölkerung war und teilweise eine Überstichprobe für People of Color, Trans- und nichtbinäre Menschen sowie Menschen mit psychischen Erkrankungen enthielt. Diese Gruppen könnten durch emotionale KI eher Schaden erleiden. Unsere Studie umfasste 289 Teilnehmer aus der repräsentativen Stichprobe und 106 Teilnehmer aus der Überstichprobe. Wir fanden heraus, dass 32 % der Befragten gaben an, keinen Nutzen für sie zu erfahren oder zu erwarten von der aktuellen oder erwarteten Nutzung von KI an ihrem Arbeitsplatz.

Während einige Arbeitnehmer potenzielle Vorteile des Einsatzes emotionaler KI am Arbeitsplatz wie eine verbesserte Unterstützung des Wohlbefindens und der Arbeitssicherheit anerkennen, die den in Patentanmeldungen behaupteten Vorteilen entsprechen, äußerten alle auch Bedenken. Sie befürchteten eine Beeinträchtigung ihres Wohlbefindens und ihrer Privatsphäre, eine Beeinträchtigung ihrer Arbeitsleistung und ihres Beschäftigungsstatus sowie Vorurteile und die Stigmatisierung psychischer Erkrankungen.

So äußerten beispielsweise 51 % der Teilnehmer Bedenken hinsichtlich des Datenschutzes, 36 % wiesen auf die Möglichkeit falscher Schlussfolgerungen hin, die Arbeitgeber für bare Münze nehmen würden, und 33 % äußerten die Sorge, dass die durch KI generierten Schlussfolgerungen auf der Grundlage von Emotionen dazu verwendet werden könnten, ungerechte Einstellungsentscheidungen zu treffen.

Stimmen der Teilnehmer

Ein Teilnehmer mit mehreren gesundheitlichen Problemen sagte: „Das Bewusstsein, analysiert zu werden, hätte ironischerweise negative Auswirkungen auf meine psychische Gesundheit.“ Das bedeutet, dass der Einsatz von Emotions-KI trotz der angeblichen Ziele, das Wohlbefinden der Mitarbeiter am Arbeitsplatz zu ermitteln und zu verbessern, zum gegenteiligen Effekt führen kann: Das Wohlbefinden sinkt aufgrund des Verlusts der Privatsphäre. Tatsächlich zeigen andere Arbeiten meiner Kollegen Roemmich, Florian Schaub und ich schlage vor, dass der durch KI verursachte Verlust der Privatsphäre eine Reihe von Datenschutzverletzungeneinschließlich psychologisch, Autonomie, wirtschaftlich, Beziehung, physisch und Diskriminierung.

Zu der Befürchtung, dass die emotionale Überwachung ihren Arbeitsplatz gefährden könnte, sagte ein Teilnehmer mit diagnostizierter psychischer Erkrankung: „Sie könnten entscheiden, dass ich nicht mehr zur Arbeit passe und mich entlassen. Sie könnten entscheiden, dass ich nicht fähig genug bin und mir keine Gehaltserhöhung geben oder denken, dass ich nicht genug arbeite.“

Die Studienteilnehmer erwähnten auch das Potenzial für eine Verschärfung des Machtungleichgewichts und äußerten ihre Angst vor der Dynamik, die sich mit den Arbeitgebern ergeben würde, wenn Emotions-KI in ihren Arbeitsalltag integriert würde. Sie wiesen darauf hin, dass der Einsatz von Emotions-KI bereits bestehende Spannungen im Verhältnis zwischen Arbeitgeber und Arbeitnehmer möglicherweise noch verschärfen könnte. So sagte ein Befragter: „Das Ausmaß der Kontrolle, die Arbeitgeber bereits über ihre Mitarbeiter haben, lässt darauf schließen, dass es kaum Kontrollen darüber gibt, wie diese Informationen verwendet werden. Jede ‚Zustimmung‘ [der] Mitarbeiter ist in diesem Zusammenhang weitgehend illusorisch.“ Emotions-KI ist nur eine Möglichkeit, wie Unternehmen ihre Mitarbeiter überwachen.

Abschließend wiesen die Teilnehmer auf mögliche Gefahren hin, wie etwa technische Ungenauigkeiten der Emotions-KI, die möglicherweise falsche Eindrücke von Arbeitnehmern vermitteln, sowie die Möglichkeit, dass Emotions-KI Vorurteile und Stigmatisierung gegenüber Arbeitnehmern schürt und aufrechterhält. Bei der Beschreibung dieser Bedenken betonten die Teilnehmer ihre Angst davor, dass Arbeitgeber sich auf ungenaue und voreingenommene Emotions-KI-Systeme verlassen, insbesondere gegenüber People of Color, Frauen und Transgender-Personen.

Ein Teilnehmer sagte beispielsweise: „Wer entscheidet, welche Ausdrücke ‚gewalttätig‘ aussehen, und wie kann man Menschen nur anhand ihres Gesichtsausdrucks als Bedrohung einstufen? Ein System kann zwar Gesichter lesen, aber keine Gedanken. Ich kann mir einfach nicht vorstellen, dass dies für Minderheiten am Arbeitsplatz nicht schädlich sein könnte.“

Die Teilnehmer gaben an, dass sie entweder die Arbeit an einem Ort mit Emotions-KI ablehnen würden – eine Option, die vielen nicht zur Verfügung steht – oder sich so verhalten würden, dass die Emotions-KI sie positiv interpretiert und so ihre Privatsphäre schützt. Ein Teilnehmer sagte: „Selbst wenn ich allein im Büro bin, würde ich enorm viel Energie darauf verwenden, mich zu maskieren. Das würde mich sehr ablenken und unproduktiv machen“, und verwies darauf, dass der Einsatz von Emotions-KI den Mitarbeitern zusätzliche emotionale Arbeit aufbürde.

Ist es den Schaden wert?

Diese Ergebnisse deuten darauf hin, dass Emotions-KI die bestehenden Herausforderungen, mit denen Arbeitnehmer am Arbeitsplatz konfrontiert sind, verschärft, obwohl Befürworter behaupten, dass Emotions-KI zur Lösung dieser Probleme beiträgt.

Wenn die Emotions-KI wie behauptet funktioniert und das misst, was sie zu messen vorgibt, und selbst wenn die Probleme mit der Voreingenommenheit in Zukunft angegangen werden, entstehen den Arbeitnehmern dennoch Nachteile, wie etwa zusätzliche emotionale Belastung und Verlust der Privatsphäre.

Wenn diese Technologien nicht das messen, was sie behaupten, oder voreingenommen sind, sind die Menschen Algorithmen ausgeliefert, die als gültig und zuverlässig gelten, obwohl sie es nicht sind. Arbeitnehmer müssten sich weiterhin bemühen, das Risiko einer Fehlinterpretation durch den Algorithmus zu verringern oder emotionale Äußerungen zu zeigen, die dem Algorithmus positiv erscheinen.

So oder so funktionieren diese Systeme als Panoptikum-ähnliche Technologien, die zu Verletzungen der Privatsphäre und dem Gefühl der Beobachtung führen.

Quelle: Nazanin Andalibi für Das Gespräch

Ihre Regierung und Big-Tech-Organisationen
Versuchen Sie, The Expose zum Schweigen zu bringen und zu beenden.

Deshalb brauchen wir Ihre Hilfe, um sicherzustellen
Wir können Ihnen weiterhin die
Fakten, die der Mainstream nicht wahrhaben will.

Die Regierung finanziert uns nicht
Lügen und Propaganda zu veröffentlichen auf ihren
im Namen der Mainstream-Medien.

Stattdessen sind wir ausschließlich auf Ihre Unterstützung angewiesen.
Bitte unterstützen Sie uns bei unseren Bemühungen,
Sie ehrlichen, zuverlässigen, investigativen Journalismus
heute. Es ist sicher, schnell und einfach.

Bitte wählen Sie unten Ihre bevorzugte Methode aus, um Ihre Unterstützung zu zeigen.

Bleiben Sie auf dem Laufenden!

Bleiben Sie mit Neuigkeiten per E-Mail auf dem Laufenden

Laden


Bitte teilen Sie unsere Geschichte!
5 1 bewerten
Artikelbewertung
Abonnieren
Benachrichtigung von
Gast
14 Kommentare
Inline-Feedbacks
Alle Kommentare anzeigen
Mark Deacon
Mark Deacon
1 Jahr vor

Wann können wir Klaus Schwabs Gehirn hacken, um zu erkennen, wie böse er ist?

Aluna
Aluna
Antwort an  Mark Deacon
1 Jahr vor

Er wurde bereits gehackt, d. h. er ist ein gedankengesteuerter Sklave, der dazu benutzt wird, die Pläne und Bestrebungen der Elite zu präsentieren.
Nichts davon wurde von ihm entwickelt.
Die bösen Drahtzieher der Neuen Weltordnung sind in den USA zu finden, nämlich die CIA und die US-Armee.
Sie arbeiten seit Jahrzehnten an diesen Zielen und besitzen alle Patente.

grummelnder Donner
grummelnder Donner
Antwort an  Aluna
1 Jahr vor

Ja, vor vielen Jahren wurde mir gegen meinen Willen ein RFID-Gerät in Militärqualität in den Arm implantiert, und die örtliche Polizei nutzte es zu Schikanen. Sie versuchten, alles, was ich sah oder erlebte, als Unrecht darzustellen, um mich zu manipulieren oder auf irgendeine Weise zu missbrauchen. Und im Vergleich zu dem, was sie heute haben, ist das veraltete Technik.
Hüten Sie sich vor.

CharlieSeattle
CharlieSeattle
Antwort an  Mark Deacon
1 Jahr vor

Bombardieren Sie Davos und holen Sie sie sich alle.

großer Groll
großer Groll
1 Jahr vor

Ich bin sehr besorgt über den immer stärkeren Einsatz von KI. Es scheint, als wäre dies ein weiterer Schritt auf einem sehr rutschigen Abhang.

Vivie
Vivie
1 Jahr vor

ich bin so froh, dass ich im Ruhestand bin und mir solchen Unsinn nicht anhören muss.

Robbi
Robbi
1 Jahr vor

ENTFERNEN SIE DIESE KAPAZITÄT VOM ARBEITSPLATZ …
ES IST SKLAVEREI UND NICHT AKZEPTABEL.
STÄNDIGE ÜBERWACHUNG IST GEFÄNGNIS.

Die Eidechse von Oz
Die Eidechse von Oz
1 Jahr vor

Angesichts des demografischen Wandels in vielen westlichen und asiatischen Ländern – einer alternden Belegschaft und sinkenden Geburtenraten – wird sich die Macht zugunsten der Arbeitnehmer verschieben. Das Angebot an Arbeitskräften schrumpft, und die Arbeitgeber stehen im Wettbewerb um Arbeitskräfte. Die veränderte Einstellung zur Ausbildung, die dazu führt, dass Arbeitgeber Lehrstellen und Praktikanten abbauen, führt ebenfalls zu einer Verknappung des verfügbaren Fachkräftepools.

All dies verheißt Gutes für die Menschen, insbesondere für diejenigen mit den nötigen Fähigkeiten und dem nötigen Selbstvertrauen, ihren Arbeitgebern zu sagen, wo sie ihre KI und die dazugehörigen Geräte einsetzen können. Der Arbeitskräftemangel nach der Pest führte zu erhöhter Arbeitsmobilität und dem Ende des Feudalsystems. Unsere heutigen Herren und Meister werden sich in einer ähnlichen Situation wiederfinden wie die feinen Leute des 15. Jahrhunderts, die mit dem großen Mangel an Leibeigenen konfrontiert waren.

Ehrlich gesagt erscheint mir Emotionstracking nur als weiterer KI-Hype. Was kostet es? Hält es, was es in der Hochglanzbroschüre verspricht? Welche Vorteile ergeben sich daraus? Welche Mitarbeiter will man halten, wenn die mit den nötigen Fähigkeiten und Fertigkeiten „Scheiß drauf“ sagen und kündigen?

Das grundlegende Problem mit geistigem Eigentum besteht darin, dass es in den Köpfen der Menschen herumschwirrt. Wenn diese Köpfe das Haus verlassen, geht auch das Know-how Ihres Unternehmens mit ihnen verloren.

Dan
Dan
1 Jahr vor

Der ganze Artikel ist Unsinn. Nur weil irgendein Sklavenbesitzer irgendwo versucht hat, den Blutdruck der Sklaven zu überwachen, heißt das nicht, dass ihr „Gehirn gehackt“ wurde. Es ist nur weiterer Schundjournalismus, um Geld zu machen. Und es lenkt einen nett von den wichtigen Dingen ab.

CharlieSeattle
CharlieSeattle
1 Jahr vor

Ich sah bei der Arbeit immer ratlos aus, wenn ich ein Problem lösen musste.

Craig Mark
Craig Mark
1 Jahr vor

Lesen Sie die Bibel, wenn Sie sich trauen. Offenbarung, Kapitel 13.