Published using Google Docs
Quellen_Die Arbeit.docx
Updated automatically every 5 minutes

Fabiola H. Gerpott, Stephan A. Jansen

Die Arbeit

Wie wir sie mit KI neu erfinden …
und was für uns übrig bleibt

______

Dies ist ein lebendiger Quellen-Review (QR).

Entsprechend hat Sie der QR-Code aus dem Buch nicht nur zu den in unserem Werk zitierten Quellen gebracht, welche an der schwarzen Schriftsetzung erkennbar sind.

Vielmehr finden sich hier auch unsere Ergänzungen und Kommentare in grüner Schrift, welche nach Erscheinungsdatum laufend ergänzt wurden und werden.

Die vorliegende Version stammt vom Juli 2025.

Quellenindex:

1
Vinge, V. (1993). The coming technological singularity: How to survive in the post-human era. In VISION-21: Interdisciplinary Science and Engineering in the Era of Cyberspace (pp. 11-22). NASA Conference Publication 10129.

2
von Foerster, H. (2003). Ethics and second-order cybernetics. In Understanding understanding: Essays on cybernetics and cognition (p. 293). Springer.

3         https://www.faz.net/pro/d-economy/kuenstliche-intelligenz/generative-ki-transformiert-deutsche-personalabteilungen-19946271.html?campID=MAIL-E2400000741

4        
https://www.microsoft.com/en-us/worklab/work-trend-index/ai-at-work-is-here-now-comes-the-hard-part

5            
Skidelsky, Robert (2024): Werden wir ersetzt? Vom Fortschrittswahn zu einer Ökonomie des gerechten Lebens. München: Kunstmann, S. 12.

6          
Kaube, Jürgen (2018): Die Anfänge von allem. Hamburg: Rowohlt.

7        
https://pdcrodas.webs.ull.es/anglo/CarlyleSignsOfTheTimes.pdf

8            
Daten nach: Finsterbusch, Stephan / Marx, Uwe (2023): Zeitspiel, in: FAZ, 03.01.23, S. 18.

9            
Daten nach Schmidt, Holger/ Hosseini, Hamidreza (2023) Ecodynamics. FAZ, 25.09.23, S. 18.

10          
Ebd.  

11      
von Foerster, Heinz (1999): 2 x 2 = grün, Originaltonaufnahmen 1989-1998, Wyk auf Föhr:  supposé

12        
Suzman, James (2020). “Sie nannten es Arbeit: Eine andere Geschichte der Menschheit. München: C.H.Beck.

13        
Zum NPR-Beitrag aus dem Jahr 2015: Keynes Predicted We Would Be Working 15-Hour Weeks. Why Was He So Wrong? NPR 2015
https://www.npr.org/2015/08/13/432122637/keynes-predicted-we-would-be-working-15-hour-weeks-why-was-he-so-wrong

14        
Deter, Alfons: Jeder Landwirt ernährt 145 Menschen, in top agrar, 17.03.2016, unter: Externer Link:
www.topagrar.com/schwein/news/jeder-landwirt-ernaehrt-145-menschen-9568216.html.

https://www.bpb.de/themen/umwelt/landwirtschaft/316059/strukturwandel-und-agrarentwicklung-seit-1880/#footnote-target-1 und Mahlerwein, Gunter: Die Moderne (1880-2010). Grundzüge der Agrargeschichte Band 3, Köln/Weimar/Wien 2016, S. 11.

15          
So Skidelsky a.a.O. S. 139f.

16        
Vgl.
.https://www.faz.net/aktuell/wirtschaft/unternehmen/entlassungen-im-silicon-valley-ein-boeses-erwachen-18471841.html

17.
https://www.brandeins.de/magazine/brand-eins-wirtschaftsmagazin/2024/messen-vergleichen/sap-weniger-leute-mehr-rendite

18          
Zum Paper https://www.sciencedirect.com/science/article/abs/pii/S0040162516302244?via%3Dihub

19          
Das Paper ist hier abrufbar:
https://arxiv.org/pdf/2303.10130.pdf

___________________________

Bei der Meta-Analyse der Analysen zu möglichen Arbeitsmarkteffekten des digitalen Wandels zeigen als methodische Herausforderungen. Festhalten lässt sich:

  1. Tätigkeitsbasierte statt bloße berufsorientierte Prognosen scheinen valider.
  2. Studien, die nur Beschäftigungsverlustrisiken abfragen, stehen immer in der (auch kalkulierten) Gefahr, eine Überdramatisierung zu erzeugen – aufgrund des Fehlens von vergleichenden Aussagen über die Verluste, die auch ohne Technologie stattfinden würden.
  3. Studien mit Netto-Beschäftigungseffekten (Verluste und Gewinne) sind realistischer, bei denen eher die Einschätzung vorliegt, dass digitaler Wandel nicht zu einem Rückgang der Arbeitsplätze geführt hat und dass dies für die Zukunft eher nicht zu erwarten ist – wenn auch mit Anpassungsproblemen und erhöhter friktioneller Arbeitslosigkeit wie auch früher. (Siehe z.B. Bundesministerium für Wirtschaft und Energie 2018: https://www.bmwk.de/Redaktion/DE/Downloads/Diskussionspapiere/20180621-diskussionspapier-beschaeftigungseffekte-der-digitalisierung.pdf)
  4. Die Befragten variieren – je nach Interessenlage der Studienautoren – erheblich, wie Technologiebranchen-Vertreter, Informatikerinnen, Arbeitgeber und Arbeitnehmer.

Ergänzende Grafik zu Seite 31:

Abbildung 4: LLM-Einfluss auf Berufe nach University of Pennsylvania & OpenAI 2023.  

20        
Das Paper findet sich hier https://shapingwork.mit.edu/research/the-simple-macroeconomics-of-ai/

21          
Rushkoff Douglas (2022): Survival of the richest, Escape Fantasies of the Tech Billionares, New York: W.W. Norton.  

22          
Siehe den Brief für ein Moratorium der KI hier https://futureoflife.org/open-letter/pause-giant-ai-experiments/

23        
Eine Übersicht über das Sittenbild, die Wissenschaftlichkeit und die Beispiele hier https://www.faz.net/aktuell/feuilleton/debatten/warum-warnen-ki-entwickler-vor-der-apokalypse-19127528.html

24        
Killian, Nicolas (2024): Der Milliardär und die Apokalypse, in: DIE ZEIT, 14. März 2024, S. 24.

Seit Bucherscheinung haben sich auch mehrere wissenschaftliche Auseinandersetzungen der Frage gewidmet, ob die Menschheit vor dem Fortschritt künstlicher Intelligenz abgeschirmt werden sollte, um Selbstwertgefühl und Sinn durch Arbeit zu bewahren. So analysieren Carlo Ludovico Cordasco und Carissa Véliz in ihrem im Journal of Business Ethics erschienenem Artikel zwei Szenarien: (1) das Stoppen von KI-Einsatz in arbeitsrelevanten Bereichen, um das Verschwinden KI-automatisierbarer Jobs zu verhindern versus (2) ein umfassender KI- Entwicklungsstopp. Sie zeigen argumentativ auf, warum beide Szenarien zum Scheitern verurteilt sind. Stattdessen schlagen sie vor, dass Menschen in der kollaborativen Arbeit mit Maschinen neue Quellen von Sinn und Selbstachtung finden können – etwa durch spielerisches oder exzellenzorientiertes Handeln. So könnte ein erfülltes Leben jenseits klassischer Erwerbsarbeit entstehen.

Cordasco, C. L., & Véliz, C. (2025). Self-Esteem and Technological Unemployment: Should We Halt AI to Protect Meaningful Work? Journal of Business Ethics, 1-13.

25        
https://www.brandeins.de/magazine/brand-eins-wirtschaftsmagazin/2024/geld/rockefeller-erbe-die-rockefeller-story

26        
Graeber, David (2018): Bullshit Jobs: A Theory. Simon & Schuster, 2018

___________________________________

Die umfangreiche nachlaufende empirische Forschung innerhalb von EU-Ländern wie auch den USA zeigen dreierlei :

  1. Bullshit Jobs sind definitionsabhängiger mit Blick auf die Sinnfrage, was ein PR-Berater sofort bestätigen würde.  
  2. Bullshit Jobs sind zwar in vielen Studien weniger ausgeprägt als von Graeber angenommen, beeinträchtigen aber tatsächlich Einflüsse auf die psychische Gesundheit, dies aber eher bei dysfunktionalen und als sinnlos empfundenen Prozessen.
  3. Shit Jobs, deren Empathie und die Sinnhaftigkeit werden wiederum oft überschätzt, vor allem bei zu geringer Bezahlung und schlechten Arbeitsbedingungen.

(Soffia, M., Wood, A., & Burchell, B.: Alienation is not ‘Bullshit’: an empirical critique of Graeber's theory of BS jobs. In: Journal: Work, Employment and Society https://doi.org/10.1177/09500170211015067.)

____________________________________

27        
Deal, Terrence E. / Allan A. Kennedy (1982): Corporate Cultures: The Rites and Rituals of Corporate Life, Boston: Addison-Wesley Publishing Company.

28        
https://www.scientificamerican.com/article/i-gave-chatgpt-an-iq-test-heres-what-i-discovered/

29        
https://www.dfki.de/web/news/maschinelle-intelligenz-und-das-menschliche-monopol

30        
Benjamin, Walter (1980): Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, in: Ders. Gesammelte Schriften, Frankfurt am Main: Suhrkamp Verlag sowie Ders. (2019): Aura und Reflexion. Schriften zur Kunsttheorie und Ästhetik. Ausgewählt und mit einem Nachwort von Hartmut Böhme und Yvonne Ehrenspeck, Berlin: Suhrkamp Verlag.

31          
Zum Essay von Franzobel: Ist menschengefertigte Kunst obsolet? https://www.derstandard.at/story/3000000139466/ist-menschengefertigte-ku

32        
Knight, Sam (2024): Das Büro der Vorahnungen, Berlin: Aufbau Verlag

33        
Layne, Rachel (2023): Humans vs. Machines: Untangling the Tasks AI Can (and Can't) Handle, 22 Nov. 2023 https://hbswk.hbs.edu/item/humans-vs-machines-untangling-the-tasks-ai-can-and-cant-handle  

Neuere Studien vergleichen nicht nur die Leistung von Berater:innen mit versus ohne KI-Unterstützung, sondern setzen auf größere (Team-)Kontexte. So zum Beispiel untersucht eine Studie von Ju und Aral (2025), wie Zusammenarbeit mit KI-Agenten (auf Basis von GPT-4o) Teamarbeit, Produktivität und Leistung verändert. In einem groß angelegten Feldexperiment mit über 2.300 Teilnehmenden zeigten sich deutliche Unterschiede zwischen Mensch-KI- und Mensch-Mensch-Teams: Mensch-KI-Teams kommunizierten häufiger, arbeiteten stärker aufgabenorientiert und produzierten effizienter hochwertige Werbematerialien – allerdings auf Kosten sozialer Interaktion und Bildqualität. Besonders spannend: Die Wirkung der KI hing davon ab, ob ihre „Persönlichkeit“ zu jener der menschlichen Partner:innen passte; z. B. waren gewissenhafte Menschen besonders produktiv mit offen agierenden KI-Agenten.

Ju, H., & Aral, S. (2025). Collaborating with AI Agents: Field Experiments on Teamwork, Productivity, and Performance (arXiv:2503.18238). arXiv. https://arxiv.org/abs/2503.18238

34        
Kleine-Gunk, B., & Sorgner, S. L. (2023). Homo ex machina: Der Mensch von morgen – Chancen und Risiken des Transhumanismus. München: Goldmann

Seit Erscheinungsdatum haben sich zahlreiche wissenschaftliche Arbeiten mit möglichen Leistungs- und Kreativitätssteigerungen oder-einschränkungen in Zusammenarbeit mit oder im Vergleich zu KI befasst. Viele Arbeiten befassen sich mit den beeindruckenden positiven Effekten, zum Beispiel diese beiden Studien:

Lee, B. C., & Chung, J. (2024). An empirical investigation of the impact of ChatGPT on creativity. Nature Human Behaviour, 8(10), 1906-1914.

è Die Studie zeigt, dass die Nutzung von ChatGPT die Kreativität von Menschen bei der Ideenfindung deutlich steigert – stärker als herkömmliche Websuche oder keine technische Hilfe. Besonders wirksam war ChatGPT bei inkrementellen Innovationen, wobei die KI-Stärke darin liegt, entfernte Konzepte zu verknüpfen und ideenreich darzustellen.

Sun, S., Li, Z. A., Foo, M. D., Zhou, J., & Lu, J. G. (2025). How and for whom using generative AI affects creativity: A field experiment. Journal of Applied Psychology.

è Die Studie zeigt, dass Unterstützung durch generative KI (wie ChatGPT) die Kreativität von Mitarbeitenden steigert, indem sie kognitive Arbeitsressourcen bereitstellt. Besonders profitieren Beschäftigte mit hoher metakognitiver Kompetenz, also der Fähigkeit, das eigene Denken gezielt zu steuern und zu reflektieren.

Etwas überraschend ist, dass ältere Sprachmodelle der menschlichen Kreativität noch mehr auf die Sprünge zu helfen scheinen als neuere (welche selbst immer kreativer werden):

Holzner, N., Maier, S., & Feuerriegel, S. (2025). Generative AI and Creativity: A Systematic Literature Review and Meta-Analysis. arXiv preprint arXiv:2505.17241. https://arxiv.org/abs/2505.17241

Allerdings zeigen sich wiederholt auch kritische „Nebenwirkungen“ des KI-Einsatzes. Erstens werden wir zwar durchschnittlich besser, aber die „out-of-the-box“ Lösungen nehmen ab. Mathematisch ausgedrückt: der Mittelwert steigt leicht an, aber die Standardabweichung sinkt.

Doshi, A. R., & Hauser, O. P. (2024). Generative AI enhances individual creativity but reduces the collective diversity of novel content. Science Advances, 10(28), eadn5290.

è Die Autoren zeigen empirisch, dass generative KI wie große Sprachmodelle die individuelle Kreativität und Qualität von Texten steigern kann – insbesondere bei weniger kreativen Personen. Gleichzeitig führt die Nutzung von KI jedoch dazu, dass die erzeugten Inhalte sich stärker ähneln, wodurch die kollektive Vielfalt und Neuartigkeit kreativer Werke abnimmt.

Zweitens birgt mehr KI-Nutzung auch das Risiko für mehr Langeweile – zumindest den Ergebnissen von Suqing Wu und Kolleg:innen nach, die in einer Reihe von vier Experimenten (N = 3.562) zeigten, dass die Zusammenarbeit mit generativer KI (z. B. ChatGPT) zwar die unmittelbare Leistungsfähigkeit von Menschen in kreativen und professionellen Aufgaben steigert, jedoch langfristig psychologische Kosten verursacht. Insbesondere sinken bei anschließender Alleinarbeit die intrinsische Motivation, während Langeweile zunimmt – ein Effekt, der mit dem Gefühl eines Kontrollverlusts während der KI-Zusammenarbeit zusammenhängt. Die Ergebnisse weisen auf ein Spannungsfeld zwischen kurzfristiger Produktivitätssteigerung und nachhaltigem Wohlbefinden im Mensch-KI-Teamwork hin.

Wu, S., Liu, Y., Ruan, M., Chen, S., & Xie, X. Y. (2025). Human-generative AI collaboration enhances task performance but undermines human’s intrinsic motivation. Scientific Reports, 15(1), 15105.

35        
Morewedge, C. K. (2022). Preference for human, not algorithm aversion. Trends in Cognitive Sciences, 26(10), 824-826.

Inzwischen gibt es Meta-Analysen, die das Thema „Aversion gegen KI“ und „Wertschätzung von KI“ anhand neuster Daten aufbereitet. So zeigt ein Paper von Qin und Kolleg:innen (2025), dass die Ablehnung von KI nicht nur von der Identitätsrelevanz (wahrgenommenen Notwendigkeit der Personalisierung) abhängt, sondern auch davon, wie fähig die KI wahrgenommen wird (siehe nachfolgende Abbildung).

Qin, X., Zhou, X., Chen, C., Wu, D., Zhou, H., Dong, X., Cao, L., & Lu, J. G. (2025). AI aversion or appreciation? A capability–personalization framework and a meta-analytic review. Psychological Bulletin, 151(5), 580–599.

 

                                 Abbildung übersetzt und adaptiert aus Qin et al. (2025)

Andere zeigen über den Zeitverlauf sich abnehmende Vorbehalte, vor allem bei der Einschätzung von Kompetenz und Leistungsfähigkeit von KI – ein Hinweis auf zunehmende Gewöhnung und Akzeptanz.

Zehnle, M., Hildebrand, C., & Valenzuela, A. (2025). Not all AI is created equal: A meta-analysis revealing drivers of AI resistance across markets, methods, and time. International Journal of Research in Marketing.

 36        
Newport, Cal (2016). Deep Work: Rules for Focused Success in a Distracted World, New York City: Grand Central Publishing.

37        
Siehe zur Studienübersicht https://workjoy.co/blog/scientific-research-notifications-and-interruptions-negatively-affect-work

38          
Siehe Jansen, Stephan A. (2023): Der Zeitgeist und die Arbeitszeit, in: brand eins, 12/2023,  
https://www.brandeins.de/magazine/brand-eins-wirtschaftsmagazin/2023/zeit/stephan-a-jansen-der-zeitgeist-und-die-arbeitszeit
https://www.brandeins.de/magazine/brand-eins-wirtschaftsmagazin/2022/nachtleben/wie-ungesund-ist-es-gegen-die-innere-uhr-zu-leben

39        
Creutzburg, Dietrich (2024): Viertagewoche? Wichtiger sind nette Kollegen, in: FAZ, 27. 6. 2024, S. 18.

40        
https://www.brandeins.de/magazine/brand-eins-wirtschaftsmagazin/2022/nachtleben/chrono-kapitalismus

41        
Siehe v.a. hier https://documenta-fifteen.de/lumbung-member-kuenstlerinnen/project-art-works/

42        
Carton, A. M., Murphy, C., & Clark, J. R. (2014). A (blurry) vision of the future: How leader rhetoric about ultimate goals influences performance. Academy of Management Journal, 57(6), 1544-1570.

43        
Baumeister, R. F., Hofmann, W., Summerville, A., Reiss, P. T., & Vohs, K. D. (2020). Everyday thoughts in time: Experience sampling studies of mental time travel. Personality and Social Psychology Bulletin, 46(12), 1631-1648.

44        
Quaquebeke, N. V., & Gerpott, F. H. (2023). The now, new, and next of digital leadership: How Artificial Intelligence (AI) will take over and change leadership as we know it. Journal of Leadership & Organizational Studies, 30(3), 265-275.

45         
Joksimovic, S., Ifenthaler, D., Marrone, R., De Laat, M., & Siemens, G. (2023). Opportunities of artificial intelligence for supporting complex problem-solving: Findings from a scoping review. Computers and Education: Artificial Intelligence, 4, 100138.

46         
Costello, T. H., Pennycook, G., & Rand, D. (2024). Durably reducing conspiracy beliefs through dialogues with AI. OSF Preprints, https://doi.org/10.31234/osf.io/xcwdn

47         
Yin, Y., Jia, N., & Wakslak, C. J. (2024). AI can help people feel heard, but an AI label diminishes this impact. Proceedings of the National Academy of Sciences, 121(14), e2319112121.

48         
Raisch, S., & Krakowski, S. (2020). Artificial intelligence and management: The automation-augmentation paradox. Academy of Management Review, 46(1), 192-210.Wesche, J. S., & Sonderegger, A. (2019). When computers take the lead: The automation of leadership. Computers in Human Behavior, 101, 197-209.

49         
Safak, C., & Farrar, J. (2021). Managed by bots. Data-driven exploitation in the gig economy. Worker Info Exchange Report. https://www.workerinfoexchange.org/wie-report-managed-by-botsRosenblat, A. (2018). Uberland: How algorithms are rewriting the rules of work. University of California Press.

50         
Van Quaquebeke, N. (2024). Your Bot Boss: How AI will reshape leadership. TEDxESMTBerlin. https://www.youtube.com/watch?v=L-HLa3WKWrc

51        
Parent-Rocheleau, X., & Parker, S. K. (2022). Algorithms as work designers: How algorithmic management influences the design of jobs. Human Resource Management Review, 32(3), 100828.

52         
Trifan, R. (2021). Is the Investor’s Biorhythm Affecting the Stock Market? In Digitalization in Finance and Accounting: 20th Annual Conference on Finance and Accounting (ACFA 2019) Prague, Czech Republic 20 (pp. 71-82). Springer International Publishing. Volk, S., Lowe, K. B., & Barnes, C. M. (2023). Circadian leadership: A review and integration of chronobiology and leadership. Journal of Organizational Behavior, 44(2), 180-201.

53         
WiWo. (2019, September 26). Wunsch und Wirklichkeit: Fachkräfte wünschen sich bessere Chefs. WirtschaftsWoche. https://www.wiwo.de/erfolg/trends/wunsch-und-wirklichkeit-fachkraefte-wuenschen-sich-bessere-chefs/25267320.html

Eine neue Studie zeigt: Auch die beste künstlichen Intelligenz macht aus einem kühnen Irren noch lange keinen kompetenten Chef. Wer im Umgang mit KI-Agenten klug, empathisch und entscheidungsstark agiert, überzeugt meist auch im echten Team. Das Problem schlechter Führung bleibt also ein hartnäckiges…

Weidmann, B., Xu, Y., & Deming, D. J. (2025). Measuring Human Leadership Skills with AI Agents (No. w33662). National Bureau of Economic Research.

54         
Namie, G. (2021). 2021 WBI U.S. Workplace Bullying Survey. Workplace Bullying Institute. https://workplacebullying.org/multi/pdf/WBI-2021-US-Survey.pdf

55         
Boston Consulting Group (2021). Human-centered leaders are the future of leadership. BCG study 2021. https://web-assets.bcg.com/b4/67/551c4d9340a78a15ad08db02cf15/bcg-humancenteredleadersarethefutureofleadership-20210204-vf.pdf

56         
Schulze, E. (2022, Dezember 19). Manager werden: Weshalb heute niemand mehr Chef werden will. Handelsblatt. https://www.handelsblatt.com/karriere/manager-werden-weshalb-heute-niemand-mehr-chef-werden-will-/28782734.htmlKim, B. H. (2024). Chef sein – nein danke? ARD mediathek. https://www.tagesschau.de/wirtschaft/unternehmen/fuehrungskraefte-mangel-anreiz-gehalt-selbstverwirklichung-100.htmlZhang, C., Nahrgang, J. D., Ashford, S. J., & DeRue, D. (2020). Why capable people are reluctant to lead. Harvard Business Review. https://hbr.org/2020/12/why-capable-people-are-reluctant-to-lead

57         
Meindl, J. R., Ehrlich, S. B., & Dukerich, J. M. (1985). The Romance of Leadership. Administrative Science Quarterly, 30(1), 78-102.

58         
Detert, J. R., Kniffin, K. M., & Leroy, H. (2022). Saving Management from our obsession with leadership. MIT Sloan Management Review, 64(1), 74-81.Kniffin, K. M., Leroy, H., & Detert, J. R. (2020). On Leading and Managing: Synonyms or Different Concepts? Academy of Management Discoveries, 6(4), 535-538.

59        
Sivers, D. (2010, February). Leadership Lessons from Dancing Guy. TED Conferences. https://www.ted.com/talks/derek_sivers_how_to_start_a_movement

60        
DeRue, D. S., Nahrgang, J. D., Wellman, N., & Humphrey, S. E. (2011). Trait and Behavioral Theories of Leadership: An integration and meta-analytic test of their relative validity. Personnel Psychology, 64(1), 7-52. Yukl, G., Gordon, A., & Taber, T. (2002). A hierarchical taxonomy of leadership behavior: integrating a half century of behavior research. Journal of Leadership & Organizational Studies, 9(1), 15-32.

61        
Deci, E. L., & Ryan, R. M. (2000). The „what“ and „why“ of goal pursuits: Human needs and the self-determination of behavior. Psychological Inquiry, 11(4), 227-268.

62         
Van den Broeck, A., Ferris, D. L., Chang, C.-H., & Rosen, C. C. (2016). A review of self-determination theory’s basic psychological needs at work. Journal of Management, 42(5), 1195-1229.

63         
Vgl. Auch Weber-Guskar, E. (2024). Gefühle der Zukunft. Wie wir mit emotionaler KI unser Leben verändern. Ullstein Verlag.

64         
Yin, Y., Jia, N., & Wakslak, C. J. (2024). AI can help people feel heard, but an AI label diminishes this impact. Proceedings of the National Academy of Sciences, 121(14), e2319112121

Auch neuere Arbeiten zeigen immer wieder den Effekt, dass die KI-Interaktion oft emotional unterstützender wahrgenommen wird als die Mensch-Interaktion – allerdings nur so lange man nicht weiß, dass das „Gegenüber“ eine KI ist. Sobald letzteres bekannt ist, schlägt die Bewertung ins Negative um – eben weil die andere Seite keine echten Emotionen empfunden hat:

Rubin, M., Li, J. Z., Zimmerman, F., Ong, D. C., Goldenberg, A., & Perry, A. (2025). Comparing the value of perceived human versus AI-generated empathy. Nature Human Behaviour, 1-15.

65         
Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): A randomized controlled trial. JMIR mental health, 4(2), e7785.
Prochaska, J. J., Vogel, E. A., Chieng, A., Baiocchi, M., Maglalang, D. D., Pajarito, S., ... & Robinson, A. (2021). A randomized controlled trial of a therapeutic relational agent for reducing substance misuse during the COVID-19 pandemic. Drug and Alcohol Dependence, 227, 108986.

Inzwischen zeigt die Forschung auch, das ChatGPT beeindruckende therapeutische Fähigkeiten an den Tag legt:

Hatch, S. G., Goodman, Z. T., Vowels, L., Hatch, H. D., Brown, A. L., Guttman, S., ... & Braithwaite, S. R. (2025). When ELIZA meets therapists: A Turing test for the heart and mind. PLOS Mental Health, 2(2), e0000145.

66         
Granulo, A., Fuchs, C., & Puntoni, S. (2019). Psychological reactions to human versus robotic job replacement. Nature Human Behaviour, 3(10), 1062-1069.

67         
Lawrence, N. D. (2024). The Atomic Human. Penguin Books.

68         
Leavitt, K., Barnes, C. M., & Shapiro, D. L. (2024). The role of human managers within algorithmic performance management systems: A Process Model of Employee Trust in Managers through Reflexivity. Academy of Management Review. https://doi.org/10.5465/amr.2022.0058

69         
Rosa, H. (2016). Resonanz: Eine Soziologie der Weltbeziehung. Suhrkamp Verlag.

70         
Collins, R. (2004). Interaction Ritual Chains. Princeton University Press.

71         
Gajendran, R. S., Ponnapalli, A. R., Wang, C., & Javalagi, A. A. (2024). A dual pathway model of remote work intensity: A meta‐analysis of its simultaneous positive and negative effects. Personnel Psychology.
https://doi.org/10.1111/peps.12641
Choudhury, P., Khanna, T., Makridis, C. A., & Schirmann, K. (2024). Is hybrid work the best of both worlds? Evidence from a field experiment. Review of Economics and Statistics, 1-24.

72         
Wang, B., Liu, Y., & Parker, S. K. 2020. How does the use of information communication technology affect individuals? A work design perspective. Academy of Management Annals, 14, 695-725.

73         
Siampou, F., Komis, V., & Tselios, N. 2014. Online versus face-to-face collaboration in the context of a computer-supported modeling task. Computers in Human Behavior, 37, 369-376.

74         
O’Neil, C. (2016). Weapons of math destruction: How Big Data increases inequality and threatens democracy. Crown.

75         
Robinette, P., Li, W., Allen, R., Howard, A. M., & Wagner, A. R. (2016, March). Overtrust of robots in emergency evacuation scenarios. 2016 11th ACM/IEEE international conference on human-robot interaction (HRI) (pp. 101-108). IEEE.

76         
Moser, C., Den Hond, F., & Lindebaum, D. (2022). Morality in the age of artificially intelligent algorithms. Academy of Management Learning & Education, 21(1), 139-155.

77         
Tang, P. M., Koopman, J., Mai, K. M., De Cremer, D., Zhang, J. H., Reynders, P., ... & Chen, I. (2023). No person is an island: Unpacking the work and after-work consequences of interacting with artificial intelligence. Journal of Applied Psychology, 108(11), 1766–1789.
Yam, K. C., Tang, P. M., Jackson, J. C., Su, R., & Gray, K. (2022). The rise of robots increases job insecurity and maladaptive workplace behaviors: Multimethod evidence. Journal of Applied Psychology, 108(5), 850–870.

78         
Granulo, A., Caprioli, S., Fuchs, C., & Puntoni, S. (2024). Deployment of algorithms in management tasks reduces prosocial motivation. Computers in Human Behavior, 152, 108094.

79         
Mincer, J., & Ofek, H. (1982). Interrupted work careers: Depreciation and restoration of human capital. The Journal of Human Resources, 17(1), 3–24.            
Reder, S. (1994). Practice-engagement theory: A sociocultural approach to literacy across languages and cultures. In B. M. Ferdman, R. M. Weber, & A. G. Ramirez (Eds.), Literacy Across Languages and Cultures (pp. 33–74). State University of New York Press.

80         
Reinmann, G. (2023, Oktober). Deskilling durch Künstliche Intelligenz? Potenzielle Kompetenzverluste als Herausforderung für die Hochschuldidaktik. Diskussionspapier (Nr. 25). Berlin: Hochschulforschung Verlag.

Das Thema „Deskilling durch KI“ wurde auch von der ausländischen Presse aufgegriffen, so zum Beispiel von the New Yorker (https://www.newyorker.com/culture/infinite-scroll/ai-is-homogenizing-our-thoughts), für die Kyle Chayka eine vielbeachtete MIT-Studie verarbeitet: Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X. H., Beresnitzky, A. V., ... & Maes, P. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. arXiv preprint arXiv:2506.08872.

Die Studie ist nicht unumstritten; unter anderem wird daran kritisiert, dass sie nicht realistisch abbildet, wie Studierende KI im Lernalltag nutzen. Sie kann aber als Teil eines größeren wissenschaftlichen Interesses daran gesehen werden, ob KI-Nutzung die kognitive Faulheit erhöht, wie zum Beispiel in diesen beiden Artikel diskutiert:

(1)Gerlich, M. (2025). AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies, 15(1), 6.

(2) https://www.nature.com/articles/d41586-025-00292-z 

81         
Zitiert nach S. 149f. aus Skidelsky, R. (2024). Werden wir ersetzt? Vom Fortschrittswahn zu einer Ökonomie des gerechten Lebens. Verlag Antje Kunstmann.

82         
Musil, R. (2015). Der Mann ohne Eigenschaften: Erstes Buch. BoD–Books on Demand.

83         
Jansen, S. A. (2018). Die Befreiung der Bildung: Über das Kommen, Gehen und Bleiben digitaler Lehre. Nicolai Publishing & Intelligence. Und ders. (2024): Die künmstlerische Intelligenz der Universität des 21. Jahrhunderts, in: Kleinmichel, Philipp / Landkammer, Jocahim / Söffner, Jan / Spöhrer, Rahel  (Hrsg.): Die Kunst der Universität — Episteme, Ästhetik, Institution, Bielefeld: transcript, S. 27-40.  

84         
Schleiss, J., Mah, D.-K., Böhme, K., Fischer, D., Mesenhöller, J., Paaßen, B., Schork, S., Schrumpf, J. (2023). Künstliche Intelligenz in der Bildung. Drei Zukunftsszenarien und fünf Handlungsfelder. Berlin: KI-Campus.

85        
https://www.brandeins.de/magazine/brand-eins-wirtschaftsmagazin/2024/25-jahre-brand-eins/privatlehrer-fuer-alle

86         
Zum Beispiel Neurodiversity Navigator-Autism Support Tool, https://www.yeschat.ai/de/gpts-9t557IEFMxd-Neurodiversity-Navigator

87         
Burgos, D. (2020). Radical solutions and learning Analytics. Singapore: Springer.
Bowers, A. J. (2021). Early warning systems and indicators of dropping out of upper secondary school: The emerging role of digital technologies. In OECD Digital Education Outlook 2021: Pushing the Frontiers with Artificial Intelligence, Blockchain and Robots (pp. 173-194). OECD Publishing. https://doi.org/10.1787/589b283f-en
Lee, S., & Chung, J. Y. (2019). The machine learning-based dropout early warning system for improving the performance of dropout prediction. Applied Sciences, 9(15), 3093.
Eberle, J., Strauß, S., Nachtigall, V., & Rummel, N. (2024). Analyse prozessbezogener Verhaltensdaten mittels Learning Analytics: Aktuelle und zukünftige Bedeutung für die Unterrichtswissenschaft. Unterrichtswissenschaft, 1-13.

88
Teo, S. H. J., Poh, X. W. W., Lee, T. S., Guan, C., Cheung, Y. B., Fung, D. S. S., ... & Lim, C. G. (2021). Brain-computer interface based attention and social cognition training programme for children with ASD and co-occurring ADHD: A feasibility trial. Research in Autism Spectrum Disorders, 89, 101882.
Peksa, J., & Mamchur, D. (2023). State-of-the-art on brain-computer interface technology. Sensors, 23(13), 6001.
Waldman D. A., Balthazard P., Peterson S. J. (2011). Leadership and neuroscience: Can we revolutionize the way that inspirational leaders are identified and developed? Academy of Management Perspectives, 25(1), 60-74.

89
Vo, N. N., Vu, Q. T., Vu, N. H., Vu, T. A., Mach, B. D., & Xu, G. (2022). Domain-specific NLP system to support learning path and curriculum design at tech universities. Computers and Education: Artificial Intelligence, 3, 100042.
Henkel, O., Hills, L., Boxer, A., Roberts, B., & Levonian, Z. (2024, July). Can Large Language Models Make the Grade? An Empirical Study Evaluating LLMs ability to mark short answer questions in K-12 education. In Proceedings of the Eleventh ACM Conference on Learning@ Scale (pp. 300-304).
https://arxiv.org/abs/2405.02985
Schleiss, J., Mah, D.-K., Böhme, K., Fischer, D., Mesenhöller, J., Paaßen, B., Schork, S., Schrumpf, J. (2023). Künstliche Intelligenz in der Bildung. Drei Zukunftsszenarien und fünf Handlungsfelder. Berlin: KI-Campus.

90
https://www.faz.net/aktuell/politik/inland/80-prozent-laut-allensbach-umfrage-unzufrieden-mit-bildungspolitik-19945534.html

91
Ikeda, M. (2020), "Were schools equipped to teach – and were students ready to learn – remotely?", PISA in Focus, No. 108, OECD Publishing, Paris, https://doi.org/10.1787/4bcd7938-en.

92
Budde, J., Friedrich, J.-D., & Sames, J. (2022). Vom Blended Learning zum Thema "Blended University". strategie digital. Magazin für Hochschulstrategien im digitalen Zeitalter, 2, 12-21. Hochschulforum Digitalisierung. https://www.che.de/download/vom-blended-learning-zum-thema-blended-university/

93
Hochschulforum Digitalisierung. (1. März, 2023). Welche Herausforderung in Bezug auf die technische Ausstattung für digitales Lernen gibt es an Hochschulen? [Graph]. In Statista. Zugriff am 30. Juli 2024, von https://de.statista.com/statistik/daten/studie/1456676/umfrage/digitalisierung-an-hochschulen-umfrage/

94
http://www.eyalter.com/de/ und https://www.youtube.com/watch?v=Ut8WQfJPf3k

95         
Lacerenza, C. N., Reyes, D. L., Marlow, S. L., Joseph, D. L., & Salas, E. (2017). Leadership training design, delivery, and implementation: A meta-analysis. Journal of Applied Psychology, 102(12), 1686.

96
Pennekamp, J. (2024, 27. Juli). Das Gehirn arbeitet anders, wenn auf Papier gelernt wird. Frankfurter Allgemeine Zeitung.

97
Park, M., Leahey, E., & Funk, R. J. (2023). Papers and patents are becoming less disruptive over time. Nature, 613(7942), 138-144.

98
Hannigan, T. R., McCarthy, I. P., & Spicer, A. (2024). Beware of botshit: How to manage the epistemic risks of generative chatbots. Business Horizons. https://doi.org/10.1016/j.bushor.2024.03.001

99
Shumailov, I., Shumaylov, Z., Zhao, Y., Papernot, N., Anderson, R., & Gal, Y. (2024). AI models collapse when trained on recursively generated data. Nature, 631(8022), 755-759.

100
Gibney, E. (2024). AI models fed AI-generated data quickly spew nonsense. Nature, 632(8023), 18-19.

101
Kim, N., Kang, S. W., Kim, S. J., & Park, H. J. (2023). Questioning unquestioned habits of mind: How executives learn new approaches to familiar situations through transformative learning. Academy of Management Learning & Education, 22(3), 481-506.

102
Cao, H., Lee, C. J., Iqbal, S., Czerwinski, M., Wong, P. N., Rintel, S., ... & Yang, L. (2021, May). Large scale analysis of multitasking behavior during remote meetings. In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems (pp. 1-13).

103
Alghamdi, A., Karpinski, A. C., Lepp, A., & Barkley, J. (2020). Online and face-to-face classroom multitasking and academic performance: Moderated mediation with self-efficacy for self-regulated learning and gender. Computers in Human Behavior, 102, 214-222.
Beuckels, E., Ye, G., Hudders, L., & Cauberghe, V. (2021). Media multitasking: A bibliometric approach and literature review. Frontiers in Psychology, 12, 623643.

104
Vongswasdi, P., Leroy, H., Menges, J., & Le, J. (2023). How Mindfulness Qualifies the Relationship between Negative Emotions and Developmental Outcomes. Academy of Management Proceedings.

105
Tang, P. M., Koopman, J., Mai, K. M., De Cremer, D., Zhang, J. H., Reynders, P., Ng, C. T. S., & Chen, I-H. (2023). No person is an island: Unpacking the work and after-work consequences of interacting with artificial intelligence. Journal of Applied Psychology, 108(11), 1766–1789.

106
Davidesco, I., Laurent, E., Valk, H., West, T., Milne, C., Poeppel, D., & Dikker, S. (2023). The temporal dynamics of brain-to-brain synchrony between students and teachers predict learning outcomes. Psychological Science, 34(5), 633-643.

107
Oppezzo, M., & Schwartz, D. L. (2014). Give your ideas some legs: The positive effect of walking on creative thinking. Journal of Experimental Psychology: Learning, Memory, and Cognition, 40(4), 1142-1152.

108
Quaquebeke, N. V. (2019). Das Gehalt kann es nicht mehr sein. brand eins. https://www.brandeins.de/magazine/brand-eins-wirtschaftsmagazin/2019/gehalt/niels-van-quaquebeke-das-gehalt-kann-es-nicht-mehr-sein

109
Belinda, C. D., & Christian, M. S. (2023). A spillover model of dreams and work behavior: How dream meaning ascription promotes awe and employee resilience. Academy of Management Journal, 66(4), 1152-1182.
Alacovska, A. (2020). From passion to compassion: A caring inquiry into creative work as socially engaged art. Sociology, 54(4), 727-744.
Yam, K. C., Tang, P. M., & Lam, C. (2023). Working with animals: Implications for employees’ compassion, awe, prosocial behavior, and task performance. Personnel Psychology, 76(1), 181-220.

110
Burggren, W. W., & Mueller, C. A. (2015). Developmental critical windows and sensitive periods as three-dimensional constructs in time and space. Physiological and Biochemical Zoology, 88(2), 91-102.
Korte, M. (2020). The impact of the digital revolution on human brain and behavior: where do we stand? Dialogues in clinical neuroscience, 22(2), 101-111.

111
Zur Inspiration: https://www.tu.berlin/bzhl/ressourcen-fuer-ihre-lehre/ressourcen-nach-themenbereichen/ki-in-der-hochschullehre

112
Mutius, A. von, &  Gerpott, F. H. (2024). Ein gutes Match: Künstliche Intelligenz und Recruiting. Harvard Business Manager. Abgerufen von https://www.manager-magazin.de/hbm/kuenstliche-intelligenz-und-recruiting-bewerber-finden-die-gar-nicht-auf-jobsuche-sind-a-ac71722b-1d77-45c4-b017-750978e28a95

113
Statistisches Bundesamt (2024). Dauer der Beschäftigung beim aktuellen Arbeitgeber.
https://www.destatis.de/DE/Themen/Arbeit/Arbeitsmarkt/Qualitaet-Arbeit/Dimension-4/dauer-beschaeftigung-aktuell-Arbeitgeber.html
Wolter, U. (2022). Arbeitnehmer bleiben durchschnittlich 11 Jahre in einem Unternehmen. Abgerufen von https://www.personalwirtschaft.de/news/recruiting/arbeitnehmer-bleiben-durchschnittlich-11-jahre-in-einem-unternehmen-133055/#:~:text=Mit%20der%20Verweildauer%20von%20rund,(OECD)%20von%202020%20zeigt

114
Deutsche Gesellschaft für Personalführung (DGFP) & Kienbaum. (2024). Wie viel kostet HR? Eine Untersuchung der HR-Kostenstruktur. Abgerufen von https://persoblogger.de/download/dgfp-und-kienbaum-eine-untersuchung-der-hr-kostenstruktur-whitepaper

Inzwischen haben sich auch die internationalen wissenschaftlichen Zeitschriften dem „KI-Honig in den Waben des HMRM“ (so unsere Abbildung im Buch) angenommen. Anthony J. Nyberg und Kolleg:innen haben im renommierten Journal of Management eine Analyse veröffentlicht, in der sie sechs Kern-HR-Bereiche betrachten und über ähnliche Schlussfolgerungen, wie wir vorgedacht haben, nachdenken:

Nyberg, A. J., Schleicher, D. J., Bell, B. S., Boon, C., Cappelli, P., Collings, D. G., ... & Yakubovich, V. (2025). A Brave New World of Human Resources Research: Navigating Perils and Identifying Grand Challenges of the GenAI Revolution. Journal of Management, 01492063251325188.

115
Schwär, H. & Wirminghaus, N. (2024). Stellenabbau wegen KI? Was hinter den SAP-Plänen steckt. Abgerufen von https://www.capital.de/wirtschaft-politik/stellenabbau-wegen-ki--was-hinter-den-sap-plaenen-steckt-34395686.html

116
Boston Consulting Group. (2023). Set the right people priorities for challenging times. Abgerufen von https://www.bcg.com/publications/2023/set-the-right-people-priorities-for-challenging-times

117
Schmidt, H. (2024). Chefs denken, dass KI 50 Prozent mehr Zeit sparen kann als Arbeitnehmer. Frankfurter Allgemeine Zeitung. Abgerufen von https://www.faz.net/pro/d-economy/kuenstliche-intelligenz/chefs-denken-dass-ki-50-prozent-mehr-zeit-sparen-kann-als-arbeitnehmer-19859711.html

118
Microsoft Corporation. (2024). Work Trend Index Annual Report. https://www.microsoft.com/en-us/worklab/work-trend-index

119
Hesse, G. (2015). Employer Branding Fail: IBM erntet Shitstorm für Kampagne. Abgerufen von https://www.saatkorn.com/employer-branding-fail-ibm-mint-kampagne-geht-nach-hinten-los/
Sickert, T. (2016). Vom Hipster-Mädchen zum Hitler-Bot. Abgerufen von https://www.spiegel.de/netzwelt/web/microsoft-twitter-bot-tay-vom-hipstermaedchen-zum-hitlerbot-a-1084038.html

120
Zum Beispiel: https://scottytechnologies.com/scotty-ai-for-talent-acquisition/
https://www.mona-ai.de/personalvermittler

121
Horodyski, P. (2023). Applicants' perception of artificial intelligence in the recruitment process. Computers in Human Behavior Reports, 11, 100303.
Folger, N., Brosi, P., Stumpf-Wollersheim, J., & Welpe, I. M. (2022). Applicant reactions to digital selection methods: A signaling perspective on innovativeness and procedural justice. Journal of Business and Psychology, 1-23.

122
Vergleiche auch Scheller, S. (2017). Absurdes Matching von Bewerbern nach Cultural Fit – Praxistest CompanyMatch. Abgerufen von https://persoblogger.de/2017/11/22/absurdes-matching-von-bewerbern-nach-cultural-fit-praxistest-plattform-companymatch/

123
Seppälä, P., & Małecka, M. (2024). AI and discriminative decisions in recruitment: Challenging the core assumptions. Big Data & Society, 11(1), 20539517241235872.

124
Pethig, F., & Krönung, J. (2023). Biased humans, (un) biased algorithms? Journal of Business Ethics, 183(3), 637-652.

125
Zum Beispiel https://www.hirevue.com/ https://www.testgorilla.com/

126
Vargas, E. P., Carrasco-Ribelles, L. A., Marin-Morales, J., Molina, C. A., & Raya, M. A. (2024). Feasibility of virtual reality and machine learning to assess personality traits in an organizational environment. Frontiers in Psychology, 15, 1342018.

127
Lee, P., Fyffe, S., Son, M., Jia, Z., & Yao, Z. (2023). A paradigm shift from “human writing” to “machine generation” in personality test development: An application of state-of-the-art natural language processing. Journal of Business and Psychology, 38(1), 163-190.

128
Thompson, I., Koenig, N., Mracek, D. L., & Tonidandel, S. (2023). Deep learning in employee selection: Evaluation of algorithms to automate the scoring of open-ended assessments. Journal of Business and Psychology, 38(3), 509-527.

Die neuere Forschung zeigt, dass die Nutzung von KI im Auswahlprozess dazu führt, dass Menschen sich anders verhalten, wenn sie wissen, dass sie von KI statt von Menschen beurteilt werden: Sie stellen sich selbst als analytischer dar und unterdrücken intuitive oder emotionale Anteile. Dieser sogenannte „AI Assessment Effect“ beruht auf der weitverbreiteten Annahme, dass KI vor allem analytische Eigenschaften positiv bewertet. In 12 Studien (N = 13.342) wurde belegt, dass dies die Aussagekraft von Auswahlverfahren wie Bewerbungen oder Zulassungen verzerren kann – und damit direkten Einfluss darauf hat, wer ausgewählt wird und wer nicht.

Goergen, J., de Bellis, E., & Klesse, A. K. (2025). AI assessment changes human behavior. Proceedings of the National Academy of Sciences, 122(25), e2425439122.

129
Wimmer, R. (2004). Organisation und Beratung: Systemtheoretische Perspektiven für die Praxis. Carl Auer Verlag.

130
Kanning, U. P. (2024). Neun Mythen der Personalarbeit. Abgerufen von https://www.haufe.de/personal/hr-management/hr-mythen_80_629200.html

131
Gallup. (2019). Gallup’s perspective on creating an exceptional onboarding journey for your new employees. Abgerufen von https://www.gallup.com/workplace/247076/onboarding-new-employees-perspective-paper.aspx

132
Bauer, T. N., Bodner, T., Erdogan, B., Truxillo, D. M., & Tucker, J. S. (2007). Newcomer adjustment during organizational socialization: A meta-analytic review of antecedents, outcomes, and methods. Journal of Applied Psychology, 92(3), 707–721.
Smith, C. E., Matthews, R. A., Mills, M. J., Hong, Y. H., & Sim, S. (2022). Organizational benefits of onboarding contingent workers: An anchoring model approach. Journal of Business and Psychology, 37(3), 525-541.

133
Daly, T. (2023). A Case Study of Employee Onboarding with ChatGPT at ABC Corp. https://www.linkedin.com/pulse/case-study-employee-onboarding-chatgpt-abc-corp-tom-daly/
Hajela, S. (2024). AI in HR: Enhancing Employee On-boarding with Chatbots. Abgerufen von https://cioindex.com/reference/case-study-artificial-intelligence-in-human-resources/

134
Bünnagel, W. (2024). Künstliche Intelligenz und Unternehmenswissen: Betriebliches Wissensmanagement auf morgen ausrichten. Springer Vieweg.

135
Buxmann, P. & Schmidt, H. (2024). KI in der Drogerie - dm-GPT für 75.000 Mitarbeiter. Abgerufen von https://www.faz.net/pro/d-economy/kuenstliche-intelligenz/ki-in-der-drogerie-dm-gpt-fuer-75-000-mitarbeiter-19827945.html

136
De Freitas, J., Uguralp, A. K., Uguralp, Z. O., & Stefano, P. (2024). AI Companions Reduce Loneliness. arXiv preprint arXiv:2407.19096.

137
Dutta, D. (2021). Amber by Infeedo: The CEO's virtual assistant revolutionizing employee engagement. Harvard Business School Case, Product #: IMB851-PDF-ENG.
Siehe auch: https://get.infeedo.com/

138
https://algorithmwatch.ch/en/atlas-db/emotionserkennung-in-zoom/
Kuhn, J. (2019). Mein Smartphone weiß, dass ich wütend bin. Süddeutsche Zeitung, 27. Abgerufen von
https://www.sueddeutsche.de/wirtschaft/smartphone-software-emotionen-simulation-ki-1.4377004
Kritische Einordnung: Kirk, H. R., Vidgen, B., Röttger, P., & Hale, S. A. (2024). The benefits, risks and bounds of personalizing the alignment of large language models to individuals. Nature Machine Intelligence, 1-10.

139
Jia, N., Luo, X., Fang, Z., & Liao, C. (2024). When and how artificial intelligence augments employee creativity. Academy of Management Journal, 67(1), 5-32.

140
Eickelmann, B. (2023). KI in der Schule und Bildungsgerechtigkeit. Abgerufen unter https://www.fiete.ai/blog/ki-in-der-schule-und-bildungsgerechtigkeit

141
Doshi, A. R., & Hauser, O. P. (2024). Generative AI enhances individual creativity but reduces the collective diversity of novel content. Science Advances, 10(28), eadn5290.

142
Varma, A., Pereira, V., & Patel, P. (2024). Artificial intelligence and performance management. Organizational Dynamics, 53(1), 101037.

143
Beuth, P. (2014). Schwanger ohne digitale Spuren. Die Zeit. Abgerufen von
https://www.zeit.de/digital/datenschutz/2014-04/big-data-schwangerschaft-verheimlichen
Drösser, C. (2016). Er weiß es, bevor du es weißt. Die Zeit. Abgerufen von https://www.zeit.de/2016/16/computer-algorithmen-macht-buerger-stadt
Soffia, M., Wood, A., & Burchell, B.: Alienation is not ‘Bullshit’: an empirical critique of Graeber's theory of BS jobs. In: Journal: Work, Employment and Society https://doi.org/10.1177/09500170211015067.