Vom Vorlesungsraum zu virtuellen Räumen, von Wörterbüchern zur KI
Neue Technologien verändern nicht nur, wie wir arbeiten, sondern auch, wie wir Verantwortung, Kompetenz und Kontrolle erleben. Im Interview spricht die ETH-Professorin Gudela Grote über die psychologischen Folgen von KI in der Arbeitswelt und Lehre sowie über die Anforderungen an eine menschengerechte Gestaltung.
Sie unterrichten seit vielen Jahren Arbeits- und Organisationspsychologie an der ETH Zürich. Wie hat sich Ihre Lehrtätigkeit durch neue Technologien verändert?
Gudela Grote: Das war eine kontinuierliche Veränderung, von der Tafel zu physischen und elektronischen Folien, vom Vorlesungsraum zu virtuellen Räumen, von der Nutzung von Wörterbüchern zu generativer KI in studentischen Arbeiten.
Welche Entwicklung hat Sie persönlich am meisten überrascht?
Überrascht und ein wenig schockiert hat mich, wie schnell wir alle bereit sind, unsere ureigensten kognitiven, sozialen und emotionalen Aufgaben an die KI zu delegieren.
Welche Rolle spielt künstliche Intelligenz inzwischen in Ihrem Unterricht?
Im Unterricht selbst geht es vor allem darum – auch schon vor KI –, die Auswirkungen von Technologie auf menschliche Arbeit zu reflektieren, daraus Anforderungen an die menschengerechte Technikgestaltung abzuleiten und Gestaltungsmethoden zu vermitteln und zu erproben. Die direkte Anwendung von KI spielt vor allem in studentischen Arbeiten eine Rolle und wird zusammen mit den Studierenden kritisch hinterfragt.
Wenn Sie sich einen idealen digitalen Assistenten für Ihren Arbeitsalltag wünschen könnten: Was müsste dieser unbedingt können – und was auf keinen Fall?
Meine Arbeit gelingt sehr gut ohne digitalen Assistenten.
Viele sprechen bei KI von einem Effizienzgewinn. Aber wie verändert die Technologie Ihrer Meinung nach das Erleben von Arbeit jenseits der Produktivität?
Zunächst einmal ist es wichtig, zu definieren, was mit KI gemeint ist. In den derzeitigen Diskussionen sind oft nur sehr eingeengt generative KI und besonders grosse Sprachmodelle gemeint. Ob deren Einsatz tatsächlich die Effizienz steigert, muss auch erst noch systematisch nachgewiesen werden. Derzeit will jede Firma auch "dabei sein", was oft zu recht naiven und wenig innovativen Anwendungen führt, wie Chatbots für sehr einfache Frage- und Antwortsequenzen. Ein wirklicher Gewinn, der dann auch das Erleben von Arbeit positiv beeinflussen kann, entsteht erst, wenn grundsätzlicher und unter Einbezug der Expertise aller Anspruchsgruppen darüber nachgedacht wird, wie Effizienz, vor allem aber auch Innovation, durch neue Technologien erreicht werden kann.
Was entscheidet aus psychologischer Sicht darüber, ob Mitarbeitende neue digitale Tools mit Begeisterung annehmen oder sie als Belastung empfinden?
Zentral ist, dass die neuen Werkzeuge tatsächlich helfen, die Arbeit besser oder schneller zu machen. Das ist oft nicht ohne Weiteres der Fall, besonders wenn die Werkzeuge bereits vor ihrer wirklichen Marktreife eingesetzt werden und die Mitarbeitenden keine Möglichkeit haben, die Beseitigung von Mängeln zu bewirken.
Was macht die Zusammenarbeit mit KI, rein psychologisch betrachtet, mit uns Menschen? Stärkt sie das eigene Können oder schwächt sie eher das Gefühl, selbst am Steuer zu sitzen?
Darauf gibt es keine Antwort, da es grundlegend darauf ankommt, wie KI eingesetzt wird. Haben die Menschen Mitspracherecht bei der Wahl der Technologien, bei der Art ihres Einsatzes? Sind sie in die Entwicklung, Nutzung und Verbesserung von Technologien einbezogen? Geben die Vorgesetzten vor, dass man Entscheidungen, die ein KI-System ausgibt, gehorchen muss? Was passiert, wenn Mitarbeitende diese Entscheidungen für falsch halten? Ist die Technologie auf den Ersatz von Menschen oder ihre Unterstützung angelegt? Und was gilt für welche Beschäftigtengruppen?
Wo sehen Sie Risiken darin, wenn KI Entscheidungen unterstützt, zum Beispiel beim Auswahlprozess von neuen Mitarbeitenden oder bei der Priorisierung von Aufgaben?
Die erste Frage ist, auf Basis welcher Daten ein KI-Modell trainiert wurde. Entspricht die Art und Qualität dieser Daten den Erfordernissen der jeweiligen Aufgabe? Die nächste wichtige Frage ist die der Erklär- oder Interpretierbarkeit der von der KI vorgeschlagenen Entscheidung. Ist es möglich, eine "Ground Truth" zu formulieren, anhand derer eine Entscheidung nachvollzogen werden kann? Und schliesslich: Was genau heisst Unterstützung – soll die KI nur ein Ideengeber sein, der den menschlichen Entscheidungsträgern ermöglicht, ihre eigenen Vorannahmen und Interessen zu reflektieren und gegebenenfalls auch zu korrigieren und zu adaptieren, oder hat der Mensch höchstens noch ein Veto gegen eine KI-Entscheidung, die er nicht versteht? Die Beantwortung jeder dieser Fragen beinhaltet unterschiedliche Risiken, die abgewogen werden müssen.
Wie verändert sich die Teamdynamik, wenn die Kommunikation und Zusammenarbeit teilweise über intelligente Systeme laufen?
Das ist vielleicht die spannendste Frage, zu der wir noch am wenigsten wissen. Bisher gibt es ja noch kein wirkliches "Human-AI Teaming" in dem Sinne, dass das KI-System ein mehr oder weniger eigenständiges Mitglied eines Teams mit mehreren Menschen ist. Aber die Veränderung der sozialen Wahrnehmung beginnt ja schon dann, wenn ich nicht mehr weiss, ob die Nachricht, die ich erhalte, anhand von ein paar Stichwörtern und der Wahl eines Grundtons mithilfe eines Sprachmodells geschrieben wurde oder der O-Ton der anderen Person ist. Oder wenn zwei Menschen, die keine gemeinsame Sprache haben, ihre Kommunikation über Deepl bewältigen. Viele neue Missverständnisse können entstehen, aber KI könnte natürlich auch durch die Erkennung und Rückmeldung bestimmter Sprachmuster helfen, die Entgleisung zwischenmenschlicher Kommunikation zu verhindern.
Was braucht es, damit in digitalen oder hybriden Teams weiterhin ein echtes Gemeinschaftsgefühl aufrechterhalten bleibt?
Auch da ist zunächst zu klären, ob es darum geht, dass Menschen untereinander weiterhin einen Zusammenhalt erleben, oder darum, ein KI-System als Teammitglied zu akzeptieren. Zu Letzterem wissen wir noch sehr wenig. Ein spannendes Thema hierzu, zu dem es keine eindeutigen Lösungen gibt, ist die Anthropomorphisierung technischer Systeme. Ist es wichtig, sich immer bewusst zu sein, dass man mit Technologie interagiert, oder kann es Vorteile haben, dass man das zwischendurch vergisst, etwa um eine Unterstützung eher anzunehmen?
Welche Kompetenzen werden Ihrer Ansicht nach für Führungskräfte künftig unverzichtbar sein, wenn Mensch und Technologie enger zusammenarbeiten?
In vielerlei Hinsicht sind es immer noch die gleichen Kompetenzen: erstens sicherzustellen, dass alle die bestmöglichen Arbeitsbedingungen haben, um ihre Aufgaben zu erfüllen und dabei motiviert, zufrieden und gesund zu bleiben; und zweitens, Menschen in all ihrer Vielfalt und mit ihren Besonderheiten wertzuschätzen. In Bezug auf neue Technologien ist es zentral, dass Führungskräfte genügend von der Technik verstehen, um ihren Einsatz sinnvoll zu wählen und zu implementieren und sich nicht von – vermeintlichen – technischen Möglichkeiten auf Kosten von guten Arbeitsbedingungen für die Beschäftigten blenden zu lassen. Eine Basisforderung ist, dass Menschen nicht für das Funktionieren und die Ergebnisse von automatisierten Prozessen verantwortlich gemacht werden, über die sie keine Kontrolle haben.
Digitale Transparenz kann hilfreich sein, aber sie kann auch Überwachung bedeuten. Wie würden Sie ein Monitoring gestalten, das Zusammenarbeit fördert, ohne das Vertrauen zu zerstören?
Wesentlich ist, wozu das Monitoring dient. Geht es darum, die Technik selbst zu verbessern oder Arbeitsabläufe effektiver zu gestalten, oder darum, menschliches Verhalten zu kontrollieren, da fehlende Arbeitsmotivation oder Kompetenz vermutet wird. Der Zweck sollte immer transparent gemacht werden. Im letzteren Fall ist es wahrscheinlich, dass dann Vertrauen zerstört würde, was aber sowieso eine Situation ist, die nicht mit Überwachung, sondern mit Gesprächen, Ausbildung und besserer Arbeitsgestaltung angegangen werden sollte.
Wenn Sie an einen idealen Arbeitsplatz in der Zukunft denken: Wie würde dieser mit Blick auf die Technik und das psychische Wohlbefinden aussehen?
Der ideale Arbeitsplatz ist so vielfältig, wie wir Menschen es sind.
Welche Rolle spielen Ihrer Meinung nach der Sinn und die psychische Sicherheit in der Arbeitswelt der Zukunft – besonders in einer digitalisierten Umgebung?
Beides ist und bleibt zentral.
Welche Weichen müssen wir heute stellen, damit sich die Technologie und Arbeitspsychologie sinnvoll ergänzen?
Zwei wichtige Fragen müssen immer wieder reflektiert und beantwortet werden. Erstens: Wie und auch wie viel sollen Menschen in Zukunft arbeiten? Statt technologiebedingter Arbeitslosigkeit kann ja auch eine geringere Arbeitszeit für alle gewählt werden, wenn es grosse Produktivitätsgewinne durch Automatisierung gibt. Zweitens: Kann sichergestellt werden, dass alle Beschäftigten, Technologienutzer wie auch Technologieentwickler, die Verantwortung für ihr Tun übernehmen und umgekehrt nicht verantwortlich gemacht werden für Dinge, die sie nicht beeinflussen können.
Zur Person
Gudela Grote ist Professorin für Arbeits- und Organisationspsychologie an der ETH Zürich. Sie studierte Psychologie in Marburg und Berlin, promovierte 1987 am Georgia Institute of Technology und forscht seit 1988 an der ETH. Ihre Arbeit zielt auf die Entwicklung psychologisch fundierter Konzepte und Methoden für eine integrative Arbeits- und Organisationsgestaltung ab, mit besonderem Fokus auf flexible und virtuelle Arbeitsformen. Grote untersucht unter anderem, wie neue Technologien wie künstliche Intelligenz die Arbeitsprozesse von Technologieentwicklern und -anwendern beeinflussen.
Wenn der KI-Kollege Kreide frisst
Mitarbeitererfahrung 2026: Was Mitarbeitende vom Arbeitsplatz erwarten
Im Tandem mit der Maschine: So gelingt die KI-Kollaboration
Warum nur wenige Unternehmen echten Nutzen aus KI ziehen
Warum Schweizer Daten in die Schweiz gehören
85% Weniger Ransomware Risiko dank neuer Methode
1000 kleine Helfer
Vom Vorlesungsraum zu virtuellen Räumen, von Wörterbüchern zur KI
AI im Marketing: Prognose für 2026