KI ist nicht nutzbar. Noch nicht.
Usability macht Systeme benutzbar. KI macht sie unberechenbar – zumindest gefühlt. Was beide verbindet, ist das Ziel: sinnvolle Interaktionen zwischen Mensch und Maschine. Doch während das eine greifbar ist, bleibt das andere oft nebulös. Zeit, das zu entwirren.
Usability: die Fassade
Usability zielt auf das Wie. Wie komme ich durch ein System, finde, was ich brauche, und mache nichts kaputt dabei? Es geht um Klarheit, Rückmeldung, Steuerbarkeit. Kurz: um digitale Gastfreundschaft.
Vertrauen in KI zielt auf das Warum. Warum schlägt mir das System genau diesen Job, diese Route oder diese Diagnose vor? Welche Daten wurden verwendet? Wie sicher ist das Ergebnis – und was heisst das für mich?
Beides ist UX. Beide zielen darauf, dass Menschen sich wohlfühlen, mitdenken können und am Ende sagen: «Das hat Sinn ergeben.» Nur: Während sich Usability auf das sichtbare Interface konzentriert, liegt das Entscheidende bei KI oft im Verborgenen.
KI: das Innenleben
Wer heute mit KI-Systemen interagiert, bekommt selten mehr als ein Resultat – manchmal beeindruckend, oft unerklärlich. Die Oberfläche ist vielleicht hübsch, aber die Logik dahinter bleibt verborgen.
Der Button funktioniert, ja. Aber was passiert dahinter? War das eine Empfehlung oder eine Entscheidung? Hat das System gezögert, geprüft, verglichen? Oder einfach geraten?
Hinzu kommt: Viele KI-Anwendungen sprechen in Codes, die kaum jemand versteht. Fehlermeldungen klingen wie Vorlesungen. Wahrscheinlichkeiten werden als Fakten verkauft. Und das Schlimmste: Der Zurück-Button fehlt.
UX: das Zusammenspiel
Gute Usability zeigt Wege. Vertrauenswürdige KI erklärt, warum sie diesen Weg vorschlägt. Erst beides zusammen ergibt eine digitale Erfahrung, die nicht nur funktioniert, sondern trägt.
Kein System ist allwissend. Es hilft, wenn das Interface Unsicherheiten oder Abwägungen offenlegt. Das zeigt Haltung – und verhindert, dass Menschen blind vertrauen müssen.
Gute UX für KI denkt den Menschen mit – in seiner Neugier, in seiner Skepsis, in seiner Verantwortung. Sie erklärt, statt zu verstecken. Sie bietet an, statt zu überfahren. Und sie macht den Unterschied zwischen einer Maschine, die etwas kann, und einer, der wir etwas zutrauen.
Was hilft
- Zeigen, wofür das System gedacht ist – und wofür nicht.
- Wahrscheinlichkeiten benennen – nicht verstecken.
- Vorschläge als solche kennzeichnen – nicht als Wahrheit.
- Sprache verwenden, die Menschen verstehen – nicht nur Modelle.
- Und immer die Möglichkeit bieten, zu hinterfragen, zu korrigieren oder auszusteigen.
Oder wie wir Ergonomen sagen: Wenn die Maschine denkt, soll sie wenigstens sagen, was sie sich gedacht hat.
Best of Swiss Apps und Best of Swiss Software im Liveticker
Metanet ernennt neuen Geschäftsführer
Digitale Exzellenz mit KI
Intelligente Dateninfrastruktur – der Schlüssel für erfolgreiche KI-Innovationen
So will Alpian die Lücke zwischen Neo- und Privatbanken schliessen
Aus dem elektronischen Patientendossier wird das elektronische Gesundheitsdossier
"Lift and Shift" – pragmatischer Einstieg oder Sackgasse?
Reales Risiko: Wenn Geopolitik die digitale Souveränität bedroht
Integration statt Insellösung