KI ist nicht nutzbar. Noch nicht.
Usability macht Systeme benutzbar. KI macht sie unberechenbar – zumindest gefühlt. Was beide verbindet, ist das Ziel: sinnvolle Interaktionen zwischen Mensch und Maschine. Doch während das eine greifbar ist, bleibt das andere oft nebulös. Zeit, das zu entwirren.
Usability: die Fassade
Usability zielt auf das Wie. Wie komme ich durch ein System, finde, was ich brauche, und mache nichts kaputt dabei? Es geht um Klarheit, Rückmeldung, Steuerbarkeit. Kurz: um digitale Gastfreundschaft.
Vertrauen in KI zielt auf das Warum. Warum schlägt mir das System genau diesen Job, diese Route oder diese Diagnose vor? Welche Daten wurden verwendet? Wie sicher ist das Ergebnis – und was heisst das für mich?
Beides ist UX. Beide zielen darauf, dass Menschen sich wohlfühlen, mitdenken können und am Ende sagen: «Das hat Sinn ergeben.» Nur: Während sich Usability auf das sichtbare Interface konzentriert, liegt das Entscheidende bei KI oft im Verborgenen.
KI: das Innenleben
Wer heute mit KI-Systemen interagiert, bekommt selten mehr als ein Resultat – manchmal beeindruckend, oft unerklärlich. Die Oberfläche ist vielleicht hübsch, aber die Logik dahinter bleibt verborgen.
Der Button funktioniert, ja. Aber was passiert dahinter? War das eine Empfehlung oder eine Entscheidung? Hat das System gezögert, geprüft, verglichen? Oder einfach geraten?
Hinzu kommt: Viele KI-Anwendungen sprechen in Codes, die kaum jemand versteht. Fehlermeldungen klingen wie Vorlesungen. Wahrscheinlichkeiten werden als Fakten verkauft. Und das Schlimmste: Der Zurück-Button fehlt.
UX: das Zusammenspiel
Gute Usability zeigt Wege. Vertrauenswürdige KI erklärt, warum sie diesen Weg vorschlägt. Erst beides zusammen ergibt eine digitale Erfahrung, die nicht nur funktioniert, sondern trägt.
Kein System ist allwissend. Es hilft, wenn das Interface Unsicherheiten oder Abwägungen offenlegt. Das zeigt Haltung – und verhindert, dass Menschen blind vertrauen müssen.
Gute UX für KI denkt den Menschen mit – in seiner Neugier, in seiner Skepsis, in seiner Verantwortung. Sie erklärt, statt zu verstecken. Sie bietet an, statt zu überfahren. Und sie macht den Unterschied zwischen einer Maschine, die etwas kann, und einer, der wir etwas zutrauen.
Was hilft
- Zeigen, wofür das System gedacht ist – und wofür nicht.
- Wahrscheinlichkeiten benennen – nicht verstecken.
- Vorschläge als solche kennzeichnen – nicht als Wahrheit.
- Sprache verwenden, die Menschen verstehen – nicht nur Modelle.
- Und immer die Möglichkeit bieten, zu hinterfragen, zu korrigieren oder auszusteigen.
Oder wie wir Ergonomen sagen: Wenn die Maschine denkt, soll sie wenigstens sagen, was sie sich gedacht hat.
Manche Sterne sind absolut gigantisch
Wie KMUs mit MDR ihre Cybersecurity stärken
Uniqconsulting heisst neu Uniq
Update: Bund definiert mobiles Sicherheitskommunikationssystem als Schlüsselprojekt
Apple wird 50 Jahre alt
Drei Viertel der Schweizer Bevölkerung nutzen bereits KI-Chatbots
GRITEC AG und Swisscom stärken gemeinsam die OT‑Cybersecurity im Industriesektor
Phisher zielen mit Fake-Bussen auf Kreditkartendaten ab
Anthropic veröffentlicht versehentlich Quellcode seines KI-Entwicklertools