So entpuppt sich die KI-Goldgrube nicht als KI-Fallgrube
 
  Über 90 Milliarden Franken – so viel zusätzliche Wertschöpfung versprechen sich Schweizer Führungskräfte laut einer Accenture-Umfrage bis ins Jahr 2030 von künstlicher Intelligenz (KI). Fast alle befragten hiesigen Chefs (91 Prozent) glauben an KI als Mittel zur Umsatzsteigerung. Doch nicht immer wird KI dieses Versprechen einlösen. "Die 'Readiness' der Organisation (technologisch, prozessual, kulturell) ist entscheidend", stellt Miriam Dachsel, Managing Director und Leiterin Strategie- und Managementberatung bei Accenture, im Interview klar. Sie rät davon ab, KI nach einem Top-down-Einsatz einzuführen, und verrät, was Unternehmen tun können, damit ihre Mitarbeitenden gerne mit neuen KI-Lösungen arbeiten.
Marie-Anne Fritschi, Head of Marketing & Business Strategy bei Adecco, beschreibt die Einführung von KI am Arbeitsplatz als Balanceakt zwischen Fortschritt und Vorsicht. In ihrem Fachbeitrag nennt sie eine ganze Reihe von KI-Risiken und erklärt, was Unternehmen tun können, um diese zu mindern: "Es ist für Unternehmen essenziell, interne Richtlinien für den Einsatz von KI zu entwickeln, differenzierte KI-Modelle bereitzustellen, eine Kultur des kontinuierlichen Lernens zu fördern und bestehende Mitarbeitende weiterzubilden, bevor neue eingestellt werden", schreibt die Autorin.
In welchen Schritten ein Unternehmen seine KI-Transformation vollzieht, zeigt Ralph Hutter. Der Studiengangsleiter CAS Digital Business Models & Strategy with AI an der Zürcher Fachhochschule HWZ erinnert daran, dass sich die Einführung der Technologie über mehrere Jahre hinzieht. Dies gilt auch für Unternehmen, die jetzt schon nach einem datengetriebenen Geschäftsmodell arbeiten. "Ohne eine durchdachte Datenstrategie bleibt KI eine teure Spielerei ohne Impact", schreibt Hutter. Und auch er stellt klar: Seitens Unternehmensleitung seien "gezielte Change-Management-Massnahmen erforderlich, um KI als Werkzeug und nicht als Bedrohung zu positionieren".
Christian Scharrer, Enterprise Architect und CTO Ambassador bei Dell Technologies in Deutschland, thematisiert schliesslich den wunden Punkt so mancher KI-Lösung: die Halluzinationen, also das Liefern fehlerhafter, mitunter auch komplett erfundener Antworten. Diese seien oft nur schwer zu erkennen und gerade deshalb müssten Mitarbeitende die KI-generierten Inhalte unbedingt überprüfen und gegebenenfalls anpassen, erklärt Scharrer im Fachbeitrag. Doch er nennt auch ein paar technologische Möglichkeiten, mit denen Unternehmen das Risiko fehlerhafter KI-Antworten immerhin mindern könnten. So könnten sie etwa Sprachmodelle auf ihre jeweiligen Zwecke trainieren oder eigene Wissensquellen via Retrieval-Augmented Generation (RAG) einbinden. Als technische Kontrollmöglichkeit böten sich Guardrails an. Sie könnten nicht nur bestimmte Halluzinationen stoppen, sondern auch die Beantwortung bekannter Jailbreaking-Prompts und die Ausgabe unangemessener Inhalte verhindern.
 
Cyberkriminelle nutzen Schwachstelle in Microsoft WSUS aus
 
Armeechef wünscht sich Microsoft-Alternative für Gruppe Verteidigung
 
ISE 2026: Die Pro-AV-Branche erhält einen Cybersecurity Summit
 
Green hat neuen Besitzer
 
Cloud-Strategie 2025 – zwischen Modernisierung und Pragmatismus
 
VBS verleiht Preis für "Cyber Start-up Challenge" an Pometry
 
Swiss Cyber Storm 2025: Thermitgranaten, Gig-Economy-Vandalen und ein klarer Aufruf
 
Nvidias Börsenwert knackt die Marke von 5 Billionen US-Dollar
 
Auch Vampire können vegan leben - sagt jedenfalls Morgan Freeman
 
 
 
 
 
 
 
 
 
 
 
 
