Schweizer Sprachmodelle – Souveränität statt Abhängigkeit
Künstliche Intelligenz eröffnet enorme Effizienzpotenziale, aber Public-Lösungen wie ChatGPT bergen auch erhebliche Risiken bezüglich Datenschutz, Souveränität und geistigem Eigentum. Es braucht Sprachmodelle, die vollständig in der Schweiz betrieben werden.

Unternehmen setzen zunehmend auf künstliche Intelligenz, um Prozesse zu optimieren und Wissen aus Daten zu gewinnen. Doch der Einsatz grosser Sprachmodelle (LLMs) wirft heikle Fragen auf – vor allem in Bezug auf Datenschutz, Compliance und Kontrolle. Während Public-Cloud-Dienste wie ChatGPT oder Google Gemini bequemen Zugang bieten, wächst die Sorge, dass sensible Unternehmensdaten in undurchsichtigen Umgebungen verarbeitet werden könnten.
Nachfrage nach souveränen KI-Lösungen
In den vergangenen Monaten ist die Nachfrage nach lokal betriebenen Sprachmodellen spürbar gestiegen. Geopolitische Unsicherheiten, strengere Datenschutzanforderungen und ein wachsendes Misstrauen gegenüber Anbietern aus den USA oder Asien gelten als Haupttreiber. Firmen fragen vermehrt nach Lösungen, die in der Schweiz gehostet werden, DSGVO-konform arbeiten und keine Risiken eines unkontrollierten Datenabflusses bergen.
Pilotprojekte zeigen, dass es nicht um technologische Spielereien geht, sondern um konkrete Use Cases – etwa um die Integration von KI in Dokumentenmanagementsysteme, ERP- oder CRM-Anwendungen. Ziel ist es, relevanten Kontext aus vertrauten Datenquellen zu gewinnen und produktiv einzusetzen.
Public LLMs im Spannungsfeld
Öffentliche Modelle liefern oft beeindruckende Ergebnisse, doch sie kennen den Unternehmenskontext nicht. Prozesse, Fachlogik oder branchenspezifische Daten bleiben aussen vor. Gleichzeitig entsteht durch die Kombination von fragmentierten Daten ein neues, wertvolles Wissensgut – Intellectual Property, das Unternehmen schützen müssen. Hier liegt das zentrale Problem: Bei Public LLMs ist häufig unklar, wie und wo Daten verarbeitet oder gespeichert werden.
Ein weiteres Risiko ist der wachsende Trend zu «Schatten-KI»: Mitarbeitende nutzen nicht autorisierte KI-Dienste, ohne dass die IT-Abteilungen die Kontrolle oder den Überblick haben. Studien zeigen, dass diese Nutzung im vergangenen Jahr stark zugenommen hat – mit potenziell gravierenden Folgen für Datensicherheit und Compliance.
Eigenes Modell oder Dienstleister?
Der Aufbau einer eigenen LLM-Infrastruktur klingt verlockend, ist aber komplex. Neben Hardware und Software braucht es Architektur, Betrieb, Monitoring und Sicherheitskonzepte. Hinzu kommt die Integration in bestehende Systeme. Viele Unternehmen scheuen diesen Aufwand und suchen nach Partnern, die eine kontrollierte Umgebung bereitstellen – sei es in einer souveränen Cloud oder sogar in einer Infrastruktur, die vom Kunden selbst betrieben wird.
Balance zwischen Innovation und Kontrolle
Die Debatte läuft letztlich auf eine zentrale Frage hinaus: Müssen Unternehmen zwischen Innovation und Datensouveränität wählen? Während Public LLMs schnelle Ergebnisse liefern, bieten lokale Modelle mehr Transparenz, Auditierbarkeit und Unabhängigkeit. Für viele IT-Entscheider ist diese Balance inzwischen entscheidend.
Praktischer Einstieg statt Strategiepapiere
Für Führungskräfte empfiehlt sich ein pragmatisches Vorgehen. Statt teurer Konzepte sollten konkrete Fragestellungen im Vordergrund stehen: Wo gehen Informationen verloren? Welche Prozesse kosten unnötig Zeit? Erste Pilotprojekte können schnell Mehrwert schaffen und den Weg für eine nachhaltige Strategie ebnen.
« Wir wissen, wie man vertrauliche Daten sicher verwaltet »
Die Nachfrage nach in der Schweiz gehosteten KI-Lösungen wächst – auch vor dem Hintergrund geopolitischer Unsicherheiten und wachsender Datenschutzbedenken. Thomas Hottinger, Managing Director und Senior Partner von Innflow, spricht darüber, wie Unternehmen mithilfe von Schweizer‑LLMs ihre Datenhoheit wahren können. Autor: Innflow
Was beobachten Sie aktuell am Markt bezüglich KI?
Thomas Hottinger: In den vergangenen Wochen haben wir eine spürbare Zunahme an Anfragen nach souverän gehosteten, in der Schweiz betriebenen KI-Lösungen erfahren. Die Treiber sind hier klar die geopolitischen Unsicherheiten, Datenschutzfragen und ein wachsendes Misstrauen gegenüber den grossen Public-LLM-Anbietern aus Übersee. Entsprechend beschleunigten wir die Entwicklung unserer ersten produktionsreifen Blueprints und stellten fest, dass wir damit einen Nerv getroffen haben. Die ersten Pilotprojekte sind erfolgreich angelaufen, wobei der Ausgangspunkt immer ein konkreter Use Case oder Pain Point des Kunden ist. Also kein Spieltrieb, sondern messbare Wertschöpfung.
Ist ein eigenes LLM für Unternehmen nicht übertrieben?
Nein, wenn man Datenhoheit, Compliance und Integrität ernst nimmt. Unternehmen fordern heute mehr Souveränität und mehr Kontrolle über Unternehmensdaten. Public LLMs kennen den Unternehmenskontext nicht. Sie beantworten Ihre Frage vielleicht elegant, aber sie kennen Ihre Prozesse, Ihre Systeme und Ihre Fachlogik nicht. Mit Secure LLM lassen sich Fachapplikationen wie etwa DMS, ERP oder CRM verbinden. Antworten entstehen dann direkt aus vertrauten Daten im richtigen Kontext. Ein KI-Agent kann beispielsweise Ausschreibungen prüfen, mit internen Daten abgleichen und eine strukturierte Bewertung erstellen. Das ist kein Luxus, sondern schlicht konsequent.
Wo liegt das Problem bei Public Clouds?
Einzelne Daten in der Cloud sind nicht kritisch – aber deren Verarbeitung durch Public LLMs schon. Sie verknüpfen Fragmente zu wertvollem Wissen, also Intellectual Property. Unternehmen wissen jedoch nicht, wie und wo ihre Daten gespeichert oder genutzt werden.
Sind OpenAI & Co. nicht technisch überlegen?
Die Modelle sind zweifellos leistungsfähig, aber nicht für jeden Anwendungsfall besser. Die entscheidende Frage lautet nicht: «Mit welchem Modell erziele ich einen um 5 Prozent besseren Output?», sondern: «Kann ich zu 100 Prozent nachvollziehen, was mit meinen Daten passiert?» Viele Unternehmen sperren Public LLMs und Übersetzungstools – zu gross ist das Risiko von «Shadow AI», das laut einer Studie des Cloud-Anbieters Zendesk um 250 Prozent zugenommen hat. Secure LLM ermöglicht Innovation ohne Souveränitätsverlust.
Oder Unternehmen bauen sich selbst ein LLM?
Das ist möglich, aber sehr aufwendig: Hardware, Lizenzen, Architektur, Betrieb, Sicherheit, Skalierung – das alles kostet Ressourcen. Wir wollen auch KMUs den Zugang ermöglichen und setzen darum auf faire, langfristig kalkulierbare Preise.
Warum sollten Unternehmen Ihnen ihr geistiges Eigentum anvertrauen?
Wir betreiben bereits über 1150 Cloud-Instanzen für rund 41 000 User weltweit und sind ISO-27001-zertifiziert. Wir wissen also, wie man vertrauliche Daten sicher verwaltet.
Was empfehlen Sie Unternehmen?
Keine teuren Strategiepapiere – die sind morgen bereits überholt. Starten Sie mit konkreten Fragen wie: Was kostet uns heute unnötig Zeit? Wo gehen Infos verloren? Arbeiten Sie pragmatisch, schaffen Sie schnelle Mehrwerte und entwickeln Sie daraus Ihre Strategie! Die Technologie ist da und ausgereift und wir sind bereit, unsere Kunden sicher und souverän zu begleiten.

Servicenow blickt auf "Zürich Release Summit" zurück

Rehabilitationstechnik – so filigran wie die menschliche Hand

Microsoft stärkt Cyberabwehr mit KI-Agenten

Apple schliesst DoS-Sicherheitslücke in iOS, iPadOS und MacOS

Frank, ein Unikat der Tierwelt

Schweizer Sprachmodelle – Souveränität statt Abhängigkeit

Zu viele Provider? Zeit für Konsolidierung.

Das war der Jurytag von Best of Swiss Software 2025

Inventx ernennt Cloud-Chef
