Inkonsistente Ergebnisse

Trend Micro warnt vor Reputationsschäden durch KI

Uhr
von Chiara Binder und rja

Abhängig von verschiedenen Faktoren wie geografischem Standort, Sprache, Modelldesign sowie integrierten Kontrollmechanismen liefert künstliche Intelligenz verschiedene Ergebisse. Diese Inkonsistenz ist laut einer Trend-Micro-Studie ein Risiko für Unternehmen.

(Source: Oleksandr / stock.adobe.com)
(Source: Oleksandr / stock.adobe.com)

Je nach geografischem Standort, Sprache, Modelldesign sowie integrierten Kontrollmechanismen unterscheiden sich die Antworten von künstlicher Intelligenz (KI). Die Systeme sind laut einer Studie von Trend Micro kulturell, gesellschaftlich oder politisch voreingenommen. Zudem machen sie Fehler, wirken dabei aber selbstbewusst und zeigen keinen Hauch von Unsicherheit.

Insbesondere in globalen Unternehmen stellen solche inkonsistenten Ergebnisse ein Risiko für Unternehmen dar, weil die künstliche Intelligenz (KI) gleichzeitig verschiedenen rechtlichen Rahmenbedingungen, politischen Sensibilitäten sowie gesellschaftlichen Erwartungen gerecht werden muss, wie Trend Micro weiter schreibt.

"Werden KI-Ausgaben direkt in Customer Journeys oder Geschäftsentscheidungen eingebunden, riskieren Unternehmen den Verlust der Kontrolle über Markenkommunikation, Compliance-Positionierung und kulturelle Anschlussfähigkeit", lässt sich Robert McArdle, Director of Cybersecurity Research bei Trend Micro, zitieren. Auch der öffentliche Sektor stehe besonderen Herausforderungen gegenüber, da KI-generierte Inhalte als offizielle Orientierung wahrgenommen werden könnten.

Robert McArdle hält eine Präsentation und gestikuliert im Bild. Dabei hält er eine Fernbedienung für eine Präsentation in der Hand.

Robert McArdle ist Director of Cybersecurity Research bei Trend Micro. (Source: zVg)

Die Studie zeigt sechs Grenzen von KI-Systemen auf, die für Unternehmen operative, reputationsbezogene und finanzielle Risiken bergen:

  1. Mangelnde Trennung von zusammenhängenden und nicht zusammenhängenden Informationen: KI-Modelle haben laut Studie Mühe, Relevantes von Irrelevanten zu trennen. Dies führe zu verzerrten und falschen Ergebnissen und erhöhe die Risiken für manipulierte Resultate und somit falschen Finanzberechnungen, fehlerhaften Klassifizierungen von Daten oder automatisierten Entscheidungen.
  2. Begrenztes kulturelles, gesellschaftliches und religiöses Bewusstsein: KI, die in einer bestimmten Region trainiert wurde, könne mit Normen aus anderen Regionen im Konflikt stehen. Besonders gefährdet sind laut Studie globale Unternehmen. Es könne zu Gegenreaktionen kommen, Kundengruppen können abgeschreckt, lokale Vorschriften nicht eingehalten oder dauerhafter Rufschaden verursacht werden.
  3. Begrenztes Bewusstsein für den politischen Kontext: Falsche und irreführende politische Ergebnisse können gemäss Studie zu rechtlichen Risiken, Compliance-Verstössen sowie Reputationsschäden führen.
  4. Überfreundliches Modellverhalten: KI habe eine Neigung, bei wiederholter Anfrage schrittweise die Antworten anzupassen, um hilfreicher zu erscheinen. Dieses Verhalten könne in finanziellen, rechtlichen oder staatlichen Kontexten ausgenutzt werden, um mit wiederholten Aufforderungen bestimmte falsche Antworten zu erhalten, die reale Konsequenzen hätten.
  5. Begrenztes Aktualitäts-Bewusstsein: Trotz Echtzeit-Datentools greifen KI-Modelle laut Studie auf veraltete oder inkonsistente Daten zurück, was Unternehmen bei der Preisgestaltung, Währungsumrechnung, Marktanalyse oder Entscheidfindung  gefährden könne.
  6. Falsche Wahrnehmung des geografischen Standorts: Einige Modelle würden ohne zuverlässige oder relevante Daten versuchen, den Standort zu ermitteln und dabei überzeugende, aber vollstandig erfundene Details liefern. KI-Ergebnisse für Geolokalisierung, Compliance oder Personalisierung ohne verifizierte Eingaben können laut Studie zu Fehlern führen, die dem Vertrauen schaden und gegen regulatorische Erwartungen verstossen.

Die unkontrollierte KI-Einführung treffe nicht alle Beteiligten gleichermassen, wenn sie auch auf alle Branchen Auswirkungen habe:

  • Unternehmen: KI-generierte Ergebnisse können Positionen einnehmen, mit denen sich ein Unternehmen nicht identifiziert.
  • Regierungen: KI kann die öffentliche Kommunikation sowie Politik beeinflussen  und sich auf die Gesellschaft auswirken.
  • Individuen: Individuen können versehentlich persönliche Informationen an die KI weitergeben, unangemessene Antworten erhalten oder Antworten unkritisch akzeptieren.

Zu KI als Produktivitätswerkzeug ergänzt McArdle: "Unternehmen müssen sie als Abhängigkeit mit hohem Risiko behandeln, die klare Regularien, eindeutige Verantwortlichkeiten und die menschliche Verifikation aller nutzerseitigen Ausgaben erfordert. Dazu gehört auch, von KI-Anbietern Transparenz darüber einzufordern, wie sich Modelle verhalten, auf welchen Daten sie basieren und wo Schutzmechanismen greifen."

Über die Studie

Für die Studie testeten die Forschenden mehr als 100 KI-Modelle mit über 800 entwickelten Prompts, wie Trend Micro schreibt. Mit tausenden wiederholten Experimenten seien die Veränderungen der Ausgaben über Zeit und Standorte gemessen worden. Sie verarbeiteten demnach über 60 Millionen Eingabetokens und über 500 Millionen Ausgabetokens.

 

Übrigens: Seit Mitte Januar 2026 ist Anna Bliznina Partner Development Manager bei Trend Micro. Lesen Sie hier mehr über sie.

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Webcode
DbYmrMKE