Algorithmen-Boom

Wie relevant sind Algorithmen?

Uhr | Aktualisiert
von Rodolphe Koller

Von der Internetrecherche über die sozialen Netzwerke bis hin zur Business Intelligence – überall werden Informationen durch Algorithmen sortiert und hierarchisiert. In einem aufschlussreichen Aufsatz hinterfragt Tarleton Gillespie von der Cornell University in New York die Auswirkungen dieses Booms.

Der neugierige Leser ruft die Empfehlungen von Amazon ab. Der Unternehmensleiter überwacht die Leistungen seiner Verkäufer mit dem Business Intelligence Dashboard. Der Experte geht die von Linkedin gelieferten Kontaktvorschläge durch. Alle drei Beispiele haben eines gemeinsam: Die betreffenden Personen stützen sich auf Algorithmen, die die wichtigsten Informationen für sie filtern und auswählen. Diese immer ausgefeilteren Algorithmen sind unverzichtbar geworden, um sich in der Datenflut zurechtzufinden.

In einem Aufsatz zeigt nun Tarleton Gillespie, assoziierter Professor an der Cornell University, die Auswirkungen dieses Algorithmen-Booms. Obwohl er sich auf den allgemeinen Gebrauch der Algorithmen konzentriert, sind die von ihm aufgeworfenen Fragen auch für Unternehmen interessant, die sich mit Big Data und datenbasiertem Management beschäftigen.

Gillespie erinnert zunächst daran, dass man verwertbare Daten brauche, um die Algorithmen zu füttern. Die Sammlung und Kategorisierung dieser Daten könne dabei problematisch sein. So unterdrücken Suchmaschinen beispielsweise Seiten mit pornografischem Inhalt oder nicht indexierte Websites, oder auf Amazon ist ein Buch aus Versehen als "für Erwachsene" gekennzeichnet. Problematisch sei es auch, wenn es ein Unternehmen versäumt habe, die offline eingegangene Reklamation eines Kunden in seinem CRM zu erfassen. Oder wenn ein zu bearbeitender Geschäftsabschluss, der drei Monate von niemandem aktualisiert wurde, automatisch als verloren eingestuft wird.

Blackboxes

Es ist nicht die schier unbegrenzte Kapazität, Daten berechnen zu können, die die Algorithmen beliebt machen. Der Reiz besteht vielmehr darin, dass sie wahrscheinlich relevante Fragen und Antworten liefern können. Gillespie ist diesbezüglich aber skeptisch, weil die Algorithmen nicht auf unabhängig nachvollziehbaren Messwerten basieren. Steht die Relevanz im Zusammenhang mit der Zufriedenheit der Nutzer bezüglich der gelieferten Antworten, deren Nützlichkeit oder Wahrheitsgehalt? Wie und warum Twitter zum Beispiel ein Thema als "Trend" einstuft, ist für Aussenstehende nicht nachvollziehbar. Daran dürfte sich kaum etwas ändern, denn die Algorithmendesigner werden sich davor hüten, ihre Kriterien im Detail preiszugeben. Zu gross ist die Angst, Konkurrenten könnten das gut gehütete Geheimnis zu ihren Gunsten nutzen. Ausserdem sollen die Website-Betreiber die Algorithmen nicht durch geschickte Suchmaschinenoptimierung austricksen können. Noch problematischer als etwa bei Twitter wird diese Undurchsichtigkeit beim Newsfeed von Facebook, in dem sich "soziale" und kommerzielle Postings vermischen, oder bei Werkzeugen wie Google Now, bei denen die Suchanfragen der Nutzer vorweggenommen werden.

Strittig sind auch die den Algorithmen zugrunde liegenden Prinzipien. Bereits der ursprüngliche Google-Algorithmus Page Rank definierte, dass der Wert einer Website von der Anzahl der Links, die zu ihr führen, abhängt. Diese sollen gewissermassen als Stimmen für die betreffende Seite fungieren. Für Gillespie ist daher "jeder Algorithmus gleichzeitig das Ergebnis einer Vorannahme bezüglich der Art der Relevanzmessung und eine Instanziierung dieser Vorannahme in einem elektronischen Auswertungsverfahren". Auch hier lassen sich leicht Parallelen zum Umgang der Unternehmen mit Algorithmen finden. Trotz der Bedeutung, die die Experten ihren Ergebnissen beimessen, interessieren sie sich kaum für die Prinzipien und Kriterien, auf denen ihre Entscheidungstools basieren.

Objektivität

Angesichts der möglichen Kritik der Nutzer an der Willkür von Algorithmen bemühen sich die Firmen, ihre Ergebnisse und Antworten zu legitimieren, erklärt Gillespie. Dies geschieht vor allem durch die Art, wie die Ergebnisse präsentiert werden: "Die Besten", "Schlagzeilen", "Beliebt". Zudem geben die Unternehmen an, dass ihre Ergebnisse neutral oder objektiv seien, auch wenn sie dabei Gefahr laufen, widersprüchliche Argumente zu verwenden. Google zum Beispiel führt die demokratischen Prinzipien an, die seinem Algorithmus zugrunde liegen. Gleichzeitig behauptet das Unternehmen, seine Ergebnisse seien besser als jene der Konkurrenz. Zugleich sei man aber nicht verantwortlich für die Antworten, die von einem unparteiischen Mechanismus geliefert werden. Ähnlich äussern sich auch die Anbieter von BI-Software. Sie weisen darauf hin, dass diese automatisch ermittelten Resultate helfen, zu neuen Erkenntnissen zu kommen, um damit noch fundiertere Entscheidungen treffen zu können.

Die Nutzer sind indes alles andere als Zuschauer bei diesem Prozess, betont Gillespie.Mit ihren Praktiken und Taktiken spielen sie mit den Algorithmen. Ein Beispiel: Wer häufig mit Google arbeitet, hat womöglich gelernt, wie er seine Abfragen anpassen muss, um die gewünschten Suchresultate zu bekommen. Die Algorithmen wiederum passen sich an unsere Praktiken an. Dies geschehe in demselben Masse, wie wir uns an ihre Funktionsweise anpassen, erläutert der Forscher am Beispiel Flickr. Demnach entwickeln sich dessen Algorithmen nach den Massstäben der Nutzer. Gleichzeitig haben sie Auswirkungen auf die Themen der nach Bekanntheit strebenden Fotografen. Vergleichbar ist das mit den Hashtags in den Tweets, die ein Mittel der Klassifizierung für Twitter sind. Darüber hinaus bieten sie den Nutzern die Möglichkeit, die Sichtbarkeit ihrer Nachrichten zu erhöhen. Dasselbe gilt für Nutzer von Peer-to-Peer-Netzwerken, die absichtlich einen Dateinamen falsch angeben, um nicht von den Algorithmen der Majors "entdeckt" zu werden.

Eine solche "Beeinflussung" der Algorithmen durch den Nutzer kann zu einer Form der selbsterfüllenden Prophezeiung führen. Beispiele gibt es einige: Man kann der Ansicht sein, dass eine Nachricht, die nicht auf der ersten Seite von Google News erscheint, nicht wichtig sei. Oder man kann sich freuen, sein Lieblingsthema in den "Trends" von Twitter wiederzufinden. "Die Logik der Algorithmen beschränkt sich nicht darauf, aus den Praktiken der Nutzer Modelle abzuleiten: Sie bringt sie dazu, ihre Normen und Prioritäten zu internalisieren", fügt Gillespie hinzu.

Dieses Phänomen der Aneignung durch die Nutzer lässt sich natürlich auch bei den Unternehmen beobachten. Vor allem in den verschiedenen Systemen, die dazu dienen, die Leistung der Angestellten automatisch zu messen. Es lässt sich nur schwer vermeiden, dass sich die Mitarbeiter an die Algorithmen anpassen oder am Ende den von ihnen berechneten Indikator zum Selbstzweck zu manipulieren.

Segmente und Leser

Ein anderer von Gillespie untersuchter Aspekt konzentriert sich auf die Art und Weise, wie die Algorithmen ihre Nutzer und die Auswirkungen auf die Öffentlichkeit strukturieren. Um ihre Ergebnisse zu verbessern, stützen sich die Algorithmen gleichzeitig auf die statistischen Profile von Nutzern und die spezifischen Daten eines jeden Individuums (Favoriten, Verlauf, geografische Ortung).

Mit den Profilen strukturieren die Algorithmen ihr Publikum, indem sie funktionalen Kriterien den Vorzug geben und nicht-funktionale Kriterien ausschliessen. Die Nutzer werden so auf blosse Eigenschaften reduziert. Diese ermöglichen es, einerseits ihr Kaufverhalten und andererseits die Wahrscheinlichkeit, dass sie auf ein Werbebanner klicken, vorauszusehen. Für Gillespie führt dieses Verfahren dazu, dass Leserschaften geformt werden, die durch einen Algorithmus berechnet wurden: "Wenn Amazon uns ein Buch empfiehlt, das ‹andere Kunden wie Sie› gekauft haben, schafft die Firma eine Öffentlichkeit, mit der wir eine Verbundenheit empfinden sollen." Währenddessen bleiben die von dem Empfehlungstool verwendeten Kriterien für den Nutzer weiterhin undurchsichtig.

Bei der Auswertung der Daten und der spezifischen Präferenzen des Nutzers besteht das Risiko, dass Relevanz zu Redundanz und Vereinheitlichung wird: "Die Algorithmen und unsere Vorliebe für die Personen, die uns ähnlich sind, schliessen uns in ‹gefilterte Blasen› ein, in der wir lediglich die Nachrichten finden, die wir erwarten, und die politischen Ansichten, die wir teilen." Diese Entwicklungen können ebenso die Experten betreffen, die mit BI-Dashboards arbeiten. Dies kann dann dazu führen, dass sie ihre bevorzugten Indikatoren in überzogenem Masse berücksichtigen. Damit verhindern sie jedoch, zu neuen Erkenntnissen zu kommen.

Die neuen Experten

Gillespie ist der Ansicht, dass der Siegeszug des Algorithmus als verlässliches Informationstool die derzeitige Antwort auf ein Bedürfnis ist, das so neu nicht ist: nämlich die Arbeit, Informationen zu erzeugen und auszuwählen, anderen zu überlassen. Zudem sind wir von Methoden und Praktiken abhängig, zu denen wir keinen Zugang haben – seien dies nun Experten, Journalisten oder eben Algorithmen. Für den Forscher konkurriert bei der Bereitstellung von Wissen die algorithmische Logik daher mit den Geschäftspraktiken der Herausgeber. Erstere ist abhängig von automatischen Auswahlverfahren, die von einer Maschine durchgeführt werden, die wiederum von Menschen programmiert wurde. Letztere ist abhängig von der Auswahl durch Experten, die durch institutionelle Verfahren legitimiert oder von der Öffentlichkeit anerkannt wurden. In beiden Fällen, so schliesst Gillespie, haben wir am Ende keine andere Wahl, als auf diese Mechanismen zu vertrauen.

Sie finden den Aufsatz online unter:  http://culturedigitally.org/2012/11/the-relevance-of-algorithms

Tags