Big Data Analytics an der Digital Edge
Volumen, Vielfalt und Geschwindigkeit von Daten entwickeln sich in einem wahnwitzigen Tempo. Die Anforderungen an das heutige Datenmanagement wachsen ständig weiter. Der Rand des Unternehmensnetzwerks, die Digital Edge, ist der Ort, wo die Analyse von Big Data erfolgen sollte.

Das Datenwachstum nimmt so rasant zu, dass traditionelle, zentralisierte Speicherverwaltungsmethoden nicht mehr möglich sind. Wir haben heute eine enorme Datendichte, bei der immer mehr Informationen noch mehr Benutzer, Systeme, Anwendungen und Clouds anziehen, die auf die Daten zugreifen müssen. Um einen globalen Datenaustausch und damit auch Big Data Analytics effizient und kostengünstig zu skalieren und zu verwalten, sollten Unternehmen Daten-Pools, -analysen und -kontrollen in sogenannte "Datendrehscheiben" an der digitalen Edge, in der Nähe von Datenquellen und Nutzern, integrieren.
Am Rand des Unternehmensnetzwerks
Das Sammeln von Daten von so vielen Endpunkten und das Zusammenführen an einem Ort werden sonst zu einer unüberwindbaren Herausforderung und verdeutlichen die Notwendigkeit, Daten am Rand des Unternehmensnetzwerks zu speichern, zu verarbeiten und zu analysieren – dort, wo sie gesammelt werden.
Denn bei so vielen angeschlossenen Geräten und riesigen Datenmengen ist es nicht realistisch zu erwarten, dass das zentrale Rechenzentrum des Unternehmens die Drehscheibe der Datenspeicher- und Analysestrategien für das digitale Geschäft sein kann. Man weiss, wie schwierig es ist, Daten in ein zentralisiertes Rechenzentrum zu übertragen, um zeitnahe Geschäfts- und Betriebsinformationen aus zentralisierten Analyseapplikationen zu gewinnen. Die aus den analysierten Daten erlangten Antworten sind sonst beim Erhalt bereits schon veraltet, denn zwischenzeitlich gibt es neue Informationen.
Verteilt statt zentralisiert
Die erfolgreiche Umsetzung einer ganzheitlichen Digital-Edge-Strategie erfordert eine flexible Interconnection-Architektur, die einen genauen Fahrplan für die Verbindung aller Teilnehmer und Komponenten bietet. Organisationen sollten auf eine sogenannte "Interconnection Oriented Architecture" setzen, auf ein wiederholbares Architektur-Framework zur Transformation der IT-Infrastruktur eines Unternehmens.
Anstelle von zentralisierten sollen verteilte sowie direkte und sichere Verbindungen mit Personen, Standorten, Clouds, Daten und "Things" an der Digital Edge stehen. Die grundlegende IT-Delivery-Architektur soll vom zentralisierten Silo auf vernetzt und verteilt geändert werden, um Edge- wie auch Cloud-Computing-Infrastrukturen zu unterstützen.
Entscheidende Bausteine für die Umsetzung einer solchen Architektur sind die globale Präsenz eines Anbieters, ein dichtes Cloud- und Serviceprovider-Ökosystem sowie die Fähigkeit, Daten und Analysen an der Edge zu integrieren. Dies ermöglicht eine neue Ebene der Kontrolle sowie Analyse über geschäftskritische Daten – dank direkter, sicherer und schneller Interconnection.
Sofortige Analysen
Die sichere Verlagerung von Daten und Analysen an den Rand des Unternehmensnetzwerks, näher an die Benutzer und Anwendungen, die Echtzeitzugriff auf sie benötigen, löst dieses Problem. Die Prämisse ist, dass sich durch die Annäherung der Rechen- und Analysefähigkeiten an den Rand, an dem ein Grossteil der Daten erstellt und abgerufen wird, die Entfernung verringert, welche die Daten über das Netzwerk zurücklegen müssen. Dadurch werden Latenzzeiten reduziert und man erhält sofortige Analysen für zeitnahe Entscheidungen.

Dies sind die Abenteuer des Patrick Starship Enterprise

Update: Weko stellt Untersuchung gegen Swisscom ein

Cyberangriffe auf die Schweiz nehmen ab

Kontrollverlust durch KI ist kein Risiko mehr, sondern Realität

So könnten Cyberkriminelle Sicherheitsabfragen von KI-Agenten manipulieren

Best of Swiss Apps 2025 geht in die Jurierung

Nomasis feiert 20-Jahre-Jubiläum

2024 hat der Bund 1,63 Milliarden Franken in ICT investiert

PXL Vision und Skribble vereinen Identifikation und qualifizierte Signatur
