Focus KI für KMU: Nvidia

Wie Grafikprozessoren der künstlichen Intelligenz zum Durchbruch verhalfen

Uhr | Aktualisiert
von Marc Stampfli, Sales Manager Schweiz, Nvidia Switzerland

Die Entwicklungen in der künstlichen Intelligenz in den letzten Jahren sind atemberaubend schnell verlaufen. Kaum jemand hat vorausgesehen, dass sich die künstliche Intelligenz so sprunghaft weiterentwickeln würde. Es fehlten die wichtigsten Zutaten für eine erfolgreiche Anwendung – bis vor Kurzem.

Marc Stampfli, Sales Manager Schweiz, Nvidia Switzerland
Marc Stampfli, Sales Manager Schweiz, Nvidia Switzerland

Das Internet und die damit wachsenden Datenmengen sind die Basis für die Erfolge in der KI-Entwicklung in den letzten Jahren gewesen. Es brauchte jedoch eine kritische Masse, um neue Anwendungen ausserhalb des wissenschaftlichen Umfelds zu ermöglichen.

Künstliche neuronale Netze als Basis für moderne künstliche Intelligenz waren seit den 1950er-Jahren bekannt. Jedoch wurden sie früher meist nicht eingesetzt, da die notwendigen Datenmengen, um ein neuronales Netzwerk zu trainieren, nicht ökonomisch verarbeitet werden konnten. Die zur Verfügung stehende Computertechnologie war viel zu langsam oder man benötigte einen Supercomputer, was den Durchbruch schlicht unmöglich machte.

Grafikprozessoren für die künstliche Intelligenz

Dies änderte sich, als Wissenschaftler das erste Mal ein neuronales Netzwerk auf einem spezialisierten Grafikprozessor (GPU) trainierten. Die GPU wurde ursprünglich entwickelt, um dreidimensionale Computergrafik effizient zu berechnen und darzustellen. Es wird ein 3-D-Modell der Umwelt erstellt und für jedes Pixel die korrekten Farben und Schattierungen berechnet. Dabei müssen riesige Mengen an Datenpunkten in Echtzeit berechnet werden. Dazu wurde hauptsächlich die Verarbeitung von linearer Algebra benötigt, die parallelisiert werden kann. Diese Aufgabe wurde an den parallel verarbeitenden Grafikprozessor ausgelagert, da der Hauptprozessor eines heutigen Computers (CPU) für komplexe Instruktionen ausgelegt und zu langsam für diese Aufgabe ist. Die lineare Algebra ist ein Zweig der Mathematik, der für die Computergrafik grundlegend ist. Sie untersucht Vektoren, lineare Transformationen und Matrizen. Genau dieselbe Mathematik, die heutige moderne Computerspiele oder Virtual-Reality-Anwendungen erst ermöglichte, wird auch für künstliche neuronale Netzwerk eingesetzt.

Die GPU konnte also für die effizientere und kostengünstigere parallele Verarbeitung auch für künstliche neuronale Netzwerke eingesetzt werden. Damit war der Durchbruch für die moderne künstliche Intelligenz, basierend auf tiefen künstlichen neuronalen Netzwerken (Deep Neuronal Networks), geschafft.

Fortschritte und Weiterentwicklungen

Plötzlich waren ganz neue revolutionäre Anwendungen möglich. Effiziente Spracherkennung, geschriebene Sprachverarbeitung, Objekterkennung in Bildern oder Filmen, Erkennung von Mustern in Zeitreihen waren grundlegende Aufgaben, die ein Computer endlich in ausreichend guter Qualität übernehmen konnte. Viele werden heute bereits – teilweise unbewusst – in Computern, Software oder Mobiltelefonen eingesetzt. Weiterentwicklungen daraus sind unter anderem autonome Fahrzeuge, neuartige medizinische Diagnosegeräte, intelligente Roboter und Drohnen sowie die Erkennung von Betrug im Finanzwesen.

Die ursprünglichen Grafikprozessoren wurden inzwischen weiterentwickelt. Es wurden mathematische Operationen integriert, die notwendig sind, um neuronale Netzwerke direkt auf dem Chip zu trainieren. Inzwischen gibt es sogar einen spezialisierten Mini-Supercomputer für künstliche Intelligenz. Damit wird das Supercomputing für künstliche Intelligenz demokratisiert und es wird viele weitere innovative Lösungen und Produkte von verschiedensten kleinen wie auch mittleren Firmen geben.

Mehr zum Thema KI für KMU im Fokus

Webcode
DPF8_122616

Kommentare

« Mehr