Nvidia verbessert Deep Learning
Die GPU-basierte Deep-Learning-Technologie von Nvidia hat ein Update erhalten. Der Hersteller verspricht neue Funktionen und doppelte Leistung.
Nvidia hat im Rahmen der International Conference On Machine Learning Neuerungen für seine Deep-Learning-Software angekündigt. Die Updates sollen die Leistung der Software Digits 2 verdoppeln.
Nvidia setzt bei der Technologie auf die Grafikprozessoren (GPU) aus dem eigenen Haus. GPUs eignen sich nach Angaben von Nvidia deshalb so gut, da sie mehrere Aufgaben und Berechnungen gleichzeitig ausführen können.
Spracherkennung und Echtzeitübersetzung
Wissenschaftler und Entwickler nutzen Deep Learning, um Computersysteme zu "trainieren". Der Einsatz von GPUs beschleunige die Trainingsprozesse. Dadurch würden sich neue Anwendungsgebiete erschliessen, die bislang als unerreichbar galten, schreibt Nvidia auf seiner Website.
Zu diesen Anwendungsgebieten zählen Spracherkennung, Echtzeitübersetzung gesprochener Sprache oder Analyse-Tools für Social-Media-Plattformen.
Die neue Version der Software Digits 2 ist für registrierte Entwickler bereits verfügbar. Die Cudnn-3-Bibliothek will Nvidia in den nächsten Monaten freigeben.
Wie sich Vorschussbetrüger Vertrauen erschleichen
Wie Schweizer Rechenzentren auch im KI-Zeitalter nachhaltig arbeiten
Google bringt KI-Laptop auf den Markt
SDEA prüft neu auch, wie viel Wasser Rechenzentren verbrauchen
Die Post speichert digitale Briefe auf Google-Servern
KI-Entlassungen steigern nicht die Rendite
Auditfähig. Und trotzdem schnell.
Foxconn bestätigt Cyberangriff
Büsi in der Ecke, Büsi im Scheinwerferlicht