Bing Chat wird zu Copilot

Microsoft präsentiert an der Ignite neue Chips und KI-Tools

Uhr
von Maximilian Schenner und tme

Microsoft hat seine jährliche Ignite abgehalten. Dabei drehte sich dieses Jahr alles um das Thema künstliche Intelligenz. Ausser neuen KI-Tools und -Funktionen präsentierte der Hersteller auch neue Hardware für das Trainieren von Sprachmodellen.

(Source: trazika / pixabay.com)
(Source: trazika / pixabay.com)

Microsoft hält am 15. und 16. November 2023 seine virtuelle Entwicklerkonferenz Ignite ab. Im Vordergrund der virtuellen Veranstaltung steht - wie sollte es anders sein - generative KI. Am ersten Konferenztag präsentierte der Hersteller nicht nur zahlreiche Neuheiten für seine KI-Lösungen, sondern zeigte auch neue Hardware.

Neue Chips & erweiterte Partnerschaften

Unter anderem kündigte der Hersteller Neuheiten für seine Rechenzentreninfrastruktur an. Darunter sind auch zwei neue hauseigene Chips. Der erste davon, Microsoft Azura Maia, ist ein KI-Beschleuniger-Chip. Er wurde laut dem Unternehmen speziell für Cloud-basiertes Training und Inferencing für KI-Prozesse entwickelt, etwa Modelle von OpenAI, Bing oder Github Copilot. Microsoft Azure Cobalt, ein Cloud-basierter Chip, basiere auf der ARM-Architektur und soll Leistung, Energie- und Kosteneffizienz bei allgemeinen Arbeiten verbessern.

Des Weiteren kündigte Microsoft die allgemeine Verfügbarkeit von Azure Boost an. Das System beschleunige die Speicherung und Vernetzung, indem es diese Prozesse von den Host-Servern auf speziell entwickelte Hard- und Software verlagere.

Microsoft baut ausserdem seine Partnerschaften mit anderen Hardware-Anbietern der Branche aus. So ergänze man Azure über AMD MI300X mit ND MI300 VMs, beschleunigten virtuellen Maschinen. Diese wurden laut Microsoft ebenfalls speziell für das Training von KI-Modellen entwickelt. Sie seien mit der aktuellen GPU Instinct MI300X von AMD ausgestattet.

Die NC H100 v5 Virtual Machine Series, entwickelt für NVIDIA H100 Tensor Core GPUs, soll mehr Leistung, Zuverlässigkeit und Effizienz für das Training von KI im mittleren Leistungsbereich sowie für generatives Inferencing bieten. Auch die ND H200 v5 Virtual Machine Series will Microsoft in Zukunft zum Einsatz bringen, eine KI-optimierte VM mit der kommenden NVIDIA H200 Tensor Core GPU.

Neuer Name für Bing Chat & Features für Copilot

Microsoft will Copilot, seinen KI-Assistenten Marke Eigenbau, in seinen verschiedenen Ausführungen für alle Anwenderinnen und Anwender zugänglich machen. Bing Chat und Bing Chat Enterprise werden im Zuge dessen neu zu Copilot. Ab 1. Dezember soll Copilot allgemein zur Verfügung stehen. 

Bereits seit November 2023 ist Copilot für Microsoft 365 verfügbar. Ein neues Dashboard soll zeigen, wie sich der Einsatz des Assistenten auf das Unternehmen des Kunden auswirkt. Copilot-Profile sollen Copilot zudem helfen, auf individuelle Präferenzen und Rollen zugeschnittene Antworten zu geben. Dazu kommen laut Microsoft neue Copilot-Funktionen für Outlook und Teams, etwa für die Vorbereitung von Besprechungen oder Notizen-Funktionen in Calls.

Übrigens: Das aktualisierte Outlook von Microsoft bringt neue Sorgen mit sich. Wer ein Konto in Outlook hinzufügt, sendet automatisch auch seine Zugangsdaten und E-Mails in die Microsoft-Cloud.

Das ebenfalls neue Low-Code-Tool Microsoft Copilot Studio soll es ermöglichen, geschäftskritische Daten in Copilot zu integrieren sowie eigene Copilots zu erstellen. Das Tool arbeite mit Konnektoren, Plugins und GPTs.

Microsoft Copilot for Service biete rollenbasierten Kundensupport. Die Lösung helfe dabei, vorhandene Kundenkontaktzentren mit generativer KI zu erweitern.

Das Unternehmen bringt Copilot auch auf Azure, wie es weiter heisst. Copilot für Azure soll IT-Teams helfen, neue Einblicke in ihre Workloads zu gewinnen, ungenutzte Azure-Funktionen zu erschliessen und Vorgänge in der Cloud und am Edge zu steuern. 

Sammelstelle für KI-Modelle

Im Sommer 2023 hatte Microsoft bereits angekündigt, neue KI-Modelle wie Metas LLama anzubieten. Nun schafft das Unternehmen eine Plattform, um sämtliche Modelle an einem Ort zusammenbringen: Azure AI Studio. Unternehmen könnten dort eigene Copilots erstellen und trainieren sowie andere Modelle mit eigenen Daten aufwerten. 

Auf Azure OpenAI Service sei nun das GPT-3.5-Turbo-Modell von OpenAI verfügbar. GPT-4-Turbo soll ebenfalls noch in diesem Jahr verfügbar sein. Beide ermöglichen laut Microsoft längere Prompts und damit mehr Kontrolle über ihre KI-Anwendungen. In Azure OpenAI Service ist neu auch DALL-E 3 verfügbar. 
 

Webcode
FkN9CeFk