Microsoft
16.11.2023, 07:55 Uhr
Ignite: 100 Neuheiten
Auf der Tech-Konferenz Ignite stellt Microsoft rund 100 Neuheiten vor, darunter Erweiterungen seiner Cloud-Infrastruktur für KI-Anwendungen, neue Copilot-Angebote, Anwendungen für die bessere Verbindung von Daten und KI sowie KI-optimierte Hardware.
Gestern Abend unserer Zeit hat Microsoft-Chef Satya Nadella die Keynote zur diesjährigen Tech-Konferenz Ignite gehalten, die noch bis zum 17. November läuft und zum Teil online mitverfolgt werden kann. Mehr als 100 Neuheiten hat Nadella angekündigt. Sehr viele davon gehen um die Integration von Künstlicher Intelligenz in Microsofts Produkte beziehungsweise den Um- und Ausbau von Microsofs Infrastruktur, inbesondere Azure, für künftige KI-Services, die zum Teil bereits von Großkunden getestet werden können. Dabei wurden auch KI-optimierte Microsoft-Prozessoren angekündigt, eine intensivierte Zusammenarbeit mit NVidia und die Einführung von Copiloten auf allen Ebenen (mehr dazu lesen).
- Auf der Ignite hat Microsoft Innovationen für seine Rechenzentrumsinfrastruktur angekündigt, darunter KI-optimierte Prozessoren von Branchenpartnern sowie zwei neue von Microsoft entwickelte Chips.
- Microsoft Azure Maia ist ein KI-Beschleuniger-Chip, der für Cloud-basiertes Training und Inferencing für KI-Workloads wie OpenAI-Modelle, Bing, GitHub Copilot und ChatGPT entwickelt wurde.
- Microsoft Azure Cobalt ist ein Cloud-nativer Chip, der auf der ARM-Architektur basiert und für Leistung sowie Energie- und Kosteneffizienz bei allgemeinen Arbeitslasten optimiert ist.
- Darüber hinaus kündigt Microsoft die allgemeine Verfügbarkeit von Azure Boost an: einem System, das die Speicherung und Vernetzung beschleunigt, indem es diese Prozesse von den Host-Servern auf speziell entwickelte Hard- und Software verlagert.
- Zusätzlich zu diesen Entwicklungen baut Microsoft seine Partnerschaften mit Hardware-Anbietern aus, um seinen Kunden weitere Infrastruktur-Auswahlmöglichkeiten anbieten zu können:
- Microsoft will über AMD MI300X beschleunigte virtuelle Maschinen (VMs) zu Azure hinzufügen. Die ND MI300 VMs wurden entwickelt, um die Verarbeitung von KI-Workloads für das Training von KI-Modellen mit hoher Reichweite und für generative Inferenz zu beschleunigen. Sie werden mit AMDs neuester GPU ausgestattet: der AMD Instinct MI300X.
- Die Preview der neuen NC H100 v5 Virtual Machine Series, die für NVIDIA H100 Tensor Core GPUs entwickelt wurde, bietet mehr Leistung, Zuverlässigkeit und Effizienz für das Training künstlicher Intelligenz im mittleren Leistungsbereich und für generatives KI-Inferencing. Außerdem hat Microsoft seine Pläne für die ND H200 v5 Virtual Machine Series angekündigt, eine KI-optimierte VM mit der kommenden NVIDIA H200 Tensor Core GPU.