Zum Hauptinhalt springen
Nachrichten

Google mit künstlicher Intelligenz in der Cloud

durch 4. September 2023#!31Mo., 22. Juli 2024 16:14:43 +0200+02:004331#31Mo., 22. Juli 2024 16:14:43 +0200+02:00-4Europe/Rome3131Europe/Rome202431 22pm31pm-31Mo., 22. Juli 2024 16:14:43 +0200+02:004Europe/Rome3131Europe/Rome2024312024Mo., 22. Juli 2024 16:14:43 +0200144147pmMontag=3455#!31Mo., 22. Juli 2024 16:14:43 +0200+02:00Europe/Rome7#Juli 22nd, 2024#!31Mo., 22 July 2024 16:14:43 +0200+02:004331#/31Mo., 22 July 2024 16:14:43 +0200+02:00-4Europe/Rome3131Europe/Rome202431#!31Mo., 22 July 2024 16:14:43 +0200+02:00Europe/Rome7#Keine Kommentare

Google mit künstlicher Intelligenz in der Cloud

Google hat sein Angebot an für künstliche Intelligenz in der Cloud optimierter Infrastruktur weiter ausgebaut, indem es eine neue TPU (Tensor Processing Unit) namens v53e eingeführt und die neuen virtuellen A3-Maschinen zur Verfügung gestellt hat, die für das Training und den Betrieb großer KI-Modelle konzipiert sind.

TPU v5e: Effizienz und Skalierbarkeit

TPU v5e wurde von Google als die „bisher effizienteste, vielseitigste und skalierbarste Cloud-Computing-Einheit“ beschrieben. Diese TPU ist für Training und Inferenz bei mittleren und großen Modellen optimiert und bietet im Vergleich zur vorherigen TPU v4 eine bis zu 2- bzw. 2,5-mal höhere Trainings- und Inferenzleistung pro Dollar bei gleichzeitiger Kostensenkung.

TPU v5e-Pods bieten Platz für bis zu 256 Chips und liefern eine Gesamtbandbreite von über 400 Tbit/s sowie 100 PetaOps INT8-Leistung. Darüber hinaus unterstützt TPU v5e bis zu acht verschiedene virtuelle Maschinenkonfigurationen, sodass Google Cloud-Kunden ihre Infrastruktur problemlos an ihre Bedürfnisse anpassen können.

Kompatibilität und Integration

v5e-TPUs unterstützen nativ Frameworks wie JAX, PyTorch und TensorFlow und lassen sich in Open-Source-Tools wie Transformers and Accelerate von Hugging Face, PyTorch Lightning und Ray integrieren. Darüber hinaus hat Google die Multislice-Technologie eingeführt, die ein umfangreiches Modelltraining durch die Nutzung Tausender verbundener v5e- und v4-TPUs ermöglicht.

Neue virtuelle A3-Maschinen: Verbesserte Leistung

Die neuen virtuellen A3-Maschinen folgen dem Erfolg der G2 und sind für KI-Workloads optimiert. Die A3s sind mit 8 NVIDIA H100 Tensor Core GPUs mit Transformer Engine ausgestattet, sodass Sie Modelle mit Billionen Parametern verwalten können.

Die Kombination von Google Cloud-Funktionen mit NVIDIA-GPUs ermöglicht dreimal schnelleres Training und eine bis zu zehnmal höhere Netzwerkbandbreite als die vorherige VM-Generation. Jede A3-VM verfügt über zwei Intel Xeon-Prozessoren der vierten Generation und 2 TB Host-Speicher. Dank NVIDIA NVLink-Technologie bieten die neuen VMs zudem eine bi-sektionale GPU-Bandbreite von 3,6 TB/s.

Personalisierung und Innovation

Diese jüngsten Ankündigungen von Google Cloud stellen einen Fortschritt dar, um Unternehmen und Innovatoren bei der Entwicklung und Bereitstellung immer fortschrittlicherer KI-Modelle zu unterstützen. Verbraucher können von der Möglichkeit profitieren, ihre Infrastruktur an ihre Bedürfnisse anzupassen und dabei die Leistungsfähigkeit der Cloud-KI von Google zu nutzen.

Kurz gesagt: Mit der neuen TPU v5e, virtuellen A3-Maschinen und fortschrittlichen Technologien wie Multislice definiert Google die Cloud-KI-Landschaft neu und bietet zunehmend leistungsfähigere und skalierbarere Lösungen für das Trainieren und Ausführen von KI-Modellen jeder Größe.

Hinterlasse eine Antwort