Zum Hauptinhalt springen
Nachrichten

Google mit künstlicher Intelligenz in der Cloud

durch 4. September 2023#!31Mo, 22 Jul 2024 16:14:43 +0200+02:004331#31Mo, 22 Jul 2024 16:14:43 +0200+02:00-4Europe/Rome3131Europe/Rome202431 22pm31pm-31Mo, 22 Jul 2024 16:14:43 +0200+02:004Europe/Rome3131Europe/Rome2024312024Mo, 22 Jul 2024 16:14:43 +0200144147pmMontag=3455#!31Mo, 22 Jul 2024 16:14:43 +0200+02:00Europe/Rome7#Juli 22nd, 2024#!31Mo, 22 Jul 2024 16:14:43 +0200+02:004331#/31Mo, 22 Jul 2024 16:14:43 +0200+02:00-4Europe/Rome3131Europe/Rome202431#!31Mo, 22 Jul 2024 16:14:43 +0200+02:00Europe/Rome7#Keine Kommentare

Google mit künstlicher Intelligenz in der Cloud

Google hat sein Angebot an für künstliche Intelligenz in der Cloud optimierter Infrastruktur weiter ausgebaut, indem es eine neue TPU (Tensor Processing Unit) namens v53e eingeführt und die neuen virtuellen A3-Maschinen zur Verfügung gestellt hat, die für das Training und den Betrieb großer KI-Modelle konzipiert sind.

TPU v5e: Effizienz und Skalierbarkeit

Das TPU v5e wurde von Google als das bisher „effizienteste, vielseitigste und skalierbarste“ Cloud-Laufwerk beschrieben. Diese TPU ist für Training und Inferenz auf mittleren und großen Modellen optimiert und bietet bis zu 2x bzw. 2,5x mehr Trainings- und Inferenzleistung pro Dollar als die vorherige v4-TPU, wodurch die Kosten gesenkt werden.

Pods mit v5e-TPU können bis zu 256 Chips aufnehmen und bieten eine Gesamtbandbreite von über 400 Tbit/s und eine INT8-Leistung von 100 PetaOps. Darüber hinaus kann die v5e TPU bis zu 8 verschiedene Konfigurationen virtueller Maschinen unterstützen, sodass Google Cloud-Kunden die Infrastruktur problemlos an ihre Bedürfnisse anpassen können.

Kompatibilität und Integration

v5e-TPUs unterstützen nativ Frameworks wie JAX, PyTorch und TensorFlow und lassen sich in Open-Source-Tools wie Transformers and Accelerate von Hugging Face, PyTorch Lightning und Ray integrieren. Darüber hinaus hat Google die Multislice-Technologie eingeführt, die ein umfangreiches Modelltraining durch die Nutzung Tausender verbundener v5e- und v4-TPUs ermöglicht.

Neue virtuelle A3-Maschinen: Verbesserte Leistung

Die neuen virtuellen A3-Maschinen folgen dem Erfolg der G2 und sind für KI-Workloads optimiert. Die A3s sind mit 8 NVIDIA H100 Tensor Core GPUs mit Transformer Engine ausgestattet, sodass Sie Modelle mit Billionen Parametern verwalten können.

Die Kombination der Funktionen der Google Cloud mit NVIDIA-GPUs ermöglicht ein dreimal schnelleres Training und bis zu zehnmal mehr Netzwerkbandbreite als die vorherige Generation von VMs. Jede A3-VM ist mit zwei Intel Xeon-Prozessoren der 4. Generation und 2 TB Hostspeicher ausgestattet. Darüber hinaus liefern die neuen VMs mit NVIDIA NVLink-Technologie eine halbierte Bandbreite von 3,6 TB/s zwischen GPUs.

Personalisierung und Innovation

Diese jüngsten Ankündigungen von Google Cloud stellen einen Schritt vorwärts dar, um Unternehmen und Innovatoren bei der Entwicklung und Nutzung immer fortschrittlicherer Modelle für künstliche Intelligenz zu unterstützen. Verbraucher können von der Möglichkeit profitieren, die Infrastruktur an ihre Bedürfnisse anzupassen und so das Potenzial der künstlichen Intelligenz in der Cloud von Google zu nutzen.

Zusammenfassend lässt sich sagen, dass Google mit dem neuen TPU v5e, den virtuellen A3-Maschinen und fortschrittlichen Technologien wie Multislice die Landschaft der künstlichen Intelligenz in der Cloud neu definiert und immer leistungsfähigere und skalierbarere Lösungen für das Training und den Betrieb von KI-Modellen jeder Größe bietet .

Hinterlasse eine Antwort

Wählen Sie Ihre Währung
EUR Euro