Passer au contenu principal
nouvelles

Google avec l'intelligence artificielle dans le cloud

Par 4 septembre 2023#!31Mon, 22 Juil 2024 16:14:43 +0200+02:004331#31lun, 22 Juil 2024 16:14:43 +0200+02:00-4Europe/Rome3131Europe/Rome202431 22pm31pm-31lun, 22 Juil 2024 16 :14:43 +0200+02:004Europe/Rome3131Europe/Rome2024312024lun, 22 Juil 2024 16:14:43 +0200144147pmlundi=7133# !31Mon, 22 Juil 2024 16:14:43 +0200+02:00Europe/Rome7#juillet 22, 2024#!31Mon, 22 Juil 2024 16:14:43 +0200+02:004331#/31lun, 22 Juil 2024 16:14:43 +0200+02:00-4Europe/Rome3131Europe/Rome202431#!31lun, 22 Juil 2024 16:14:43 +0200+02:00Europe/Rome7#Sans commentaires

Google avec l'intelligence artificielle dans le cloud

Google a encore renforcé son offre d'infrastructures optimisées pour l'intelligence artificielle dans le cloud, en introduisant un nouveau TPU (Tensor Processing Unit) appelé v53e et en mettant à disposition les nouvelles machines virtuelles A3, conçues pour entraîner et exécuter de grands modèles d'IA.

TPU v5e : efficacité et évolutivité

Le TPU v5e a été décrit par Google comme « l'unité de cloud computing la plus efficace, la plus polyvalente et la plus évolutive à ce jour ». Ce TPU est optimisé pour l'entraînement et l'inférence sur des modèles de taille moyenne et grande, offrant des performances d'entraînement et d'inférence jusqu'à 2 fois et 2,5 fois supérieures par rapport au précédent TPU v4, tout en réduisant les coûts.

Les pods TPU v5e peuvent accueillir jusqu'à 256 puces, offrant plus de 400 Tbit/s de bande passante cumulée et 100 pétaOps de performances INT8. De plus, TPU v5e prend en charge jusqu'à 8 configurations de machines virtuelles différentes, permettant aux clients Google Cloud d'adapter facilement leur infrastructure à leurs besoins.

Compatibilité et intégration

Les TPU v5e prennent en charge nativement des frameworks tels que JAX, PyTorch et TensorFlow, et s'intègrent à des outils open source tels que Transformers et Accelerate de Hugging Face, PyTorch Lightning et Ray. De plus, Google a introduit la technologie Multislice, qui permet la formation de modèles à grande échelle en exploitant des milliers de TPU v5e et v4 connectés.

Nouvelles machines virtuelles A3 : performances améliorées

Les nouvelles machines virtuelles A3 suivent le succès du G2 et sont optimisées pour les charges de travail d'IA. Les A3 sont équipés de 8 GPU NVIDIA H100 Tensor Core avec Transformer Engine, vous permettant de gérer des modèles avec des milliards de paramètres.

L'association des fonctionnalités Google Cloud et des GPU NVIDIA permet un entraînement 3 fois plus rapide et une bande passante réseau jusqu'à 10 fois supérieure à celle de la génération précédente de VM. Chaque VM A3 est équipée de deux processeurs Intel Xeon de 4e génération et de 2 To de mémoire hôte. De plus, grâce à la technologie NVIDIA NVLink, les nouvelles VM offrent une bande passante GPU bi-sectionnelle de 3,6 To/s.

Personnalisation et innovation

Ces récentes annonces de Google Cloud représentent une avancée majeure pour accompagner les entreprises et les innovateurs dans le développement et le déploiement de modèles d'IA toujours plus performants. Les consommateurs peuvent ainsi personnaliser leur infrastructure selon leurs besoins, en exploitant la puissance de l'IA cloud offerte par Google.

En bref, avec le nouveau TPU v5e, les machines virtuelles A3 et les technologies avancées comme Multislice, Google redéfinit le paysage de l'IA dans le cloud, en proposant des solutions de plus en plus performantes et évolutives pour la formation et l'exécution de modèles d'IA de toute taille.

Laisser un commentaire