Passer au contenu principal
nouvelles

Google avec l'intelligence artificielle dans le cloud

Par 4 septembre 2023#!31Mon, 22 Juil 2024 16:14:43 +0200+02:004331#31lun, 22 Juil 2024 16:14:43 +0200+02:00-4Europe/Rome3131Europe/Rome202431 22pm31pm-31lun, 22 Juil 2024 16 :14:43 +0200+02:004Europe/Rome3131Europe/Rome2024312024lun, 22 Juil 2024 16:14:43 +0200144147pmlundi=7133# !31Mon, 22 Juil 2024 16:14:43 +0200+02:00Europe/Rome7#juillet 22, 2024#!31Mon, 22 Juil 2024 16:14:43 +0200+02:004331#/31lun, 22 Juil 2024 16:14:43 +0200+02:00-4Europe/Rome3131Europe/Rome202431#!31lun, 22 Juil 2024 16:14:43 +0200+02:00Europe/Rome7#Sans commentaires

Google avec l'intelligence artificielle dans le cloud

Google a encore renforcé son offre d'infrastructures optimisées pour l'intelligence artificielle dans le cloud, en introduisant un nouveau TPU (Tensor Processing Unit) appelé v53e et en mettant à disposition les nouvelles machines virtuelles A3, conçues pour entraîner et exécuter de grands modèles d'IA.

TPU v5e : efficacité et évolutivité

Le TPU v5e a été décrit par Google comme le disque cloud « le plus efficace, le plus polyvalent et le plus évolutif » à ce jour. Ce TPU est optimisé pour la formation et l'inférence sur des modèles moyens et grands, offrant jusqu'à 2 fois et 2,5 fois plus de performances de formation et d'inférence par dollar que le précédent TPU v4, réduisant ainsi les coûts.

Les pods avec v5e TPU peuvent accueillir jusqu'à 256 puces, offrant une bande passante globale de plus de 400 Tb/s et des performances INT8 de 100 pétaOps. De plus, le TPU v5e peut prendre en charge jusqu'à 8 configurations de machines virtuelles différentes, permettant aux clients Google Cloud d'adapter facilement l'infrastructure à leurs besoins.

Compatibilité et intégration

Les TPU v5e prennent en charge nativement des frameworks tels que JAX, PyTorch et TensorFlow, et s'intègrent à des outils open source tels que Transformers et Accelerate de Hugging Face, PyTorch Lightning et Ray. De plus, Google a introduit la technologie Multislice, qui permet la formation de modèles à grande échelle en exploitant des milliers de TPU v5e et v4 connectés.

Nouvelles machines virtuelles A3 : performances améliorées

Les nouvelles machines virtuelles A3 suivent le succès du G2 et sont optimisées pour les charges de travail d'IA. Les A3 sont équipés de 8 GPU NVIDIA H100 Tensor Core avec Transformer Engine, vous permettant de gérer des modèles avec des milliards de paramètres.

La combinaison des capacités du cloud Google avec les GPU NVIDIA permet une formation 3 fois plus rapide et une bande passante réseau jusqu'à 10 fois supérieure à celle de la génération précédente de VM. Chaque VM A3 est équipée de deux processeurs Intel Xeon de 4e génération et de 2 To de mémoire hôte. De plus, grâce à la technologie NVIDIA NVLink, les nouvelles machines virtuelles offrent une bande passante bissectionnelle de 3,6 To/s entre les GPU.

Personnalisation et innovation

Ces récentes annonces de Google Cloud représentent une avancée pour aider les entreprises et les innovateurs à développer et à utiliser des modèles d'intelligence artificielle de plus en plus avancés. Les consommateurs peuvent bénéficier de la possibilité de personnaliser l'infrastructure en fonction de leurs besoins, en profitant du potentiel de l'intelligence artificielle dans le cloud offert par Google.

En résumé, avec les nouvelles machines virtuelles TPU v5e, A3 et les technologies avancées telles que Multislice, Google redéfinit le paysage de l'intelligence artificielle dans le cloud, en proposant des solutions de plus en plus performantes et évolutives pour former et exécuter des modèles d'IA de toute taille. .

Laisser un commentaire