Raspberry Pi AI HAT+ 2 ajoute 8 Go de RAM pour les charges de travail LLM/VLM sur le Pi 5
sur
Le Raspberry Pi AI HAT+ 2 est le dernier module d’extension PCIe pour le Raspberry Pi 5, et sa principale nouveauté est simple : il embarque 8 Go de mémoire LPDDR4X aux côtés d’un accélérateur Hailo-10H, ce qui permet à une plus grande partie des modèles d'être placés « près » du NPU, au lieu de devoir accéder à la mémoire système par un goulet d’étranglement.
Nouveautés
Les précédents modules Hailo de la marque Raspberry Pi pour le Pi 5 étaient principalement présentés comme des accélérateurs de vision, dédiés à la détection d’objets, à la segmentation, à l’estimation de pose et à d’autres traitements caméra. Le AI HAT+ 2 conserve ce concept de « NPU additionnel », mais l’ajout de 8 Go de RAM embarquée fait toute la différence, car cela ouvre la voie à des modèles bien plus gourmands en mémoire, même si la puissance de calcul est suffisante.
Caractéristiques du Raspberry Pi AI HAT+ 2
Un module d’extension PCIe pour l’accélération IA/ML sur Raspberry Pi 5, conçu pour accélérer les modèles de vision ainsi que certaines charges LLM et VLM.
Caractéristiques principales
- Accélérateur de réseau neuronal Hailo-10H
- 8 Go de SDRAM LPDDR4X-4267 embarquée
- Connexion PCI Express ; uniquement pour Raspberry Pi 5
- Performances vision similaires à celles du AI HAT+ 26 TOPS
- Accélère certains LLM et VLM
Support LLM/VLM prévu au lancement
- Llama-3.2-3B-Instruct
- Qwen2.5-VL-3B
Caractéristiques physiques
- Dimensions : 56,7 mm (l) × 65,1 mm (L) × 5,5 mm (H)
- Poids : 19 g (carte) / 48 g (carton avec accessoires)
Bien que les caractéristiques techniques soient prometteuses, quelques détails restent à confirmer. La mémoire La mémoire est annoncée comme « LPDDR4X-4267 SDRAM », mais la documentation publique de Hailo pour le 10H mentionne seulement « 4 | 8 Go LPDDR4/4X » sans fréquence. Si le débit de 4267 MT/s est confirmé, ce serait un bon choix pour des charges GenAI sensibles à la bande passante mémoire, mais il faut le considérer comme provisoire en attendant une confirmation officielle.
De même, l’affirmation selon laquelle les performances vision seraient « similaires au AI HAT+ 26 TOPS » est difficile à vérifier. L’option Hailo-8 du précédent HAT+ est optimisée pour la vision, tandis que le 10H sacrifie une partie de cette spécialisation au profit d’une plus grande polyvalence GenAI. Les deux puces ayant des architectures différentes, une comparaison directe TOPS-à-TOPS ne reflète pas toute la réalité.
Il y a aussi la question de la bande passante PCIe. Le Raspberry Pi 5 offre une interface PCIe 2.0 à une seule voie, limitée à environ 500 Mo/s *. Le module Hailo-10H, quant à lui, est conçu pour du PCIe Gen 3.0 ×4, soit théoriquement jusqu’à 4 Go/s. C’est un facteur huit de différence. Pour l’inférence légère ou les modèles qui tiennent entièrement dans la RAM embarquée du 10H, ce goulot ne sera pas gênant, mais pour les charges nécessitant des transferts fréquents entre le Pi et l’accélérateur, les performances peuvent être affectées. La bonne nouvelle, c’est que la mémoire embarquée a justement été ajoutée pour limiter ces transferts, donc l’impact réel dépendra fortement des modèles et des usages.
* Avec une configuration adaptée, le connecteur externe peut être réglé en Gen 3 ×1 (~1 Go/s), mais ce mode n’est pas certifié officiellement par Raspberry Pi.
Le design correspond parfaitement à la manière dont Hailo positionne le Hailo-10H. La société le présente comme un accélérateur edge compatible IA générative, avec une interface DDR directe pour s’adapter à des modèles plus larges (LLM et VLM) souvent limités par la localisation mémoire plus que par les TOPS ; voir la page produit de Hailo.
Intégration du AI HAT+ 2 dans l’écosystème PCIe du Pi 5
Si l’on part du AI HAT+ existant (13 TOPS et 26 TOPS), cette carte reste la voie la plus simple pour la vision sur Pi 5. La page officielle des accessoires du AI HAT+ le décrit comme une extension à base de Hailo destinée à exécuter plusieurs tâches IA en parallèle, et pour de la simple acquisition caméra il reste le choix de départ évident.
Avant que le AI HAT+ ne devienne la recommandation par défaut, Raspberry Pi proposait le bundle AI Kit : le M.2 HAT+ associé à un module Hailo-8L. C’est toujours une manière simple d’ajouter l’accélération Hailo, et c’est ce que beaucoup de lecteurs possèdent déjà. Pour un rappel Elektor sur cette approche, voir notre article antérieur.
Il existe également une solution plus technique : le M.2 HAT+ seul, qui transforme le PCIe 2.0 du Pi 5 en un port M.2. En pratique, c’est souvent un choix à faire (SSD NVMe ou module accélérateur, mais pas les deux à la fois). Ce contexte est présenté dans notre article sur le lancement du M.2 HAT+.
Cibles modèles AI HAT+ 2 : LLM, VLM et Whisper
Là où le AI HAT+ 2 justifie son existence, c’est dans les charges génératives et multimodales « sélectionnées ». Autrement dit : il ne s’agit plus seulement de calculer plus de bounding boxes par seconde, mais de rendre l’exécution d’un petit ensemble de modèles LLM et VLM crédibles sur une plateforme comme le Pi, grâce à la mémoire dédiée de l’accélérateur.
Concrètement, la liste de cibles attendues comprend des petits modèles instructeurs et VLM compacts comme Llama-3.2-3B-Instruct et Qwen2.5-VL-3B, ainsi que des workloads vocaux comme Whisper (par exemple, Whisper-Base figure dans le Model Explorer GenAI de Hailo). Le matériel partenaire évoque également des modèles de raisonnement distillés ; par exemple, DeepSeek-R1-Distill-Qwen-1.5B est listé pour Hailo-10H dans cette famille Model Explorer.
En pratique, le AI HAT+ 2 ne cherche pas à remplacer le AI HAT+ 26 TOPS pour la vision classique, mais à élargir ce que « Pi 5 + accélérateur » peut exécuter de manière crédible lorsque la taille du modèle et les activations intermédiaires deviennent limitantes.
Résumé
Si vous possédez déjà le AI HAT+ 26 TOPS et que votre usage concerne le traitement d’image/caméra, le Raspberry Pi AI HAT+ 2 ne s’impose pas forcément en remplacement pour la vision seule. La raison de passer au modèle supérieur, c’est la mémoire embarquée du côté accélérateur, qui rend possible certains workloads LLM, VLM et Whisper sur Raspberry Pi 5 sans être immédiatement limité par la mémoire.

Discussion (0 commentaire(s))