TonyPi, robot humanoïde à IA, est la plateforme humanoïde de Hiwonder basée sur Raspberry Pi, destinée à l’éducation et à l’expérimentation en IA. Elle associe une tête équipée d’une caméra, des servomoteurs bus et une pile logicielle construite autour de Python et d’outils courants de vision par ordinateur. Le kit est proposé en versions Standard et Avancée, avec des options de contrôleur incluant le Raspberry Pi 4B (4 GB) ou le Raspberry Pi 5 (4GB/8GB). Pour toutes les options de configuration, consultez la fiche produit Hiwonder.

Matériel du robot humanoïde IA TonyPi

Schéma du robot humanoïde TonyPi avec des annotations montrant ses principaux modules, y compris une caméra grand angle, des servos de tête, un contrôleur Raspberry Pi, un accéléromètre, une batterie LiPo, un afficheur de tension, des supports en aluminium et des servomoteurs bus.
Matériel principal du TonyPi : contrôle Raspberry Pi, vision basée sur caméra, capteur IMU et actionnement par servos bus, alimentés par une batterie LiPo 11,1 V.
Hiwonder annonce une architecture à 18 DOF (Standard/Avancée), animée par 16 servos bus intelligents dans le corps et 2 DOF dans la tête. La tête intègre une caméra HD grand angle pour la vision en temps réel, et la plateforme comprend une IMU pour la détection d’attitude et l’équilibrage automatique. Les principales caractéristiques annoncées incluent une empreinte au sol de 373 × 186 × 106 mm, une masse d’environ 1 800 g, une batterie Li-ion 11,1 V 2 000 mAh (autonomie d’environ 60 min selon le fabricant) et une connectivité Wi-Fi/Ethernet.

Logiciel et interaction du robot humanoïde IA TonyPi

Côté vision, Hiwonder positionne TonyPi autour de pipelines OpenCV pour des fonctions telles que la reconnaissance de couleurs, l’identification de balises, le suivi d’objets et le suivi visuel de ligne, avec un contrôle PID pour le verrouillage de cible et le suivi dynamique. L’entreprise met également en avant la détection humaine et faciale basée sur MediaPipe, permettant un contrôle de type « somatosensoriel » où le robot réagit aux mouvements humains détectés. Pour la documentation, les schémas, le code source et les tutoriels, Hiwonder renvoie documentation et ses tutoriels.

Pour l’aspect « multimodal », la description produit mentionne un déploiement en ligne via l’API OpenAI pour l’interaction vision-langage, avec la possibilité de basculer vers d’autres routages de modèles (par exemple via OpenRouter). Le Kit Avancé est présenté comme ajoutant un module d’interaction vocale plus performant pour des comportements plus fluides, traduisant les intentions orales en actions physiques (avec compréhension de scène selon ce que voit la caméra).

Place dans un Fablab/Maker Lab

éducatifs que comme un simple châssis à servos : vous disposez de démonstrations préinstallées (tracking, suivi de ligne, tir) et de la possibilité de les modifier en Python. Si vous recherchez une plateforme robotique plus compacte et abordable pour expérimenter le contrôle de l’équilibre et la fusion de capteurs avant de passer à un humanoïde kit robot auto-équilibré Elektor Mini-Wheelie est une bonne étape intermédiaire.