🤖 Assistant IA & Interface Physique
Prototype d’assistant personnel basé sur un ESP32 et un LLM distant
Ce projet combine électronique embarquée et intelligence artificielle pour créer une interface physique interactive. L'utilisateur peut interagir vocalement via un micro I2S, obtenir une réponse audio, et contrôler ou consulter des informations via un écran OLED. Le traitement de langage naturel est assuré par un modèle LLaMA 3.1 1B hébergé sur un serveur distant.
💻Dépôt Github
⚙️ Architecture générale
- Matériel principal : ESP32
- Interface : Micro I2S INMP441, écran OLED I2C, ampli MAX98357A, haut-parleur
- Alimentation : Cellule Li-ion 18650 avec module de recharge intégré
- Backend IA : Modèle LLaMA 3.1 1B sur serveur distant
🧠Fonctionnalités principales (prévisionnelles)
- Capture vocale avec micro I2S
- Transmission vers serveur distant pour traitement LLM
- Réponse vocale générée via synthèse audio et ampli
- Affichage d’informations contextuelles sur écran OLED
- Interaction mains-libres avec réponse contextuelle intelligente
🔬 Composants techniques
- ESP32 (programmation en C++/Arduino)
- INMP441 (micro I2S) pour l’entrée vocale
- MAX98357A + haut-parleur pour la sortie audio
- Écran OLED I2C pour feedback utilisateur
- Communication Wi-Fi avec serveur hébergeant LLaMA 3.1 1B

Assemblage du prototype
🎯 Objectif pédagogique
Expérimenter l’interfaçage entre matériel embarqué et modèles de langage avancés, en vue de créer un assistant local, autonome et interactif, à vocation pédagogique, domotique ou exploratoire.
🌱 État du projet
Actuellement en phase de prototypage et de test : les composants matériels sont en cours d'intégration et les échanges avec le LLM sont en cours de validation.