Retour

🤖 Assistant IA & Interface Physique

Prototype d’assistant personnel basé sur un ESP32 et un LLM distant
Ce projet combine électronique embarquée et intelligence artificielle pour créer une interface physique interactive. L'utilisateur peut interagir vocalement via un micro I2S, obtenir une réponse audio, et contrôler ou consulter des informations via un écran OLED. Le traitement de langage naturel est assuré par un modèle LLaMA 3.1 1B hébergé sur un serveur distant.

💻Dépôt Github

⚙️ Architecture générale

  • MatĂ©riel principal : ESP32
  • Interface : Micro I2S INMP441, Ă©cran OLED I2C, ampli MAX98357A, haut-parleur
  • Alimentation : Cellule Li-ion 18650 avec module de recharge intĂ©grĂ©
  • Backend IA : Modèle LLaMA 3.1 1B sur serveur distant

🧠 Fonctionnalités principales (prévisionnelles)

  • Capture vocale avec micro I2S
  • Transmission vers serveur distant pour traitement LLM
  • RĂ©ponse vocale gĂ©nĂ©rĂ©e via synthèse audio et ampli
  • Affichage d’informations contextuelles sur Ă©cran OLED
  • Interaction mains-libres avec rĂ©ponse contextuelle intelligente

🔬 Composants techniques

  • ESP32 (programmation en C++/Arduino)
  • INMP441 (micro I2S) pour l’entrĂ©e vocale
  • MAX98357A + haut-parleur pour la sortie audio
  • Écran OLED I2C pour feedback utilisateur
  • Communication Wi-Fi avec serveur hĂ©bergeant LLaMA 3.1 1B
ESP32 Project scheme

Assemblage du prototype

🎯 Objectif pédagogique

Expérimenter l’interfaçage entre matériel embarqué et modèles de langage avancés, en vue de créer un assistant local, autonome et interactif, à vocation pédagogique, domotique ou exploratoire.

🌱 État du projet

Actuellement en phase de prototypage et de test : les composants matériels sont en cours d'intégration et les échanges avec le LLM sont en cours de validation.