5. Le Pipe (Cortex Moteur & Suture Sémantique)
Le pipe_engine.py (v179.0) est l'unité centrale de traitement d'ECHO. Il n'est pas un simple connecteur API, mais un véritable Orchestrateur de Contexte capable de maintenir une cohérence absolue (Bit-Perfect) sur des sessions dépassant le million de tokens. Il assure la Suture Sémantique entre le Filtre, les outils et les modèles Gemini 3.
L'Algorithme de Suture Sémantique
La fonction prepare_context est le cœur battant du système. Elle reconstruit l'historique Gemini en suivant une hiérarchie de restauration stricte :
1. Restauration Bit-Perfect (Shadows)
Pour chaque message de l'historique, le Pipe vérifie la présence d'une "Ombre" dans la table SQLite message_shadows. Cette ombre contient la structure parts exacte (incluant les médias binaires et les signatures de pensée) telle qu'elle a été envoyée au modèle lors du tour original.
- Verrou de Version (Anti-Ghosting) : La restauration n'est validée que si le couple
(message_id, updated_at)correspond exactement. Si l'utilisateur modifie un message passé dans l'interface, le timestamp change, l'ombre est invalidée, et le Pipe force une reconstruction fraîche. - Intégrité Multimodale : Contrairement aux systèmes standards qui perdent les liens vers les fichiers temporaires, l'ombre ECHO scelle les
inlineData(Base64) ou les ancres de fichiers, garantissant une persistance totale.
2. Intégration du Draft (Injection de Conscience)
Pour le message utilisateur courant, le Pipe récupère le Draft sémantique préparé par le Filtre (_echo_user_parts_draft). Ce draft est fusionné dynamiquement avec le texte brut de l'utilisateur.
- Priorité au Draft : Le Pipe traite les fichiers (Images, PDF, Smart Context) contenus dans le draft avant d'ajouter le texte utilisateur, plaçant ainsi le contexte de travail avant l'instruction.
Normalisation & Résolution de Placeholders
L'unité _ensure_gemini_parts assure la conformité stricte avec l'API Google Vertex/AI-Studio. C'est ici que s'opère la Résolution Dynamique des Identités :
##ECHO_VERSION##: Injecte la version exacte du framework (ex: v5.98.10).##MODEL_ID##: Résout l'identité du modèle actif (ex: PRO (gemini-3.1-pro-preview)).##MODEL_ORIGIN##: Identifie le modèle ayant initié le tour, crucial pour les stratégies de cascade où un modèle PRO doit savoir s'il prend le relais d'un LITE.
La Cascade Cognitive (Fluctuation Continue)
ECHO introduit le concept de Routage Dynamique Inter-Modèle. En mode echo-auto ou echo-auto-pro, le Pipe gère une boucle de récursion intelligente.
Loi de Corrélation Contextuelle
Corrélation entre Charge Tokens et Niveau d'Intelligence
SAFE (0-25%)
Usage LITE/FLASH
Tâches réflexes simples
WARNING (25-50%)
Montée FLASH/PRO recommandée
Maintien de la cohérence sémantique
CRITICAL (>50%)
Escalade PRO Impérative
Gestion de l'historique lointain
L'Outil de Transfert : changement_niveau_cognitif
Injecté dynamiquement dans le schéma d'outils, il permet à un modèle (ex: FLASH) de se déclarer incompétent ou d'anticiper une surcharge contextuelle.
- Plan de Transfert : Le modèle sortant doit rédiger un plan Markdown (Objectif, Analyse, Stratégie, Contraintes) pour son successeur.
- Mutation Chirurgicale : Le Pipe intercepte cet appel, modifie l'identité du modèle dans le contexte via Regex (
re.sub) et relance immédiatement une requête sur le nouveau modèle expert avec le plan injecté comme dernière réponse système. - Redescente Cognitive : Le protocole est bidirectionnel. Un modèle PRO peut déléguer des tâches de routine à un modèle LITE pour économiser les quotas.
Gestion Chirurgicale des Pensées (CoT)
Le StreamProcessor d'ECHO applique une hygiène de pensée stricte pour optimiser les performances et la clarté.
1. Extraction & Visualisation
Les balises <think> ou <thought> sont isolées en temps réel. Dans l'UI, ECHO force l'écriture en gras (<b>) pour distinguer visuellement le raisonnement interne du résultat final.
2. Thought Hygiene (Zero-Persistence Policy)
ECHO ne conserve JAMAIS le texte brut de la pensée dans l'historique des tours suivants. À la place, il utilise la thoughtSignature :
- L'Ancre Google : La
thoughtSignatureest une ancre logique (KV Cache) fournie par Google. En la réinjectant dans le tour suivant, ECHO permet au modèle de "retrouver ses esprits" sans avoir à relire ses propres pensées. - Économie Massive : Ce protocole réduit la charge contextuelle de 30% à 70% et élimine les hallucinations liées à l'auto-référence.
Sécurité & Résilience API
Le Pipe intègre le client factorisé EchoGeminiClient pour une fiabilité maximale.
- Multi-Clés & Rotation : Supporte une clé primaire et une clé de secours. En cas d'erreur
429 (Quota)ou503 (Overload), le Pipe bascule automatiquement de clé aprèsKEY_SWITCH_THRESHOLDéchecs. - HTTP/2 Strict : ECHO impose le protocole HTTP/2 (via
h2ethttpx) pour permettre le multiplexage des flux et réduire la latence des connexions avec Google AI Studio.
Phase de Scellement (Le Verrouillage)
À la fin de chaque tour, le Pipe exécute une routine de scellement critique :
- Shadow Sealing : Le message utilisateur (le draft complet) et la réponse de l'assistant sont enregistrés dans
message_shadows. - Cognitive Sealing : La
thoughtSignatureet le mapping des outils (tool_io) sont ancrés dans leEchoStateManagervia le calcul de hachage cumulatif (last_cumul). - File Registry Update : Les fichiers traités sont marqués comme
processedet déplacés de la zone de transit OWUI vers le Vault (Coffre-fort) utilisateur permanent. - HUD Refresh : Les métriques de contexte (Cache, Prompt, Generation) sont calculées et envoyées à l'interface via
EchoUI.deploy_context_gauge.