5. Le Pipe (Cortex Moteur & Suture Sémantique)

Le pipe_engine.py (v179.0) est l'unité centrale de traitement d'ECHO. Il n'est pas un simple connecteur API, mais un véritable Orchestrateur de Contexte capable de maintenir une cohérence absolue (Bit-Perfect) sur des sessions dépassant le million de tokens. Il assure la Suture Sémantique entre le Filtre, les outils et les modèles Gemini 3.

Philosophie Directrice : Le Pipe considère chaque tour de parole comme une opération chirurgicale. Il refuse la volatilité d'Open WebUI et s'appuie exclusivement sur son propre registre d'ombres (Shadows) pour garantir que l'IA ne souffre jamais d'amnésie ou de dérive logique.

L'Algorithme de Suture Sémantique

La fonction prepare_context est le cœur battant du système. Elle reconstruit l'historique Gemini en suivant une hiérarchie de restauration stricte :

1. Restauration Bit-Perfect (Shadows)

Pour chaque message de l'historique, le Pipe vérifie la présence d'une "Ombre" dans la table SQLite message_shadows. Cette ombre contient la structure parts exacte (incluant les médias binaires et les signatures de pensée) telle qu'elle a été envoyée au modèle lors du tour original.

2. Intégration du Draft (Injection de Conscience)

Pour le message utilisateur courant, le Pipe récupère le Draft sémantique préparé par le Filtre (_echo_user_parts_draft). Ce draft est fusionné dynamiquement avec le texte brut de l'utilisateur.

Normalisation & Résolution de Placeholders

L'unité _ensure_gemini_parts assure la conformité stricte avec l'API Google Vertex/AI-Studio. C'est ici que s'opère la Résolution Dynamique des Identités :

La Cascade Cognitive (Fluctuation Continue)

ECHO introduit le concept de Routage Dynamique Inter-Modèle. En mode echo-auto ou echo-auto-pro, le Pipe gère une boucle de récursion intelligente.

Loi de Corrélation Contextuelle

Corrélation entre Charge Tokens et Niveau d'Intelligence

SAFE (0-25%)

Usage LITE/FLASH
Tâches réflexes simples

WARNING (25-50%)

Montée FLASH/PRO recommandée
Maintien de la cohérence sémantique

CRITICAL (>50%)

Escalade PRO Impérative
Gestion de l'historique lointain

L'Outil de Transfert : changement_niveau_cognitif

Injecté dynamiquement dans le schéma d'outils, il permet à un modèle (ex: FLASH) de se déclarer incompétent ou d'anticiper une surcharge contextuelle.

Gestion Chirurgicale des Pensées (CoT)

Le StreamProcessor d'ECHO applique une hygiène de pensée stricte pour optimiser les performances et la clarté.

1. Extraction & Visualisation

Les balises <think> ou <thought> sont isolées en temps réel. Dans l'UI, ECHO force l'écriture en gras (<b>) pour distinguer visuellement le raisonnement interne du résultat final.

2. Thought Hygiene (Zero-Persistence Policy)

ECHO ne conserve JAMAIS le texte brut de la pensée dans l'historique des tours suivants. À la place, il utilise la thoughtSignature :

Sécurité & Résilience API

Le Pipe intègre le client factorisé EchoGeminiClient pour une fiabilité maximale.

Phase de Scellement (Le Verrouillage)

À la fin de chaque tour, le Pipe exécute une routine de scellement critique :

  1. Shadow Sealing : Le message utilisateur (le draft complet) et la réponse de l'assistant sont enregistrés dans message_shadows.
  2. Cognitive Sealing : La thoughtSignature et le mapping des outils (tool_io) sont ancrés dans le EchoStateManager via le calcul de hachage cumulatif (last_cumul).
  3. File Registry Update : Les fichiers traités sont marqués comme processed et déplacés de la zone de transit OWUI vers le Vault (Coffre-fort) utilisateur permanent.
  4. HUD Refresh : Les métriques de contexte (Cache, Prompt, Generation) sont calculées et envoyées à l'interface via EchoUI.deploy_context_gauge.