MirageIA résout ça. Sans changer le workflow de personne.
🔀 Le principe : un proxy transparent
MirageIA s'intercale entre vos applications et les APIs LLM. Il détecte les données sensibles, les remplace par des valeurs fictives cohérentes avant l'envoi, puis réinjecte les originaux dans la réponse.
Exemple concret
"Contacte Tardy au 192.168.1.22"
↓ MirageIA
"Contacte Gerard au 10.0.84.12"
↓ API LLM
"J'ai noté pour Gerard"
↓ MirageIA
"J'ai noté pour Tardy"
Invisible des deux côtés
Le LLM ne voit jamais la vraie donnée. L'utilisateur ne voit aucune différence.
✅ Ce qui nous différencie des autres solutions
100 % local
Binaire Rust autonome, zéro serveur externe. Tout reste sur votre poste.
Pseudonymisation réversible
Mapping bidirectionnel AES-256 en mémoire, pas un bête [REDACTED].
Détection contextuelle
Comprend le contexte (« Thomas Edison » dans un cours d'histoire n'est pas masqué).
Streaming SSE compatible
Fonctionne nativement avec les réponses en streaming des APIs modernes.
Zéro donnée en clair sur disque
Les mappings vivent en mémoire, chiffrés, et disparaissent à l'arrêt du proxy.
🔓 Pourquoi open source ?
Parce que la confiance ne se décrète pas : elle s'audite. Un outil qui prétend protéger vos données doit être lisible ligne à ligne.
La licence PolyForm Noncommercial permet un usage interne libre. Les déploiements commerciaux passent par UITGuard.
On cherche des retours, des cas d'usage, des contributeurs
Testez MirageIA sur vos propres workflows
Binaire Rust autonome, installation en quelques minutes. Forks, issues et PR bienvenus.
Accéder au dépôt GitHub