EquitIA

/ Transparence

IA responsable

Chez EquitIA, nous croyons que la confiance se construit par la transparence. Cette page détaille notre approche de l'intelligence artificielle, ses capacités, ses limites, et nos engagements envers nos utilisateurs.

Dernière mise à jour : 12 avril 2026

Article 1 — Modèle d'IA utilisé

EquitIA utilise le modèle d'intelligence artificielle Claude, développé par Anthropic, accessible via la plateforme OpenRouter.

Modèle : Claude (Anthropic)

Accès : Via l'API OpenRouter

Type : Grand modèle de langage (LLM) — modèle tiers, non propriétaire

Transparence :EquitIA ne développe pas et ne possède pas de modèle d'IA propriétaire. Nous utilisons un modèle tiers via une interface de programmation (API). Ce choix de transparence signifie que :

  • Nous n'avons pas accès aux poids du modèle ni à ses données d'entraînement ;
  • Nous ne modifions pas le comportement fondamental du modèle ;
  • Notre valeur ajoutée réside dans la spécialisation du contexte (prompts système adaptés au droit français), l'interface utilisateur et la structuration des documents juridiques ;
  • Nous pouvons changer de fournisseur de modèle si un modèle plus performant ou plus sûr devient disponible.

Article 2 — Données d'entraînement

Point essentiel

EquitIA n'entraîne aucun modèle d'intelligence artificielle.Nous utilisons un modèle tiers pré-entraîné (Claude, par Anthropic) via une API. Nous n'avons ni la capacité technique ni la volonté d'entraîner ou de fine-tuner un modèle sur les données de nos utilisateurs.

Le modèle Claude a été entraîné par Anthropic sur des données publiques et sous licence. Pour plus d'informations sur les pratiques d'entraînement d'Anthropic, vous pouvez consulter leur documentation publique sur anthropic.com.

Article 3 — Protection des données utilisateurs

Engagement fondamental

Les données des utilisateurs d'EquitIA ne sont JAMAIS utilisées pour l'entraînement de modèles d'intelligence artificielle.

Cet engagement se décline concrètement de la manière suivante :

  • Les données transmises à l'API Claude via OpenRouter ne sont pas utilisées par Anthropic pour entraîner ses modèles (conformément aux conditions d'utilisation de l'API) ;
  • Les contrats générés sont stockés uniquement dans votre espace personnel Firebase, chiffré et sécurisé ;
  • ML ON DEVICE ne procède à aucune analyse, agrégation ou exploitation des données de contrats à des fins de recherche ou d'amélioration algorithmique ;
  • Vous pouvez supprimer l'intégralité de vos données à tout moment.

Article 4 — Limites de l'intelligence artificielle

En tant qu'entreprise spécialisée dans l'application de l'IA au domaine juridique, nous avons le devoir d'être transparents sur les limites actuelles de cette technologie :

Hallucinations

Les modèles de langage peuvent générer des informations qui semblent plausibles mais sont factuellement incorrectes. Cela peut inclure de fausses références à des articles de loi, des jurisprudences inexistantes, ou des interprétations erronées du droit.

Absence de conseil juridique

EquitIA ne fournit PAS de conseil juridique au sens de la loi n° 71-1130 du 31 décembre 1971. Les documents générés sont des modèles indicatifs qui ne tiennent pas compte de la situation spécifique de chaque utilisateur et ne peuvent remplacer l'analyse d'un avocat.

Connaissance limitée dans le temps

Le modèle d'IA a une date limite de connaissance. Les évolutions législatives, réglementaires ou jurisprudentielles postérieures à cette date peuvent ne pas être prises en compte dans les documents générés.

Absence de raisonnement juridique

L'IA ne raisonne pas au sens humain du terme. Elle produit du texte statistiquement probable, sans compréhension véritable des concepts juridiques, des enjeux stratégiques ou du contexte factuel spécifique.

Article 5 — Supervision humaine

Nous recommandons systématiquement une supervision humaine qualifiée pour l'utilisation des documents générés par EquitIA :

Recommandations d'utilisation :

  • Pour tout contrat à enjeu : faites relire et valider le document par un avocat ou un juriste qualifié.
  • Pour les clauses sensibles : (limitation de responsabilité, clauses pénales, propriété intellectuelle) : sollicitez systématiquement un avis professionnel.
  • Pour les situations complexes : (contentieux, restructuration, opérations M&A) : EquitIA ne remplace pas un conseil juridique spécialisé.
  • Vérification factuelle : vérifiez systématiquement les références légales, les montants, les dates et les données factuelles citées dans les documents générés.

EquitIA est conçu comme un outil d'aide à la rédaction, pas comme un substitut au professionnel du droit. Il accélère la production d'une première version de document, que l'utilisateur — ou son conseil — doit ensuite vérifier, adapter et valider.

Article 6 — Transparence algorithmique

Dans un souci de transparence, nous détaillons ci-dessous le fonctionnement technique d'EquitIA :

Structure du prompt système

Chaque requête envoyée au modèle d'IA est accompagnée d'un prompt système qui :

  • Définit le rôle de l'IA comme assistant de rédaction juridique spécialisé en droit français ;
  • Impose le respect du cadre légal français (Code civil, Code de commerce, Code de la consommation, RGPD) ;
  • Structure la réponse selon un format prédéfini (articles numérotés, clauses standards) ;
  • Inclut des instructions de sécurité pour éviter les contenus hors périmètre.

Méthodologie d'évaluation des risques

Lorsque EquitIA analyse un contrat, l'évaluation des risques suit une méthodologie structurée :

  • Identification des clauses abusives au sens de l'article L.212-1 du Code de la consommation ;
  • Vérification de la présence des mentions obligatoires ;
  • Signalement des clauses ambiguës ou incomplètes ;
  • Attribution d'un niveau de risque indicatif (faible, moyen, élevé) — à titre informatif uniquement.

Article 7 — Conformité réglementaire

EquitIA s'inscrit dans un cadre de conformité réglementaire exigeant :

RGPD — Règlement (UE) 2016/679

  • Minimisation des données collectées (article 5.1.c)
  • Limitation des finalités de traitement (article 5.1.b)
  • Respect des droits des personnes concernées (articles 15-22)
  • Tenue d'un registre des activités de traitement (article 30)
  • Analyses d'impact relatives à la protection des données (article 35)

AI Act européen — Règlement (UE) 2024/1689

EquitIA se conforme aux obligations de transparence applicables aux systèmes d'IA :

  • Information claire : les utilisateurs sont informés qu'ils interagissent avec un système d'IA (article 50)
  • Transparence : le fonctionnement du système est documenté et accessible (présente page)
  • Classification : EquitIA est un outil d'aide à la décision à risque limité — les documents générés ne produisent pas d'effets juridiques automatiques et nécessitent une validation humaine
  • Non-discrimination : vigilance continue sur les biais potentiels du modèle

Loi n° 71-1130 du 31 décembre 1971

EquitIA ne constitue pas un exercice illégal du droit. Le Service est un outil de rédaction assistée, non un prestataire de conseil juridique. Conformément à la jurisprudence de la Cour de cassation, la mise à disposition de modèles de documents ne constitue pas une activité de consultation juridique réglementée, dès lors qu'il n'y a pas de conseil personnalisé.

Article 8 — Nos engagements

ML ON DEVICE, SASU, éditrice d'EquitIA, s'engage à :

  • Transparence totale : informer clairement nos utilisateurs sur le fonctionnement, les capacités et les limites de notre technologie.
  • Protection des données : ne jamais utiliser les données des utilisateurs pour entraîner des modèles d'IA, et garantir le chiffrement et la confidentialité des données.
  • Honnêteté : ne jamais prétendre que notre Service remplace un avocat ou un professionnel du droit qualifié.
  • Amélioration continue : surveiller la qualité des documents générés, corriger les biais identifiés, et adopter les meilleures pratiques en matière d'IA responsable.
  • Conformité proactive : anticiper et respecter les évolutions réglementaires (RGPD, AI Act, législation française).
  • Accessibilité : rendre cette page et nos engagements accessibles à tous nos utilisateurs.

Article 9 — Contact

Pour toute question relative à notre utilisation de l'intelligence artificielle, à nos pratiques de transparence ou à la protection de vos données :

Questions générales : contact@equitia.fr

Protection des données : dpo@equitia.fr

Adresse postale : ML ON DEVICE, SASU — 60 Rue François 1er, 75008 Paris, France

Nous nous engageons à répondre à toute demande dans un délai raisonnable. Votre confiance est notre priorité.