Le 2 août 2026 — dans exactement 107 jours — le règlement européen sur l'intelligence artificielle entre pleinement en vigueur pour les entreprises qui utilisent des systèmes à haut risque. Depuis quelques semaines, la presse spécialisée s'emballe et les cabinets de conseil envoient des lettres d'alarme. Résultat : beaucoup de patrons de TPE pensent qu'ils vont devoir embaucher un juriste, rédiger des rapports de conformité et s'enregistrer dans un registre européen.

La réalité est beaucoup plus simple. Si vous êtes artisan, commerçant, professionnel libéral ou gérant d'une petite structure, voici ce que vous devez vraiment savoir — et surtout ce que vous pouvez sereinement ignorer.

Le règlement, en deux phrases

L'AI Act (Règlement UE 2024/1689) est entré en vigueur en août 2024. Il classe les systèmes d'IA selon quatre niveaux de risque et impose des obligations proportionnées à chaque niveau. Les dates s'étalent jusqu'en 2027, mais c'est le 2 août 2026 qui concentre l'essentiel : obligations pour les systèmes à haut risque, règles de transparence pour les chatbots, interdictions définitives pour les usages les plus problématiques — manipulation comportementale, notation sociale automatisée.

Ce qui rassure : le règlement est conçu pour ne pas écraser les petites structures. Les obligations sont proportionnelles à l'impact réel — un filtre anti-spam et un logiciel de recrutement ne sont pas traités de la même façon.

Les 4 niveaux de risque — où vous vous situez

Les 4 niveaux de risque de l'AI Act — pyramide pédagogique

Niveau Ce que c'est Exemples concrets Vos obligations
Inacceptable Systèmes manipulateurs ou discriminatoires Notation sociale, reconnaissance biométrique en masse Interdit, point final
Haut risque IA qui prend des décisions importantes sur une personne Scoring RH automatisé, crédit automatique, recrutement Documentation, audit, supervision humaine obligatoire
Risque limité IA qui interagit directement avec des tiers Chatbot client, générateur de contenu visible Mentionner que c'est une IA
Risque minimal IA en coulisse, sans impact direct sur des tiers Filtre anti-spam, suggestion de contenu, analyse de données internes Aucune obligation

Pour un artisan, un commerçant ou un prestataire de services, la quasi-totalité des outils IA du quotidien tombent dans les deux dernières catégories. Un générateur de devis, un outil de relance client, un assistant rédactionnel — risque minimal ou limité.

Seuls deux cas font basculer vers le haut risque : vous utilisez une IA pour décider qui embaucher ou licencier, ou vous accordez du crédit de façon automatisée. Dans ce cas précis, votre éditeur de logiciel doit être conforme — et vous avez l'obligation de le vérifier.

Ce qui change concrètement pour un artisan ou commerçant

Si vous utilisez l'IA en interne : traitement de vos emails, génération de devis, analyse de vos chiffres, rédaction de courriers. Aucune obligation nouvelle. L'AI Act ne régule pas ce que vous faites en interne — seules les décisions qui impactent des tiers sont concernées.

Si votre IA dialogue avec vos clients ou prospects : chatbot sur votre site, email de réponse automatique, messages de relance. Une seule obligation : informer que c'est une IA. Une phrase dans le pied de page (« Ce message a été assisté par IA ») ou une mention visible sur l'interface suffit amplement. Pas de formulaire, pas d'audit, pas de déclaration.

Si vous utilisez un logiciel RH, de scoring ou de crédit automatisé : vérifiez auprès de votre éditeur qu'il est conforme. C'est sa responsabilité première, mais vous restez co-responsable si vous continuez à l'utiliser en sachant qu'il ne l'est pas.

Ce que vous n'avez pas à faire : rédiger une documentation technique, vous enregistrer dans une base européenne, passer un audit externe. Ces obligations s'adressent aux éditeurs et aux grandes entreprises qui développent des systèmes à haut risque.

Les agents IA : la supervision humaine, c'est déjà la conformité

Le principe qu'on applique chez Déclic depuis le premier jour — l'agent prépare, l'humain valide — correspond exactement à ce que l'AI Act appelle « supervision humaine effective ». En pratique, voici où se situent les agents déployés chez nos clients :

  • Agent Commercial (qualification des leads, devis personnalisés) : vous validez avant tout envoi. Risque minimal, aucune obligation.
  • Agent Relance (séquence d'emails clients) : une mention de transparence dans la signature. Risque limité, obligation couverte.
  • Agent Reporting (récap hebdo KPIs) : usage interne, aucune décision sur un tiers. Risque minimal.

Ce n'est pas un hasard. Un agent qui envoie sans validation humaine pose aussi un problème légal dès lors que ces messages engagent un tiers. L'humain reste au centre, à chaque étape — pas par précaution, par conception.

Ce que vous devriez faire avant le 2 août

Pas besoin d'une semaine de réflexion. Voici une checklist rapide que vous pouvez boucler en moins d'une heure :

  1. Listez vos outils IA : CRM intelligent, chatbot, générateur de contenu, outil de recrutement, logiciel de crédit ou scoring. Trois lignes dans un tableur suffisent.
  2. Identifiez le niveau de risque : utilisez le tableau ci-dessus. Si vous hésitez, posez la question à votre prestataire — il doit savoir répondre clairement.
  3. Vérifiez la transparence : si un client interagit avec une IA, il doit le savoir. Ajoutez la mention si elle manque.
  4. Gardez la main sur les décisions importantes : aucun outil IA ne devrait décider seul d'une embauche, d'un refus de service ou d'un accord de crédit.

Pour 80 % des TPE, cette checklist ne révèle aucune action urgente. Vous êtes déjà dans les clous. Le plus souvent, il s'agit juste d'ajouter une phrase de transparence quelque part — et c'est fait.


Vous n'êtes pas sûr de l'exposition réelle de vos outils IA ? Un audit flash gratuit de 30 minutes vous donne une lecture claire de votre situation — et des actions concrètes si nécessaire, sans jargon ni alarmisme.

Demander un audit gratuit →