Portée d'application
La première question que tout dirigeant se pose est simple : « Ces règles, est-ce que ça me concerne ? » La réponse est souvent oui, et plus large qu'on ne l'imagine. La régulation chinoise des algorithmes ne vise pas uniquement les géants de la tech ou les pure players du numérique. Elle s'applique à toute entité fournissant des **services d'information** via des moyens algorithmiques sur le territoire chinois. Cela inclut donc les plateformes de e-commerce qui personnalisent les recommandations de produits, les applications de contenu (actualités, vidéos, musique), les services de transport et de livraison optimisant les trajets, mais aussi les outils de recrutement utilisant des algorithmes de tri de CV, ou encore les systèmes de pricing dynamique. Même une entreprise manufacturière étrangère utilisant un chatbot algorithmique sur son site web chinois pour le service client peut entrer dans le champ d'application. La notion clé ici est l'« impact sur l'ordre public, les intérêts nationaux ou les droits des citoyens ». En pratique, les autorités adoptent une interprétation large et proactive. J'ai vu une entreprise européenne de vente en ligne B2B, pensant être en dehors du radar, recevoir des questions précises de la part du Cyberspace Administration of China (CAC) sur son moteur de recommandation interne. Leur erreur ? Avoir sous-estimé la définition extensive de « service d'information ». Il est donc crucial de procéder à un audit interne pour cartographier tous les usages algorithmiques, même ceux qui semblent marginaux.
Transparence et explicabilité
Le cœur de la régulation réside dans l'exigence de **transparence et d'explicabilité**. Les règles exigent que les fournisseurs de services algorithmiques informent les utilisateurs de la nature des services basés sur des algorithmes, et leur fournissent des options pour désactiver ou personnaliser ces services. Concrètement, cela se traduit par des mentions obligatoires comme « Recommandé par algorithme » à côté des contenus, et par la mise à disposition d'un paramétrage simple permettant, par exemple, de réduire la personnalisation ou de réinitialiser ses tags d'intérêt. Mais aller au-delà du minimum légal est sage. Pour les entreprises étrangères, cela signifie développer des interfaces et des explications en chinois parfaitement claires, adaptées au contexte culturel local. L'explicabilité va plus loin : en cas de décision algorithmique impactant significativement les droits d'un utilisateur (refus de crédit, blocage de compte, biais dans une recherche d'emploi), vous devez être en mesure de fournir une explication compréhensible. Techniquement, c'est un défi, car tous les modèles (notamment les « boîtes noires » du deep learning) ne se prêtent pas facilement à cela. Cela pousse à repenser la conception des algorithmes en intégrant dès le départ des contraintes d'audit et d'explication. C'est un changement de paradigme pour beaucoup d'équipes R&D basées à l'étranger, qui doivent collaborer étroitement avec les équipes juridiques et de conformité locales.
Protection des mineurs
La protection des mineurs est un axe de conformité particulièrement sensible et scruté par les régulateurs. Les règles sont strictes : les algorithmes ne doivent pas pousser des contenus susceptibles d'induire une dépendance ou des comportements à risque chez les mineurs. Des **mécanismes de contrôle du temps d'utilisation** et des fonctionnalités de « mode mineur » doivent être implémentés. Dans la pratique, cela nécessite un système robuste de vérification de l'âge, qui reste un défi technique et éthique. Une expérience personnelle me vient à l'esprit : nous accompagnions une plateforme de jeux mobiles étrangère. Leur système de recommandation de nouveaux jeux, très performant, a été pointé du doigt car il pouvait, en chaîne, proposer des jeux non adaptés après une session sur un jeu pourtant estampillé « tout public ». Ils ont dû revoir entièrement l'architecture de leur graphe de recommandation pour créer un écosystème cloisonné et sûr pour les utilisateurs identifiés comme mineurs. L'investissement a été conséquent, mais il a permis d'éviter une sanction qui aurait pu aller jusqu'à la suspension du service. Cela montre que cet angle n'est pas une simple case à cocher, mais un remodelage potentiel de certaines logiques business.
Éthique et biais algorithmiques
La régulation chinoise insiste fortement sur la nécessité de promouvoir les **valeurs fondamentales du socialisme** et d'éviter tout biais algorithmique qui pourrait engendrer de la discrimination ou une fracture sociale. Cela va au-delà de la simple conformité technique pour toucher à l'éthique du développement algorithmique. Par exemple, un algorithme de recrutement qui désavantagerait systématiquement les candidats d'une certaine région, ou un système de crédit scoring qui reposerait sur des critères jugés injustes, serait en infraction. Pour une entreprise étrangère, cela implique de former ses équipes techniques aux spécificités éthiques et sociales du marché chinois, qui peuvent différer de celles de son pays d'origine. Il est nécessaire de constituer des jeux de données d'entraînement représentatifs et équilibrés pour le contexte chinois, et de mettre en place des procédures d'audit régulier des décisions algorithmiques pour détecter les biais. Des chercheurs comme ceux de l'Académie chinoise des sciences cyberspatiales soulignent que la lutte contre les biais algorithmiques est un pilier de la « gouvernance algorithmique socialiste ». Intégrer cette dimension dès la conception est non seulement un impératif légal, mais aussi un gage de responsabilité sociale et d'acceptation par les utilisateurs locaux.
Gouvernance interne
Se conformer ne relève pas uniquement du département juridique ou technique. Cela exige une **gouvernance interne solide et structurée**. La régulation impose la désignation d'un responsable de la sécurité des algorithmes, qui sera l'interlocuteur privilégié des autorités. Cette personne doit avoir une compréhension à la fois technique, juridique et opérationnelle des systèmes. Dans les faits, pour nos clients étrangers, nous recommandons souvent la création d'un comité de gouvernance algorithmique pluridisciplinaire, incluant des représentants de la direction Chine, de la R&D, des affaires juridiques, de la conformité et de la protection des données. Ce comité est chargé d'établir des politiques internes, de superviser les évaluations d'impact sécurité (obligatoires pour certains algorithmes « à haut risque »), et de documenter scrupuleusement toutes les décisions et audits. La paperasse, oui, mais c'est votre meilleure assurance en cas de contrôle. J'ai vu trop d'entreprises arriver avec des procédures internes perfectibles, ce qui allongeait considérablement le processus de mise en conformité et créait des risques inutiles. Une gouvernance bien rodée est un atout opérationnel qui fluidifie les échanges avec les régulateurs.
Localisation des données
Un point crucial, souvent source de tension pour les sièges internationaux, est la **localisation des données** liées aux algorithmes. Les données personnelles collectées et utilisées pour entraîner, optimiser ou faire fonctionner les algorithmes sur le territoire chinois sont soumises aux lois sur la protection des informations personnelles (PIPL) et la cybersécurité. En pratique, cela signifie que ces données doivent, en règle générale, être stockées sur des serveurs situés en Chine continentale. Leur transfert à l'étranger est possible, mais soumis à des conditions strictes (évaluation de sécurité, consentement explicite, etc.). Pour le fonctionnement quotidien d'un algorithme de recommandation, cela implique souvent de dupliquer ou d'adapter l'infrastructure technique pour créer un environnement de traitement des données entièrement local. Cela peut représenter un coût significatif et une complexité logistique. Une entreprise américaine de médias sociaux que nous conseillons a dû revoir toute son architecture cloud pour s'assurer que les données de comportement de ses utilisateurs chinois, servant à alimenter son algorithme de fil d'actualité, étaient traitées et stockées localement par un partenaire cloud agréé en Chine. C'était un projet de plusieurs mois, mais indispensable pour continuer à opérer.
Conclusion et perspectives
En résumé, la conformité algorithmique en Chine n'est pas un simple « check-listing » réglementaire. C'est un processus stratégique continu qui touche à la technique, au droit, à l'éthique et à la gouvernance d'entreprise. Les points clés à retenir sont : une **portée d'application large** qu'il ne faut pas sous-estimer, une exigence impérative de **transparence et de lutte contre les biais**, des obligations renforcées pour la **protection des mineurs**, la nécessité d'une **gouvernance interne dédiée** et le respect strict des règles de **localisation des données**.
Pour les entreprises étrangères, le chemin peut sembler ardu, mais il est navigable avec une préparation adéquate et des conseils avisés. L'objectif ultime des autorités chinoises, au-delà du contrôle, est de façonner un écosystème numérique plus ordonné, sûr et fiable. Se conformer, c'est donc aussi démontrer votre engagement à long terme sur le marché et votre respect pour ses règles du jeu. À mon avis, nous n'en sommes qu'au début. La régulation des algorithmes va continuer à évoluer, notamment avec le développement rapide de l'IA générative. Les entreprises qui auront intégré la conformité dans leur ADN opérationnel et qui adopteront une posture proactive, plutôt que réactive, seront les mieux placées pour innover et prospérer dans le paysage numérique chinois de demain. La clé est de voir ces exigences non comme une barrière, mais comme un cadre structurant pour une croissance responsable et durable.
--- ### Perspective de Jiaxi Fiscal sur la Conformité Algorithmique Chez Jiaxi Fiscal, après avoir accompagné de nombreuses entreprises étrangères sur ce dossier, nous considérons que la **conformité algorithmique est désormais un pilier non-négociable de la stratégie Chine**. Notre expérience nous montre que les approches les plus efficaces sont celles qui intègrent cette dimension dès la phase de conception du produit ou du service, et non en aval comme un correctif. Nous recommandons une méthodologie en trois temps : **Audit, Adaptation, Audit continu**. Premièrement, un **audit technique et juridique approfondi** doit cartographier tous les flux algorithmiques, évaluer leur niveau de risque au regard de la régulation chinoise, et identifier les écarts de conformité. Ensuite, la phase **d'adaptation** implique des choix stratégiques : faut-il adapter l'algorithme global pour le marché chinois, ou développer une version spécifique ? Comment structurer la gouvernance et la documentation ? Enfin, un **mécanisme d'audit continu et de veille réglementaire** est essentiel, car le cadre évolue rapidement. Le plus grand écueil, selon nous, est le décalage culturel et opérationnel entre les sièges sociaux et les équipes locales. La conformité algorithmique exige un dialogue permanent et une délégation d'autorité claire à la direction Chine, appuyée par des experts locaux qui comprennent à la fois la lettre de la loi et l'esprit dans lequel elle est appliquée. Notre rôle est souvent de faire le pont, de traduire les exigences techniques en risques business compréhensibles pour le siège, et d'expliquer les contraintes globales aux équipes techniques locales. L'investissement initial peut être substantiel, mais il est infiniment moins coûteux qu'une suspension de service, une amende lourde ou une atteinte irréversible à la réputation. À l'ère du numérique, la conformité algorithmique n'est plus une fonction support ; c'est un avantage concurrentiel et un gage de confiance.