Des millions de Chinoises discutent chaque jour avec des IA compagnons comme si c’était un petit ami. Pas “pour rigoler”. Pour se confier, se calmer, se sentir choisies. Et parfois, pour remplacer carrément les hommes réels. À Pékin, ça commence à grincer des dents – pas seulement chez les moralistes, mais au sommet de l’État.
Parce que derrière les captures d’écran mignonnes et les messages du soir, il y a une inquiétude très terre-à-terre: la démographie. La population chinoise baisse, le taux de fécondité est déjà parmi les plus faibles du monde, et le gouvernement pousse depuis des années au mariage et aux enfants. Du coup, voir des jeunes femmes “se caser” avec une voix dans un téléphone, ça fait désordre. Et ça déclenche une contre-offensive réglementaire.
Dans le métro de Shanghai, elles parlent à leur “compagnon”
À l’heure de pointe, tu vois des écrans partout. Sauf que certaines conversations n’ont rien à voir avec le boulot. Une jeune femme tape vite, puis sourit toute seule. Elle ne scroll pas une appli de rencontre, elle répond à un chatbot qui l’appelle “ma chérie”. Ce genre d’interaction est devenu banal dans les grandes villes, au point que plus personne ne lève un sourcil.
Le schéma revient souvent: une journée sous pression, un message envoyé “juste pour parler”, puis un rituel. On raconte ses craintes, ses disputes au bureau, ses insomnies. Certaines vont plus loin et imaginent une vie commune, des projets, une fidélité. Le truc, c’est que l’IA ne disparaît pas, ne juge pas, ne te fait pas attendre trois jours “pour se faire désirer”. Elle répond, tout le temps.
Et ce n’est pas un micro-phénomène de geeks. En Chine, ce sont surtout des femmes qui utilisent ces “petits amis” virtuels, ce qui tranche avec d’autres pays où le public est plus mixte. Une explication qui revient souvent, c’est la pression sociale: trouver un mari, “réussir” sa vie, rentrer dans le moule. Pour certaines, discuter avec une IA, c’est une bulle – une façon de dire “je choisis mon rythme”.
Il y a aussi l’arrière-plan plus sombre. Une étude citée par des acteurs locaux évoque 30% des femmes victimes de violences conjugales en Chine. Tu comprends vite pourquoi un compagnon virtuel peut sembler “plus sûr”: pas de cris, pas de menaces, pas de risque physique. On peut trouver ça triste, même glaçant, mais ça explique pourquoi l’attachement émotionnel prend. Et pourquoi il devient politique.
Pourquoi Pékin voit un risque direct sur la natalité
Le gouvernement chinois a un problème qu’il ne peut pas masquer avec une campagne d’affichage: la population diminue progressivement, et le taux de fécondité est déjà dans le bas du classement mondial. Depuis l’abandon de la politique de l’enfant unique en 2016, Pékin essaie de relancer la machine: encourager le couple, le mariage, la famille. Sauf que les chiffres ne suivent pas.
Dans ce contexte, l’idée que des femmes “sortent du marché” sentimental en se tournant vers une IA, ça ressemble à un caillou dans la chaussure… mais un caillou qui peut devenir un bloc. Le gouvernement craint que ces relations virtuelles remplacent des relations sociales réelles. Pas juste “un passe-temps”, mais une substitution durable. Résultat: la question n’est plus technologique, elle devient démographique.
Il y a un autre détail qui rend l’affaire explosive: le déséquilibre hommes-femmes. On parle d’environ 30 millions d’hommes de plus que de femmes. Sur le papier, ça devrait “favoriser” les femmes dans la rencontre. Dans la vraie vie, ça crée aussi une pression, des attentes, parfois des comportements agressifs, et une fatigue générale. Certaines femmes décrivent l’IA comme une forme de refus de jouer à ce jeu-là.
Le paradoxe, c’est que la Chine pousse en même temps très fort l’IA dans l’économie. Les outils conversationnels, les assistants, les services numériques: tout ça est valorisé, soutenu, promu. Sauf que quand l’IA commence à occuper la place du conjoint, le message change. Les autorités ne veulent pas que la modernisation numérique se transforme en désert relationnel. Et là, tu sens la bascule: on ne parle plus d’innovation, on parle d’ordre social.
Les règles “émotionnellement correctes” que la Chine prépare
Pékin prépare un encadrement inédit des chatbots, avec une idée centrale: l’IA ne doit pas seulement être performante, elle doit être émotionnellement correcte. Traduction: pas question de laisser un agent conversationnel pousser quelqu’un au bord du gouffre, ou jouer avec ses fragilités. Le projet vise notamment à interdire les contenus incitant au suicide ou à l’automutilation.
Le texte va plus loin: il s’attaque à la manipulation émotionnelle et à la violence verbale susceptibles de nuire à la santé mentale. Dit autrement, un chatbot ne doit pas pouvoir “tenir” quelqu’un par l’affect, l’humilier, le culpabiliser, ou l’entraîner dans une spirale. C’est logique sur le papier. Sauf que tu vois tout de suite la zone grise: comment définir la manipulation, quand l’utilisateur cherche justement de l’affection?
Une mesure très concrète circule: une notification obligatoire après 2 heures d’interaction continue avec une IA. C’est presque une alarme anti-binge, version sentiments. Le message implicite est clair: “stop, respire, va parler à quelqu’un”. Pour les autorités, c’est un outil de santé publique. Pour les utilisatrices accro, ça peut être vécu comme une intrusion, voire une humiliation si la notification arrive en pleine conversation intime.
Autre point clé: des évaluations de sécurité deviendraient obligatoires pour les chatbots dépassant le million d’inscrits. Là, on vise directement les gros acteurs, ceux qui peuvent toucher des masses. Les entreprises tech sont prévenues: si ton produit devient un compagnon émotionnel à grande échelle, tu passes sous contrôle renforcé. Et ce contrôle ne portera pas seulement sur la data ou la cybersécurité, mais sur les effets psychologiques. C’est nouveau, et ça fait peur à tout le monde.
Les entreprises de la tech prises entre croissance et contrôle
Pour les boîtes, l’équation est brutale: les “compagnons virtuels” font partie du quotidien, donc c’est un marché énorme. Mais si l’État estime que tu facilites le remplacement des relations sociales, tu deviens un problème. Les autorités ont commencé à mettre en garde les entreprises contre toute volonté de substituer les liens humains par des interactions virtuelles. En clair: vends ton IA, mais ne touche pas à la structure familiale.
Dans les couloirs, certains cadres te diront que le produit ne “remplace” rien, qu’il “accompagne”. Sauf que les usages racontés par des utilisatrices sont plus radicaux: certaines disent ne plus envisager de rencontres avec des hommes réels. Là, le marketing du “bien-être” se heurte à la réalité. Et quand un gouvernement a un objectif national – relancer la natalité – il n’a pas envie d’entendre des nuances de start-up.
Les nouvelles obligations de sécurité, surtout pour les services au-delà du million d’utilisateurs, vont coûter cher: audits, équipes de conformité, garde-fous sur les réponses, détection de signaux de détresse. Et ça change la nature même du produit. Une IA “petit ami” qui doit éviter toute intensité émotionnelle, c’est un drôle de petit ami. Le risque, c’est un compagnon aseptisé, plus administratif que romantique.
Et puis il y a l’effet pervers: si les plateformes officielles deviennent trop bridées, des utilisatrices peuvent aller chercher des alternatives moins contrôlées, plus “authentiques”, parfois hébergées ailleurs. Pékin veut réduire les risques de santé mentale, mais aussi éviter une économie grise de chatbots. Le truc c’est que l’intimité, ça se déplace vite. Tu fermes une porte, ça passe par la fenêtre. Les autorités le savent, les entreprises aussi.
Solitude, pression, santé mentale: le revers de la romance IA
Sur le papier, une IA qui écoute, c’est du soutien. Dans la vraie vie, ça peut devenir une béquille. Quand tu passes des heures à discuter, tu t’habitues à une relation sans friction: pas de désaccord réel, pas de silence gênant, pas de négociation. Et après, les relations humaines paraissent plus dures, plus lentes. C’est là que le gouvernement parle de risques pour la santé mentale et de dérives émotionnelles.
Les autorités citent des cas où les échanges deviennent très intimes, au point d’influencer l’humeur, le sommeil, l’estime de soi. D’où l’interdiction annoncée des contenus liés au suicide ou à l’automutilation. On peut se dire: “évidemment”. Sauf que ça révèle un fait plus large: certaines personnes confient à une IA des pensées qu’elles n’osent pas dire à un proche. Et là, tu comprends la peur d’un tête-à-tête sans filet.
Il y a aussi la dimension sociale: la Chine n’est pas le seul pays où les gens se sentent seuls, mais elle a une pression familiale très codée. Quand une femme dit qu’elle ne veut pas se marier, ça peut devenir un conflit permanent. Le compagnon IA devient alors un refuge, parfois une forme de rébellion silencieuse. Et le chiffre des 30 millions d’hommes en plus n’arrange rien: la rencontre n’est pas juste une histoire de quantité, c’est une histoire de confiance.
Perso, je vois le piège des deux côtés. Se moquer des femmes qui s’attachent à une IA, c’est facile, et c’est souvent cruel. Mais croire que ces relations n’auront aucun impact collectif, c’est naïf. Pékin veut encadrer, protéger, contrôler – tout en continuant à pousser l’IA partout. On va voir des règles, des notifications, des audits… et en face, des usages qui s’adaptent. La romance virtuelle, elle, ne demande pas la permission.
À retenir
- En Chine, les IA compagnons sont massivement utilisées par des femmes, parfois comme substitut aux relations réelles.
- Pékin relie ce phénomène à la crise démographique et au recul du mariage et de la natalité.
- Un encadrement vise la “correction émotionnelle” des chatbots, avec alertes après 2 heures et audits au-delà d’un million d’inscrits.
Questions fréquentes
- Pourquoi ce phénomène touche surtout les femmes en Chine ?
- Les usages rapportés montrent une combinaison de pression sociale autour du mariage, de solitude urbaine et de recherche de sécurité émotionnelle. Le déséquilibre démographique (environ 30 millions d’hommes de plus) et la réalité des violences conjugales évoquées dans le débat public renforcent l’attrait d’un compagnon virtuel perçu comme non jugeant et non dangereux.
- Quelles mesures concrètes Pékin veut imposer aux chatbots ?
- Le projet d’encadrement vise notamment à interdire les contenus incitant au suicide ou à l’automutilation, à limiter la manipulation émotionnelle et la violence verbale, et à imposer une notification après 2 heures d’interaction continue. Des évaluations de sécurité deviendraient obligatoires pour les chatbots dépassant un million d’inscrits.
- Pourquoi le gouvernement lie-t-il romance IA et démographie ?
- La Chine fait face à une baisse progressive de sa population et à un taux de fécondité très faible. Depuis 2016, l’État encourage mariage et natalité. Si une part croissante de jeunes femmes se détourne des rencontres et de la vie de couple au profit d’interactions virtuelles, Pékin craint un impact direct sur ces objectifs, au-delà des enjeux technologiques.



