ActualitésCarmen Torrijos (Prodigioso Volcn) plaide pour une productivité collective avec l'IA

Carmen Torrijos (Prodigioso Volcn) plaide pour une productivité collective avec l’IA

Date:

Partager:

Carmen Torrijos, responsable IA chez Prodigioso Volcn, défend une idée simple mais exigeante: la productivité promise par l’intelligence artificielle ne doit pas se résumer à des gains individuels, mais se traduire par des outils et des méthodes d’usage commun. Dans un entretien accordé à Prodigioso Volcn, cette traductrice et philologue devenue linguiste computationnelle rappelle que l’IA n’est pas seulement une affaire d’algorithmes et de code, mais aussi de langage, donc de pouvoir sur la narration, l’accès à l’information et la manière de travailler ensemble.

Son parcours illustre l’évolution rapide du secteur. Née à Cuenca en 1988, elle a basculé vers la linguistique computationnelle après un début de carrière dans la traduction technique. Elle revendique plus d’une décennie d’expérience sur des projets de traitement automatique du langage, de modèles de langage et d’IA appliquée à la communication. Elle est coautrice de l’ouvrage La primavera de la inteligencia artificial avec José Carlos Snchez, a été citée par Forbes parmi les 100 profils créatifs du monde des affaires et a reçu un prix de l’AI Network pour sa trajectoire de jeune professionnelle. Cette reconnaissance n’épuise pas le sujet: son propos porte sur l’industrialisation des usages, les angles morts des modèles et la gouvernance de l’IA dans les organisations.

La linguistique computationnelle, passerelle entre récit humain et efficacité technologique

Pour Carmen Torrijos, l’IA générative remet la langue au centre du jeu. Les modèles de langage produisent du texte, résument, reformulent, classent, extraient des informations. Cette mécanique peut donner l’illusion d’une neutralité technique. Or, rappelle-t-elle, le matériau de base reste le langage, avec ses ambiguïtés, ses implicites, ses références culturelles. C’est là que la linguistique computationnelle joue un rôle de médiation: traduire des besoins humains en contraintes formelles, puis vérifier que la sortie du système reste utile, compréhensible et fidèle à l’intention.

Ce profil hybride, à la croisée de la linguistique, de l’ingénierie et des métiers de la communication, prend de la valeur à mesure que les entreprises déploient des assistants d’écriture, des outils de veille, des moteurs de recherche internes ou des chatbots. L’enjeu n’est pas seulement d’installer une technologie, mais de définir des règles de production, de validation et de responsabilité. Dans une agence comme Prodigioso Volcn, dont l’activité touche à la communication et aux contenus, la question devient immédiatement sensible: comment accélérer sans dégrader la qualité, comment standardiser sans uniformiser, comment automatiser sans effacer la singularité éditoriale.

La promesse de productivité, souvent présentée comme un gain de temps individuel, se heurte vite à la réalité collective du travail. Un texte généré plus vite peut créer des coûts en aval si la relecture, la vérification des faits ou l’alignement avec une ligne éditoriale n’ont pas été anticipés. Torrijos insiste sur la nécessité d’une chaîne complète: cadrage des usages, choix des outils, protocole de validation, formation des équipes. Sans cette architecture, l’IA risque de déplacer le travail plutôt que de le réduire.

Cette approche met aussi en lumière un point souvent sous-estimé: les organisations produisent du langage en continu, mails, notes, présentations, rapports, contenus marketing. L’IA peut aider à structurer et mutualiser ce capital textuel, mais seulement si la gouvernance est claire. Les systèmes doivent être pensés comme des biens communs internes, avec des règles d’accès, des référentiels partagés, et des responsabilités identifiées. C’est ce que Torrijos résume par la création de systèmes d’usage commun, conçus pour que la valeur produite ne reste pas dans des silos.

Prodigioso Volcn: transformation culturelle et industrialisation des usages de l’IA

Le témoignage de Carmen Torrijos s’inscrit dans un contexte où l’IA n’est plus un sujet de laboratoire, mais une question d’organisation. Elle décrit son travail comme un pilotage de transformation à la fois digitale et culturelle. Le vocabulaire compte: parler de culture, c’est admettre que l’adoption d’un modèle de langage touche aux réflexes professionnels, aux critères de qualité, au rapport à l’expertise et au partage des tâches.

Dans ce cadre, la productivité plus collective qu’elle défend suppose des choix concrets. Mutualiser des gabarits de prompts, documenter des cas d’usage, définir des niveaux de validation, organiser des retours d’expérience entre équipes. Une organisation peut gagner du temps si les apprentissages sont capitalisés. À l’inverse, si chaque personne expérimente dans son coin, la courbe d’apprentissage se répète, les erreurs se multiplient, et les risques juridiques deviennent difficiles à contrôler.

Cette industrialisation pose aussi la question des métriques. Les discours sur l’IA promettent des gains rapides, mais les organisations ont besoin d’indicateurs: temps économisé par type de tâche, taux de correction après génération, impact sur la satisfaction client, réduction des itérations. Sans mesures, la discussion reste idéologique. Torrijos, forte de son expérience de projets en NLP et en modèles de langage, plaide pour une approche outillée, où l’on compare des flux de travail avant et après, et où l’on identifie les tâches automatisables.

Un autre point ressort de son analyse: l’IA peut standardiser des productions et aplanir des styles, ce qui est un risque direct pour les métiers de la communication. La réponse n’est pas de refuser l’outil, mais de cadrer ce qui doit rester humain: l’intention, l’angle, la hiérarchie des informations, le ton, la responsabilité. L’IA devient alors un assistant de production, pas un auteur. Cette distinction, dans les pratiques, se traduit par des règles éditoriales et des circuits de validation qui protègent la singularité des contenus.

La dimension culturelle se joue aussi sur la formation. Les équipes doivent comprendre ce que fait un modèle, ce qu’il ne fait pas, et pourquoi il se trompe. Sans ce socle, le risque est double: surconfiance dans les réponses, ou rejet global de l’outil. Torrijos défend une pédagogie qui passe par des exemples concrets, des tests, des démonstrations de biais et des exercices de reformulation. L’objectif est de faire monter le niveau collectif, pas de créer une élite interne qui maîtrise seule les bons usages.

Biais des modèles: un problème technique, social et éditorial

L’entretien aborde un thème devenu central: les biais dans les modèles d’IA. Pour une linguiste computationnelle, la question n’est pas abstraite. Les modèles apprennent à partir de corpus massifs, donc d’une histoire de textes traversée par des rapports de force, des stéréotypes et des asymétries de visibilité. Les biais peuvent se manifester dans la représentation des professions, dans la manière de décrire des groupes sociaux, dans la sélection implicite des sources. Dans des usages de communication, ces biais deviennent immédiatement visibles, et potentiellement dommageables.

Le sujet dépasse la technique. Corriger un biais n’est pas seulement ajuster un paramètre. C’est décider ce qui est acceptable, ce qui doit être corrigé, et qui arbitre. Pour une organisation, cela implique une politique de relecture et de contrôle qualité, avec des critères explicites. C’est aussi une question de responsabilité: si un texte généré reproduit un stéréotype, qui en répond, l’outil, la personne qui l’a utilisé, ou l’entreprise qui l’a déployé. Torrijos insiste sur l’importance des garde-fous, car l’IA peut amplifier des formulations problématiques à grande échelle.

La lutte contre les biais se joue aussi dans le choix des cas d’usage. Utiliser un modèle pour reformuler un texte interne n’a pas le même niveau de risque que l’utiliser pour produire un message public, une recommandation ou une réponse à un usager. Une stratégie mature consiste à classer les usages par criticité, à imposer des validations renforcées sur les contenus sensibles, et à documenter les limites connues du système. Dans cette logique, le rôle des profils comme Torrijos est de faire le lien entre les équipes techniques, les juristes, les communicants et les directions.

Le débat sur les biais rejoint celui de la transparence. Les modèles de langage donnent des réponses plausibles, mais pas toujours vérifiables. La tentation est forte de les utiliser comme des moteurs de vérité. Or, un modèle ne cite pas spontanément ses sources, et peut générer des affirmations fausses. Dans les métiers de l’information et de la communication, cette fragilité impose des procédures: exiger des sources, recouper, distinguer ce qui est une synthèse de ce qui est un fait. La productivité ne vaut que si la fiabilité suit.

Ce point est d’autant plus sensible que l’IA s’intègre dans des outils du quotidien. À mesure que les assistants deviennent omniprésents, la vigilance individuelle baisse. Torrijos alerte sur ce glissement: quand la génération de texte devient un réflexe, le contrôle éditorial doit être plus structuré, pas moins. La réponse qu’elle propose reste cohérente avec son fil directeur: renforcer le collectif, créer des standards partagés, et éviter que la qualité dépende d’une seule personne attentive.

Publicité intégrée aux réponses: un risque de dépendance informationnelle

Carmen Torrijos évoque un autre sujet d’actualité: l’intégration potentielle de publicité dans les réponses des modèles. Le scénario est connu dans l’économie numérique: quand un service devient un point d’entrée majeur vers l’information, la monétisation suit. Pour les moteurs de recherche, la publicité a fini par façonner l’architecture de la visibilité. Pour les assistants conversationnels, le risque est similaire, avec une différence: la réponse est formulée comme une phrase, donc comme une recommandation implicite. La frontière entre information et promotion devient plus difficile à percevoir.

Le problème n’est pas seulement éthique, il est aussi cognitif. Une réponse conversationnelle donne un sentiment de proximité et d’autorité. Si une suggestion commerciale se glisse dans cette réponse, l’utilisateur peut la recevoir comme un conseil neutre. Le débat porte alors sur la transparence, l’étiquetage, et la possibilité de désactiver la personnalisation publicitaire. Dans le cadre des organisations, cela pose une question de souveraineté: accepter qu’un outil central de production de texte soit aussi une interface de monétisation externe.

Cette perspective renforce l’argument de Torrijos en faveur de systèmes d’usage commun, pensés et gouvernés en interne. Une entreprise peut choisir des solutions qui garantissent des conditions d’usage, un contrôle des données, et une absence d’incitations publicitaires. Elle peut aussi imposer des règles de sourcing: quels contenus alimentent le modèle, quelles bases de connaissances sont autorisées, quels liens sortants peuvent être proposés. Sans ce cadrage, l’outil risque d’importer des logiques de plateforme dans des processus professionnels.

Le sujet touche aussi à la concurrence entre acteurs. Les éditeurs de modèles et les grandes plateformes disposent d’un levier puissant: contrôler l’interface conversationnelle. Si cette interface devient un substitut au web ouvert, la question de la pluralité des sources se pose avec acuité. Les réponses pourraient privilégier des partenaires, des offres, ou des contenus optimisés pour la visibilité. Torrijos, en tant que spécialiste du langage, pointe un danger: la formulation même de la réponse peut orienter la décision, sans que l’on voie le mécanisme de sélection.

Dans ce contexte, l’éthique de l’IA ne se limite pas à des chartes. Elle passe par des choix d’architecture et de gouvernance. Qui contrôle les paramètres de génération, qui supervise les mises à jour, qui audite les sorties. Les organisations qui dépendent de l’IA pour communiquer, informer ou conseiller ont intérêt à traiter ces outils comme des infrastructures critiques. La thèse de Torrijos, centrée sur la productivité collective, revient à dire que l’IA doit être domestiquée par des règles communes, faute de quoi elle impose ses propres incitations.

Du hasard professionnel en 2013 à la montée en puissance des profils hybrides

Le parcours de Carmen Torrijos commence loin des promesses actuelles de l’IA générative. Elle raconte être entrée dans la linguistique computationnelle presque par accident, en 2013, après une expérience de traduction technique dans un centre d’innovation. Cette date compte: à l’époque, le traitement automatique du langage est déjà un champ actif, mais le grand public n’en perçoit pas encore les applications quotidiennes. Son itinéraire montre comment des métiers du texte, traduction, philologie, peuvent mener vers des rôles techniques, dès lors que l’on travaille sur des corpus, des outils, des modèles.

Cette trajectoire éclaire une transformation du marché du travail. Les entreprises cherchent des profils capables de comprendre la langue comme système, tout en maîtrisant les contraintes de l’automatisation. Le besoin est fort dans les secteurs où le texte est une matière première: médias, communication, service client, juridique, ressources humaines. Les profils hybrides deviennent des chefs d’orchestre: ils traduisent des objectifs métiers en spécifications, et traduisent des limites techniques en règles d’usage.

La reconnaissance reçue par Torrijos, citation par Forbes, prix de l’AI Network, souligne aussi un phénomène: l’IA appliquée à la communication n’est plus un sujet périphérique. Elle devient stratégique, car elle touche à la réputation, à la relation client, à la conformité, et à la vitesse de production. Dans ce champ, la compétence linguistique n’est pas un supplément d’âme, c’est une condition de qualité. Un modèle peut produire des phrases correctes, mais la pertinence, la nuance et l’alignement sur un contexte exigent un pilotage humain.

Le propos de Torrijos se distingue par une forme de pragmatisme. Elle ne présente pas l’IA comme un substitut généralisé, mais comme un levier qui doit être domestiqué par des méthodes. Son appel à une productivité collective revient à défendre une organisation du travail où l’IA sert à mieux partager, mieux documenter, mieux standardiser ce qui peut l’être, tout en protégeant ce qui relève du jugement et de la responsabilité.

Ce positionnement intervient à un moment où les entreprises hésitent entre expérimentation dispersée et structuration. L’expérience de terrain décrite dans l’entretien suggère une voie: investir dans des systèmes communs, former largement, mesurer les effets, et traiter les risques, biais, fiabilité, dépendance commerciale, comme des sujets de gouvernance. Ce choix engage une politique d’entreprise plus qu’une simple adoption d’outil.

Questions fréquentes

Que veut dire « productivité collective » avec l’IA selon Carmen Torrijos ?
L’idée est de dépasser les gains individuels et de créer des systèmes partagés, règles, gabarits, validations, formation, pour que les bénéfices et la qualité soient maîtrisés à l’échelle de l’organisation.
Pourquoi la linguistique computationnelle est-elle centrale dans l’IA générative ?
Parce que les modèles produisent et transforment du langage. La linguistique computationnelle aide à cadrer l’intention, réduire les ambiguïtés, contrôler la qualité et limiter les dérives dans des usages professionnels.
Quels risques Carmen Torrijos associe-t-elle à la publicité dans les réponses d’IA ?
Une confusion entre information et promotion, une orientation implicite des décisions et une dépendance à des logiques de plateforme. Elle plaide pour plus de transparence et une gouvernance des outils utilisés.
Louise Lamothe
Louise Lamothe
Bibliophile et accro aux infos en tout genre, Louise aime partager ses découvertes aux travers de ses articles.

Sur le même sujet

Starbright World, le réseau social en 3D soutenu par Spielberg qui reliait les enfants hospitalisés

Starbright World est né d'une idée simple, rendre moins lourds des séjours à l'hôpital qui s'étirent sur des...

86 ans, 30 ans de mèmes, 5 blagues cultes qui l’ont rendu “invincible”, pourquoi Chuck Norris surprend encore Internet

Chuck Norris est mort le 19 mars 2026 à l'âge de 86 ans, selon une annonce faite par...

DC Studios: Freddie Stroma dit n’avoir “aucune conversation” sur le retour de Vigilante

Freddie Stroma, l'acteur qui incarne Vigilante dans la série Peacemaker, assure ne pas savoir si son personnage reviendra...

2e film, 1 mariée traquée, Samara Weaving revient dans Ready or Not 2, 3 règles mortelles, ce que Grace doit affronter

Samara Weaving reprend le rôle de Grace MacCaullay dans Ready or Not 2: Here I Come, annoncé comme...