La révolution silencieuse dans les agences françaises

L’intelligence artificielle transforme profondément le secteur de la communication en France. Si elle ouvre de nouvelles possibilités pour les agences – personnalisation des campagnes, optimisation des processus, réduction des coûts – elle soulève également d’importantes questions éthiques. Comment concilier innovation technologique et responsabilité dans un contexte où le cadre réglementaire se précise tant au niveau national qu’européen ?

L’IA dans les agences de communication françaises

État des lieux

L’adoption de l’IA dans les agences françaises de communication s’accélère. Selon le baromètre « Enjeux 2025 des communicants »1 publié en janvier par Occurrence et l’Association nationale des communicants, 78 % des professionnels du secteur estiment que l’IA aura un impact significatif sur leur métier dès cette année 62 % des agences françaises utilisent des outils d’IA de manière régulière. Déjà, près de, selon les données croisées de l’AACC2 et de l’étude Square/OpinionWay3.

Les principaux usages concernent :

  • la génération de contenu rédactionnel (emails marketing, publications réseaux sociaux, scripts), utilisée par 55 % des agences,
  • la création de visuels ou illustrations par IA (affiches, prototypes de campagne), en progression rapide (41 %),
  • l’élaboration de concepts stratégiques ou d’analyses prédictives, encore minoritaire mais en plein essor.

Les moteurs de cette adoption sont multiples : gain de productivité, capacité à créer des contenus à la volée, personnalisation granulaire des messages publicitaires, ou encore automatisation de la veille stratégique.
Les outils d’IA générative (comme ChatGPT, Midjourney ou Dall-E) s’intègrent progressivement aux workflows de création. Cette intégration ne se fait pas sans questionnements, mais les résultats rapides et mesurables qu’elle permet en font une révolution silencieuse difficile à ignorer, qui transforme progressivement les métiers de la communication.

Transformation des métiers

Mutations et potentIAlités

Les professionnels développent de nouvelles compétences et se repositionnent face à ces technologies émergentes, adoptant une approche hybride entre créativité humaine et assistance artificielle.

  • Les planneurs stratégiques intègrent désormais une dimension analytique renforcée, utilisant l’IA pour identifier des tendances et micro cibler les audiences.
  • Les rédacteurs développent de nouvelles compétences en « prompt engineering » et se repositionnent comme superviseurs créatifs
  • Les directeurs artistiques utilisent l’IA pour l’exploration conceptuelle tout en conservant les outils classiques pour les finalisations créatives. Les métiers de l’image sont particulièrement impactés par l’essor des médias synthétiques, imposant aux photographes et réalisateurs une redéfinition de leur proposition de valeur vers une approche plus curatoriale et directionnelle. L’école des Gobelins4 note cette évolution dans la formation des directeurs artistiques qui doivent désormais intégrer les outils d’IA générative dans leur pratique créative.

Mais cette évolution de la création assistée par IA soulève la question délicate des frontières entre inspiration et appropriation.

Enjeux éthiques au cœur des pratiques

Transparence et acceptation du public

La transparence constitue un enjeu éthique majeur. Dans un contexte où les contenus peuvent être générés sans que l’utilisateur en soit conscient, l’information doit être claire : quel contenu est produit par une IA ? Quelle part revient à l’humain ? Cette exigence répond à une méfiance croissante du public face aux risques de manipulation informationnelle.
Les données du sondage AACC/OpinionWay « Les Français et l’IA » (2023)5 révèlent des attitudes contrastées face à l’usage de l’IA dans la communication. « 64 % des Français souhaitent être informés lorsqu’un contenu est généré par une IA« , illustrant une exigence croissante de transparence dans la création publicitaire. Cette attente reflète une préoccupation légitime. L’étude TGI Kantar Media (avril 2025)6 confirme que « 43% des Français sont favorables à l’usage de l’IA pour personnaliser les contenus publicitaires« , mais cette acceptation reste conditionnée à la transparence des pratiques. L’acceptation varie selon les générations et les applications concernées. Les observations Dailymotion/YouGov (2025)7 montrent que « les 25-34 ans sont plus ouverts aux recommandations basées sur la preuve » générées par IA, illustrant une fracture générationnelle dans l’acceptation de ces technologies.

Propriété intellectuelle, droits d’auteur et buzz

La question des droits d’auteur est tout aussi sensible que celle de la transparence comme l’illustrent les buzz provoqués par la campagne IA de Chamonix8, les dessins en mode Ghibli9 et les Starter Packs générés par ChatGPT10. À qui appartient une création réalisée par IA ? Quels droits pour les artistes dont le style est copié sans consentement ? Ne risque-t-on pas à terme, une uniformisation des créations issues d’un recyclage infini ?

La campagne publicitaire de Chamonix « Reconnecter à la nature », sortie en Octobre 2024, a provoqué un tollé.8 En cause, la mention « Image générée par l’IA, sublimée par l’homme » sur les affiches mettant en scène des skieurs entourés de renards, d’un bouquetin, d’un chamois ou d’un cerf dans un décor de neige immaculée. Suscitant des réactions négatives et des reproches quant à l’utilisation de L’IA à la place d’un photographe, ce cas illustre les risques réputationnels liés à l’usage de l’IA.

En Mars 2025, ChatGPT a donné corps aux craintes des auteurs concernant l’appropriation de leurs œuvres9, en donnant aux utilisateurs la possibilité de produire des images inspirées du style de Miyazaki, le célèbre créateur japonais de films d’animation Studio Ghibli, sans accord de licence. Ce cas illustre parfaitement les enjeux de propriété intellectuelle soulevés par l’IA générative.

L’opt-out massif des artistes-interprètes de l’Adami11 toujours en mars 2025 témoigne de la mobilisation des créateurs face à l’utilisation de leurs œuvres pour l’entraînement des IA. L’ADAMI, organisme de gestion collective de droits voisins invite ainsi les acteurs du numérique et les pouvoirs publics « à garantir une IA éthique et respectueuse du monde de la création, sans lequel l’IA générative ne pourrait exister ».

Quelques jours plus tard, ce sont les « starter packs », ces images de figurines sous blister qui ont déferlé sur les réseaux sociaux et ont, elles aussi, suscité le buzz. D’une part l’engouement pour ces starter packs a entraîné une réponse massive des illustrateurs qui ont dénoncé la tendance à l’uniformisation de la création en publiant leurs propres starter packs créés à la main, rassemblés sous l’hashtag « starterpacknoAI ».12 D’autre part, cet engouement massif a mis en lumière la consommation d’énergie10 de l’utilisation de l’IA, soulevant des questions environnementales en plus des enjeux de droits d’auteur.

Empreinte environnementale…

En effet, derrière l’apparente immatérialité des IA se cache une empreinte carbone non négligeable. Entraînement de modèles sur des serveurs énergivores, consommation d’eau pour le refroidissement des data centers… La face cachée de l’IA interroge la soutenabilité du modèle. A titre d’exemple, l’entraînement d’un modèle comme GPT-3 aurait émis entre 284 et 552 tonnes de CO213 équivalent selon les estimations. Par ailleurs, un data center peut consommer jusqu’à 5 millions de litres d’eau par jour14 pour son refroidissement. Cette dimension environnementale reste souvent négligée et entre en contradiction avec les engagements RSE de nombreuses agences. Des stratégies d’atténuation émergent néanmoins : utilisation de modèles plus légers, optimisation des requêtes, et choix de fournisseurs cloud engagés.

… et protection des données

En parallèle, l’exploitation massive des données personnelles soulève d’importantes questions de confidentialité. Les agences doivent garantir que leur usage de l’IA respecte scrupuleusement le RGPD. Cela implique des protocoles rigoureux de gouvernance des données et une vigilance constante dans les choix technologiques et des partenaires fournisseurs de solutions IA.

Le cadre réglementaire

Législation française et européenne

Depuis la Loi pour une République numérique15 (2016), la France a renforcé son arsenal juridique. La loi SREN du 21 mai 202416 a marqué une évolution dans la régulation des contenus générés par IA, sans pour autant transformer radicalement le paysage légal français en matière d’intelligence artificielle. Elle a ainsi introduit des mesures concrètes pour encadrer certains usages de l’IA, notamment en matière de deepfakes et de contenus générés algorithmiquement, et est venue renforcer les règlementations européennes et nationales existantes concernant la transparence sur les traitements algorithmiques et la documentation des bases de données utilisées pour l’entraînement des IA.
À l’échelle européenne, l’AI Act17 adopté en mars 2024 constitue une avancée majeure. L’article 28b18 impose des obligations strictes aux systèmes d’IA générative : obligation de documentation (technique) et de transparence (résumé des données d’entraînement pour les modèles génératifs), signalement explicite des contenus générés, restrictions sur les outils de manipulation comportementale. Des sanctions importantes sont prévues pour les contrevenants : elles peuvent atteindre jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial de l’entreprise, selon la gravité de l’infraction. Les sanctions concernent principalement le non-respect des obligations de transparence, la non-déclaration d’un système à haut risque ou l’usage de techniques manipulatoires interdites.

Autorégulation du secteur

Le secteur publicitaire s’organise pour préempter la régulation. L’AACC a publié son « Guide juridique IA dans la création »20, proposant un cadre pour l’utilisation responsable de l’IA dans le secteur créatif et des recommandations concrètes sur la rédaction des mentions légales, la gestion des droits d’auteur dans les contenus IA et la traçabilité des éléments générés.
Le Syntec Conseil a adopté un « Manifeste pour une utilisation responsable de l’IA dans les sociétés de conseil » (5 décembre 2024)21, établissant des principes éthiques pour l’usage professionnel de l’IA.
Par ailleurs, en attendant un marquage CE « IA digne de confiance », des initiatives de labellisation — comme le label « Positive AI, en faveur d’une IA responsable »22 sont apparus. Ce label repose sur une charte d’engagement volontaire, évaluant la gouvernance éthique, la transparence des modèles utilisés, le respect du RGPD, et l’impact environnemental de l’IA dans les entreprises qui le sollicitent. Ces dynamiques visent à instaurer une culture d’éthique par la preuve23.

Vers une utilisation responsable de l’IA

Stratégies d’intégration et perspectives

« Plus de 8 entreprises sur 10 du secteur communication reconnaissent dans l’IA un levier de performance qui ne peut être ignoré, mais qui implique de relever certains challenges. »24

Face aux transformations du secteur, les agences de communication adoptent des stratégies d’intégration éthique à plusieurs niveaux, souvent inspirées par les lignes directrices de la CNIL25 et les recommandations sectorielles de l’AACC20.

  • La formation continue des équipes aux outils et enjeux de l’IA, souvent en partenariat avec des écoles spécialisées ou via des modules internes encadrés par les RH
  • La mise en place de processus de validation humaine pour encadrer la diffusion de contenus générés automatiquement et limiter les biais ou erreurs, notamment dans les campagnes de communication sensibles
  • La création de comités internes d’éthique, composés de représentants métiers, juridiques et techniques, chargés de piloter l’analyse des risques, valider les usages, et garantir le respect des chartes internes22

L’approche collaborative, plutôt que substitutive, s’impose comme modèle dominant.

Chez UNICORP, L’IA est au cœur de nos préoccupations. Ainsi en avril 2025, les équipes ont pu bénéficier d’une formation avant d’explorer différentes solutions selon les métiers. Chaque mois, un comité IA est organisé, permettant à chacun de faire part de ses retours d’expérience, mais aussi de questionner ses usages. L’objectif : réaliser une charte en adéquation avec les valeurs de l’agence et ses engagements RSE.

Car nous en sommes bien conscients, tandis que l’IA devient omniprésente, la maîtrise éthique de ses usages en fait un facteur de différenciation stratégique. Les agences capables de démontrer leur conformité aux référentiels éthiques ou réglementaires (comme le RGPD, l’AI Act, ou les labels sectoriels) renforcent leur crédibilité face aux annonceurs et au public. Pour UNICORP, savoir concilier innovation et responsabilité permettra à l’agence de gagner en valeur ajoutée. Notre IAmbition ? Proposer une « créativité augmentée » de qualité et une communication transparente sur nos pratiques. Pour nous, l’avenir appartient aux organisations qui conçoivent l’IA non comme un substitut à l’humain, mais comme un amplificateur de sa créativité. La fameuse formule rabelaisienne « science sans conscience n’est que ruine de l’âme »26, sonne étrangement d’actualité. L’IA est de ces avancées technologiques qui ne peuvent se passer d’une réflexion collective sur ses enjeux et ses impacts sur notre société. C’est une des conditions sine qua non pour que la communication de demain soit certes augmentée par l’intelligence artificielle, mais reste fondamentalement humaine dans son essence et sa finalité.

Contenu co-créé par un Humain et Intelligence Artificielle🧑‍💻🤖
________________________________________
Sources :

1 – Baromètre « Enjeux 2025 des communicants » (Occurrence & Association nationale des communicants, 2024)
2 – Sondage AACC/OpinionWay « Les Français et l’IA » (2023)
3 – Étude Square/OpinionWay « Intégrer l’IA dans sa stratégie marketing » (2024)
4 – Gobelins – Métiers : directeur artistique IA
5 – Sondage AACC/OpinionWay « Les Français et l’IA » (2023)
6 – TGI Kantar Media (avril 2025)
7 – Observations de Dailymotion/YouGov (2025)
8 – France 3 Régions – Bad buzz campagne Chamonix IA
9 – France Info – ChatGPT et les images Studio Ghibli
10 – Europe 1 – Starter packs Studio Ghibli et consommation énergétique IA
11 – Box Office Pro – Opt-out massif des artistes-interprètes de l’Adami
12 – Face à l’IA, des illustrateurs répondent à la tendance « Starter Pack »… à la main
13 – Cinq chiffres clés sur l’impact environnemental de l’IA générative
14 – Sopra Steria – « Quel est le véritable coût environnemental de l’IA ? »
15 – Loi pour une République numérique (2016)
16 – Loi SREN du 21 mai 2024
17 – AI ActCalendrier de mise en œuvre
18 – Article 28b de l’IA Act
19 – Forbes France, interview Clara Chappaz, 21 novembre 2024
20 – Guide « IA dans la création » par l’AACC
21 – Syntec Conseil, « Manifeste pour une utilisation responsable de l’IA dans les sociétés de conseil », 5 décembre 2024
22 – Label Positive AI, « en faveur d’une IA responsable »
23 – Certifications, labels, normes… à l’assaut de « l’IA de confiance »
24 – L’Usine Digitale – Transformation digitale du secteur communication
25 – IA et RGPD : la CNIL publie ses nouvelles recommandations pour accompagner une innovation responsable
26 – François Rabelais in Pantagruel, Les horribles et épouvantables faits et prouesses du très renommé Pantagruel Roi des Dipsodes