IA & Data Marketing : enjeux, limites et adoption | maj 2026
L'IA appliquée au marketing n'est plus un sujet exploratoire. En 18 mois, les modèles ont mûri, les standards d'intégration se sont posés, et les cas d'usage sont passés du prototype à la production. Mais avec la montée en puissance viennent les vrais sujets : sécurité, gouvernance, qualité des livrables, souveraineté des données.
Cette note fait le point sur ce qu'on a constaté chez EdgeAngel, ce qui marche, ce qui pose problème, et ce qu'on recommande.
Le paysage IA en 2026
Les modèles
Le marché des LLM s'est stabilisé autour de trois acteurs principaux : Google (Gemini), Anthropic (Claude) et OpenAI (GPT).
Sur nos cas d'usage marketing et data, Claude Opus 4.6 est aujourd'hui le modèle le plus performant pour le raisonnement complexe, l'analyse de données et la production de livrables structurés. Gemini 3.1 Pro est très solide sur l'écosystème Google (GA4, BigQuery, Ads) et progresse vite. GPT-4o reste pertinent mais a perdu son avance sur les tâches de raisonnement.
Ce classement évolue tous les trimestres. Ce qui ne devrait pas changer, c'est la position que vous adoptez : le choix du modèle doit rester un détail d'implémentation, pas un engagement structurant.
MCP : le standard d'intégration
Le Model Context Protocol (MCP) s'est imposé comme le standard de connexion entre les LLM et les outils métier. Initié par Anthropic, adopté par Google et OpenAI, il permet au modèle d'interagir directement avec vos APIs : BigQuery, Google Ads, GA4, Slack, Asana, Meta Ads, etc.
Concrètement : au lieu de copier-coller des données dans un chat, le modèle va les chercher lui-même, les analyse, et peut agir dessus. C'est la différence entre un assistant qu'on nourrit à la main et un collaborateur qui a accès à vos outils.
L'écosystème est encore en maturation (authentification cloud, gestion des permissions par server, monitoring), mais la brique est là et elle est utilisable en production. Une grande partie des solutions technologiques data & IA ont déjà créé leur MCP server pour permettre aux LLM d'interagir directement avec leurs services.
Les catégories de solutions : s'y retrouver
Le marché est fragmenté et le vocabulaire marketing des éditeurs n'aide pas. Voici un cadre de lecture pour catégoriser les différentes approches.
À retenir
Ces catégories ne s'excluent pas. Une organisation mature combine typiquement un plan Gemini Enterprise pour le quotidien, un IDE agent pour ses profils techniques, et des solutions tierces pour des besoins spécifiques. La question n'est pas « quel outil choisir » mais « quelle architecture composer ».
Focus : l'écosystème Gemini pour l'entreprise : Workspace, Cloud et ADK
C'est à notre avis l'approche qui va se développer le plus dans les 12 à 18 mois qui viennent, en particulier pour les organisations déjà dans l'écosystème Google. Il faut cependant comprendre qu'il y a deux niveaux distincts dans l'offre Google.
Gemini dans Workspace
L'IA intégrée au quotidien
- ✓ Gmail, Docs, Sheets, Meet, Drive
- ✓ App Gemini + NotebookLM
- ✓ Inclus dans les plans Business
Gemini Enterprise Platform
L'IA d'entreprise à l'échelle (GCP)
- ✓ Agents ADK + Vertex AI
- ✓ Gouvernance centralisée (SSO, DLP)
- ✓ MCP en environnement gouverné
Niveau 1 : Gemini dans Workspace
Depuis 2025, Google a intégré les fonctionnalités IA Gemini directement dans ses plans Workspace. Il n'y a plus besoin d'acheter un add-on séparé « Gemini Business ». L'assistant IA est inclus dans les abonnements Business Standard, Business Plus et Enterprise.
Ce que ça fait concrètement :
- Assistance dans les apps : rédaction assistée dans Gmail et Docs, résumés de réunions Meet, analyse de données dans Sheets, recherche intelligente dans Drive.
- App Gemini : un chat IA avec accès aux modèles Gemini, grounding sur les données Google (vos documents Drive, vos mails).
- NotebookLM : outil de synthèse documentaire qui permet de charger des sources, poser des questions, et produire des analyses sourcées.
- Google Vids : création de vidéos assistée par IA.
Ordre de grandeur
Les plans Workspace Business Standard démarrent autour de 14$/utilisateur/mois. Les add-ons IA premium sont en supplément (pricing custom selon volume). L'essentiel des fonctionnalités IA est cependant déjà inclus à partir du plan Standard.
Niveau 2 : Gemini Enterprise Platform
C'est ici qu'on change de dimension. Gemini Enterprise est une plateforme Google Cloud (pas un simple add-on Workspace). Elle sert de centre de commande IA pour les organisations :
- Déploiement d'agents : les équipes techniques construisent des agents spécialisés via l'Agent Development Kit (ADK), framework open-source de Google. Ces agents peuvent être déployés sur Vertex AI Agent Engine pour la production à l'échelle.
- Gouvernance centralisée : l'administrateur voit et contrôle tous les agents de l'organisation : ceux construits en interne, ceux fournis par Google, ceux intégrés via des partenaires. Permissions, monitoring, DLP, SSO : tout est natif dans la console d'administration.
- MCP dans l'entreprise : ADK supporte les MCP servers. Vos agents d'entreprise peuvent se brancher sur BigQuery, Google Ads, GA4, votre CRM, dans un cadre gouverné.
- Adoption large : les utilisateurs finaux interagissent avec les agents via une interface simple (chat, Workspace, mobile). La complexité technique reste côté équipe data/engineering.
L'atout majeur : l'intégration native avec les données Google
Quand l'IA est profondément intégrée à l'environnement où vivent déjà vos données, les frictions disparaissent :
- Drive comme base de connaissances : Gemini peut chercher dans vos documents, vos présentations, vos PDFs stockés sur Drive. L'utilisateur pose une question, Gemini cite ses sources directement depuis les fichiers de l'organisation.
- BigQuery comme source de vérité analytique : les agents ADK peuvent interroger directement BigQuery en langage naturel, sans que l'utilisateur ait besoin de connaître le SQL.
- NotebookLM comme couche d'analyse : les analyses NotebookLM peuvent être partagées en interne, attachées aux conversations Gemini, et servir de source de grounding pour des assistants métier personnalisés (les « Gems »).
Ce que ça coûte
- Workspace avec IA intégrée : à partir de ~14$/utilisateur/mois (Business Standard).
- Gemini Enterprise Platform : pricing négocié avec Google Cloud, basé sur le nombre d'utilisateurs et les services consommés. Compter entre 35$ et 60$ par utilisateur/mois selon le volume.
- Agents ADK (Vertex AI Agent Engine) : facturation à l'usage. ~0,01$/vCPU-heure + coût du modèle appelé (au token). Un agent peu sollicité coûte quelques euros par mois.
- ADK lui-même est open-source et gratuit. Vous payez l'infrastructure et les modèles.
Les limites à connaître
- Écosystème Google : optimisé pour Gemini et Google Cloud. Si votre stack est AWS, Azure ou multi-cloud, l'intégration est possible mais moins naturelle.
- Maturité : ADK est fonctionnel, mais l'écosystème agents est encore jeune. Les retours d'expérience à grande échelle restent limités.
- Pricing variable : la partie GCP est à l'usage. Sans monitoring, les coûts peuvent surprendre.
Focus : l'écosystème IDE agent : le cockpit technique
Comment ça marche
Un IDE agent, c'est un environnement de développement (type VS Code) augmenté par un LLM qui a accès à votre contexte local et à vos outils. Plusieurs solutions existent aujourd'hui : Antigravity (Google, fork VS Code indépendant), Cursor (fork VS Code), Claude Code (Anthropic, terminal natif) ou Windsurf (fork VS Code). Concrètement :
- Vous travaillez dans l'IDE avec vos fichiers, vos données, votre terminal.
- Un LLM tourne en permanence et a accès à votre workspace : il peut lire vos fichiers, exécuter des commandes, naviguer sur le web.
- Des MCP servers connectent le LLM à vos outils externes : BigQuery, Google Ads, GA4, Slack, Asana, Meta Ads.
- Des skills (méthodologies structurées en markdown) et une knowledge base (mémoire persistante) donnent au modèle votre contexte métier.
- Des workflows orchestrent des séquences d'actions complexes : audit → diagnostic → recommandations → livrable.
Le résultat : un consultant ou un analyste peut, dans un seul environnement, analyser des données BigQuery, auditer un compte Google Ads, rédiger un livrable client, et poster un rapport dans Slack. Le tout assisté par un LLM qui connaît ses méthodologies et le contexte du client.
Ce que ça coûte
Tous ces outils proposent des plans d'entrée à 15-20$/mois. En usage professionnel réel, ces plans ne suffisent pas. Les quotas sont trop limités pour un workflow intensif. Il faut viser les plans performants :
Antigravity (Google)
Ordre de grandeur
Pour un consultant ou un analyste data qui utilise un IDE agent quotidiennement avec un modèle puissant (type Claude Opus 4.6), il faut compter 150 à 200€/mois de budget IA. C'est un investissement, mais le gain de productivité sur les tâches d'analyse, d'audit et de production est significatif.
Les risques spécifiques
- Actions non supervisées : un IDE agent peut agir sur vos outils (modifier des données, envoyer des messages). La plupart demandent une validation humaine, mais la tentation de « tout approuver » sans lire est un vrai risque.
- Sécurité des accès : les configurations contiennent des clés d'API et des identifiants. Si non protégées, vous exposez l'accès à vos outils.
- Partage en équipe : skills, knowledge base et configurations vivent sur le poste de chaque utilisateur. Synchroniser une équipe demande de l'organisation.
- Quotas et coût : ces outils consomment beaucoup de tokens. Un abonnement premium est souvent indispensable, et la facture monte vite sans une gouvernance claire sur les usages.
Notre avis
L'IDE agent est le setup le plus puissant qu'on ait testé. Mais il demande une maturité technique et une discipline opérationnelle qui ne conviennent pas à tous les profils.
L'architecture modulaire : les 4 briques à poser
Quelle que soit la catégorie de solution que vous choisissez, l'architecture cible repose sur 4 briques distinctes. Les identifier clairement, c'est ce qui vous permet de changer une brique sans tout casser.
1. La Data (Modern Data Stack)
C'est la fondation. Sans données propres, documentées et accessibles, vos agents hallucinent sur du vide.
- Data warehouse : BigQuery, Snowflake, ou équivalent.
- Pipelines data : ETL/ELT solides (Airbyte, Fivetran, dbt).
- Data catalog : même minimal, des descriptions qui permettent au LLM de comprendre ce qu'il manipule.
- Nomenclature : des conventions sur vos campagnes, segments, KPIs. L'IA amplifie le désordre.
2. La brique IA (le fournisseur)
C'est le LLM et son infrastructure. Cette brique doit être interchangeable.
- Aujourd'hui : Claude Opus 4.6 pour le raisonnement, Gemini 3.1 Pro pour l'écosystème Google, Flash pour les tâches rapides.
- Demain : ça changera. L'important c'est que votre architecture ne soit pas couplée à un seul fournisseur.
- Le standard MCP joue un rôle clé : vos connecteurs fonctionnent quel que soit le LLM qui les appelle.
3. Les Skills et Workflows (les cas d'usage)
C'est ce qui transforme un LLM générique en assistant métier. Le principe est simple : des fichiers .md (Markdown), un format texte que les LLMs interprètent nativement et avec précision.
Chaque fichier injecte du contexte au modèle avant qu'il ne travaille. Concrètement, quand vous demandez à l'IA de rédiger un audit, elle ne part pas d'une page blanche : elle charge vos instructions, votre méthodologie, vos critères de qualité. Et elle produit un livrable aligné avec vos standards, pas un résultat générique.
Trois grandes catégories structurent ce système :
- Instructions : votre brand voice, vos règles de rédaction, vos conventions de nommage. Tout ce qui définit "comment on fait ici".
- Compétences (Skills) : vos méthodologies documentées. Comment analyser une baisse de performance, structurer un audit, scorer un compte publicitaire. L'IA applique votre grille, pas une grille générique.
- Actions répétitives (Workflows) : des séquences orchestrées pour les tâches récurrentes : audit → diagnostic → recommandations → livrable. Au lieu de tout re-détailler à chaque fois, le workflow se déclenche et l'IA déroule.
- Knowledge base : la mémoire de vos clients, projets, décisions passées. C'est ce qui permet à l'IA de ne pas repartir de zéro à chaque conversation.
Construire ces fichiers est un travail à part entière. Ce n'est pas du "one-shot" : un skill se teste, se corrige, s'affine au fil des usages. La qualité de vos instructions conditionne directement la qualité des outputs. Un skill mal calibré produit du bruit. Un skill bien construit permet d'augmenter votre travail, de co-construire avec vous.
Actif stratégique
Ce corpus est un actif stratégique de l'entreprise. Il se maintient, se versionne, s'optimise, comme votre code ou vos données. C'est ce qui fait que votre IA ne produit pas les mêmes résultats que celle du concurrent qui utilise le même modèle.
4. La Gouvernance et l'Orchestration
- Qui a accès à quoi : outils, données, actions sans validation humaine.
- Monitoring des coûts : suivi de la consommation, budget par agent/utilisateur, alertes.
- Sécurité : protection des accès, classification des données, règles de partage.
- Qualité : validation humaine systématique, double-check des analyses, challenge des recommandations.
Dans Gemini Enterprise, cette gouvernance est native (SSO, DLP, admin console). Dans un IDE agent, elle est à construire, ce qui demande plus de rigueur mais offre plus de flexibilité.
Ce qu'on a appris en 18 mois de déploiement
La qualité des données d'entrée conditionne tout
C'est probablement la leçon la plus importante. Un LLM connecté à votre data warehouse (BigQuery, Snowflake, Databricks, etc.) ne produit rien d'utile si les tables sont mal documentées, les champs mal nommés, les données inconsistantes.
- Des tables avec des descriptions de colonnes claires
- Une nomenclature de campagnes respectée
- Des pipelines de données stables et monitorés
- Un data catalog, même minimal
Point critique
L'IA ne corrige pas une mauvaise hygiène data. Elle l'amplifie.
Attention à l'illusion de productivité
C'est un vrai sujet. L'IA permet de produire des livrables qui ont l'air aboutis : des analyses avec des graphiques, des rapports structurés, des recommandations détaillées. Le risque, c'est de livrer du contenu qui a la forme sans avoir le fond.
Un rapport de performance généré en 30 secondes n'a pas la même valeur qu'un diagnostic où on a croisé les données, formulé des hypothèses et testé plusieurs pistes. L'IA accélère le travail, mais elle ne remplace pas le raisonnement ni le recul.
Il y a beaucoup de contenus sur LinkedIn ou ailleurs qui présentent des agents IA capables de « faire le travail de 5 personnes en 10 minutes ». Dans les faits, les sujets IA ajoutent de la complexité technique et organisationnelle. Ça demande de franchir les étapes les unes après les autres, de tester, d'itérer. Les déploiements qui tiennent dans le temps sont ceux qui avancent progressivement, pas ceux qui brûlent les étapes.
Souveraineté et données : les questions ouvertes
Tout ce que vous envoyez à un LLM cloud transite par leurs serveurs. Les plans Enterprise offrent des garanties contractuelles. Mais au-delà du contractuel, des questions restent ouvertes :
- Géopolitique : que se passe-t-il si les relations UE/US évoluent ? Le Privacy Shield a déjà été invalidé deux fois.
- Réglementation : l'AI Act européen (en vigueur progressivement depuis 2025) va-t-il imposer de nouvelles exigences de transparence algorithmique ?
- Dépendance : si votre stack IA repose à 100% sur un fournisseur cloud US, quel est votre plan B ?
Ces questions ne doivent pas bloquer l'adoption, mais elles méritent d'être posées et documentées avant de déployer à l'échelle.
Ce qu'on fait concrètement : les cas d'usage en production
- Détection d'anomalies et monitoring : le modèle analyse les données GA4, Google Ads ou Piano Analytics via MCP, identifie les variations anormales et produit un rapport d'incident avec les pistes d'investigation.
- Analyse approfondie des données : croisement de données BigQuery, rapports media et métriques web pour un diagnostic multi-dimensionnel.
- Audit de comptes média : analyse structurelle des comptes Google Ads ou Meta Ads : nomenclature, structure, paramétrage, ciblage, enchères.
- Stratégie et recommandations : sur la base de données historiques et du contexte client, production de recommandations de budget, de réallocation, de stratégie d'enchères.
- Créatifs marketing : maquettage de visuels publicitaires, production de briefs créatifs, génération d'assets pour les campagnes Social Ads.
- Optimisation continue : boucle d'analyse données media → web analytics → CRM. L'IA produit des recommandations cohérentes à travers toute la chaîne d'acquisition.
Concrètement, par où commencer ?
Si vous n'avez encore rien déployé
- Commencez par un plan entreprise (Gemini Business/Enterprise ou ChatGPT Team/Enterprise). Il résout les questions de SSO, DLP, conformité.
- Identifiez 3 cas d'usage à forte valeur dans votre quotidien. Testez-les pendant 1 mois.
- Avant de passer à la vitesse supérieure, assurez-vous que vos données sont propres et documentées. C'est le prérequis non négociable.
Si vous avez déjà un plan entreprise
- Passez à l'étape MCP : connectez vos outils data (BigQuery, GA4, votre CRM) au LLM.
- Commencez à documenter vos méthodologies en skills. Ces skills deviennent le cerveau de vos agents.
- Posez la gouvernance : permissions, monitoring des coûts, classification des données.
Si vous voulez aller plus loin
- Évaluez le modèle IDE agent (Cursor, Antigravity, Claude Code, Windsurf) pour vos profils techniques.
- Explorez les agents ADK pour les tâches répétitives supervisées : monitoring automatisé, reporting planifié, alertes.
- Construisez une knowledge base structurée sur vos clients, projets, décisions. C'est l'asset qui se valorise dans le temps.
Besoin d'y voir plus clair ?
Chaque organisation a sa maturité data, ses contraintes de sécurité et ses cas d'usage spécifiques. Un diagnostic pragmatique, pas un slide deck de 80 pages. Sur les missions IA complexes et les déploiements à grande échelle, nous travaillons avec Silex, acteur de référence en ingénierie IA (MVA ENS Cachan × École Polytechnique).