Case study FWOptimisation

MAIF : de 0 à 12 squads produit qui expérimentent.

Comment la MAIF atteint +90% de tests exploitables, 55% de taux de victoires et a déployé la démarche dans son organisation produit ?

logo maif case study fwoptimisation Case study - MAIF internalise l'expérimentation

12

Squads produit qui expérimentent

+90%

Des tests A/B exploitables

54%

Taux de déploiement

+60

profils formés à l'expérimentation

Sommaire

Le défi et le contexte initial

En 2020, la MAIF me recrute pour développer leur programme d’expérimentation. Les Digital Analysts lançaient déjà des tests A/B de manière ponctuelle et c’était une première étape positive qui montrait l’intérêt du CRO à l’organisation.

Les tests A/B étaient lancés de manière aléatoire, sans lien systématique avec les OKRs des squads produit. Chaque Digital Analyst travaillait sur son périmètre, et il n’existait pas de Lead CRO pour structurer les outils, les processus, harmoniser les méthodes ou assurer la formation. 

L’expérimentation restait perçue comme un « sujet data », pas comme un réflexe produit.

La MAIF avait la volonté et les premiers signaux positifs. Ce qui manquait, c’était la structure, la méthodologie et l’engagement collectif pour transformer cette pratique ponctuelle en capacité durable à l’échelle de l’organisation.

MAIF programme experimentation performance FWOptimisation Mathieu Fauveaux consultant CRO Case study - MAIF internalise l'expérimentation

La Solution

Phase 1 : poser les fondations (2020)

Démarrage avec 3 squads pilotes

FWOptimisation a accompagné 3 squads produit pour structurer leur démarche d’expérimentation. L’objectif : prouver que l’expérimentation, bien cadrée, accélère la création de valeur en évitant les erreurs coûteuses avant déploiement complet.

 

Coaching terrain quotidien

Après une formation complète des squads, on applique la théorie aux projets du quotidien : cadrage d’hypothèses, stratégie, design des solutions, lecture de résultats, décisions post-test. Chaque squad apprenait en faisant, sur ses vrais projets.

 

Vélocité hétérogène et facteurs bloquants

Durant ces premières années, la vélocité des équipes était très hétérogène. Plusieurs facteurs expliquaient ces écarts :

  • Engagement du Product Manager : Certains PM portaient la démarche avec conviction, d’autres la percevaient comme une contrainte ou un ralentissement.
  • Profils plus complexes à développer : Le développement des compétences et des nouvelles habitudes étaient hétérogènes, ce qui nous a amené à penser le recrutement différemment ou le coaching.
  • Turnover : Rotation régulière des profils (notamment externes), ce qui obligeait à reformer continuellement les nouveaux arrivants.
  • Gestion des budgets produit : Les budgets produit build/run/optimisation n’étaient pas encore adaptés. Les squads privilégiaient naturellement le « build » (nouvelles features) au détriment de l’optimisation continue.

 

Aligner les métiers et la communication aux squads

L’une des avancées majeures de cette phase a été d’aligner les métiers et la communication aux squads produit autour d’un objectif commun : l’expérimentation comme approche de validation systématique.
Le terrain était prêt pour déployer la démarche.

Phase 2 : structurer avant de déployer (2021-2023)

Le produit évolue : séquencement, validation et gestion de l’investissement des gros projets

La MAIF intègre le déploiement contrôlé de ses features et les projets lourds sont découpés en plusieurs lots pour trouver le bon équilibre entre évolution technique et gain business. Quand c’est possible, des smoke tests sont déployés pour tester l’appétence utilisateur avant d’investir massivement dans le projet.

Le premier cas était une refonte technique qui devait durer 9 mois. La PM a proposé une approche séquencée en validant des évolutions front qui favorisent la croissance pendant que le back était développé.

Ce projet est devenu un cas d’école interne qui a prouvé que l’expérimentation pouvait fonctionner même sur de gros projets techniques.

FWOptimisation deploiement controle experimentation produit MAIF Mathieu Case study - MAIF internalise l'expérimentation

Changement visible dans les budgets des projets.

les budgets produit ont évolué pour intégrer une allocation spécifique à l’optimisation continue, en complément du build et du run, ce qui a permis de favoriser l’itération et de légitimer l’investissement sur l’amélioration de l’existant plutôt que de systématiquement arbitrer les nouvelles features.

Amélioration de l'impact des solutions et du design

Intégration systématique du copywriter

La copywriter a été intégré plus systématiquement dans la réflexion dès la phase de conception. Objectif : ne plus traiter le wording comme une variable secondaire, mais comme un levier d’optimisation à part entière.

Résultat : amélioration significative des taux de conversion sur les CTA, formulaires et pages produit.

Formation spécifique designers : « Comment le design impacte les résultats »

Une formation dédiée a été créée pour les UX et UI Designers, centrée sur l’impact mesurable du design sur les métriques business :

  • Hiérarchie visuelle et diriger l’attention
  • Friction cognitive, persuasion et conversion
  • Comment écrire pour motiver


Cette formation a transformé la manière dont les designers concevaient leurs solutions : passage d’une logique « esthétique » à une logique « impact mesurable ».

Premier Lead CRO... qui part quelques mois après

Un premier Lead CRO interne a été formé pour structurer la démarche de manière transverse. Malheureusement, il a changé de mission quelques mois plus tard.

Cette difficulté a été un apprentissage clé : pour qu’un Lead CRO soit efficace, il faut non seulement le former techniquement, mais aussi s’assurer que son rôle soit durable et soutenu par la direction via une fiche de poste bien définie (salaire, missions, objectifs, …).

Phase 3 : déploiement (2022-2025)

Toutes les squads expérimentent et c'est un objectif individuel des PMs

Toutes les squads disposant du trafic nécessaire pour lancer des tests A/B statistiquement valides ont été formées. Total : 12 squads autonomes. Pour intégrer profondément la démarche, chaque PM a un objectif personnel de tests A/B à réaliser.

Un modèle centre d'excellence avec un nouveau Lead CRO : Jonathan Sainvet

En 2022, Jonathan Sainvet, Digital Analyst expérimenté, a été formé pour devenir le nouveau Lead CRO. Il a construit un modèle Centre d’Excellence :

  • Chaque squad possède et lance ses propres expérimentations
  • 1 Lead CRO (Jonathan) coach les 12 squads sur la qualité et la méthodologie
  • 4 rôles formés dans chaque squad : DA + PM + UX Designer + UI Designer

Ce modèle permet de déployé facilement avec le bon accompagnement du lead CRO et évite le goulot d’étranglement ou la dépendance de l’équipe CRO centrale.

Processus d'intégration et de formation à l'expérimentation obligatoire

Pour éviter que les départs ne fassent perdre la compétence acquise, une formation systématique a été mise en place :

  • 3 formations obligatoires pour tous nouveaux arrivants d’une squad produit :
    1. Formation data (Piano Analytics)
    2. Formation Contentsquare
    3. Formation complète à l’expérimentation
  • 2 sessions par an pour absorber le flux continu d’arrivées
  • Programme de certification pour valider l’acquisition des compétences
  • Coaching de suivi après la formation pour assurer l’application terrain

 

Cette formation systématique a résolu le problème du turnover : les nouveaux sont opérationnels dans les 3 mois suivant leur arrivée. La capacité ne part plus avec les départs.

Structurer la discovery produit avec le framework ResearchWO

Pour structurer la discovery, faciliter la montée en compétences et garantir la qualité des hypothèses, le framework ResearchWO a été déployé :

  • Etape 1 – Diverger : Générer des questions exploratoires et priorisation de la recherche
  • Etape 2 – Découvrir : Collecte et analyse quali + quanti en parallèle
  • Etape 3 – Corréler : Détecter les signaux faibles pour construire des hypothèses solides
  • Etape 4 – Stratégie : Définir une stratégie de déploiement avec un arbre d’opportunités priorisé
Group 207sdfdsfsdf Case study - MAIF internalise l'expérimentation

Cette approche impose aux squads de ne plus juste dire « [méthode de recherche] montre X, alors hypothèse Y », mais de déterminer l’origine du problème en corrélant mieux les données.
Les « hypothèses de surface » sans valeurs sont tuées avant qu’elles ne gaspillent de la bande passante de tests, précieuse dans un contexte banque / assurance.

Outil de suivi de performance des squads

Un outil de suivi de performance a été mis en place pour monitorer l’efficacité de chaque squad et permettre d’accompagner de manière ciblée les nouveaux profils et squads dans l’atteinte de leurs OKRs :

+20 métriques suivies automatiquement :

  • Nombre de tests lancés / trimestre
  • Taux de tests exploitables
  • Taux de victoires
  • Délai moyen discovery → lancement
  • Vélocité d’itération post-test


Utilisation :

  • Discussion trimestrielle avec les leaders de chaque métier (Produit, Data, Design) pour définir des opportunités d’amélioration
  • Identification des squads en difficulté
  • Ajustement de l’accompagnement par le Lead CRO
Airtable outil suivi programme experimentation CRO equipe produit Mathieu Fauveaux Case study - MAIF internalise l'expérimentation

Les résultats

MAIF programme experimentation performance FWOptimisation Mathieu Fauveaux consultant CRO Case study - MAIF internalise l'expérimentation

Métriques du programme d’expérimentation

MetricsMAIFMoyenne marchéEcart
Taux tests non-neutres+90%30-60%2-3x supérieur
Taux de victoires54%10-15%3-5x supérieur
Temps discovery1.5 mois env.Plusieurs sem. à mois~50% plus rapide
Tests par an+20VariableVélocité constante

 

Ces chiffres n’arrivent pas par hasard. Ils sont le résultat de :

  • Formation systématique des squads (pas ponctuelle)
  • Discipline de la discovery (ResearchWO) et du processus
  • Coaching de qualité par le lead CRO
  • Culture qui traite les échecs comme des données, pas problèmes
FWOptimisation case study MAIF experimentation produit exemple vente complemtaire Case study - MAIF internalise l'expérimentation

Exemple n°1 : créer de la croissance en vendant autrement

Une squad souhaite vendre un produit complémentaire dans le parcours d’achat du produit principal. Le risque est de pénaliser le produit principal, bien plus rentable.

La squad teste les 2 parcours en parallèle et les résultats sont inattendus : 

  • Gain des ventes croisées
  • Aucun impact sur les souscriptions du produit principal
  • Approche validée et déployée sur autres squads


C’est la différence entre « espérer que ça marche » et « savoir que ça marche ».

Exemple n°2 : Opt-ins prospects : de l’échec aux gains de +49%

Contexte : Améliorer la collecte de consentements prospects (email, téléphone, SMS) au moment du devis.

Première itération = échec

  • Opt-ins email : -43%
  • Opt-ins SMS : -7%
  • Opt-ins téléphone : +95%


Deuxième itération = victoire

  • Opt-ins email : +5%
  • Opt-ins téléphone : +49%
  • Opt-ins SMS : +38%


Leçon :
L’échec de la première itération est normal. Apprendre et itérer est ce qui sépare les programmes matures des immatures. À la MAIF, l’échec n’est plus un problème—c’est de la donnée.

FWOptimisation case study MAIF experimentation produit exemple copywriting Case study - MAIF internalise l'expérimentation

Enseignements clés

1. Construire un modèle durable, pas une dépendance

Lead CRO interne + squads formées = capacité permanente.
FWOptimisation coach, la MAIF exécute. Pas de régie, pas de dépendance consultants.
Le modèle scale parce que la compétence reste dans l’organisation.
Attention : le Lead CRO doit être engagé sur la durée et soutenu par la direction.

2. L’excellence méthodologique n’arrive pas par hasard

MAIF atteint 90% de tests exploitables (vs 67% marché) et 55% de taux de victoires (vs 10-15% marché). Ces résultats exceptionnels sont le fruit de : formation systématique + discipline du framework ResearchWO + coaching qualité quotidien + design review intégrée. Un langage commun élimine la réinvention de la roue par chaque squad.

3. Formation systématique obligatoire

Pas optionnelle. Pas pour volontaires. Tout le monde est formé dans les 3 mois suivant l’arrivée. 2 cohortes par an pour gérer flux continu de recrutements. Cette systématisation résout le problème du turnover : la compétence ne part plus avec les départs.

4. Mesure de l’impact business = buy-in leadership

Outil de suivi de performance + dashboard impact financier. 712K€ CA annuel mesuré à la MAIF. Sans chiffres visibles et partagés, pas d’adhésion du leadership. Les données parlent plus fort que les arguments.

5. La collaboration inter-squads amplifie l’impact

Point mensuel avec 30+ participants maintenu depuis 2019. Capitalisation collective sur les apprentissages. Harmonisation des bonnes pratiques. Maintien de la motivation. Ce rituel transforme l’expérimentation d’une pratique individuelle en capacité organisationnelle. Pilier du changement culturel.

6. La culture d’apprentissage bat la culture de réussite immédiate

L’exemple opt-ins (-43% → +49% entre V1 et V2) prouve qu’échouer en V1 est normal. Ce qui compte : apprendre, itérer, retester. À la MAIF, l’échec d’un test n’est plus un problème – c’est une étape. Les équipes itèrent sur base d’apprentissages, pas d’opinions. Le droit à l’échec est explicite et assumé.

7. L’organisation doit suivre

RH (onboarding), budgets (build/run/optimisation), process (design review) — tout doit s’aligner pour soutenir la pratique. Le droit à l’échec doit être explicite, pas implicite. Sans ces adaptations organisationnelles, même la meilleure formation échoue.

Vous voulez des résultats similaires ?

La MAIF prouve qu’on peut construire une culture d’expérimentation même dans des secteurs conservateurs. Contactez moi pour un diagnostic de votre programme d’expérimentation.

Je peux vous aider à :

Autres clients : Kiabi, Decathlon, Boulanger, Société Générale, BNP Paribas

Que recherchez-vous ?