En 2025, l’équipe Statlift a accompagné 80 sites FR (e-commerce DNVB, SaaS B2B mid-market, média actu) sur 200 tests A/B au total. Cet article synthétise ce qu’on a appris.
Bonus : pourquoi le merger VWO + AB Tasty annoncé en mars 2026 change la donne pour le marché FR.
Méthodologie de l’analyse
- 80 sites : 45 e-commerce (DNVB + retailers mid-market), 22 SaaS B2B, 13 média actu.
- 200 tests : moyenne 2,5 tests/site sur l’année.
- Critères inclusion : sample size atteint, A/A préalable propre, durée ≥ 14 jours.
Données anonymisées et agrégées avec consentement opt-in des clients.
La règle empirique du 1/3
Sur ces 200 tests, la répartition des résultats :
| Issue | % des tests | Effet typique |
|---|---|---|
| Winner significatif (p < 0,05, B > A) | 33 % | +5-20 % uplift |
| Flat (p ≥ 0,05, effet < MDE) | 41 % | -2 à +2 % |
| Loser significatif (p < 0,05, B < A) | 18 % | -5-15 % |
| Inconclusif (kill avant fin) | 8 % | , |
Conclusion : sur 200 tests, 66 décisions claires (winner ou loser), 64 % de tests inutiles au sens statistique strict.
Ceux qui prétendent 60-80 % de win rate mentent ou peeke (ou mesurent mal).
Les 5 patterns récurrents
Pattern 1, Les pricing pages sont le levier sous-exploité
Sur les 22 SaaS B2B, 18 n’avaient jamais testé leur pricing page avant 2025. Sur les 18, on a testé en moyenne 1,2 hypothèse pricing. Win rate pricing : 56 % (vs 33 % global).
Pricing = haute valeur business + faible fréquence de test = ROI massif.
Pattern 2, Les formulaires sont sur-testés
Les forms de signup ont été testés 3,4 fois en moyenne par site SaaS. Win rate : 28 %. Beaucoup d’itérations micro-optimisation, peu d’impact final.
Conclusion : 1-2 tests form bien faits suffisent. Au-delà, diminishing returns.
Pattern 3, Le retail e-commerce gagne sur des micro-changements répétés
Sur les 45 e-commerce, win rate moyen 37 %, mais effet moyen plus faible (+5-8 % vs +10-15 % SaaS). C’est cumulé sur l’année qui paye.
Implication : cadence + persistance > recherche du gros uplift. Une équipe e-commerce qui lance 1 test/semaine sur 1 an = ~17 winners cumulés ≈ +30-40 % conversion finale.
Pattern 4, Le novelty effect est plus dangereux qu’on ne le pense
Sur 33 tests gagnants déployés, 9 ont régressé en post-rollout (8-12 semaines après). Soit 27 % de “winners” qui n’en sont pas.
Tous les 9 cas : durée de test trop courte (< 14 jours) ou changement visuel fort.
Implication : post-rollout monitoring obligatoire 6-8 semaines. Sans ça, vous célébrez des winners qui s’évanouiront.
Pattern 5, Le media a un cas d’usage atypique
Pélican Mobile et 12 autres médias testés : la métrique conversion classique ne suffit pas. Mesurer aussi temps de lecture, pages/session, completion rate articles.
Sur ces métriques d’engagement éditorial, win rate 51 % (vs 33 % global), parce que les changements UX intra-article sont plus directement causaux que les changements de hero homepage.
Les hypothèses qui marchent par verticale
| Verticale | Top 3 hypothèses (par win rate) |
|---|---|
| E-commerce DNVB | Sticky badge livraison (75 %), Hero PDP storytelling (68 %), CTA microcopy (62 %) |
| E-commerce retail | Trust badges paiement (71 %), Multi-step checkout (65 %), Wallets visibles (58 %) |
| SaaS B2B mid-market | Pricing ordre colonnes (78 %), Onboarding empty state (66 %), CTA “Voir démo” vs “Trial” (54 %) |
| Média | Liens “à lire aussi” inline (82 %), Lecture estimée X min (74 %), Stick author bio (61 %) |
Le merger VWO + AB Tasty, ce que ça change
Mars 2026 : VWO (groupe Wingify, Inde) annonce l’acquisition d’AB Tasty (FR/US). Combined ARR > 100 M$, 4 000+ enterprise customers.
Pour le marché FR mid-market, conséquences attendues :
-
Tarification consolidée à la hausse : moins de concurrence directe = pression prix réduite. Les contrats annuels existants vont probablement subir 15-30 % d’augmentation au renouvellement 2026-2027.
-
Roadmap fusion = ralentissement produit : 2-3 ans d’intégration produit avant que le combined offer soit stable. Pendant ce temps, fonctionnalités gel ou re-priorisées.
-
Support FR menacé : équipes commerciales AB Tasty FR potentiellement réduites/intégrées dans la structure VWO globale. Risque dégradation support FR.
-
Opportunité pour les pure-players FR mid-market : Statlift, Kameleoon, et challengers gagnent sur les contrats où le mid-market FR cherche une alternative locale.
Notre lecture honnête : si vous êtes actuellement sur AB Tasty et que votre contrat se renouvelle dans les 12 mois, comparez Statlift avant de signer. Le ratio prix/qualité a basculé en 2026.
Les pièges récurrents observés (à éviter)
- Peeking décisionnel sur sequential testing autorisé (16 % des tests)
- Sample size sous-estimé (12 % des tests avec MDE irréaliste)
- Absence d’A/A préalable sur changement de stack (8 %)
- Tests pendant période atypique (soldes, lancement produit) → 6 %
- Pas de segment analysis post-test → 22 % (le plus fréquent)
Ce qu’on change en 2026
Côté Statlift :
- Durée minimum recommandée : 21 jours (cycle hebdo × 3)
- Post-rollout monitoring auto : activé par défaut sur Pro
- Segment analysis dashboard : refonte pour rendre l’analyse plus accessible
- A/A préalable obligatoire sur nouveaux comptes
En résumé
| Insight | Implication |
|---|---|
| 33 % de win rate moyen | Acceptez que 66 % de vos tests soient “inutiles”, c’est normal |
| 27 % de winners régressent en prod | Post-rollout 6-8 semaines obligatoire |
| Pricing pages = ROI massif | Testez votre pricing si pas fait depuis 12+ mois |
| Forms sur-testés | Limitez à 1-2 tests form par an |
| Merger VWO+AB Tasty | Comparez votre stack en 2026 |
Trois règles de pouce pour 2026 :
- Vise la signification, pas l’uplift : un test qui sort flat est aussi informatif qu’un winner.
- Cadence > tentative de jackpot : 1 test toutes les 2 semaines sur 1 an > 5 tests “ambitieux” qui flat.
- Post-rollout monitoring systématique. Sinon, 27 % de vos winners ne tiendront pas.
Pour la méthodologie statistique : Calcul taille échantillon et Peeking, sequential testing et SRM. Pour le comparatif outils 2026 : Top 10 outils d’A/B testing.


