Systeme d'auto-apprentissage et d'experimentation pour l'agent Promethia. Utiliser quand les resultats sont en dessous des objectifs, quand il faut tester une nouvelle technique, analyser pourquoi quelque chose n'a pas marche, optimiser une campagne, ou ameliorer une strategie. Ce skill est le moteur d'amelioration continue de l'agent - il fait de l'agent un systeme qui apprend de ses erreurs et s'ameliore avec le temps.
L'agent ne repete JAMAIS une strategie qui echoue sans la modifier. L'agent teste TOUJOURS au moins une variante a chaque nouveau cycle. L'agent documente TOUT : succes, echecs, hypotheses, resultats.
1. OBSERVER : Lire memory/metrics/current.md
→ Quels sont les chiffres actuels vs objectifs ?
2. ORIENTER : Analyser les ecarts
→ Pourquoi le taux de reponse est en dessous de 8% ?
→ Quel pattern commun dans les emails qui marchent ?
→ Quel pattern commun dans les emails qui echouent ?
3. DECIDER : Choisir une action d'amelioration
→ Tester un nouveau framework (PAS → AIDA)
→ Changer le timing d'envoi (matin → apres-midi)
→ Modifier l'accroche (trigger different)
→ Cibler un nouveau segment
4. AGIR : Executer le test et documenter
→ Lancer la variante sur un petit batch (20-50 prospects)
→ Stocker l'experience dans memory/experiments/
Au lieu de tester 50/50 (A/B test classique), utiliser le Thompson Sampling :
SUJET EMAIL :
├─ Format court vs format question vs format chiffre
├─ Avec nom entreprise vs sans
├─ Avec emoji vs sans (tester malgre les prejuges)
└─ Urgence legere vs curiosite vs valeur directe
FRAMEWORK EMAIL :
├─ PAS (Problem-Agitation-Solution)
├─ AIDA (Attention-Interest-Desire-Action)
├─ BAB (Before-After-Bridge)
├─ QUEST (Qualify-Understand-Educate-Stimulate-Transition)
└─ SSS (Star-Story-Solution)
ACCROCHE (premiere ligne) :
├─ Observation specifique : "J'ai vu que vous recrutez..."
├─ Stat sectorielle : "73% des PME e-commerce..."
├─ Question provocante : "Combien de temps passez-vous sur..."
├─ Trigger actualite : "Suite a votre levee de..."
└─ Social proof : "3 cabinets comme le votre ont..."
TIMING :
├─ Mardi 9h vs Mardi 14h vs Jeudi 10h
├─ Apres un trigger (24h) vs batch hebdomadaire
└─ Debut de mois vs milieu vs fin
CTA (appel a l'action) :
├─ Question ouverte : "Est-ce que ca vous parle ?"
├─ Micro-engagement : "Curieux d'en savoir plus ?"
├─ RDV direct : "15 min mardi prochain ?"
├─ Ressource gratuite : "Je vous envoie une etude de cas ?"
└─ Sans CTA (laisser le prospect initier)
SEQUENCE :
├─ 3 emails en 7 jours vs 3 emails en 14 jours
├─ Email d'abord vs LinkedIn d'abord
├─ Avec telephone vs sans telephone
└─ 3 touchpoints vs 5 vs 7
Stocker dans memory/experiments/exp-[NNN].md :
# Experience #[NNN] - [Titre court]
## Date : [YYYY-MM-DD]
## Statut : en_cours / terminee / abandonnee
## Hypothese
Si je [change X], alors [resultat attendu Y] parce que [raison Z].
## Variable testee
- Categorie : [sujet/framework/accroche/timing/cta/sequence]
- Variante A (controle) : [description]
- Variante B (test) : [description]
## Setup
- Volume : [nb prospects par variante]
- Segment : [meme segment pour A et B]
- Periode : [dates]
## Resultats
| Metrique | Variante A | Variante B | Delta |
|----------|-----------|-----------|-------|
| Open rate | [X%] | [Y%] | [+/-Z%] |
| Reply rate | [X%] | [Y%] | [+/-Z%] |
| Reply positive | [X%] | [Y%] | [+/-Z%] |
| RDV pris | [X] | [Y] | [+/-Z] |
## Conclusion
- Gagnant : [A ou B]
- Confiance : [haute/moyenne/faible] (basee sur volume)
- Learning : [ce qu'on a appris]
## Action
- [ ] Integrer le gagnant dans le playbook standard
- [ ] Mettre a jour memory/playbooks/
- [ ] Planifier le prochain test base sur ce learning
Le playbook est le "meilleur de" des techniques testees. Il evolue UNIQUEMENT basé sur des donnees reelles, jamais sur des suppositions.
Stocker dans memory/playbooks/current.md :
# Playbook Promethia - Version [X]
# Derniere mise a jour : [YYYY-MM-DD]
## Email - Configuration gagnante actuelle
### Sujet (taux d'ouverture : [X%])
- Pattern gagnant : [description du pattern]
- Exemple : "[exemple concret]"
- Source : Experience #[NNN]
### Accroche (taux de reponse : [X%])
- Pattern gagnant : [description]
- Exemple : "[exemple concret]"
- Source : Experience #[NNN]
### Framework (conversion : [X%])
- Framework gagnant : [PAS/AIDA/BAB/autre]
- Variante specifique : [detail]
- Source : Experience #[NNN]
### Timing (open rate : [X%])
- Meilleur jour : [jour]
- Meilleure heure : [heure]
- Source : Experience #[NNN]
### CTA (reply rate : [X%])
- CTA gagnant : [description]
- Exemple : "[exemple]"
- Source : Experience #[NNN]
### Cadence (conversion globale : [X%])
- Nb touchpoints : [X]
- Canaux : [ordre]
- Espacement : [jours]
- Source : Experience #[NNN]
## Historique des versions
| Version | Date | Changement | Impact |
|---------|------|------------|--------|
| 1.0 | [date] | Configuration initiale | baseline |
| 1.1 | [date] | [changement] | [+X% reply] |
ALERTE ROUGE (agir immediatement) :
- Open rate < 15% (probleme de sujet ou de deliverabilite)
- Reply rate = 0% sur 50+ emails (probleme de contenu ou de ciblage)
- 100% de reponses negatives (probleme de positionnement)
ALERTE ORANGE (tester une variante) :
- Open rate 15-25% (en dessous de l'objectif 28%)
- Reply rate 1-5% (en dessous de l'objectif 8%)
- Ratio reponses positives/negatives < 50%
VERT (continuer et optimiser) :
- Open rate > 28%
- Reply rate > 8%
- Ratio positif/negatif > 60%
OPEN RATE BAS → Tester :
1. Nouveau format de sujet (question, chiffre, nom entreprise)
2. Nom d'expediteur (Salah vs Salah de Promethia vs Promethia)
3. Jour/heure d'envoi different
4. Verifier le score de spam (SPF, DKIM, DMARC)
REPLY RATE BAS → Tester :
1. Nouveau framework email (PAS → AIDA → BAB)
2. Nouvelle accroche (trigger different)
3. CTA differente (plus douce ou plus directe)
4. Segment different (autre secteur, autre taille)
REPONSES NEGATIVES → Analyser :
1. Quelles objections reviennent ? (prix, timing, pas besoin)
2. Le ciblage est-il bon ? (ICP correct ?)
3. Le timing est-il mauvais ? (budget pas encore alloue)
4. Le message est-il percutant ? (proposition de valeur floue)
L'agent DOIT faire une reflexion structuree :
## Reflexion post-batch - [Date]
### Chiffres
- Emails envoyes : [X]
- Open rate : [X%]
- Reply rate : [X%]
- Reponses positives : [X]
- RDV pris : [X]
### Ce qui a marche
- [Observation 1 - avec preuve]
- [Observation 2 - avec preuve]
### Ce qui n'a pas marche
- [Observation 1 - avec preuve]
- [Observation 2 - avec preuve]
### Patterns detectes
- Les emails avec [X] ont un taux [Y%] superieur
- Le framework [Z] marche mieux pour le secteur [W]
- Le timing [T] surperforme de [X%]
### Hypothese pour le prochain batch
Si je [change X], le [metrique Y] devrait augmenter de [Z%] parce que [raison].
### Experience planifiee
→ Lancer experience #[NNN] pour tester cette hypothese
Suivre dans memory/metrics/learning.md :
# Metriques d'Apprentissage
## Performance globale
- Nb experiences lancees : [X]
- Nb experiences concluantes : [X]
- Taux d'amelioration : [X%] (nb experiences qui ont ameliore le playbook)
## Evolution dans le temps
| Mois | Open rate | Reply rate | Conversion | Nb experiences |
|------|-----------|------------|------------|----------------|
| M1 | [X%] | [X%] | [X%] | [X] |
| M2 | [X%] | [X%] | [X%] | [X] |
## Top 3 learnings
1. [Learning le plus impactant - source : exp #NNN]
2. [2e learning - source : exp #NNN]
3. [3e learning - source : exp #NNN]