Le contexte
FlexAI est une startup d'infrastructure basée à Paris qui développe une plateforme pour simplifier l'accès au calcul GPU. Sortie du mode furtif en avril 2024 avec 30M$ de financement seed, fondée par d'anciens ingénieurs Nvidia, l'entreprise permet aux ingénieurs ML d'entraîner et déployer des modèles sans gérer le matériel sous-jacent.
La mission GTM s'est lancée pendant un pivot produit majeur — du hardware vers une approche 100% software. Tout le go-to-market était à reconstruire de zéro, avec un objectif clair : créer un système capable d'identifier et d'engager les bonnes cibles avant même qu'elles ne sachent qu'elles ont besoin de FlexAI.
Le problème
- Un ICP impossible à identifier avec les outils de prospection classiques (LinkedIn, Apollo, ZoomInfo)
- Aucun filtre standard ne distingue une entreprise qui entraîne ses modèles d'une qui consomme des API
- Une fenêtre de vente éphémère : les startups ML fonctionnent sur des crédits cloud gratuits jusqu'à ce qu'ils s'épuisent
- Un marché mondial, fragmenté, sans annuaire ni liste prête à l'emploi
Le résultat
- 4 sources de signaux combinées en un moteur de détection automatisé
- 300+ signaux qualifiés traités par jour, zéro intervention manuelle
- 3 tiers de segmentation pour adapter le message au niveau de maturité
- Stratégie ABM dédiée aux top accounts avec approche multi-thread personnalisée
- Un pipeline reproductible qui tourne en continu, prêt à scaler avec l'équipe commerciale
Le problème dans lequel on est intervenu
Le produit FlexAI ne s'adresse pas à "toute entreprise qui fait de l'IA". Il s'adresse uniquement aux équipes qui entraînent activement leurs propres modèles — une fraction infime du marché tech mondial.
Et c'est là que les méthodes classiques s'effondrent.
Sur LinkedIn Sales Navigator, vous pouvez filtrer par taille d'entreprise, secteur, technologie utilisée. Mais aucun filtre ne vous dira si une startup de 30 personnes à Berlin est en train de fine-tuner un LLM sur ses propres données ou si elle appelle simplement l'API de GPT-4. C'est la même industrie, le même titre de poste, le même stack déclaré — mais un besoin radicalement différent.
À ce problème d'identification s'ajoute un problème de timing. Les startups early-stage qui commencent à entraîner des modèles fonctionnent souvent avec des crédits cloud gratuits (AWS, GCP, Azure). Tant que ces crédits durent, elles n'ont aucune raison de chercher une alternative. La fenêtre de vente s'ouvre au moment précis où les crédits s'épuisent et que les coûts de calcul explosent.
Arriver trop tôt, c'est parler à quelqu'un qui n'a pas de problème. Arriver trop tard, c'est parler à quelqu'un qui a déjà signé ailleurs.
- Identification de l'ICP: Aucune base de données ne distingue « entraîne des modèles » de « utilise des API »
- Timing de l'approche: Le besoin apparaît quand les crédits cloud expirent — impossible à voir dans un CRM
- Couverture géographique: Équipes ML réparties sur tous les continents, tous les secteurs
- Qualification technique: Exige de comprendre le stack ML réel, pas le stack déclaré
Ce qu'on a construit et pourquoi ça fonctionne
Plutôt que de partir d'une base de données et de filtrer vers le bas, on a inversé l'approche : écouter les signaux qui trahissent l'activité ML réelle, puis remonter vers les entreprises.
1. Offres d'emploi comme signal d'intention
Un système de webhooks automatisés capture quotidiennement les offres d'emploi liées à l'IA/ML dans le monde entier. Quand une entreprise recrute un ingénieur MLOps, un spécialiste en fine-tuning ou un chercheur en NLP, c'est un signal fort qu'elle investit dans l'entraînement — pas dans la consommation d'API.
Ce moteur traite 300+ offres par jour, chacune enrichie, scorée et routée automatiquement vers le bon tier de segmentation.
2. Activité GitHub comme preuve technique
On a mis en place un monitoring des contributions sur les repositories ML critiques : HuggingFace Transformers, DeepSpeed, PEFT, et d'autres frameworks de fine-tuning. Une entreprise dont les ingénieurs contribuent activement à ces repos n'explore pas l'IA — elle la construit.
3. Hugging Face comme signal de maturité
Le scraping systématique du Hub Hugging Face identifie les organisations qui publient régulièrement de nouveaux modèles. Fréquence de publication, taille des modèles, type d'architecture — autant d'indicateurs de maturité technique et de besoins en calcul croissants.
4. Écoute sociale comme signal de timing
L'extraction d'intentions depuis l'engagement LinkedIn — commentaires sur les posts de concurrents, plaintes sur les coûts cloud, discussions sur les limites d'infrastructure — permet de capter le moment où une équipe commence à chercher des alternatives. C'est cette couche qui transforme un lead qualifié en lead prêt à parler.
Sources de signal (synthèse)
- Offres d'emploi: Intention d'investir dans le ML — filtre les « faux positifs IA »
- GitHub: Activité technique réelle — prouve que l'entreprise entraîne des modèles
- Hugging Face: Maturité et vélocité ML — identifie les besoins en calcul croissants
- Écoute sociale: Timing et douleur exprimée — déclenche l'approche au bon moment
Segmentation : parler le bon langage au bon moment
Les signaux seuls ne suffisent pas. Chaque entreprise identifiée passe dans une matrice de segmentation pour adapter le message, le canal et le timing :
Tier 1 — Besoins croissants
Startups early-stage (2-5M$ ARR), petites équipes ML (1-10 personnes), marchés tolérants aux pannes. Angle : éducatif, axé sur le coût total d'entraînement.
Tier 2 — Production non-critique
Entreprises à 2-20M$ ARR avec des charges d'inférence et d'entraînement en production. Angle : technique, axé sur la simplicité d'intégration.
Tier 3 — Production critique
Scale-ups à 20M$+ ARR, équipes ML de 10+ personnes, industries réglementées. Angle : sécurité, compliance, SLA.
L'orchestration derrière
L'ensemble du pipeline a été construit sur une stack Clay + Cargo + n8n + Lemlist, avec une logique qui :
- Déduplique les signaux multi-sources (une même entreprise peut apparaître via GitHub ET Hugging Face ET une offre d'emploi)
- Enrichit automatiquement chaque compte avec les données firmographiques et les contacts décisionnaires
- Score chaque lead en croisant le nombre de couches de signaux activées
- Route vers la bonne séquence selon le tier et le signal déclencheur
- Déclenche des campagnes spécifiques pour les conférences IA majeures (NeurIPS, ICML, etc.)
Du signal brut à l'email envoyé : zéro intervention manuelle.
ABM : un traitement sur-mesure pour les comptes à fort potentiel
Le moteur de signaux identifie le volume. Mais les comptes les plus stratégiques — ceux qui à eux seuls peuvent représenter un deal à 6 ou 7 chiffres — méritent un traitement différent.
On a mis en place une couche ABM dédiée aux top accounts identifiés par le scoring multi-signaux. Quand un compte coche plusieurs couches simultanément (recrute des ingénieurs ML + contribue à des repos critiques + publie des modèles sur Hugging Face), il bascule automatiquement dans un track séparé.
Ce que ça change concrètement :
- Séquence: Outbound classique : séquence email standardisée — track ABM : approche multi-thread sur plusieurs décisionnaires
- Canaux: Un seul canal (email) contre orchestration email + LinkedIn + événements
- Message: Générique par tier contre messaging hyper-personnalisé basé sur le stack technique réel du compte
- Timing: Basé sur la séquence contre basé sur les signaux en temps réel du compte
Pour chaque top account, on construit une cartographie des décisionnaires — VP Engineering, Head of ML, CTO, parfois même les IC seniors qui influencent les décisions d'infrastructure — et on orchestre des touchpoints coordonnés sur chacun d'entre eux. Le messaging ne parle pas de FlexAI en général. Il parle du problème spécifique de ce compte : les repos sur lesquels leurs ingénieurs travaillent, les modèles qu'ils publient, les postes qu'ils ouvrent. Chaque point de contact prouve qu'on comprend ce qu'ils construisent — avant même le premier call.
Pourquoi ce cas est différent
Ce n'est pas un projet où on achète une liste, on enrichit, on envoie. C'est de l'ingénierie de signaux appliquée à un marché où la prospection traditionnelle est structurellement aveugle.
Quand votre client idéal ne peut être identifié par aucun champ dans aucune base de données du marché, il faut aller chercher la preuve là où elle se trouve : dans le code, dans les modèles publiés, dans les offres d'emploi, dans les conversations.
C'est exactement ce type de complexité que S37 résout.
En bref
FlexAI est une startup d'infrastructure IA qui simplifie l'accès au calcul GPU pour les équipes entraînant leurs propres modèles.
Taille : 11-50 — Secteur : Infrastructure IA / Cloud — Localisation : Paris, France.
Prochaine étape
Si votre ICP est invisible dans les bases de données classiques et que votre marché exige une approche chirurgicale, on peut vous aider à construire le même type de moteur de détection. Réservez un appel avec l'équipe S37.
