MaQI — Compute Vendor Landscape (sprint brief)
Contexte
Le Master MaQI ouvre en septembre 2026. Côté stockage, le choix est
fait : Wasabi S3 (eu-central-1, egress gratuit) — documenté dans
docs/wasabi/. Côté compute, rien n'est encore figé. CAL et
Emmanuel sont en tour d'horizon vendor cette semaine : Nebius
(16/04 matin), Gradium/FluidStack (16/04 13h), Sense (17/04), avec en
arrière-plan OVH (déjà utilisé par Emmanuel), GCP (coût transfert
jugé excessif), AWS et Azure (classiques).
Ce brief capture :
- L'analyse de l'appel Nebius du 16/04 \((\approx22\) min, Emmanuel + CAL + Mankaran Ahluwalia).
- Le contexte WhatsApp échangé entre CAL et Emmanuel post-appel.
- Le cadrage du livrable
docs/compute/à produire.
1. Appel Nebius — 16/04/2026 matin
Participants
| Qui | Rôle |
|---|---|
| Mankaran Ahluwalia | Nebius (contact principal) |
| Artem (pas dans l'appel) | Nebius — dirige Academy program + AI Day Amsterdam 17/04 |
| Charles-Albert Lehalle | Co-directeur MaQI, Polytechnique |
| Emmanuel Sérié | Collaborateur scientifique MaQI |
Agenda tel que dit par CAL
- Présentation du Master MaQI : M1+M2, AI for Markets & Quantitative Investments, 25 étudiants/an (cohorte volontairement sélective les 3 premières années), ouverture septembre 2026.
- Partenaires existants côté données/financement : BNP Paribas, Qube RT, Square Point, S&P Global, discussions en cours avec Euronext (Bourse de Paris) et l'AMF (régulateur FR).
- Recherche d'un partenaire compute pour : (a) servir les étudiants + enseignants ; (b) faire intervenir le vendor sur les sujets souveraineté, enjeux cloud, adossé à une contribution financière.
Points clés exprimés par Nebius (Mankaran)
- Nebius = AI cloud GPU-first. Ils opèrent principalement sur GPU. Fournissent des CPU en complément, mais ce n'est pas leur terrain naturel.
- Academy Program : mécanisme de crédits GPU pour des programmes universitaires alignés (AI, quant + GPU intersection = fit). Contact interne pour ça = Artem, que Mankaran va sync après l'AI Day Amsterdam du 17/04.
- Startup credits : existent aussi, mais plus adaptés à une startup qu'à une université — Mankaran va chercher le bon framework pour MaQI.
- Marché GPU tendu : Nebius vend déjà les capacités Q3 2026 alors qu'on est en Q2. Les créneaux dispos sont ad hoc (quand un client upgrade ou qu'une startup échoue).
-
Trois modes de consommation :
- On-demand : pool partagé, pas de garantie d'instance immédiate, utilisé avec les crédits Academy.
- Reserved capacity : l'instance est à toi, disponible quand tu l'allumes.
- Hybrid : mix selon usage (recommandé pour les pics d'examens où il faut de la garantie).
- Côté CPU : Nebius peut fournir en plus, mais leur structure tarifaire et leur offre sont pensées GPU. Mankaran va regarder en interne si un setup CPU-principal pour MaQI est faisable ou s'il faut construire un pattern hybride.
- Timing retour : Mankaran indique que la semaine suivante est chargée (QBRs, AI Day), il reviendra "dans les prochains jours" avec une proposition structurée.
Points clés exprimés par CAL / Emmanuel
- Besoin réel = surtout CPU + mémoire (maritime traffic, time series, point-in-time, second channel nature). GPU reste marginal : 1 cours sur 10 en M2 est sur generative AI / diffusion models, du LLM léger pour le textuel financier.
- Pattern d'usage = burst (étudiants travaillent 1-2 semaines avant les exams) + long-terme (enseignants qui préparent le matériel).
- Période d'expérimentation (~5 mois d'ici septembre) où il faut tester quasi gratuitement pour calibrer les besoins. Argument accepté par Mankaran.
- Amplification par l'agentic : Emmanuel a insisté sur le fait que les agents IA peuvent démultiplier les besoins compute vs un programme "classique".
- Prochain livrable souhaité côté MaQI : chiffrer l'enveloppe compute (CPU / RAM / GPU marginal) pour la phase de préparation (mai-août) et pour la phase de cours (sept 2026+).
- Angle branding : CAL rappelle qu'il a bossé avec Yann LeCun à l'époque Criteo / NYU (FPGA partagé), même communauté ML française. Nebius est le fournisseur GPU du nouveau labo de LeCun (confirmé WhatsApp post-appel) \(\to\) intérêt stratégique pour MaQI d'avoir Nebius en partenaire pour le signal extérieur.
Actions issues de l'appel
| # | Action | Owner | Deadline |
|---|---|---|---|
| 1 | Sync interne Nebius (Academy + CPU setup) | Mankaran | semaine 17 avril |
| 2 | Introduire Artem (Academy lead) | Mankaran | après AI Day Amsterdam (17/04) |
| 3 | Chiffrer l'enveloppe compute MaQI (CPU/GPU burst + long) | Emmanuel + CAL | avant fin avril |
| 4 | Itérer avec Nebius sur la proposition | MaQI + Nebius | mai |
Opportunités side-quest mentionnées
- CAL propose que les étudiants Master (experts en design de marchés via Vianney Perchet — Criteo / auctions) pourraient potentiellement revisiter les mécanismes d'allocation GPU Nebius. C'est une piste de collaboration de recherche "academy-to-business".
2. Contexte WhatsApp post-appel (CAL ↔ Emmanuel)
Extraits pertinents du 16/04 12:23 \(\to\) 15:40 :
- CAL : "Je ne t'avais pas dit mais c'est eux qui fournissent le GPU à Yann LeCun pour sa nouvelle boîte, c'est comme ça que je les connais. Ça serait cool comme branding, en plus ils sont européens/souverains (c'est pour ça qu'il les a choisis)." \(\to\) Confirme l'angle souveraineté + l'effet signal LeCun.
- Emmanuel : "Je vois Laurent Mazaré de Gradium à 13h, il est super calé aussi là-dessus (ils ont des providers, j'en avais déjà parlé avec lui). LeCun est aussi BA de Gradium…. la boucle est fermée." \(\to\) Prochain call dans la foulée : Gradium (Mazaré), qui utilise FluidStack (fluidstack.io) jugé moins cher que Nebius selon Emmanuel.
- CAL : "Avec Sense demain, on aura fait un bon tour d'horizon." \(\to\) Call Sense planifié 17/04.
- Emmanuel : "il faudrait creuser du côté OVH, car par GCP le coût du transfert est très élevé." \(\to\) Alignement stratégique sur OVH pour la robustesse égalité-de-coût transfer.
- CAL : "Ce que j'espère c'est que Sense peut nous faire un partenariat avec du transfert moins cher." \(\to\) Sense est évalué sur l'axe "transfer cost" (et pas seulement compute).
Lecture stratégique
La semaine du 14-17 avril est une semaine de cartographie compute menée par CAL + Emmanuel en parallèle du stream data S&P Global. Les critères de sélection implicites qui émergent :
- Coût transfer / egress (critique — Emmanuel a expérimenté GCP sur ce point et a jugé rédhibitoire).
- Souveraineté européenne (CAL, résonance LeCun / Nebius).
- Branding académique (LeCun, communauté ML FR, French Tech).
- Fit CPU-dominant + GPU-burst (contraire du marché actuel qui est GPU-first).
- Période d'expérimentation "gratuite" ou subventionnée (crédits Academy, crédits startup, etc.).
- Qualité de la relation (Nebius a marqué des points en 22 min sur l'écoute + la perspective GPU-market).
3. Livrable attendu — docs/compute/
Structure parallèle à docs/providers/ (données) et docs/wasabi/
(stockage) :
docs/compute/
├── README.md Landing page : 3 questions, comment choisir
├── catalog.yaml Source of truth machine-readable (typed)
├── cartography.md Vue matricielle provider × critère
└── <provider>.md Une fiche par vendor documenté
├── nebius.md (call 16/04 — cf. ce brief pour source)
├── ovh.md (déjà utilisé en prod pour stream S&P)
├── gradium.md (Laurent Mazaré, LeCun BA)
├── fluidstack.md (underlying chez Gradium)
├── sense.md (call 17/04 à venir)
├── gcp.md (classique, transfer cost jugé élevé)
├── aws.md (classique)
└── azure.md (classique, jugé "nightmare paperwork" par CAL)
Schéma catalog.yaml (à formaliser par le worker)
Champs minimaux par vendor :
| Champ | Type | Exemple |
|---|---|---|
id | slug stable | nebius |
name | display name | Nebius AI Cloud |
category | gpu_cloud | hybrid_cloud | cpu_cloud | hyperscaler | sovereign_eu | startup_friendly | gpu_cloud |
primary_offer | CPU / GPU / both | GPU-first |
status | active_discussion | evaluated | in_use | to_explore | rejected | active_discussion |
egress_cost | short qualitative | cheap / expensive / included |
region_eu | y/n/partial | yes |
sovereignty | EU / US / mixed | EU |
credits_program | y/n + short note | Academy + startup credits |
contacts | list {name, role, email} | Mankaran Ahluwalia |
first_contact | date | 2026-04-16 |
last_action | short text + date | "appel 22min, retour attendu semaine 17/04" |
operational_status | not_started | explored | quoted | piloting | in_production | blocked | rejected | explored |
last_reviewed | date | 2026-04-16 |
detail_doc | relative path | docs/compute/nebius.md |
notes | free text (FR ok) | — |
Squelette imposé par fiche docs/compute/<id>.md
Reprendre le pattern ADR-002 §2 (providers data) mais adapté :
---
id: <slug>
name: <display>
category: <gpu_cloud | ...>
operational_status: not_started | explored | quoted | piloting | in_production | blocked | rejected
last_reviewed: YYYY-MM-DD
upstream: docs/compute/catalog.yaml#<id>
---
# <Nom du vendor>
## Offre
<ce que le vendor propose : CPU / GPU / storage / auctions mode,
régions, souveraineté, SLAs publics.>
## Positionnement pour MaQI
<fit vs. besoin : CPU-dominant + GPU-burst + experimentation +
sovereignty. Signal extérieur (ex. Nebius = fournisseur GPU LeCun).>
## Interactions
<log daté des appels / emails / demos. Format :
`2026-04-16 — appel 22min avec Mankaran (Emmanuel + CAL), retour
prévu semaine du 17/04`. Pas de prix, pas de NDA, pas de secret.>
## Critères d'évaluation
<grille de notation qualitative sur les 6 critères de ce brief :
egress cost, souveraineté, branding, fit CPU/GPU, experimentation,
relation.>
## Décisions ouvertes
<questions en suspens + bloquants pour passer à
`quoted` ou `piloting`.>
README.md — structure 3 questions (parallèle wasabi/)
Les trois questions :
- Quel vendor évaluons-nous en ce moment ? \(\to\) catalog.yaml + cartography.md
- Quel est l'état d'une négociation particulière ? \(\to\)
<vendor>.md- Quel vendor correspond à notre besoin X ? \(\to\) README.md (grille de choix)
Contraintes héritées de ADR-002
- C1 — Pas de secret commercial. Pas de prix, pas de drafts NDA, pas de contenus d'emails privés. Seuls qui / quand / statut court dans les logs d'interaction.
- C2 — Sources référencées. Chaque fiche mentionne la source (appel daté, email, page web publique). Pas de propos rapportés non-vérifiables.
- C3 — Langue. FR pour les notes internes (matching docs/providers/), EN pour README si le public final est international (matching repo README).
Ce qui N'EST PAS dans le scope de cette molécule
- Pas de chiffrage concret de l'enveloppe compute MaQI (CPU-hours/mois, GPU-hours, RAM, stockage temp). C'est une analyse séparée — à nucléer dans une molécule dédiée une fois qu'on aura des retours vendors chiffrés.
- Pas de décision de choix final vendor. La cartographie n'induit pas la décision — c'est un support pour la décision.
- Pas de négociation ni de contrat. Le repo documente, il ne négocie pas.
- Pas d'ADR compute maintenant. Un ADR-003 "Compute vendor choice" viendra quand la décision sera prête.
Sources
- Transcript intégral de l'appel Nebius 16/04 \(\to\) disponible dans la
mémoire du pilote, à recopier dans
docs/compute/nebius.mdsection Interactions après filtrage C1 (pas de prix / secret). - Extraits WhatsApp CAL \(\leftrightarrow\) Emmanuel 16/04 \(\to\) même traitement.
- Knowledge vault :
~/galaxies/knowledge/epinoia/contient des fiches contacts Jurczak (Quantonation), Yann LeCun, etc. si le worker a besoin de cross-linker.
Critère de complétion
- [ ]
docs/compute/catalog.yamlcréé avec au minimum les 8 providers listés (nebius, ovh, gradium, fluidstack, sense, gcp, aws, azure). Sense peut resternot_started. - [ ]
docs/compute/<provider>.mdexiste pour les 4 vendors en discussion active (nebius, ovh, gradium, fluidstack). Les 4 autres peuvent être stubs (squelette vide). - [ ]
docs/compute/README.mdest lisible par CAL sans lire les fiches — répond aux 3 questions. - [ ]
docs/compute/cartography.mdmatrice provider \(\times\) critère. - [ ] Cross-link depuis le README racine
~/dev/ESERIE/MaQI/README.mdsection "What's inside" \(\to\) ajouter une ligne Compute vendors. - [ ] Commit local uniquement (pas de push — revue manuelle).