top of page

Mes services

Mettre de l’ordre dans tes données, tes modèles et tes graphes pour qu’ils servent vraiment ton produit.

Je n’ai pas un catalogue figé de prestations.
Je pars de tes contraintes et de ton problème, et on construit quelque chose de raisonnable.
Mais en pratique, mes interventions se répartissent souvent en trois formats.

Ce qu’on construit ensemble

Diagnostic & stratégie

On commence par une photo honnête de la situation : ce qui existe déjà, ce qui bloque, ce qui coûte, ce qui marche bien.

À la fin, tu as :
– une carte de ton système data / modèles,
– une liste de risques et d’opportunités,
– une roadmap priorisée.
 

Durée : de quelques jours à quelques semaines selon la taille du système.

Photo d'un paysage urbain
Photo de chantier

Construction & mise en production

On construit ou on refond ce qui doit l’être :
– pipelines (ingestion, transformations, stockage),
– modèles (entraînement, évaluation, versioning),
– déploiement (API, batch, streaming),
– monitoring (qualité des données, performance, coût).
 

Objectif : un système en production qui ne soit pas une boîte noire.

Sparring technique (graphes & optimisation)

Ici, on rentre dans le dur :
– comment modéliser ton problème sous forme de graphe,
– comment réduire le coût ou la latence d’un modèle,
– quel design d’architecture choisir entre plusieurs options,
– où se cachent les vrais goulots d’étranglement.
 

Je peux intervenir ponctuellement (revue d’architecture, audit technique) ou de façon plus suivie.

Photo d'un robot

Mes spécialités

Je conçois des solutions IA et data qui tiennent en production, avec un objectif simple : extraire plus de valeur, plus vite, pour moins cher.

J’optimise l’IA jusqu’au niveau kernel et je factorise les modèles pour réduire drastiquement le compute et la taille. Je construis aussi des pipelines data complets, du brut au dashboard, avec monitoring et alerting.

Enfin, mon edge — graphes, hypergraphes et théorie de l’information — me permet de révéler des structures et signaux sous-jacents que les approches classiques laissent passer.

IA — Kernels & modèles frugaux

J’optimise l’IA là où ça coûte vraiment : l’inférence. Je travaille au niveau kernel (CUDA), runtime, et chemins critiques pour réduire latence et consommation.

Je factorise les modèles en retirant les poids non-critiques (pruning guidé, low-rank, quantification, distillation), puis je fine-tune pour récupérer la qualité.

Selon le cas d’usage, on obtient typiquement ~15 à 85% de gain en taille/compute.

Je termine le job en mode prod : packaging, tests, métriques, déploiement (batch/stream), et garde-fous.

Objectif : un modèle moins cher, plus rapide, et stable en conditions réelles.

Data — Du brut au monitoring

Je transforme une donnée brute en système exploitable : ingestion → structuration → analyse → décision. Mon focus est la chaîne complète, pas juste “un notebook qui marche”.
 

Je construis des pipelines robustes (qualité, schémas, dédup, historisation, feature engineering), puis je mets en place des indicateurs lisibles : dashboards, rapports, et vues métier.

Quand il faut modéliser, je choisis la simplicité efficace avant la sophistication fragile.

Je mets toujours la surveillance au centre : data quality, dérive, latence, alerting, et traçabilité.

Résultat : une plateforme data qui tient dans le temps, et qui permet d’itérer vite sans casser la prod.

Graphes, hypergraphes & théorie de l’information

Mon edge, c’est de modéliser la complexité par les relations. Quand les tableaux s’effondrent, un graphe (ou hypergraphe) capture naturellement dépendances, interactions et structures latentes.

Les graphes font émerger la structure : communautés, chemins, anomalies, similarités, embeddings (GNN si besoin).

Les hypergraphes capturent les liens “à plusieurs” sans perdre d’info.

La théorie de l’info guide mes choix : entropie, information mutuelle, MDL/rate-distortion.

Objectif : extraire les signaux cachés et les rendre actionnables (scores, features, règles, modèles).

bottom of page