Ce en quoi je crois : la rigueur statistique au service de systèmes qui décident.
Que vous soyez data scientist cherchant un partenaire pour industrialiser vos modèles, CTO pilotant une équipe ML, ou dirigeant qui veut transformer ses données en avantage compétitif — ce qui nous unit est l'exigence de résultats mesurables.
La vraie difficulté n'est pas de construire un modèle. C'est de le faire tenir dans un système réel, sous contrainte.
Des modèles calibrés et validés, pas seulement entraînés
Des pipelines qui s'exécutent sans supervision humaine
Des décisions automatisées à moins de 100ms sous charge
Des métriques business lisibles, pas seulement des AUC
Chaque projet démarre par une question métier précise. La réponse passe par la modélisation, l'ingénierie des données et un déploiement robuste — trois phases qui ne peuvent pas être dissociées.
Formalisation mathématique du problème, sélection et ingénierie des features, choix du bon algorithme (gradient boosting, réseaux de neurones, modèles bayésiens).
Validation rigoureuse : AUC-ROC, log loss, calibration des probabilités — parce qu'un modèle non calibré prend de mauvaises décisions même avec un bon score.
Pipeline MLOps automatisée : extraction depuis ClickHouse et PostgreSQL, feature engineering, entraînement nocturne, déploiement hot-swap avec fallback automatique.
Le modèle se réentraîne chaque nuit. Le système reste disponible. Les équipes dorment.
Microservices Go, cache Redis, Kubernetes (EKS AWS), Prometheus/Grafana. Latence < 100ms par décision, disponibilité 99,9 %.
Un modèle qui ne tient pas la charge en production n'est pas un modèle — c'est un prototype.