De la recherche en vision
au produit en prod.
10 ans à coder à l'intersection de la recherche, de l'industrie et du produit.
J'ai commencé en 2015 par la vision par ordinateur appliquée et le deep learning au sein d'un labo de recherche à La Rochelle. Mes premières publications IEEE portaient sur la colorisation d'images N&B et la reconnaissance faciale en domaine visible+infrarouge.
Au bout de 4 ans, j'ai migré progressivement vers le développement web — d'abord par curiosité, puis parce que j'aime particulièrement le rythme produit : voir un design devenir un commit, devenir une feature utilisée par des vrais gens en quelques semaines.
Aujourd'hui je travaille chez Okeenea sur Evelity, une application d'accessibilité urbaine pour personnes malvoyantes / sourdes / à mobilité réduite, ainsi que sur Evelity Vision, un système de localisation indoor par SLAM visuel que j'ai conçu et livré en 8 mois.
Côté technique, je suis aussi à l'aise sur du Java/Spring industriel que sur du Python data-heavy ou du C++ low-level. Côté front c'est React, TypeScript, Vite. J'aime le code testé, les revues constructives, les pipelines CI exigeants — pas par dogme, parce que ça fait gagner du temps sur la durée.
En dehors du travail, je fais beaucoup de side-projects (cf. /projects), souvent comme prétexte à apprendre une techno nouvelle ou à automatiser un truc chiant.
Parcours académique
Recherche académique
4 papiers en vision par ordinateur publiés en conférences IEEE et EUVIP entre 2018 et 2020, en co-auteure avec Bernard Besserer.