Après avoir fait son stage de fin d’études chez Alteca, Boris occupe aujourd’hui un poste de Data Scientist / Ingénieur en intelligence artificielle chez Datafab by Alteca.
Il revient sur son parcours, ses missions actuelles et ce qui le motive au quotidien dans ce domaine en constante évolution.
À l’origine, rien ne me prédestinait à l’informatique. Au lycée, je penchais plutôt pour une filière littéraire. C’est sur les conseils de mon entourage que je me suis finalement tourné vers ce secteur en devenir. J’ai très vite adoré coder et résoudre des problèmes. De fil en aiguille, je me suis découvert une vraie passion.
Après une licence en informatique, j’ai choisi de m’orienter vers un master en Intelligence Artificielle et Big Data. Je savais que je pouvais continuer à progresser en développement en autodidacte. Je voulais aller plus loin, découvrir un domaine technique riche en recherche et qui évolue rapidement.
Entre mes deux diplômes, j’ai effectué une première immersion en entreprise en tant que développeur fullstack. Cette expérience m’a permis de consolider mes compétences techniques et de confirmer mon intérêt pour l’IA.
En dernière année de master, j’ai rejoint Alteca pour mon stage de fin d’études. Ce qui a retenu mon attention sur cette entreprise, c’est la présence d’une activité de Recherche & Développement, ce qu’on ne retrouve pas partout. Il y avait de vraies problématiques complexes et enrichissantes à explorer.
Ce qui m’a également attiré, c’est l’ambition de la fiche de poste. Souvent, en stage, on vous confie des projets limités à du nettoyage de données par exemple. Chez Alteca, j’ai trouvé des missions avec de vrais enjeux à résoudre.
Cette expérience m’a conforté dans mon choix de carrière, me motivant à prolonger l’aventure quelques mois, puis à rejoindre Datafab en CDI.
Aujourd’hui Data Scientist chez Datafab, je partage mon temps entre une mission client et un projet de recherche.
Dans le cadre de ma mission client, je suis en charge de la conception d’une solution basée sur l’IA pour répondre à une problématique métier précise. Je prends en charge toute la partie technique : étude de faisabilité, sélection du modèle, entraînement, intégration dans l’écosystème du client…
Je travaille principalement en Python avec tout l’écosystème machine learning : pandas et numpy pour la manipulation de données, scikit-learn pour les modèles classiques, PyTorch pour le deep learning. J’utilise aussi Google Cloud Platform, notamment Vertex AI, pour avoir un accès plus sécurisé aux modèles dans un environnement professionnel.
Le principal défi que je rencontre au quotidien, c’est la gestion du temps. Entre les tests sur différents modèles, l’entraînement, la collecte d’informations et l’analyse des résultats, il faut être très efficace ! Je dois savoir exactement quoi tester, comment optimiser chaque étape – que ce soit l’entraînement des modèles ou la recherche d’informations – pour proposer rapidement les meilleures solutions au client. C’est un exercice d’équilibriste entre rigueur technique et contraintes temporelles.
Parallèlement, je participe à un projet R&D consistant à analyser les discours climato-sceptiques publiés sur Reddit. L’objectif est de classifier automatiquement les publications en identifiant si elles proviennent d’un auteur climato-sceptique ou non.
J’ai entraîné un modèle via du fine-tuning sur un gros volume de données Reddit. L’étape suivante consistera à détecter les émotions véhiculées par les messages.
Pour ce projet, j’utilise là aussi principalement Python avec pandas pour la manipulation des données Reddit et PyTorch pour le fine-tuning du modèle de classification. Le choix de PyTorch s’est imposé naturellement pour sa flexibilité lors du fine-tuning, surtout quand on travaille sur des volumes importants de données textuelles comme celles de Reddit.
L’écosystème Python reste incontournable pour ce type de projet : il se montre robuste, documenté et parfaitement adapté au traitement du langage naturel.
Ce qui me motive au quotidien, c’est la rapidité d’évolution du secteur. Ces derniers mois, il y a eu plus d’innovations en IA que durant la décennie précédente. Chaque semaine, de nouveaux modèles, de nouvelles approches, de nouvelles startups émergent.
La veille technologique représente une partie majeure de mon travail de Data Scientist, parfois jusqu’à 80 % de mon temps, hors mission client. C’est un aspect qui me plaît énormément car j’adore comprendre ce qu’il se cache derrière les innovations : savoir comment un modèle fonctionne, quelle approche a été utilisée, ce que je peux en retenir pour mes propres projets, etc.
Ma source principale de veille est X (anciennement Twitter). Sur cette plateforme, je suis abonné à de nombreux comptes (@kimmonismus, @testingcatalog, @btibor91, @koltregaskes, @legit_api) qui relaient en temps réel toutes les nouveautés autour de l’IA : nouveaux modèles, benchmarks, résultats de recherche… C’est un flux constant d’informations.
Cette veille me permet de toujours savoir quels sont les modèles les plus performants actuellement et lesquels excellent selon des tâches précises, ce qui me permet de choisir l’outil adapté à mes besoins. Côté open source, c’est particulièrement précieux pour identifier les meilleurs modèles à affiner.
Cette veille me fait gagner un temps considérable sur les projets en évitant d’utiliser des modèles déjà dépassés.
J’essaye aussi de garder une grande souplesse dans mon approche afin de toujours m’adapter aux évolutions du secteur.
À ceux qui s’intéressent à mon métier de Data Scientist ou à l’univers de l’IA :
« Soyez curieux. Ne vous arrêtez pas à l’apparence des outils : allez voir ce qu’il y a derrière, comment ça fonctionne. Et surtout, n’attendez pas de tout maîtriser pour commencer un projet. C’est en pratiquant qu’on apprend ! »
Envie de nous rejoindre ? Retrouvez toutes nos opportunités ici !