ARTEFACT SCHOOL OF DATA
Bootcamp 10 semaines
Full Stack Data Science


Full Stack Data Science Bootcamp.
La formation la plus complète pour lancer votre carrière dans la data, enseignée par nos experts Artefact !
- Temps plein (10 semaines – 400 heures)
- Mode hybride (présentiel et/ou distanciel)
- Formation encadrée par nos experts Artefact
- Programme éligible au compte personnel de formation (CPF).
Rejoignez notre formation unique.
Directement organisée par un acteur-phare du secteur, notre formation data est unique en son genre.
Votre réussite professionnelle est garantie par un encadrement de pointe par nos experts en data science, data engineering et MLOps.
Vous êtes formé sur des cas concrets rencontrés sur le terrain par nos professionnels data et bénéficiez des meilleures pratiques du marché.

La formation data la plus complète.
Une formation technique qui balaie tous les principaux aspects des métiers de la donnée : Data Analyst, Data Scientist, Data Engineer, ML Engineer.
Un apprentissage terrain.
Notre pédagogie est orientée exclusivement sur la pratique. Les exercices et projets que nous proposons sont construits à partir des cas concrets rencontrés en entreprise par les experts métiers d’Artefact.
Un programme souple.
Vous pouvez suivre la formation à temps plein ou à temps partiel, en hybride, présentiel ou à distance. Elle s’adapte facilement en toute souplesse à votre agenda !

Une formation pointue et pratique pour accélérer votre carrière dans la Data.
Votre réussite professionnelle dans la data est garantie grâce à une formation réalisée par des experts métiers.
Les cours sont administrés par des professionnels, qui côtoient au quotidien des clients, qui vous partageront des cas concrets venant du terrain et qui vous feront travailler sur des cas réels en mode projet.
Les formateurs certifiés de VivaData rejoignent les experts métiers d’Artefact pour vous offrir le meilleur de la formation en Data Science, Data Analytics, Data Engineering et Intelligence Artificielle !
- Apprentissage pratique en mode projet (plus de 10 projets sur des use cases réels)
- Communauté d’Alumnis, accès à une plateforme de contenus à vie
Ouvert à tous, sans prérequis de formation.
Un programme de coaching complet et immersif ouvert à tous.
Ouvert à toutes et tous.
Aucun prérequis n’est nécessaire, juste votre bonne humeur et beaucoup de motivation ! Vous pourrez parfaitement suivre notre cursus avec un bagage mathématique niveau lycée et sans expérience en programmation informatique, beaucoup d’autres l’ont fait avant vous !
Une formation orientée pratique.
Notre format bootcamp, c’est 10% de cours et 90% de pratique. Nous avons conçu et optimisé tous nos exercices pour rapidement vous faire monter en compétences.
Un accompagnement de proximité.
Avec un ratio de 1 formateur pour 10 élèves, nous vous assurons un encadrement constant pour répondre à vos questions et vous permettre d’avancer dans vos exercices et projets.
Le programme le plus complet.
Des enseignements à la pointe du métier.
Accès à vie.
Les prochaines sessions.
Inscriptions ouvertes
BOOTCAMP TEMPS PLEIN
Full Stack Data Science.
11 octobre – 17 décembre 2021 | Cours en français
PARTICULIER
4 500 € TTC
ENTREPRISE
7 500 € HT
Inscriptions ouvertes
BOOTCAMP TEMPS PLEIN
Full Stack Data Science.
10 janvier – 18 mars 2022 | Cours en français
PARTICULIER
4 500 € TTC
ENTREPRISE
7 500 € HT
Postulez en quelques étapes rapides.
Choisissez votre session.
Sélectionnez le campus de votre choix puis la session à temps plein ou à temps partiel qui vous convient. Vous avez également la possibilité de vous inscrire pour une session à distance si vous n’êtes pas à proximité de nos campus.
Déposez votre candidature.
Remplissez le formulaire de candidature en n’oubliant pas de détailler votre parcours et d’indiquer votre profil LinkedIn. On vous répond sous 48 heures.
Entretien téléphonique.
Vous recevez un e-mail afin de programmer un entretien téléphonique avec l’un des membres de notre équipe. Cet entretien a pour objectif de déterminer si notre formation est compatible avec votre projet professionnel et susceptible de répondre à vos attentes.
Présélection.
Notre formation est accessible sans connaissances techniques mais nous vous demandons d’effectuer un travail de sélection afin de nous assurer que vous serez en mesure de suivre le rythme.
Formalités administratives.
Nous vous envoyons votre contrat de formation et vous accompagnons dans la réalisation de vos démarches auprès d’éventuels financeurs publics ou privés.
Préparation.
Afin de tirer un maximum de bénéfices de notre formation, nous vous demandons de vous préparer en effectuant un travail en ligne. Nous vous aidons également à configurer votre ordinateur pour qu’il soit pleinement opérationnel pour suivre la formation.
Intégrez le bootcamp.
Félicitations, vous mettez un premier pas dans le monde de la Data. Vous êtes désormais entre nos mains pour 10 semaines intenses et passionnantes !
Le programme détaillé de la formation.
Notre formation intensive d’une durée de 400 heures est la plus complète du marché en data science et intelligence artificielle.
Le curriculum a été élaboré pour satisfaire les attentes réelles des entreprises et vous fournir tous les outils nécessaires pour répondre à des problématiques data.
Prep Work (40 heures)
Pour démarrer dans les meilleures conditions, il est nécessaire de s’échauffer. Nos étudiants doivent réaliser un travail préparatoire en ligne avant le début de la formation. Ce travail met l’accent sur l’apprentissage des bases en Python et quelques concepts mathématiques utiles. Les notions seront revues pendant la formation et d’autant mieux assimilées que vous y réfléchissez en amont.
Python Programming (1 semaine)
Fondamentaux Python
Découvrez le langage de référence en data science, utilisé par les leaders de l’industrie. Écrivez des scripts respectueux de la convention PEP8, manipulez les différents types et structures de données, maîtrisez le flux de vos programmes, et structurez votre code avec des fonctions et classes.
Développement logiciel
Travaillez sur votre ordinateur avec les outils et les méthodes utilisés par les développeurs. Apprenez à vous servir de la ligne de commande et exploitez sa puissance en découvrant le shell scripting. Prototypez vos scripts dans un Jupyter Notebook ou un Google Colab avant d’organiser votre programme dans un éditeur de texte. Devenez familier avec le versionnage de votre code sous git et travaillez collaborativement sous GitHub.
Collecte de données
Découvrez les meilleures stratégies pour récupérer la donnée partout où elle se trouve. Parsez des données depuis des principaux formats de fichiers structurés (csv, json, xls, xml). Connectez-vous à des API et devenez des pros du scrapping de pages web grâce aux librairies BeautifulSoup, Selenium et Scrapy. Votre premier projet consistera à utiliser ces techniques pour créer un nouveau jeu de données et le sauvegarder dans une base de données.
Data analysis (1.5 semaine)
Analyse de données
Exploiter vos données avec les librairies NumPy et Pandas et apprenez à conduire méthodiquement une analyse exploratoire de données. Posez les fondations mathématiques nécessaires en probabilités, statistiques et calcul matriciel pour préparer vos jeux de données intelligemment en fonction du problème concret à résoudre. Votre second projet consistera à réaliser une analyse complète d’un jeu de données réelles que vous aurez traité, nettoyé et visualisé !
Visualisation de données
Faites parler vos données en élaborant des représentations graphiques pertinentes grâce aux nombreuses librairies Python. Adoptez le réflexe graphique avec Matplotlib et Seaborn puis affûtez vos compétences en réalisant des visualisations interactives avec Bokeh ou des cartes dynamiques avec Folium.
Conception de dashboards
Exploitez la puissance des librairies Dash et Plotly pour réaliser de magnifiques dashboards en Python, entièrement customisables, interactifs et mis-à-jour en temps réel. Montrez-les à vos amis en les déployant en live sur le web avec Heroku.
Outils de business intelligence
Initiez-vous aux outils analytiques Power BI et Tableau, qui sont les deux principales références dans l’industrie des logiciels de veille économique. Il ne s’agit pas de programmation mais ces deux logiciels sont tellement populaires en entreprise qu’il est indispensable d’apprendre à les utiliser.
Machine Learning (2.5 semaines)
Apprentissage supervisé
Entrez dans le monde de l’apprentissage machine avec Scikit-learn, la référence made in France (cocorico) ! Familiarisez-vous avec les principales familles d’algorithmes prédictifs pour effectuer des tâches de classification ou de régression sur données labellisées : KNN, SVM, Naïve Bayes, régresseurs, arbres de décision. Optimisez vos performances avec des modèles ensemblistes comme le Gradient Boosting ou les Random Forest.
Apprentissage non supervisé
Passez ensuite aux techniques non supervisées comme l’analyse en composante principale (PCA) pour réduire les dimensions de votre jeu de données ou le clustering pour segmenter automatiquement votre jeu de données en différents groupes. Découvrez des modèles avancés de clustering hiérarchique, d’apprentissage par association et de détection d’anomalies.
Evaluation et optimisation des modèles
Comprenez en profondeur toutes les étapes indispensables à la résolution d’un problème de machine learning : preprocessing des données, feature engineering, métriques d’évaluation, stratification des données et cross-validation, optimisation des hyperparamètres, compromis biais-variance, régularisation de l’overfitting. Apprenez à gérer des jeux de données non balancés par des techniques d’amplification ou de synthèse. Automatisez toutes ces étapes dans des pipelines avec des encodeurs et des transformeurs.
Applications business
Mettez en pratique vos nouvelles connaissances en vous attaquant à quatre projets orientés business : prédiction de séries temporelles, conception d’un moteur de recommandations, segmentation client et customer churn, détection de fraude.
Natural Language Processing (1 semaine)
Text processing
Posez les bases de l’analyse de texte : tokenisation, n-gram, stemming, lemmatisation, bag of words, TF-IDF, POS tagging et dependency parsing. Familiarisez-vous avec les librairies de traitement du langage naturel NLTK et spaCy. Détectez des patterns de textes grâce aux expressions régulières.
Text mining
Découvrez les différentes approches pour extraire de l’information d’un document : identifiez les concepts pertinents en utilisant différents algorithmes de topic modelling, fouillez le texte avec des techniques de reconnaissance d’entités nommées (NER) et maîtrisez les différentes méthodes d’analyse de sentiments.
Word Embeddings
Manipulez les principaux word embeddings comme Glove, FastText et Word2Vec : comprenez les techniques d’entraînement (skip-gram, CBOW), assimilez les techniques de visualisation (t-sne) et détectez leurs biais afin de les utiliser à bon escient. Utilisez toute leur puissance dans un projet de détection de trolls sur les forums.
Chatbot
Combinez les différentes techniques pour fabriquer votre propre chatbot dans un projet complet, qui vous conduira jusqu’à son déploiement et son intégration dans Facebook Messenger. Une fois ces concepts assimilés, optez pour la solution de facilité avec l’API Dialogflow.
Data engineering (2 semaines)
Bases de données
Apprenez à créer et requêter des bases de données relationnelles avec le langage SQL. Connectez votre base de données à votre script Python en utilisant un Object relational mapper (ORM) comme SQLAlchemy. Prenez en main les différents types de bases de données NoSQL (documents, clé-valeur, colonnes, graphes) et leurs systèmes de gestion.
Mise en production
Passez du prototype au code de production avec de bonnes pratiques de versionnage sémantique et d’environnements virtuels. Gérez le cycle de vie de votre modèle de machine learning avec MLflow. Exposez votre code dans des packages Python, mettez en place des tests de non régression et un processus d’intégration continue. Déployez vos modèles en créant vos propres APIs avec Flask et FastAPI puis mettez-les en ligne dans le cloud.
Cloud Computing
Prenez en main les principales plateformes cloud, notamment AWS et GCP, pour stocker, héberger, calculer et déployer. Construisez des conteneurs Docker pour vos modèles et orchestrez leur déploiement et leur montée en charge avec Kubernetes. Mettez en place un processus ETL robuste avec Airflow pour extraire, preprocesser et stocker votre donnée.
Big Data
Changez de dimension en passant à de très grands volumes de données et aux architectures distribuées. Familiarisez-vous avec Hadoop, MapReduce et HDFS avant de découvrir toute la puissance de Spark, via son API Python mais également en vous initiant au langage Scala.
Deep Learning (2 semaines)
Réseaux de neurones
Construisez vos premiers réseaux de neurones à plusieurs couches pour vous familiariser avec leur fonctionnement (propagation forward et backward), leurs paramètres (fonction d’activation, fonction de coût, optimizer), leur apprentissage (epochs, batchsize, learning rate) et leur régularisation (dropout, early stopping, data augmentation). Construisez des architectures complexes en quelques lignes de code grâce aux librairies Tensorflow/Keras et PyTorch.
Computer Vision
Utilisez la puissance des réseaux de neurones convolutifs (CNN) pour gérer l’information spatiale contenue dans les images. Pour obtenir de bonnes performances, familiarisez-vous avec les techniques de preprocessing d’images. Initiez-vous au transfer learning pour exploiter les CNN publiés par les plus grandes entreprises technologiques et entraînez-les sur vos propres données. Passez à des applications pratiques avec des projets de détection d’objets (YOLO) et de reconnaissance faciale (OpenCV).
Natural Language Understanding
Franchissez un cap dans la compréhension automatisée du langage naturel en vous appuyant sur des architectures de deep learning. Entraînez vos premiers réseaux de neurones récurrents (RNN) pour apprendre à traiter l’information séquentielle, puis améliorez vos performances en gérant les dépendances à long-terme grâce à des réseaux LSTM et GRU. Atteignez le sommet de l’art en découvrant les mécanismes d’attention et les transformers, notamment pour les tâches de machine translation et natural language generation, et familiarisez-vous avec les meilleurs modèles entraînés (GPT-3, BERT, RoBERTa, Switch-C).
Deep Generative Models
Découvrez les autoencodeurs variationnels (VAE) et les réseaux antagonistes génératifs (GAN), considérés comme le développement le plus intéressant des dix dernières années en machine learning. Ils ont été popularisés par les deep fake sur les réseaux sociaux. Vous apprendrez à les construire et les mettrez en pratique dans un projet de génération de visages.
Projet final
Mettez en pratique tout le savoir-faire acquis dans un projet final, à réaliser seul ou en groupe. Ce projet est débuté pendant la formation et réalisé au fil de l’eau. A la fin des dix semaines de formation, vous disposez de deux semaines en autonomie pour le finaliser et tirer profit des derniers cours. Vous pouvez travailler sur ce projet à distance ou dans nos locaux, et nos enseignants restent disponibles pour vous aider. Un demo day privé de restitution est organisé devant l’ensemble de la promotion et des anciens.
Une journée type de formation.
Nos journées sont organisées pour faciliter votre apprentissage et votre progression.
COURS
9:00 - 10:30Cours
Après un bon café, on démarre par un cours portant sur le thème du jour. Pas de slides ni de grandes explications théoriques : nos cours sont totalement orientés pratique, le prof écrit son code directement avec vous.
CHALLENGES
10:30 - 16:00Challenges
A vous de jouer ! Pour chaque journée, nous avons conçu une série d’exercices de difficulté croissante. Vous travaillez directement sur votre machine et en binôme afin de vous familiariser avec le peer programming. Nos profs et assistants sont là pour vous aider et répondre à vos questions.
PROJET
16:00 - 17:00Projet
Tout au long de la formation, vous travaillez sur un projet « fil rouge » que vous présenterez lors du demo day final. C’est l’occasion de vous changer les idées et de consolider vos acquis des journées précédentes.
LIVE PROGRAMMING
17:00 - 18:00Live Programming
Retour en format classe avec le prof pour travailler ensemble sur les exercices qui ont posé des difficultés ou explorer de nouvelles techniques.
RÉVISIONS
18:00 - 19:00Révisions
Une fois la journée terminée, vous pouvez rester dans nos locaux pour réviser avec nos outils d’autoévaluation. Une étape importante pour bien assimiler vos nouvelles connaissances !
EVÉNEMENTS
19:00 - 21:00Evénements
Pour trouver de l’inspiration, de la motivation, des contacts, des conseils techniques, on vous propose des événements data organisés par nos soins ou des meetup intéressants.
Ils recrutent nos diplômés.
Ce que sont devenus nos élèves.
A l’issue du programme, munis des compétences recherchées par de nombreuses entreprises de la tech et du digital, nos élèves sont recrutés en CDI par les meilleures entreprises.
Les bonus Artefact pour votre carrière.

Une insertion professionnelle réussie.
Le recrutement Artefact : dans chaque promotion formée, des apprenants seront recrutés et intégrés directement comme juniors au sein des équipes d’Artefact.
Le réseau Artefact : grâce à notre réseau d’entreprises partenaires, nous vous orientons vers le métier, le parcours, le secteur voire l’entreprise qui conviennent le mieux à vos aspirations.
Le diplôme Artefact : un vrai gage de qualité sur le marché de la data.
Le savoir-faire réputé d’Artefact.
La pédagogie Artefact : nos consultants et managers sont directement impliqués dans la formation et vous transmettent les meilleures pratiques du moment.
La veille Artefact : votre programme de formation est constamment ajusté pour tenir compte des outils et besoins constatés sur le marché par nos experts.
La pratique Artefact : vos projets et exercices seront directement inspirés de cas réels rencontrés par nos professionnels métiers.
Le quotidien Artefact : votre formation a lieu dans les locaux d’Artefact et vous pouvez quotidiennement échanger avec nos équipes autour d’un café ou d’un déjeuner, afin de renforcer les liens et les transferts d’expérience.
