Deux mini projets sont prévus
Lire le sujet du Projet 1
Rappels : notebook databricks du TP1, PUBLIC_DATASET, channel BDLE
Date de remise : déposer dans moodle une première version non définitive de votre projet le vendredi 23/10/2020 avant 8:30. Vous pourrez ensuite déposer une version finale jusqu’au jeudi 29/10/2020.
Pour la remise finale, les sections #Tache1 à #Tache4 doivent apparaitre très clairement dans le notebook comme titre de premier niveau. Commencer chaque section de tâche par quelques lignes résumant ce que vous avez réussi à faire. Ajouter votre NOM Prénom dans la première cellule du notebook
Fournir ceci dans la remise:
Projet terminé. Voir les éléments de solution dans Moodle.
Le notebook des réponses devra contenir les informations suivantes :
Rendre
Date de remise : à partir du 10-12-2020 jusqu'au 20-12-2020 23h59 sur Moodle
Le sujet traité est la réalisation d’un pipeline ML pour entrainer un arbre de décision pour la *régression* à l’aide de l'API Spark ML décrite en cours, Le langage utilisé est Scala. L'objectif principal est d'être confronté à des problématiques réelles rencontrées lorsqu'on traite des données “brutes”. Vous être libre d'utiliser le dataset de votre choix dont la taille sera entre 10 MB et 50 MB. Ce dataset devra mixer entre valeurs textuelles et numériques. Vous pouvez également extraire un echantillon d'un dataset volumineux si besoin.
Les critères du dernier point seront définis en vous appuyant sur votre compréhension des données ou sur des indications fournies par l'auteur des données (ex. les données fournies dans le cadre d'un challenge sont souvent accompagnées de suggestions des participants).
Créer un pipeline pour encoder les features comme vu en cours : indexation des string, assemblage des vecteurs puis indexation.
Préciser quelles variables donnent lieux à des “catgorical features” et quelles variables donnent lieux à des features continues.
A titre d'exemple, pour un dataset avec des attributs timestamps, envisager une opération roll-up vers le mois ou l'année.
Construire une paire 30%-70% de jeux de test et d'entrainement.
Lancer l'entrainement de l'arbre de décision puis afficher ses paramètres.
Analyser les métriques RMSE et MAE et donner votre impression sur la qualité du modèle.
Mettre en place une cross validation avec 3 folds, et y inclure un grid search avec un ensemble de paramètres qui vous semblent pertinents.
Afficher pour le meilleur modèle sélectionné :
Dans une tentative d’améliorer la précision :
Relancer la cross validation avec le dataset nettoyé et constater les nouvelles valeurs des métriques.
Donner succinctement votre avis sur la libraire ML : difficultés rencontrées, aspects appréciés, facilité d'utilisation par rapport à d'autres librairies plus familières .