Bases de Données / Databases

Site Web de l'équipe BD du LIP6 / LIP6 DB Web Site

Outils pour utilisateurs

Outils du site


site:enseignement:master:bdle:tmes:projet2020

Ceci est une ancienne révision du document !


Mini-projets 2020-2021

Deux mini projets sont prévus

Projet 1

Lire le sujet du Projet 1

Rappels : notebook databricks du TP1, PUBLIC_DATASET, channel BDLE

Date de remise : déposer dans moodle une première version non définitive de votre projet le vendredi 23/10/2020 avant 8:30. Vous pourrez ensuite déposer une version finale jusqu’au jeudi 29/10/2020.

Pour la remise finale, les sections #Tache1 à #Tache4 doivent apparaitre très clairement dans le notebook comme titre de premier niveau. Commencer chaque section de tâche par quelques lignes résumant ce que vous avez réussi à faire. Ajouter votre NOM Prénom dans la première cellule du notebook

Fournir ceci dans la remise:

  • l'URL databricks de votre notebook
  • les export du notebook aux formats HTML et ipynb

Projet terminé. Voir les éléments de solution dans Moodle.

Projet 2

en construction …

rajouter notebook et trame réponses

Modalités

Rendre un lien vers un notebook Databricks + petit compte-rendu (suivant trame)

Date de remise : 10-12-2020

Le sujet traité est la réalisation d’un pipeline ML pour entrainer un arbre de décision pour la *régression* à l’aide de l'API Spark ML décrite en cours, L'objectif principal est d'être confronté à des problématiques réelles rencontrées lorsqu'on traite des données “brutes”. Vous être libre d'utiliser le dataset de votre choix dont la taille sera entre 10 MB et 50 MB. Ce dataset devra mixer entre valeurs textuelles et numériques. Vous pouvez également extraire un echantillon d'un dataset volumineux si besoin.

Tache 1

  • Identifier les données manquantes : extraire, pour chaque attribut, sa proportion de valeurs nulles
  • Identifier les valeurs aberrantes en fonction de votre dataset, s'il y en a
  • Sélectionner un sous-ensemble d'attributs pertinents en suivant un ensemble de critères que vous vous fixerez et que vous décrirez.
  • Sélectionner un sous-ensembles des données, si besoin en suivant également des critères qui vous semblent pertinents.

Les critères des deux derniers points seront définis en vous appuyant sur votre compréhension des données ou sur des indications fournies par l'auteur des données (ex. les données fournies dans le cadre d'un challenge sont souvent accompagnées de suggestions des participants)

Tache 2

Créer un pipeline pour encoder les features comme vu en cours : indexation des string, assemblage des vecteurs puis indexation.

Préciser quelles variables seront catgoricielles et quelles variables seront continues

Si besoin, transformation des attributs timestamps vers nombre ou bien extraction de l’année ou du mois.

Construire une paire 30%-70%d de jeux de test et d'entrainement.

Lancer l'entrainement de l'arbre de décision puis afficher ses paramètres.

Analyser les métriques RMSE et MAE et donner votre impression sur la qualité du modèle.

Tache 3

• Itération 1 : • Cross validation avec 3 folds, grid search sur paramètres pertinents • Sélection du meilleur modèle • Analyses des métriques RMSE et MAE si dispo • Iteration 2 : tentative d’amélioration de la précision • Elimination des valeurs aberrantes (si elles existent) • Imputation des valeurs manquantes (utiliser fonctions Spark ML) • Relancer l’inference et constater les nouvelles valeurs des métriques

Tache 4

• Comparer les résultats des deux itérations • Tenter d’expliquer la différence • Avis sur la libraire ML : difficultés rencontrées, aspects appréciés

Divers

site/enseignement/master/bdle/tmes/projet2020.1606237620.txt.gz · Dernière modification: 24/11/2020 18:07 par amine