@@ -95,31 +95,31 @@ Lors de ce rendu, différentes analyses ont pu être effectuées sur les dataset
...
@@ -95,31 +95,31 @@ Lors de ce rendu, différentes analyses ont pu être effectuées sur les dataset
### Evaluator block
### Evaluator block
-evaluator.ipynb
evaluator.ipynb
Importation des Packages et des Modules : Les packages model_selection et accuracy de Surprise ont été importés pour effectuer une validation croisée et utiliser des métriques prédéfinies pour l'évaluation des modèles.
Importation des Packages et des Modules : Les packages model_selection et accuracy de Surprise ont été importés pour effectuer une validation croisée et utiliser des métriques prédéfinies pour l'évaluation des modèles.
Adaptation des Chargeurs (Loaders) : Une fonction load_ratings() a été modifiée pour permettre le chargement de données dans un format compatible avec Surprise. Un argument surprise_format a été ajouté pour conditionner le chargement en un objet Dataset compatible Surprise à partir d'un DataFrame Pandas.
Adaptation des Chargeurs (Loaders) : Une fonction load_ratings() a été modifiée pour permettre le chargement de données dans un format compatible avec Surprise. Un argument surprise_format a été ajouté pour conditionner le chargement en un objet Dataset compatible Surprise à partir d'un DataFrame Pandas.
Validation Croisée (Crossvalidation) :
Validation Croisée (Crossvalidation) :
Trois méthodes d'évaluation ont été mises en œuvre :
Trois méthodes d'évaluation ont été mises en œuvre :
generate_split_predictions(): Cette fonction divise l'ensemble de données en un ensemble d'entraînement et un ensemble de test en utilisant train_test_split de Surprise.
generate_split_predictions(): Cette fonction divise l'ensemble de données en un ensemble d'entraînement et un ensemble de test en utilisant train_test_split de Surprise.
generate_loo_top_n(): Ici, un processus "leave-one-out" (Laisser un élément de côté) est utilisé pour générer des recommandations top-N et évaluer les performances du modèle.
generate_loo_top_n(): Ici, un processus "leave-one-out" (Laisser un élément de côté) est utilisé pour générer des recommandations top-N et évaluer les performances du modèle.
generate_full_top_n(): Cette fonction utilise l'ensemble complet de données pour générer des recommandations top-N sans division.
generate_full_top_n(): Cette fonction utilise l'ensemble complet de données pour générer des recommandations top-N sans division.
Nouvelles Métriques d'Évaluation : Trois nouvelles métriques ont été ajoutées pour évaluer les modèles de recommandation :
Nouvelles Métriques d'Évaluation : Trois nouvelles métriques ont été ajoutées pour évaluer les modèles de recommandation :
rmse (split type): Racine carrée de l'erreur quadratique moyenne pour évaluer les prédictions.
rmse (split type): Racine carrée de l'erreur quadratique moyenne pour évaluer les prédictions.
hit rate (loo type): Taux de succès mesurant le pourcentage d'utilisateurs pour lesquels l'un des films recommandés est celui qu'ils ont noté dans l'ensemble de test.
hit rate (loo type): Taux de succès mesurant le pourcentage d'utilisateurs pour lesquels l'un des films recommandés est celui qu'ils ont noté dans l'ensemble de test.
novelty (full type): Mesure de la nouveauté des recommandations en fonction de la popularité des films recommandés.
novelty (full type): Mesure de la nouveauté des recommandations en fonction de la popularité des films recommandés.
Exportation du Rapport d'Évaluation : Une fonction export_evaluation_report() a été mise en œuvre pour exporter le rapport d'évaluation vers un fichier CSV dans un répertoire spécifié.
Exportation du Rapport d'Évaluation : Une fonction export_evaluation_report() a été mise en œuvre pour exporter le rapport d'évaluation vers un fichier CSV dans un répertoire spécifié.