Qu'est-ce que Accuracy_score ?
Qu'est-ce que Accuracy_score ?

Vidéo: Qu'est-ce que Accuracy_score ?

Vidéo: Qu'est-ce que Accuracy_score ?
Vidéo: Choix du modèle et des hyperparamètres [SciKit-Learn 6] 2024, Novembre
Anonim

score_précision (y_true, y_pred, normalize=True, sample_weight=None)[source] Score de classification de précision. Dans la classification multilabel, cette fonction calcule la précision du sous-ensemble: l'ensemble d'étiquettes prédit pour un échantillon doit correspondre exactement à l'ensemble d'étiquettes correspondant dans y_true.

Ensuite, comment le score de précision est-il calculé ?

Classification Précision . Classification précision est notre point de départ. C'est le nombre de prédictions correctes faites divisé par le nombre total de prédictions faites, multiplié par 100 pour le transformer en pourcentage.

A côté de ci-dessus, qu'est-ce que Y_pred ? C'est une conversion du tableau numpy y_train en un tenseur. Le tenseur y_pred sont les données prédites (calculées, sorties) par votre modèle. Habituellement, y_true et y_pred ont exactement la même forme. Quelques-unes des pertes, telles que les rares, peuvent les accepter avec des formes différentes.

Aussi, qu'est-ce que Neg_mean_squared_error ?

Tous les objets scorer suivent la convention selon laquelle les valeurs de retour plus élevées sont meilleures que les valeurs de retour plus faibles. Ainsi des métriques qui mesurent la distance entre le modèle et les données, comme les métriques. Mean_squared_error, sont disponibles en tant que neg_mean_squared_error qui renvoient la valeur négative de la métrique.

Qu'est-ce que Classification_report ?

Rapport de classement . Les rapports de classification visuelle sont utilisés pour comparer les modèles de classification à des modèles sélectionnés qui sont « plus rouges », par ex. ont des métriques de classification plus fortes ou qui sont plus équilibrées. Les métriques sont définies en termes de vrais et faux positifs, et de vrais et faux négatifs.

Conseillé: