Logo fr.boatexistence.com

Quel est k plus proche voisin ?

Table des matières:

Quel est k plus proche voisin ?
Quel est k plus proche voisin ?

Vidéo: Quel est k plus proche voisin ?

Vidéo: Quel est k plus proche voisin ?
Vidéo: Comprendre K-NN (K plus proches voisins )- Exemple Pratique -Machine learning 2024, Peut
Anonim

En statistique, l'algorithme des k plus proches voisins est une méthode de classification non paramétrique développée pour la première fois par Evelyn Fix et Joseph Hodges en 1951, puis étendue par Thomas Cover. Il est utilisé pour la classification et la régression. Dans les deux cas, l'entrée consiste en les k exemples d'apprentissage les plus proches dans un ensemble de données.

Comment fonctionne K plus proche voisin ?

KNN fonctionne en trouver les distances entre une requête et tous les exemples dans les données, en sélectionnant le nombre d'exemples spécifié (K) le plus proche de la requête, puis vote pour le plus étiquette fréquente (en cas de classification) ou moyenne des étiquettes (en cas de régression).

Qu'entend-on par l'algorithme K Nearest Neighbor ?

K Nearest Neighbor est un algorithme simple qui stocke tous les cas disponibles et classe les nouvelles données ou cas en fonction d'une mesure de similarité. Il est principalement utilisé pour classer un point de données en fonction de la façon dont ses voisins sont classés.

Qu'est-ce que l'apprentissage automatique K Nearest Neighbor ?

K-Nearest Neighbor est l'un des algorithmes d'apprentissage automatique les plus simples basés sur la technique d'apprentissage supervisé L'algorithme K-NN suppose la similitude entre le nouveau cas/les nouvelles données et les cas disponibles et met le nouveau cas dans la catégorie la plus similaire aux catégories disponibles.

Quel est l'avantage du K plus proche voisin ?

Il stocke l'ensemble de données d'entraînement et n'en apprend qu'au moment de faire des prédictions en temps réel. Cela rend l'algorithme KNN beaucoup plus rapide que d'autres algorithmes qui nécessitent une formation, par ex. SVM, régression linéaire, etc.

Conseillé: