L'algorithme K-Means
L'algorithme K-means peut converger vers un optimum local, ce qui signifie qu'il peut être sensible au choix initial des centroïdes et ainsi converger vers une solution sous-optimale. Pour résoudre ce problème, il est essentiel de sélectionner judicieusement les points de départ des centroïdes, ce qui peut être réalisé par un choix réfléchi, par des tentatives multiples pour tirer parti de la chance, ou même par une exploration exhaustive de différentes initialisations. De plus, le nombre de clusters à spécifier dans l'algorithme K-means est une décision cruciale qui dépend de la granularité souhaitée pour l'analyse. Ce paramètre influencera directement la manière dont les données seront regroupées et interprétées.
​
Visualisation d'une segmentation K-Means réussi :

@Le guide en sciences de données
Algorithme :

Minibatch K-Means :
Pour gérer efficacement de grands ensembles de données tout en conservant des performances acceptables, une approche courante consiste à utiliser des mini-lots aléatoires de taille fixe. Cette méthode permet de stocker en mémoire des sous-ensembles gérables de données tout en réduisant la charge computationnelle. À chaque itération de l'algorithme, un nouvel échantillon aléatoire est sélectionné à partir de l'ensemble de données complet, puis les clusters sont mis à jour en fonction de cet échantillon. Ce processus est répété itérativement jusqu'à ce qu'une convergence satisfaisante soit atteinte, c'est-à-dire que les centroids des clusters ne changent plus significativement entre les itérations. En utilisant cette approche, l'algorithme peut traiter des volumes importants de données tout en conservant une efficacité computationnelle et en offrant une capacité de mise à jour dynamique des clusters.
​