kmeansklearn.py 2.1 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566
  1. # https://pythonru.com/uroki/sklearn-kmeans-i-knn
  2. # https://gitlab.com/PythonRu/notebooks/-/blob/master/classified_data.csv
  3. import numpy as np
  4. import pandas as pd
  5. import matplotlib.pyplot as plt
  6. import seaborn as sns
  7. from sklearn.preprocessing import StandardScaler
  8. from sklearn.model_selection import train_test_split
  9. from sklearn.neighbors import KNeighborsClassifier
  10. from sklearn.metrics import classification_report
  11. from sklearn.metrics import confusion_matrix
  12. raw_data = pd.read_csv('classified_data.csv')
  13. raw_data = pd.read_csv('classified_data.csv', index_col = 0)
  14. print(raw_data.head())
  15. scaler = StandardScaler()
  16. scaler.fit(raw_data.drop('TARGET CLASS', axis=1))
  17. scaled_features = scaler.transform(raw_data.drop('TARGET CLASS', axis=1))
  18. scaled_data = pd.DataFrame(scaled_features, columns = raw_data.drop('TARGET CLASS', axis=1).columns)
  19. x = scaled_data
  20. y = raw_data['TARGET CLASS']
  21. x_training_data, x_test_data, y_training_data, y_test_data = train_test_split(x, y, test_size = 0.3)
  22. model = KNeighborsClassifier(n_neighbors = 1)
  23. model.fit(x_training_data, y_training_data)
  24. predictions = model.predict(x_test_data)
  25. print(predictions)
  26. print(classification_report(y_test_data, predictions))
  27. print(confusion_matrix(y_test_data, predictions))
  28. # Вывод:
  29. # [[134 14]
  30. # [ 12 140]]
  31. '''
  32. Выбор оптимального значения для K с помощью метода «Локтя»
  33. '''
  34. error_rates = []
  35. for i in np.arange(1, 101):
  36. new_model = KNeighborsClassifier(n_neighbors = i)
  37. new_model.fit(x_training_data, y_training_data)
  38. new_predictions = new_model.predict(x_test_data)
  39. error_rates.append(np.mean(new_predictions != y_test_data))
  40. plt.plot(error_rates)
  41. plt.grid()
  42. plt.show()
  43. '''
  44. Как видно из графика, мы достигаем минимальной частоты ошибок при значении K,
  45. равном приблизительно 35. Это означает, что 35 является подходящим выбором для K,
  46. который сочетает в себе простоту и точность предсказаний.
  47. '''