heart-kmeansklearn.py 2.3 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475
  1. # https://pythonru.com/uroki/sklearn-kmeans-i-knn
  2. # https://gitlab.com/PythonRu/notebooks/-/blob/master/classified_data.csv
  3. import numpy as np
  4. import pandas as pd
  5. import matplotlib.pyplot as plt
  6. import seaborn as sns
  7. from sklearn.preprocessing import StandardScaler
  8. from sklearn.model_selection import train_test_split
  9. from sklearn.neighbors import KNeighborsClassifier
  10. from sklearn.metrics import classification_report
  11. from sklearn.metrics import confusion_matrix
  12. raw_data = pd.read_csv('hearz.csv')
  13. print(raw_data.head())
  14. y = raw_data['target']
  15. raw_data = raw_data.drop(["thal", "target"], axis = 1)
  16. print(raw_data.head())
  17. scaler = StandardScaler()
  18. scaler.fit(raw_data)
  19. scaled_features = scaler.transform(raw_data)
  20. scaled_data = pd.DataFrame(scaled_features, columns = raw_data.columns)
  21. x = scaled_data
  22. x_training_data, x_test_data, y_training_data, y_test_data = train_test_split(x, y, test_size = 0.3)
  23. model = KNeighborsClassifier(n_neighbors = 1)
  24. model.fit(x_training_data, y_training_data)
  25. predictions = model.predict(x_test_data)
  26. print(predictions)
  27. print(classification_report(y_test_data, predictions))
  28. print(confusion_matrix(y_test_data, predictions))
  29. # # Вывод:
  30. # # [[56 7]
  31. # # [11 17]]
  32. # '''
  33. # Выбор оптимального значения для K с помощью метода «Локтя»
  34. # '''
  35. error_rates = []
  36. for i in np.arange(1, 101):
  37. new_model = KNeighborsClassifier(n_neighbors = i)
  38. new_model.fit(x_training_data, y_training_data)
  39. new_predictions = new_model.predict(x_test_data)
  40. error_rates.append(np.mean(new_predictions != y_test_data))
  41. plt.plot(error_rates)
  42. plt.grid()
  43. plt.show()
  44. # '''
  45. # Как видно из графика, мы достигаем минимальной частоты ошибок при значении K,
  46. # равном приблизительно 15. Это означает, что 35 является подходящим выбором для K,
  47. # который сочетает в себе простоту и точность предсказаний.
  48. # '''
  49. model = KNeighborsClassifier(n_neighbors = 15)
  50. model.fit(x_training_data, y_training_data)
  51. predictions = model.predict(x_test_data)
  52. print(predictions)
  53. print(classification_report(y_test_data, predictions))
  54. print(confusion_matrix(y_test_data, predictions))