sklearn 机器学习基本用法

python 复制代码
# # 科学计算模块
# import numpy as np
# import pandas as pd
# # 绘图模块
# import matplotlib as mpl
# import matplotlib.pyplot as plt
# from sklearn.linear_model import LinearRegression
# from sklearn import datasets
# from sklearn.model_selection import train_test_split
# from sklearn.neighbors import KNeighborsClassifier
# from sklearn import preprocessing
# from sklearn.svm import SVC
# #栾尾花数据预测
# # X,y = datasets.load_iris(return_X_y=True)
# # x_train ,x_test,y_train,y_test=train_test_split(X,y,test_size=0.3)
# # knn=KNeighborsClassifier()
# # knn.fit(x_train,y_train)
# # print(knn.predict(x_test))
# # print(y_test)
# #knn.coef_   斜率
# #knn.intercept_ 截距      y=0.3x+6
# 
# #datasets 自定义数据
# # X,y = datasets.make_regression(n_samples=100,n_features=2,n_targets=2,noise=2)
# # plt.scatter(X,y)
# # plt.show()
# 
# #标准数字化
# # X,y=datasets.make_classification(n_samples=300,n_features=2,n_redundant=0,n_informative=2,random_state=22,n_clusters_per_class=1,scale=100)
# # # sp=np.array(X).shape
# # print(np.array(y).shape)
# # # plt.scatter(X[:,0],X[:,1],c=y)
# # # plt.show()
# # X=preprocessing.scale(X)  #因为数据差距比较大,此处将数据标准化,可增加预测相似度
# # x_train,x_test,y_train,y_test=train_test_split(X,y,test_size=0.3)
# # clf=SVC()
# # clf.fit(x_train,y_train)
# # print(clf.score(x_test,y_test))  #评估预测集,与预测集的相似度,相当于predict 与 y_test 对比度
# 
# 
# #栾尾花数据交叉验证
# from sklearn.model_selection import cross_val_score     #交叉验证可选择好用的model ,参数等等
# X,y = datasets.load_iris(return_X_y=True)
# x_train ,x_test,y_train,y_test=train_test_split(X,y,test_size=0.3)
# # knn=KNeighborsClassifier(n_neighbors=5)
# # scores=cross_val_score(knn,X,y,cv=5,scoring='accuracy')
# # print(scores.mean())    #此处是将数据分成5组取出5组的概率,最后取均值
# 
# #此处判断k值在什么区间这个概率较大
# # k_range=range(2,31)
# # k_scores=[]
# # for k in k_range:
# #     knn = KNeighborsClassifier(n_neighbors=k)
# #     #scores = cross_val_score(knn, X, y, cv=10, scoring='accuracy') #for classfication   选择概率大的
#     # loss = -cross_val_score(knn, X, y, cv=10, scoring='mean_squared_error') #for regression 选择误差小的
#     # k_scores.append(scores.mean())
# #
# # plt.plot(k_range,k_scores)
# # plt.show()
# 
# import pickle
# #保存读取model.fit() 数据
# clf=SVC()
# iris=datasets.load_iris()
# X,y=iris.data,iris.target
# clf.fit(X,y)
# #
# # # pickle.dump()
# # with open('./model_iris' ,'wb') as ff:
# #     pickle.dump(clf, ff)
# #
# # with open('./model_iris', 'rb') as ff:
# #     clf2=pickle.load(ff)
# #     print(clf2.predict([X[0:1]]))
# 
# import joblib
# joblib.dump(clf,'./model_iris')
# clf3=joblib.load('./model_iris')
# print(clf3.predict([X[0:1]]))

学习链接

11 Save_哔哩哔哩_bilibili

相关推荐
风象南1 小时前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶1 小时前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶2 小时前
前端人为什么要学AI?
前端·人工智能·ai编程
哥布林学者3 小时前
高光谱成像(一)高光谱图像
机器学习·高光谱成像
罗西的思考4 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab5 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab5 小时前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯
格砸6 小时前
从入门到辞职|从ChatGPT到OpenClaw,跟上智能时代的进化
前端·人工智能·后端
可观测性用观测云7 小时前
可观测性 4.0:教系统如何思考
人工智能
sunny8657 小时前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github