import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sbn
from sklearn.model_selection import train_test_split,GridSearchCV
from sklearn.preprocessing import StandardScaler
from sklearn.neighbors import KNeighborsClassifier
# 使用pandas读取csv格式的文件
'''
数据量过多,使用数据过多会计算较慢,所以使用较少数据进行学习
'''
trainData=pd.read_csv("train.csv")
# 使用 query 查询出部分数据 71664
trainData = trainData.query("x>2.0 & x<2.5 & y>2.0 &y<2.5")
# 去掉出现次数较少的place 使用group分组
# 统计出出现的次数
trainDatacount=trainData.groupby("place_id").count()
# 选择出出现次数大于3的t
trainDatacount= trainDatacount[trainDatacount["row_id"]>3]
#将低于3的地方清理掉
trainData = trainData[trainData["place_id"].isin(trainDatacount.index)]
#数据处理是关键
#修改时间 将绝对时间改变为可以使用的时间----进行训练时可以使用到时间
time=pd.to_datetime(trainData["time"],unit="s")
time=pd.DatetimeIndex(time)
trainData["day"]=time.day
trainData["hour"]=time.hour
trainData["weekday"]=time.weekday
# 确定特征值和目标值
x = trainData[["x","y","accuracy","hour","day","weekday"]]
y = trainData["place_id"]
# 划分训练集和测试集 使用 sklearn.model_selection import train_test_split
x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=20,train_size=0.25)
# 特征处理
#实例化转换器----将数据标准化或者归一化
transfer=StandardScaler()
# 将数据标准化
x_train=transfer.fit_transform(x_train)
x_test=transfer.transform(x_test)
# 进行模型训练
# 实例化一个模型对象
estimator = KNeighborsClassifier()
# 网格搜索,选出结果最好的参数
param_grid={"n_neighbors":[1,3,5,7,9]}
estimator= GridSearchCV(estimator,param_grid=param_grid,cv=10,n_jobs=-1)
# 模型训练
estimator.fit(x_train,y_train)
# 模型评估
print(estimator.best_estimator_)
print(estimator.best_params_)
print(estimator.best_score_)
print(estimator.predict(x_test))
机器学习---facebook的案例学习
我叫小邋遢2023-08-12 10:03
相关推荐
@心都14 分钟前
机器学习数学基础:29.t检验9命怪猫16 分钟前
DeepSeek底层揭秘——微调kcarly2 小时前
KTransformers如何通过内核级优化、多GPU并行策略和稀疏注意力等技术显著加速大语言模型的推理速度?倒霉蛋小马3 小时前
【YOLOv8】损失函数MinIO官方账号3 小时前
使用 AIStor 和 OpenSearch 增强搜索功能补三补四3 小时前
金融时间序列【量化理论】江江江江江江江江江4 小时前
深度神经网络终极指南:从数学本质到工业级实现(附Keras版本代码)Fansv5874 小时前
深度学习-2.机械学习基础小怪兽会微笑4 小时前
PyTorch Tensor 形状变化操作详解Erekys4 小时前
视觉分析之边缘检测算法