sklearn

python-码博士11 小时前
人工智能·python·sklearn
关于sklearn中StandardScaler的使用方式在机器学习中经常会使用StandardScaler进行数据归一化,注意一旦调整好StandardScaler以后就保存下来,后面如果进行测试单个时,可以进行加载并对其进行标准化
Jerryhut13 小时前
人工智能·随机森林·sklearn
sklearn函数总结十一 —— 随机森林纯手打,代码整理中,持续更新中^-^序号延用总结十随机森林属于集成学习中的 Bagging 类型。“森林”:由多棵决策树构成的“森林”,最终的预测结果由所有决策树共同决定(例如,通过投票)。
Jerryhut14 小时前
人工智能·决策树·sklearn
sklearn函数总结十 —— 决策树纯手打,代码整理中,持续更新中^-^序号延用总结九目录17、决策树17.1 决策树的结构17.2 决策树的工作原理
Jerryhut1 天前
机器学习·scikit-learn·概率论·sklearn
sklearn函数总结九— 朴素贝叶斯纯手打,代码整理中,持续更新中^-^序号延用总结八目录16、朴素贝叶斯16.1 什么是贝叶斯公式?这些符号是什么意思?
光羽隹衡3 天前
人工智能·线性回归·sklearn
sklearn实现一元线性回归——分析广告投入和销售额的关系pandas是Python中用于数据处理和分析的核心库,提供DataFrame数据结构。常用于数据清洗、转换、统计分析等操作。
python机器学习ML6 天前
人工智能·机器学习·数据挖掘·数据分析·回归·scikit-learn·sklearn
机器学习——因果推断方法的DeepIV和因果森林双重机器学习(CausalForestDML)示例DeepIV 是什么?DeepIV(Deep Instrumental Variables)是一种用于因果推断的计量经济学和机器学习方法。它的核心目标是在存在**内生性(Endogeneity)**问题时,估计处理(Treatment)对结果(Outcome)的因果效应。
python机器学习ML6 天前
人工智能·python·机器学习·数据挖掘·数据分析·scikit-learn·sklearn
EconML实战:使用DeepIV、DROrthoForest与CausalForestDML进行因果推断详解本项目旨在详细解释一系列用于因果推断的Python代码实现。内容面向有一定机器学习基础,但对因果推断领域尚不熟悉的读者。我们将深入探讨代码的每个阶段,解释其背后的原理、目的和具体实现细节。通过本项目,将能够理解这些复杂的因果模型是如何工作的,并具备将其应用于自己数据集的能力。
Keep__Fighting6 天前
人工智能·算法·机器学习·pandas·集成学习·sklearn
【机器学习:集成算法】集成学习: (Ensemble Learning)集成学习是机器学习的一种范式,它的主要思想是使用多个弱学习器来构建一个整体泛化性更强的最终学习器来完成任务,它认为集体的智慧比单个的个体更加的准确、鲁棒。参与组合的模型又叫弱学习器或者基学习器。 集成学习思想分为bagging思想和boosting思想。
Keep__Fighting7 天前
人工智能·python·算法·机器学习·kmeans·聚类·sklearn
【机器学习:K-Means】聚类算法是一类无监督学习方法,旨在将数据划分为若干组(簇),使得同一簇内的样本相似度高,而不同簇间的样本差异大。计算样本之间相似度常用的方式是欧式距离;聚类算法的目的是在没有先验知识的情况下,自动发现数据集中的内在结构和模式。
Jerryhut10 天前
人工智能·python·机器学习·sklearn
sklearn函数总结五——特征降维 压缩数据 - 特征选择纯手打,代码整理中,持续更新中^-^需要延用总结四本节学习特征降维的相关知识点特征降维是机器学习中常用的技术,用于减少特征的数量,同时尽可能保留原始数据的信息。在Scikit learn中,特征降维主要有两种方法:特征选择和特征提取。
Jerryhut10 天前
人工智能·算法·机器学习·scikit-learn·sklearn
sklearn函数总结六——特征降维 压缩数据 - 特征提取(PCA&LDA)纯手打,代码整理中,持续更新中^-^序号延用总结五目录12、主成分分析 (PCA)13、线性判别分析 (LDA)
Jerryhut11 天前
人工智能·python·机器学习·jupyter·sklearn
sklearn函数总结四——归一化和标准化纯手打,代码整理中……序号沿用总结三不同特征可能有不同的量纲和范围(如身高、体重、年龄),归一化使各特征在相同尺度上进行比较, 避免某些特征因数值较大而主导模型。
九千七52612 天前
人工智能·python·学习·决策树·机器学习·sklearn
sklearn学习(6)决策树sklearn的决策树相关在DecisiontreeClassifiter这个函数中,一般决策树节点的选择有两种,其一是基尼指数gini,其二是信息增益entropy,而基尼指数要求越小越好,信息增益越大越好。
九千七52612 天前
人工智能·学习·机器学习·逻辑回归·线性回归·sklearn
sklearn学习(5)线性回归和逻辑回归sklearn的线性回归在LinearRegression类,而逻辑回归在LogisticRegression类
九千七52614 天前
人工智能·学习·机器学习·sklearn·knn·近邻搜索
sklearn学习(4)K近邻(KNN)#K近邻是一种直观和简单的监督学习方法,既可以用在分类任务也可用在回归任务,其主要思想是对于一个新样本计算离它最近的k个样本一般为奇数个,看这k个在哪一类中的数量多,则属于那一类。需要注意的是在进行KNN之前最好对数据进行标准化处理,避免由于量纲导致不利影响。
聊天QQ:1808095116 天前
sklearn
NRBO-BiLSTM-Multihead-Attention分类 基于牛顿拉夫逊优化算法优化...NRBO-BiLSTM-Multihead-Attention分类 基于牛顿拉夫逊优化算法优化双向长短期记忆网络(BiLSTM)结合多头注意力机制(Multihead-Attention)的数据分类预测(可更换为回归/单变量/多变量时序预测,前私),Matlab代码,可直接运行,适合小白新手 无需更改代码替换数据集即可运行 数据格式为excel BiLSTM可以更换为LSTM,GRU(前) 多头注意力(Multi-Head Attention)是一种基于自注意力机制(self-attention)的改进方
九千七52616 天前
人工智能·python·学习·机器学习·sklearn
sklearn学习(3)数据降维(1)特征选择特征选择是只选择一部分特征,常见的方法有:移除低方差法,单变量统计法、基于模型的选择、递归特征消除等方法。
行板Andante1 个月前
人工智能·python·sklearn
AttributeError: ‘super‘ object has no attribute ‘sklearn_tags‘解决根本错误是因为sklearn和其他的包(比如XGBoost)不兼容其他的一些解决方案(比如https://stackoverflow.com/questions/79290968/super-object-has-no-attribute-sklearn-tags以及 https://blog.csdn.net/weixin_46803857/article/details/145213199 )提倡把sklearn降级到1.5.2方便解决问题,但有时并不管用
husterlichf1 个月前
python·逻辑回归·sklearn
逻辑回归以及python(sklearn)详解逻辑回归是一种用于解决二分类问题的统计学习方法,虽然名字中有"回归",但它实际上是一种分类算法。线性回归的公式是 z=wTx+bz = w^T x + bz=wTx+b,其输出值 z 是一个连续的实数。如果我们想用它来做分类(比如判断邮件是“垃圾邮件”还是“非垃圾邮件”),我们需要将连续的输出转换为一个代表概率的值,即介于 0 和 1 之间的值。 逻辑回归的聪明之处在于,它在线性回归的结果上套用了一个激活函数,将这个实数 z 映射到 (0, 1) 区间。这个激活函数就是 Sigmoid 函数,也叫逻辑函数
合作小小程序员小小店1 个月前
python·pycharm·kmeans·聚类·sklearn·kmean
web网页开发,在线%聚类,微博,舆情%系统,基于python,pycharm,django,nlp,kmeans,mysql经验心得帮助客户美女开发在线微博舆情聚类系统时,咱们用PyCharm搭开发环境,Python+Django构 Web框架,MySQL存储爬取的微博数据。流程上先做文本清洗和特征提取,再用KMeans对舆情内容聚类,最后通过Django渲染结果。调试时KMeans的聚类数量,尝试试了多组样本才找到合适参数;NLP处理表情和网络用语时也出过偏差,加了自定义词典才改善。把数据爬取,文本处理,聚类分析,Web 展示串成链路后,看着相似舆情自动归组,才算把技术栈组合成了能用的系统。