Subset Selection

白话解释:https://www.geeksforgeeks.org/feature-subset-selection-process/

貌似有一种比较常见的方法,称为多元逐步回归有3种筛选自变量的方法

(1)向前法:n个因变量情况,慢慢增加因变量到方程中,计算各个因变量对y的影响,若无影响则删除,迭代执行。

(2)向后法:和前向法相反,也即是说一开始把所有因变量加到方程里慢慢删。

(3)逐步法(本次分享):逐步法结合向前法和向后法的优点,在向前引入每一个新自变量之后都要重新对已代入的自变量进行计算,以检验其有无继续保留在方程中的价值,并以此为依据进行自变量的引入和剔除交替进行,直到没有新的变量可以引入或剔除为止,此法较为准确。

相关推荐
MediaTea16 小时前
人工智能通识课:机器学习之无监督学习
人工智能·深度学习·学习·机器学习
一切皆是因缘际会17 小时前
2026实战:AI可解释性落地全指南
人工智能·深度学习·机器学习·架构
AI科技星17 小时前
【无标题】
人工智能·决策树·机器学习·数据挖掘·机器人
老鱼说AI17 小时前
现代 LangChain 开发指南:从 LCEL 原理到企业级 RAG 与 Agent 实战
java·开发语言·人工智能·深度学习·神经网络·算法·机器学习
AI科技星18 小时前
紫金山天文台与6G 超导太赫兹实验对比【乖乖数学】
人工智能·线性代数·机器学习·量子计算·agi
大模型最新论文速读19 小时前
EvoLM:8B 模型自写评分标准,RL 后超越 GPT-4
人工智能·深度学习·算法·机器学习·自然语言处理
龙山云仓21 小时前
记忆,是意识的第一块基石-老D(DeepSeek)· 类人成长记忆册
人工智能·深度学习·机器学习
逻辑君21 小时前
认知神经科学研究报告【20260062】
人工智能·机器学习
薛定e的猫咪1 天前
【ICML 2025】MODULI:基于扩散模型解锁离线多目标强化学习的偏好泛化
人工智能·学习·算法·机器学习