sklearn.preprocessing.normalize()

sklearn.preprocessing.normalize()是Scikit-learn库中的一个函数,用于对特征向量进行归一化处理。归一化的目的是将每个样本的特征向量缩放到单位范数(即长度为1)。

normalize函数的主要参数包括:

  • X:要归一化的数组或稀疏矩阵,形状为[n_samples, n_features]
  • norm:指定要使用的范数类型,可以是l1、l2或max
    • l1范数:将每个样本的特征向量的绝对值之和归一化为1
    • l2范数:将每个样本的特征向量的欧几里得长度归一化为1(默认)
    • max范数:将每个样本的特征向量的最大绝对值归一化为1

以下是一个简单的代码示例,

复制代码
import numpy as np
from sklearn.preprocessing import normalize

# 示例数据
X = np.array([[1, 2, 3],
              [4, 5, 6],
              [7, 8, 9]])

# 使用 l2 范数进行归一化
X_normalized_l2 = normalize(X, norm='l2')

# 使用 l1 范数进行归一化
X_normalized_l1 = normalize(X, norm='l1')

# 使用 max 范数进行归一化
X_normalized_max = normalize(X, norm='max')

print("Original Data:\n", X)
print("\nL2 Normalized Data:\n", X_normalized_l2)
print("\nL1 Normalized Data:\n", X_normalized_l1)
print("\nMax Normalized Data:\n", X_normalized_max)

输出结果如下,

复制代码
Original Data:
 [[1 2 3]
  [4 5 6]
  [7 8 9]]

L2 Normalized Data:
 [[0.26726124 0.53452248 0.80178373]
  [0.45584231 0.56980288 0.68376346]
  [0.50257071 0.57436653 0.64616234]]

L1 Normalized Data:
 [[0.16666667 0.33333333 0.5       ]
  [0.26666667 0.33333333 0.4       ]
  [0.29166667 0.33333333 0.375     ]]

Max Normalized Data:
 [[0.33333333 0.66666667 1.        ]
  [0.66666667 0.83333333 1.        ]
  [0.77777778 0.88888889 1.        ]]

以下是安装指令,

复制代码
pip install scikit-learn
conda install scikit-learn
相关推荐
冷雨夜中漫步3 小时前
Python快速入门(6)——for/if/while语句
开发语言·经验分享·笔记·python
33三 三like3 小时前
《基于知识图谱和智能推荐的养老志愿服务系统》开发日志
人工智能·知识图谱
芝士爱知识a3 小时前
【工具推荐】2026公考App横向评测:粉笔、华图与智蛙面试App功能对比
人工智能·软件推荐·ai教育·结构化面试·公考app·智蛙面试app·公考上岸
郝学胜-神的一滴3 小时前
深入解析Python字典的继承关系:从abc模块看设计之美
网络·数据结构·python·程序人生
百锦再3 小时前
Reactive编程入门:Project Reactor 深度指南
前端·javascript·python·react.js·django·前端框架·reactjs
腾讯云开发者4 小时前
港科大熊辉|AI时代的职场新坐标——为什么你应该去“数据稀疏“的地方?
人工智能
工程师老罗4 小时前
YoloV1数据集格式转换,VOC XML→YOLOv1张量
xml·人工智能·yolo
喵手5 小时前
Python爬虫实战:旅游数据采集实战 - 携程&去哪儿酒店机票价格监控完整方案(附CSV导出 + SQLite持久化存储)!
爬虫·python·爬虫实战·零基础python爬虫教学·采集结果csv导出·旅游数据采集·携程/去哪儿酒店机票价格监控
Coder_Boy_5 小时前
技术让开发更轻松的底层矛盾
java·大数据·数据库·人工智能·深度学习