告别盲人摸象,数据分析的抽样方法总结

当你踏入数据分析的大门时,可能会被海量的数据淹没,感到无从下手。

想象一下,你想了解一座巨大森林里所有树木的平均高度,难道要一棵一棵地去测量吗?这显然不现实。

这时,"抽样" 这个强大的工具就该登场了!

本文将带你全面了解各种抽样方法 ,并用Python代码演示实际应用。

1. 抽样是什么?

抽样 是从总体中选取部分样本进行分析的过程。

这样做的主要原因是:

  • 节省时间和资源:处理全部数据成本高昂
  • 可行性:当总体无限或无法完全获取时
  • 效率:快速获得初步分析结果

抽样 的世界里,主要有两种不同的理念,形成了两大阵营:

  • 非随机抽样:抽样过程不遵循随机原则,而是根据研究人员的主观经验或方便性来选择样本。这种方法简单、快速、成本低,适用于探索性研究或对时效性要求高的场景。
  • 随机抽样:也称为概率抽样,它遵循随机原则,确保总体中的每个单位都有一定的机会被抽中。这种方法专业性强,可以客观地衡量抽样误差,是数据分析中更常用、更科学的方法。

接下来,我们将重点介绍几种主流的抽样方法。

2. 非随机抽样

非随机抽样虽然在严谨的数据分析中需要谨慎使用,但在某些场景下依然有其价值。

它的实现原理是:根据研究者的主观判断、方便程度或特定需求来选择样本,不保证每个个体都有被抽中的机会。

常见的非随机抽样包括方便抽样判断抽样滚雪球抽样等。

典型的应用场景有:

  • 产品初期快速的用户访谈:在产品开发的早期阶段,为了快速收集用户反馈,可能会在公司门口或附近的咖啡馆随机邀请用户进行简短访谈。
  • 特定人群的深度研究:研究某个罕见病群体时,可以通过医生推荐或患者社群来寻找研究对象,这类似于滚雪球抽样。

下面用Python实现一个简单的非随机抽样的示例。

python 复制代码
import pandas as pd
import numpy as np

# 模拟创建一个包含1000名用户的数据集
np.random.seed(42)
data = {
    'user_id': range(1, 1001),
    'age': np.random.randint(18, 60, size=1000),
    'city': np.random.choice(['北京', '上海', '广州', '深圳', '杭州'], size=1000),
    'activity_score': np.random.randint(1, 101, size=1000) # 活跃度评分,1-100
}
df = pd.DataFrame(data)

# 非随机抽样:判断抽样
# 我们主观判断活跃度分数高于90的用户为高活跃度代表
high_activity_sample = df[df['activity_score'] > 90]

print("判断抽样(活跃度>90)的样本量:", len(high_activity_sample))
print(high_activity_sample.head())

运行结果:

3. 随机抽样

随机抽样 是数据分析的基石,它能确保样本的代表性,从而让我们的分析结论更具说服力

随机抽样一般有下面四种方式:

3.1. 简单随机抽样

这是最基础的随机抽样方法,确保总体中每个个体被抽中的概率完全相等。

就像从一个装满小球的箱子里随机摸球一样,每个球被摸到的机会都是一样的。

它的典型应用场景有:

  • 满意度调查:从全体用户中随机抽取一部分发送满意度调查问卷。
  • A/B测试用户分组 :将参与测试的用户随机分配到A组B组,确保两组用户在初始状态下没有系统性差异。

下面是Python实现的一个简单随机抽样示例。

先创建测试数据,这些数据在后面其他随机抽样示例中也会使用。

python 复制代码
# 创建模拟数据集:某公司客户数据
np.random.seed(42)  # 设置随机种子保证结果可重现
customer_data = pd.DataFrame({
    'customer_id': range(1, 1001),
    'age': np.random.randint(18, 70, 1000),
    'income': np.random.normal(50000, 15000, 1000).astype(int),
    'satisfaction_score': np.random.randint(1, 11, 1000)
})

print("原始数据集概况:")
print(f"数据量:{len(customer_data)}")
print(f"平均收入:{customer_data['income'].mean():.2f}")
print(f"平均满意度:{customer_data['satisfaction_score'].mean():.2f}")

# 运行结果:
'''
原始数据集概况:
数据量:1000
平均收入:50863.12
平均满意度:5.39
'''

然后进行简单随机抽样:

python 复制代码
# 简单随机抽样
simple_random_sample = customer_data.sample(n=50, random_state=42)

print("简单随机抽样结果:")
print(f"样本量:{len(simple_random_sample)}")
print(f"样本平均收入:{simple_random_sample['income'].mean():.2f}")
print(f"样本平均满意度:{simple_random_sample['satisfaction_score'].mean():.2f}")

# 运行结果:
'''
简单随机抽样结果:
样本量:50
样本平均收入:48647.12
样本平均满意度:4.76
'''

抽样数据总体数据 相比,收入分布满意度分布情况如下:

3.2. 分层随机抽样

分层随机抽样是先将总体按照某种特征分成若干个互不重叠的**"层"**,然后在每个层内部分别进行简单随机抽样。

这种方法可以保证样本的结构与总体的结构相似,特别适用于总体内部差异较大的情况。

它的典型应用场景有:

  • 不同城市用户的消费习惯分析:为了解全国用户的消费习惯,可以先将用户按城市(如一线、新一线、二线城市)分层,再从每一层中按比例抽取用户进行研究,确保样本中各城市的用户比例与总体一致。
  • 不同年级学生的学习情况调查:将学生按年级分层,再从各年级中抽取一定比例的学生进行调查。

下面是Python实现的一个分层随机抽样示例。

python 复制代码
# 创建分层:按年龄分组
customer_data["age_group"] = pd.cut(
    customer_data["age"],
    bins=[0, 30, 45, 60, 100],
    labels=["青年", "中青年", "中年", "中老年"],
)

print("各年龄组人数:")
print(customer_data["age_group"].value_counts())

# 分层随机抽样:每层按比例抽取
stratified_sample = (
    customer_data.groupby("age_group", observed=False)
    .apply(
        lambda x: x.sample(frac=0.05, random_state=42),
        include_groups=False,
    )
    .reset_index()
)

print("\n分层随机抽样结果:")
print(f"样本量:{len(stratified_sample)}")
print("样本中各年龄组分布:")
print(stratified_sample["age_group"].value_counts())

# 运行结果:
'''
各年龄组人数:
age_group
中青年    297
中年     282
青年     238
中老年    183
Name: count, dtype: int64

分层随机抽样结果:
样本量:50
样本中各年龄组分布:
age_group
中青年    15
中年     14
青年     12
中老年     9
Name: count, dtype: int64
'''

分层随机抽样简单随机抽样 ,以及总体数据对于平均收入的估计如下:

从图中可以看出,分层随机抽样 更接近于总体的值。

3.3. 系统随机抽样

系统随机抽样是将总体中的所有单位按一定顺序排列,然后按照固定的间隔(步长)来抽取样本。

比如,从1000人中抽取100人,可以每隔10人抽取1人。

它的典型应用场景有:

  • 生产线产品质量检测:每隔100件产品,抽取1件进行质量检测。
  • 电话调查:从电话号码簿中,每隔50个号码抽取一个进行访问。

下面是Python实现的一个系统随机抽样示例。

python 复制代码
# 系统随机抽样
def systematic_sampling(data, step):
    start = np.random.randint(0, step)
    indices = range(start, len(data), step)
    return data.iloc[indices]


systematic_sample = systematic_sampling(customer_data, 20)  # 每20个抽1个

print("系统随机抽样结果:")
print(f"样本量:{len(systematic_sample)}")
print(f"样本平均收入:{systematic_sample['income'].mean():.2f}")

# 运行结果:
'''
系统随机抽样结果:
样本量:50
样本平均收入:50763.34
'''

系统随机抽样的示意图如下:

3.4. 整群随机抽样

整群随机抽样是将总体划分为若干个互不重叠的**"群"**,然后随机抽取其中的若干个群,对抽中的群里的所有单位进行调查。

它的典型应用场景是:

  • 城市居民健康调查:将城市划分为若干个社区(群),随机抽取几个社区,然后对这几个社区的所有居民进行健康调查。
  • 全国多所学校的学生视力普查:将全国的学校作为"群",随机抽取几十所学校,然后对这些学校的所有学生进行视力检查。

下面是Python实现的一个整群随机抽样示例。

python 复制代码
# 创建模拟的群组数据:假设客户按地区分组
regions = ['北京', '上海', '广州', '深圳', '杭州', '成都', '武汉', '西安']
customer_data['region'] = np.random.choice(regions, len(customer_data))

print("各地区客户数量:")
print(customer_data['region'].value_counts())

# 整群随机抽样:随机选择3个地区,调查这些地区的所有客户
selected_regions = np.random.choice(regions, size=3, replace=False)
cluster_sample = customer_data[customer_data['region'].isin(selected_regions)]

print(f"\n抽中的地区:{selected_regions}")
print("整群随机抽样结果:")
print(f"样本量:{len(cluster_sample)}")
print(f"样本平均收入:{cluster_sample['income'].mean():.2f}")
print(f"总体平均收入:{customer_data['income'].mean():.2f}")

# 运行结果:
'''
各地区客户数量:
region
武汉    141
广州    133
成都    132
杭州    124
北京    120
上海    118
深圳    116
西安    116
Name: count, dtype: int64

抽中的地区:['杭州' '深圳' '武汉']
整群随机抽样结果:
样本量:381
样本平均收入:50319.75
总体平均收入:50863.12
'''

整群随机抽样得到的平均收入与总体数据的比较如下图:它们的值非常接近。

4. 随机抽样综合比较

为了更直观地感受不同抽样方法带来的差异,我们从同一个数据集中,使用不同的方法抽取大约相同规模的样本,来比较各种抽样方法。

python 复制代码
# 创建更复杂的数据集来演示各种抽样方法
np.random.seed(42)
company_data = pd.DataFrame(
    {
        "employee_id": range(1, 1001),
        "department": np.random.choice(
            ["技术", "销售", "市场", "人事", "财务"],
            1000,
            p=[0.3, 0.25, 0.2, 0.15, 0.1],
        ),
        "salary": np.random.normal(80000, 20000, 1000).astype(int),
        "experience": np.random.exponential(5, 1000).astype(int) + 1,
    }
)

# 修正可能的负工资
company_data["salary"] = company_data["salary"].clip(lower=30000)

print("公司员工数据概况:")
print(f"总员工数:{len(company_data)}")
print(f"平均工资:{company_data['salary'].mean():.2f}")
print("\n各部门人数:")
print(company_data["department"].value_counts())

# 应用不同抽样方法
samples = {
    "简单随机抽样": company_data.sample(n=100, random_state=42),
    "分层随机抽样": company_data.groupby("department")
    .apply(lambda x: x.sample(frac=0.1, random_state=42), include_groups=False)
    .reset_index(),
    "系统随机抽样": systematic_sampling(company_data, 10),
    "整群随机抽样": company_data[
        company_data["department"].isin(
            np.random.choice(company_data["department"].unique(), 2, replace=False)
        )
    ],
}

# 比较结果
comparison = pd.DataFrame(
    {
        "方法": ["总体"] + list(samples.keys()),
        "样本量": [len(company_data)] + [len(sample) for sample in samples.values()],
        "平均工资": [company_data["salary"].mean()]
        + [sample["salary"].mean() for sample in samples.values()],
        "工资误差": [0]
        + [
            abs(sample["salary"].mean() - company_data["salary"].mean())
            for sample in samples.values()
        ],
    }
)

print("\n各种抽样方法比较:")
print(comparison)

# 运行结果:
'''
公司员工数据概况:
总员工数:1000
平均工资:82015.16

各部门人数:
department
技术    319
销售    240
市场    198
人事    143
财务    100
Name: count, dtype: int64
'''

5. 总结

本文介绍了常用的抽样方法,并给出了各种抽样方法的典型应用场景以及Python代码实现方式。

重点是四种随机抽样的方法,选择抽样方法时需要考虑:

  • 研究目的:探索性分析可用非随机抽样,正式研究需用随机抽样
  • 总体特征:如果总体有明显分层,考虑分层抽样
  • 资源限制:整群抽样通常成本较低
  • 精度要求:分层抽样通常精度较高

记住 ,没有 "最好" 的抽样方法,只有 "最合适" 的。

在实际工作中,要根据具体情况灵活选择和组合使用不同的抽样方法。

相关推荐
倚肆1 小时前
Spring Boot CORS 配置详解:CorsConfigurationSource 全面指南
java·spring boot·后端
v***44672 小时前
springboot之集成Elasticsearch
spring boot·后端·elasticsearch
q***72192 小时前
Spring Boot(快速上手)
java·spring boot·后端
全栈陈序员2 小时前
【Python】基础语法入门(九)—— 代码规范、调试技巧与性能初探
开发语言·python·代码规范
nvd112 小时前
解决 Gemini API 连接卡住问题的方案
python
李剑一2 小时前
Python学习笔记2
python
IT_陈寒2 小时前
Redis性能翻倍的5个冷门技巧,90%开发者都不知道第3个!
前端·人工智能·后端
p***97612 小时前
SpringBoot(7)-Swagger
java·spring boot·后端
j***29482 小时前
springboot集成onlyoffice(部署+开发)
java·spring boot·后端