随机抽样使用pandas的sample()函数实现,适合分布均匀的数据;分层抽样通过scikit-learn的train_test_split或groupby加sample实现,保留原始分布;选择方法需考虑数据均衡性、目标变量和数据量大小。1. 随机抽样用df.sample(frac=比例或n=数量)并可划分训练集和测试集;2. 分层抽样使用train_test_split时设置stratify=y,或对dataframe按标签分组后抽样;3. 选择策略包括判断类别均衡性、是否存在分类目标变量及数据量是否足够大,同时注意设置random_state确保结果可复现并验证抽样后的比例合理性。
在python中实现数据采样,尤其是分层抽样和随机抽样,是数据分析、建模前处理阶段非常常见的操作。这两种方法各有适用场景:随机抽样适合样本分布均匀的情况,而分层抽样则更适用于类别不平衡或需要保留原始分布特征的场景。
下面我们就来看怎么在实际中使用这两种方法。
一、随机抽样的实现方式
随机抽样就是从整体数据中按照一定比例或数量随机抽取样本,常用于数据量大、类别分布比较均衡的情况下。它操作简单,效率高。
立即学习“Python免费学习笔记(深入)”;
在Pandas中,可以使用sample()函数来完成:
import pandas as pd # 假设df是你的数据框 random_sample = df.sample(frac=0.2, random_state=42) # 抽取20%的数据
- frac参数控制比例,如果是固定数量,可以用n=100
- random_state是为了保证每次运行结果一致
如果你希望把原数据分为训练集和测试集,也可以用这个方法分别取样:
train = df.sample(frac=0.8, random_state=42) test = df.drop(train.index)
这种方式虽然简单,但不考虑数据分布,有可能导致某些类别样本被遗漏。
二、分层抽样的做法与技巧
当你的数据集中某些类别的样本特别少,或者你希望保持样本的比例结构时,就要用到分层抽样(Stratified Sampling)。
举个例子,假设你有一个分类变量label,里面有类别A、B、C,占比分别为70%、20%、10%。你希望抽样后的样本也保持这个比例。
一种常用的方法是使用Scikit-learn中的train_test_split函数,并设置stratify参数:
from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split( X, y, test_size=0.2, stratify=y, random_state=42 )
- 这里的stratify=y表示按照y的分布进行分层
- 适用于分类任务,特别是类别不平衡时
如果你只是想单独对一个DataFrame做分层抽样,可以借助groupby加sample的方式手动实现:
stratified_sample = df.groupby('label').sample(frac=0.2, random_state=42)
这样每个类都会按比例抽取,保留了原始分布。
三、两种方法的选择建议
面对“选哪种抽样方法”的问题,可以从以下几个角度判断:
- 数据是否类别均衡?如果差距很大,优先考虑分层抽样
- 是否有明确的目标变量?如果有,且是分类任务,分层抽样更适合
- 数据量是否足够大?小数据下随机抽样容易失真,建议分层
此外,还要注意:
- 使用random_state保证结果可复现
- 抽样后检查各类别比例是否合理
- 分层抽样一般只能针对单一标签列,多个变量可能需要其他策略
基本上就这些。两种方法都不复杂,但在实际应用中很容易忽略细节,比如分布偏移、样本代表性等。根据具体任务选择合适的抽样策略,能为后续分析打下一个好基础。