csv解析与导出可通过python实现,1.使用csv模块基础处理,适合小数据量;2.pandas库功能强大,适用于大数据及复杂操作;3.导出时csv模块写入灵活,pandas则更简洁高效;常见问题包括分隔符多样、编码差异及引号陷阱,需针对性处理。
解析CSV数据,导入导出,说白了就是把那些以逗号(或者其他什么符号)分隔开的文本信息,要么读进来变成我们程序能理解的数据结构,要么把程序里的数据按规矩写出去变成csv文件。这事儿听起来简单,但真要做到滴水不漏,可得花点心思。
要真正把CSV这事儿玩明白,我个人觉得,python是个非常趁手的工具。它内置的csv模块就能搞定大部分基础需求,而如果你要处理的数据量大、结构复杂,或者想更优雅地操作,pandas库简直是神器。
解析(导入)CSV文件:
最基础的,用Python的csv模块:
import csv def parse_csv_basic(filepath): data = [] try: # newline=''是个小细节,它能防止在windows系统上写入CSV时出现额外的空行。 # encoding='utf-8'是处理中文或特殊字符的关键,不然很容易乱码。 with open(filepath, 'r', newline='', encoding='utf-8') as csvfile: reader = csv.reader(csvfile) header = next(reader) # 通常第一行是表头 for row in reader: data.append(row) print(f"成功读取 {len(data)} 行数据。") return header, data except FileNotFoundError: print(f"错误:文件 '{filepath}' 不存在。") return None, None except Exception as e: print(f"读取CSV时发生错误:{e}") return None, None # 示例调用 (请替换为你的CSV文件路径) # header, rows = parse_csv_basic('your_data.csv') # if header and rows: # print("表头:", header) # print("前5行数据:", rows[:5])
如果数据量大,或者需要更强大的数据处理能力,pandas是我的首选:
import pandas as pd def parse_csv_pandas(filepath): try: # read_csv功能非常强大,能自动推断分隔符、处理引号、跳过空行等 df = pd.read_csv(filepath, encoding='utf-8') print(f"成功使用pandas读取 {len(df)} 行数据。") return df except FileNotFoundError: print(f"错误:文件 '{filepath}' 不存在。") return None except Exception as e: print(f"使用pandas读取CSV时发生错误:{e}") return None # 示例调用 (请替换为你的CSV文件路径) # df = parse_csv_pandas('your_large_data.csv') # if df is not None: # print(df.head())
pandas.read_csv简直是万金油,它能自动识别很多情况,比如分隔符、引号、编码(虽然最好还是明确指定),甚至可以直接指定列的数据类型。
导出CSV文件:
用csv模块写入:
import csv def export_csv_basic(filepath, header, data): try: with open(filepath, 'w', newline='', encoding='utf-8') as csvfile: writer = csv.writer(csvfile) writer.writerow(header) # 写入表头 writer.writerows(data) # 写入所有行 print(f"数据已成功导出到 '{filepath}'。") except Exception as e: print(f"导出CSV时发生错误:{e}") # 示例调用 (假设之前有header和rows数据) # export_csv_basic('output_data.csv', header, rows)
用pandas写入就更简洁了:
import pandas as pd def export_csv_pandas(filepath, dataframe): try: # index=False 避免将DataFrame的索引也写入CSV dataframe.to_csv(filepath, index=False, encoding='utf-8') print(f"数据已成功导出到 '{filepath}'。") except Exception as e: print(f"使用pandas导出CSV时发生错误:{e}") # 示例调用 (假设之前有df数据) # export_csv_pandas('output_dataframe.csv', df)
to_csv方法也同样强大,index=False是个常用选项,因为DataFrame的索引通常不是我们想写入CSV的内容。
解析CSV文件时常见的坑与应对策略
说实话,解析CSV这事儿,最让人头疼的不是代码逻辑,而是那些“意料之外”的数据。我见过太多次因为这些小细节导致整个流程卡壳的情况。
- 分隔符的“个性”: 别以为CSV就一定是逗号。我遇到过用分号、制表符(TSV)、甚至竖线|做分隔符的。遇到这种情况,csv.reader可以指定delimiter参数,pd.read_csv则有sep参数,它甚至能自动识别一些常见的分隔符。如果你不确定,可以先读几行看看。
- 编码问题,永恒的痛: UTF-8是国际通用,但国内很多老系统或者excel默认导出的是GBK(或GB2312)。如果文件打开乱码,八成就是编码不对。尝试切换encoding=’gbk’或者encoding=’latin1’(有时候乱码成一些奇怪符号时,latin1能帮助你看到原始字节,进而判断真实编码)。Python的chardet库能帮你猜测编码,虽然不总是100%准确,但能提供很好的线索。
- 引号包裹的“陷阱”: 当字段内容本身包含分隔符
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END