sql批量写入慢的核心在于频繁事务提交与单行操作开销,优化需聚焦减少事务次数、合并多值 INSERT、禁用非必要约束索引、优先使用 LOAD DATA INFILE 或copy。

SQL 批量写入慢,核心问题往往不是单条语句性能差,而是频繁提交事务、逐条插入、网络往返过多或锁竞争激烈。优化关键在于“减少事务开销”和“提升单位时间吞吐量”,而非单纯调优单条 INSERT。
用一个大事务替代 N 个小事务
默认情况下,每执行一条 INSERT 就自动提交(autocommit=on),相当于每次写入都经历一次日志刷盘(fsync)、锁释放、事务清理。1000 条记录 = 1000 次事务开销。关闭自动提交,显式 BEGIN/COMMIT,能把 1000 次开销压缩为 1 次。
- mysql:执行 SET autocommit = 0; 后,用 START TRANSACTION; 开始,最后COMMIT;
- postgresql:直接用 BEGIN; 和COMMIT;包裹批量 INSERT
- 注意:事务不宜过大(如百万级),否则可能触发锁升级、回滚段膨胀或超时;建议每 1 万~5 万条提交一次
合并多条 INSERT 为一条多值 INSERT
把 INSERT INTO t(a,b) VALUES (1,2); INSERT INTO t(a,b) VALUES (3,4); 改成INSERT INTO t(a,b) VALUES (1,2), (3,4), …;。这能显著降低 SQL 解析、权限校验、网络包数量和客户端 - 服务端交互次数。
- MySQL 单条 INSERT 支持最多 65535 个 value 组(受 max_allowed_packet 限制)
- 实际推荐每批次 500~2000 行,兼顾性能与内存 / 超时风险
- 应用层拼接时注意 sql 注入 防护——务必用参数化方式构造 VALUES 列表,而非 字符串 拼接用户数据
关掉非必要约束与索引,写完再重建
唯一索引、外键、触发器、全文索引都会在每行插入时实时校验或更新,是批量写入的隐形杀手。临时禁用它们可提速 2~10 倍(视数据量和约束复杂度而定)。
- MySQL:用 ALTER table t DISABLE KEYS; 停用非唯一索引(仅 MyISAM 有效);InnoDB 建议 DROP INDEX 后再ADD INDEX
- PostgreSQL:用 SET session_replication_role = ‘replica’; 跳过触发器和外键检查;索引可先DROP,导入完再CREATE INDEX CONCURRENTLY;
- 操作前务必备份表结构,并确保业务低峰期执行
用 LOAD DATA INFILE 或 COPY 替代 INSERT(终极加速)
当数据源是本地文件(csv/TSV),数据库 原生命令比任何 ORM 或 JDBC 批量插入都快 5~50 倍,因绕过了 SQL 解析、协议 封装、逐行绑定等环节。