先说说情况吧,我有一个数据库,560多万条数据,其中有一个字段(user_id)需要唯一,但目前表中该字段有60多万条的重复数据,需要做去重处理,搜了网上的各种神贴,都不太好用,最后经过我自己的思考与实践,终于找出来一条捷径,处理时间只需要3-5分钟,下面说说操作步骤吧
1.先对要去重的表进行索引(处理重复的那个字段).
2.将数据group by后导入到新的表中,导入时,可能需要分多次导入,因为电脑的内存有限,设置一下tmp_table_size或许可以一下子多导点
使用sql如下:Insertinto Table2 select * from Table1 group by 重复字段名称 limit 100000
使用以上SQL,并个性Limit参数多进行几次导入操作即可
相关推荐
本文实例讲述了mysql优化小技巧之去除重复项实现方法。分享给大家供大家参考,具体如下: 说到这个去重,脑仁不禁得一疼,尤其是出具量比较大的时候。毕竟咱不是专业的DB,所以嘞,只能自己弄一下适合自己去重方法了...
mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据
Mysql 百万级数据优化资料
资源是.sql文件压缩后上传(文件太大,解压后470多M)。用navicat导入实测用时5分钟,数据量300W条。快速获取百万级真实测试数据。
Mysql百万级数据优化方案
使用命令行数据库将 employees.sql文件导入。 例如:mysql -uroot -proot -Dtest<employees.sql
现需要开发一套程序用来快速迁移数据库,要求如下: 1.使用人员可以指定迁移数据库类型 如:(orcal,sqlServer,csv 迁移至mysql) 2.在迁移数据库时,可以只迁移指定字段. ...4.保护数据完整性,设计失败处理
mysql 125w条生成的随机数据,近似真实。主要字段有: id,user_name(随机英文字符),real_name(中文名),password(32位),province,city,address,img_url,role_id,telphone,email(正常的邮箱格式),create_time,update_...
Mysql百万级以上查询优化总结,,对mysql表优化、索引优化
主要介绍了MySQL百万级数据量分页查询方法及其优化建议,帮助大家更好的处理MySQL数据库,感兴趣的朋友可以了解下
MySQL 百万级分页优化(Mysql千万级快速分页),主要解决大数量级的优化
java快速插入千万级数据,亲测91秒插入1700万数据!!!
处理百万级以上的数据查询提高效率的办法,处理百万级以上的数据查询提高效率的办法!!!
nodejs封装好的mysql数据库模块,使用mysql连接池以及附带百万mysql测试数据,实现mysql数据库的增删改查功能,使用方法很详细。
主要介绍了MySQL 数据查重、去重的实现语句,帮助大家更好的理解和学习MySQL数据库,感兴趣的朋友可以了解下
主要涉及:JOIN 、JOIN 更新、GROUP BY HAVING 数据查重/去重 1 INNER JOIN、LEFT JOIN、RIGHT JOIN、FULL JOIN(MySQL 不支持)、CROSS JOIN 这是在网上找到的非常好的一篇博文,图解 join 语句: CODING HORROR-A ...
实用的技术
Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql...