1)去重
指定多列去重,这是在data 没有独一无二的字段作为PK(主键)时,需要指定多个字段一起作为该行的PK,在这种情况下对整体数据进行去重。
Attention:主要用到了drop_duplicates方法,并设置参数subset为多个字段名构成的数组。
具体代码如下:
>>>import pandas as pd
>>>data={'state':[1,1,2,2,1,2,2],'pop':['a','b','c','d','b','c','d']}
>>> =pd.Data (data)
>>>
pop state
0 a 1
1 b 1
2 c 2
3 d 2
4 b 1
5 c 2
6 d 2
>>> .drop_duplicates(subset=['pop','state'])
pop state
0 a 1
1 b 1
2 c 2
3 d 2
2)求差集
假设有两个data 为a和b,a和b可以是相互包含的关系,现在想要将a中和b重复的内容去掉,也就是求差集,步骤如下:
(1)需要对两个data 进行去重。
(2)利用append方法,a=a.append(b)
(3)再次利用append方法,a=a.append(b)
(4)去重,利用drop_duplicates方法,a=a.drop_duplicates(),以及设置参数keep=False,意思就是只要有重复,重复的记录都去掉。(keep默认='first',也就是保留第一条记录)
具体代码如下:
>>>data_a={'state':[1,1,2],'pop':['a','b','c']}
>>>data_b={'state':[1,2,3],'pop':['b','c','d']}
>>>a=pd.Data (data_a)
>>>a
pop state
0 a 1
1 b 1
2 c 2
>>>b=pd.Data (data_b)
>>>b
pop state
0 b 1
1 c 2
2 d 3
>>>a = a.append(b)
>>>a = a.append(b)
>>>result = a.drop_duplicates(subset=['pop','state'],keep=False)
>>>result
pop state
0 a 1
以上这篇Python Data 指定多列去重、求差集的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。
继续阅读与本文标签相同的文章
上一篇 :
昔日科技标杆正在倒下,苹果沦为“专利大盗”?
下一篇 :
内鬼泄密猛于黑客,如何保护好防火墙内的世界?
-
会蹬三轮车,能与人对话,这个“网红”机器人即将登陆进博会
2026-05-15栏目: 教程
-
禾迈总经理杨波:技术研发是公司的“护城河”
2026-05-15栏目: 教程
-
目标1000万部!谷歌暂停安卓系统开放后,或与华为竞争欧洲市场?
2026-05-15栏目: 教程
-
矿山整体解决方案,多“采”多“资”
2026-05-15栏目: 教程
-
扫地机器人有必要买来清扫卫生吗?
2026-05-15栏目: 教程
