python实践:非常实用的pandas学习笔记
sinye56 2024-10-09 19:35 5 浏览 0 评论
python数据处理中,pandas是比较常用的库,根据本人多年的教学,整理了pandas的使用的常见方法,奉献我给各位网友。不废话,直接来正片子。
一、安装导入pandas库
pandas如何安装,比较简单。
pip install pandas
或者
conda install pandas -c conda-forge
或者
mamba install pandas -c conda-forge
导入pandas库。
import pandas as pd
在pandas中包含Series和DataFrame。
二、Series(序列)
Series是pandas中的一维标记数组,类似于带有标签的一维数组。它由两个数组组成,一个用于存储数据,另一个用于存储标签(索引)。Series可以通过多种方式创建,例如从列表、数组、字典等。Series提供了许多方法和属性,用于对数据进行索引、切片、过滤、计算等操作。
创建Series
可以使用pd.Series(data, index)函数创建Series,其中data可以是列表、数组、字典等,index是可选的索引标签。
# 创建Series
sr = pd.Series([1,2,3,4,5])
# 创建并指定index
sr = pd.Series([1,2,3,4,5], index=['a','b','c','d','e'])
# 字典创建Series
scores = {'xm':90, 'xl':85, 'xz':95}
sr = pd.Series(scores)
# 创建时指定index,且index与字典不匹配
names = ['xiaohong', 'xiaoli', 'xiaozhang', 'xiaoming']
scores = {'xiaohong':99, 'xiaoming':77, 'xiaoli':88}
sr3 = pd.Series(scores, index=names)
# 索引,显示sr3第2个的数值,数值索引默认从0开始
print(sr3[1])
# 修改index值,索引值从1开始。
sr3.index = range(1,5)
Series四则运算
四则运算时会根据index的值对相应的数据进行运算,结果是浮点数,如果sr1和sr2的索引index没有相对应的,计算结果为Nan。
sr1 = pd.Series([1,2,3,4],['a','b','c','d'])
sr2 = pd.Series([11,25,38,49],['a','c','e','f'])
delta = sr2 - sr1
print(delta)
value = sr2/sr1
print(value)
三、DataFrame(数据框)
DataFrame是pandas中的二维表格数据结构,类似xlsx或SQL中的表,也就是说它操作电子表格就很在行了。它由行索引和列索引组成,每列可以是不同的数据类型。DataFrame可以通过多种方式创建,例如从二维数组、字典、CSV文件等。DataFrame提供了丰富的方法和属性,用于对数据进行索引、切片、过滤、计算、合并、重塑等操作。
创建DataFrame
Dataframe是一种二维的数据结构,可以用于存储表格数据。它可以从多种源创建,包括数据库查询、numpy数组,甚至可以从文本文件读取,如CSV文件。
- 从csv文件创建: 使用pandas.read_csv()函数,可以从csv文件读取数据,并生成DataFrame对象。
- 从txt文件创建: 使用pandas.read_txt()函数,可以从txt文件读取数据,也可以生成DataFrame对象。
- 从excel文件创建: 使用pandas.read_excel()函数,可以从特定的excel文件中读取数据,也可以生成DataFrame对象。
- 从数据库创建: 使用pandas.read_sql()函数,可以从SQL Server、Oracle等数据库中读取数据,也可以生成DataFrame对象。
- 从numpy数组创建: 使用pandas.DataFrame()函数,可以根据Numpy数组创建DataFrame对象,当然还可以添加标签列名称。
- 从字典创建: 使用pandas.DataFrame.from_dict()函数,可以从一个Python字典得到DataFrame对象,同样可以添加标签列名称。
# 创建DataFrame
df = pd.DataFrame([[1.0,1],[2.0,2],[3.0,3],[4.0,4]],columns=['floats','ints'])
df.index = ['a','b','c','d']
# 创建时直接指定index
df1 = pd.DataFrame([[1.0,1],[2.0,2],[3.0,3],[4.0,4]],columns=['floats','ints'], index=['a','b','c','d'])
# 创建随机矩阵
df1 = pd.DataFrame(np.random.randn(5,4), columns=['a','b','c','d'], index=range(1,6))
# 用dict来创建DataFrame
dic1 = {'ints':[1,2,3,4], 'floats':[1.0,2.0,3.0,4.0]}
df2 = pd.DataFrame(dic1, index=['a','b','c','d'])
索引
Index是pandas中的标签数组,用于标识Series或DataFrame中的行或列。
# 列向量访问
ints = df['ints']
# 行向量访问(即index),使用ix
ac = df.ix[['a','c']]
# 使用loc或iloc来访问index或某个固定位置,
# 其中loc是访问index或columns的名称
a = df.loc['a']
a_ints = df.loc['a','ints']
# 而iloc访问的是序号
A2 = df.iloc[2]
A21 = df.iloc[2,1]
重新设置 DataFrame 的索引
reset_index()把DataFrame的索引重置为[0,1,2…]。需要注意的是:之前的索引被保存成名为'index'的列。
# 建立DataFrame,索引为 'A','B','C','D','E',columns为'W','X','Y','Z'
df = pd.DataFrame(np.random.randn(5,4), ['A','B','C','D','E'],['W','X','Y','Z'])
# reset_index(),重置DataFrame的索引重置为[0,1,2…]
# 注意:之前的索引被保存成名为'index'的列。
df.reset_index()
# 为df增加新的一列
df['ID'] = ['a','b','c','d','e']
#set_index()表示设置某一列为索引
# 注意:原来的index就直接被替换掉了,不会留备份。
df.set_index('ID')
# 建立索引并生效
df.set_index('name', inplace=True)
#注意:这里并没有修改原有Excel的内容,我们操作的是内存中的df变量,
# 如果如要改变原有Excel的内容,就需要把内存中的df变量保存到文件中。
多级索引
多级索引有点类似group。
# 定义元素为元组的列表
idx1 = ['odd','even','odd','even','odd','even']
idx2 = ['a','b','c','d','e','f']
idx = list(zip(idx1,idx2)
# 生成多级索引
indx = pd.MultiIndex.from_tuples(idx), labels=[[1, 0, 1, 0, 1, 0], [0, 1, 2, 0, 1, 2]])
# 创建DataFrame
df = pd.DataFrame(np.random.randn(6,4), index=indx, columns=['A','B','C','D'])
print(df)
# 数据访问
A1= df.loc['odd','a']
print(A1)
A2 = df.loc['odd'].loc['a']
print(A2)
# 这两列索引没有名字,使用.index.name方法为添加名字
df.index.names = ['idx1','idx2']
# 用.xs方法,用索引列的名字来获取数据
# 将索引为 idx2=a 的数据检索出来
df.xs('a', level='idx2')
# 将索引为 idx1=odd 的数据检索出来
df.xs('odd', level='idx1')
四、DataFrame的处理
df2.index #索引
df2.columns #列名
df2.ix['c']
df2.ix[df.index[1:3]]
df2.sum() #求和
df2.apply(lambda x:x**2) #不会改变df2的内容
df2['str1'] = ['a1', 'b1', 'c1', 'd1'] # 增加一列 会改变df2的内容
如果使用df2.xx操作,则不会改变df2的内容,因为并没有对df2进行赋值;如果使用df2[]=xx,则会改变df2 的内容。
df2['str2'] = pd.DataFrame(['a2','b2','d2','c2'],index = ['a','b','d','c']) #增加一列,并指定index
df2['str2'] = pd.Series(['a2','b2','d2','c2'],index = ['a','b','d','c']) #用Series的方式增加一列
df2['str3'] = pd.DataFrame(['a3','b3','c3'],index = ['a','b','c'])#未指定的位置是NaN
从现有的列中,创建新列
df2['str4'] = df2['ints'] + df2['floats']
使用字典的方式增加一行,ignore_index设置为True,则index恢复为0…n
df2.append({'floats':5.0,'ints':5},ignore_index = True)
df2.append(pd.DataFrame({'floats':5.0,'ints':5},index = ['e'])) #增加一行,且该行的index为 e
删除行或列
使用.drop()函数删除行或列,axis=0表示删除某行,axis=1表示删除某列。
df2.drop('str1', axis=1)
df2.drop('c', axis=0)
条件筛选
df = pd.DataFrame(np.random.randn(6,4), ['A','B','C','D','E','F'],['W','X','Y','Z'])
# 筛选df中W列大于0的数据
df1 = df[df['W']>0]
# 返回值df1是一个DataFrame
print(df1)
# 对筛选出来,只显示其中的X和Y列
print(df1[['X','Y']])
# 当然也可以如下表达
print(df[df['W']>0][['X','Y']])
# 筛选也可以使用逻辑运算符(& |)来表达,以实现更为复杂的目的
# 同时选出W列大于1和X列大于0的数据
df10 = df[(df['W']>1) & (df['X']>0)]
print(df10)
缺失值处理
DataFrame中出现值为NaN的情况,可以使用方法如isnull()、notnull()、dropna()、fillna()等来检测和处理缺失数据。
dic = {'A':[1,2,np.nan], 'B':[4,np.nan,6], 'C':[7,8,9]}
# 创建DataFrame, 数据中存在着缺测数据
df = pd.DataFrame(dic)
print(df)
# 把包含NaN的行丢弃,默认axis=0
df1 = df.dropna()
#或
df1 = df.dropna(axis=0)
print(df1)
#把包含NaN的列丢弃
df2 = df.dropna(axis=1)
print(df2)
# 把全是NaN的行丢弃,默认是how='any'
df_all = df.dropna(how='all')
# 把全是NaN的列丢弃
df_all1 = df.dropna(how='all', axis=1)
# 填充NaN的值
df10 = df.fillna(10)
print(df10)
需要说明的是,操作后不影响原有的DataFrame的数据,产生新的DataFrame,需要重新赋予新的变量。
isnull()和notnull()返回bool值
#对df每个是否空,进行判断,空位True,否则False
df1 = df.isnull()
print(df1)
#对df每个是否不空,进行判断,不空位True,否则False,与isnull正好相反
df2 = df.notnull()
print(df2)
去掉重复的值
# 去掉重复的值
# unique(),去掉重复的值,也就是只保留没有重复的值
df = pd.DataFrame({'A':[1,2,3,4],'B':[10,20,20,30]})
B = df['B'].unique()
# array([10, 20, 30], dtype=int64)
# 使用nunique(),可以计算不重复元素的个数
num = df['B'].nunique()
#3
排序
# 排序
# 创建DataFrame
df = pd.DataFrame(np.random.randn(3,4),columns=['A','B','C','D'])
print(df)
# 使用sort_values方法进行排序,排序的结果赋值给A
A = df.sort_values('A')
print(A)
describe()功能
df = pd.DataFrame(np.random.standard_normal((5,4)))
print(df)
print(df.describe())
#会计算出各数字字段的总数(count)、平均数(mean)、标准差(std)、
#最小值(min)、四分位数和最大值(max)
concat
contcat是直接把两个DataFrame按行或列拼起来。默认是按行拼接。指定参数 axis=1后,就按列拼接了。
df1 = pd.DataFrame(np.random.standard_normal((3,4)))
print(df1)
df2 = pd.DataFrame(np.random.standard_normal((3,4)))
print(df2)
df3 = pd.DataFrame(np.random.standard_normal((3,4)))
print(df3)
# 按行拼接
df4 = pd.concat([df1,df2,df3])
# 按列拼接,指定参数 axis=1
df41 = pd.concat([df1,df2], axis=1)
merge
merge则是以某一列为准进行合并
# 创建DataFrame
df1 = pd.DataFrame({'ID':['K1','K2','K3','K4'],'A':[1,2,3,4],'B':[5,6,7,8]})
print(df1)
# 创建DataFrame
df2 = pd.DataFrame({'ID':['K1','K2','K3','K4'],'A':[10,20,30,40],'B':[50,60,70,80]})
print(df2)
# how对应有两个参数,inner表示取交集,outer表示取并集
# on= 'ID',以ID这一列数据为基础,进行合并
df12 = pd.merge(df1, df2, how='inner', on='ID')
join
join是用索引当做基准,并不是某一列。
# join,添加一列。但是用索引当做基准,而不是单纯添加某一列
# 由于df2没有索引e这一行,对应的15不产生新行。
# 创建DataFrame
df1 = pd.DataFrame([11,12,13,14,15],index = ['a','b','c','d','e'],columns = ['bigger'])
df21 = df2.join(df1)
print(df21)
# 添加了参数how = 'outer',对应的索引e这一行,df23将产生新的一行。
# 创建DataFrame
df3 = pd.DataFrame([11,12,13,14,15],index = ['a','b','c','d','e'],columns = ['bigger']),how = 'outer')
df23 = df2.join(df3)
print(df23)
Group
# 为df增加新的一列
df['odd_even'] = ['odd','even','odd','even']
# 按照odd_even这一列的数值进行分组
group = df.groupby('odd_even')
# 计算分组后的各列的平均数
mean = group.mean()
DataFrame的属性和方法:
- df.shape:返回DataFrame的行数和列数。
- df.head(n):返回DataFrame的前n行,默认为5行。
- df.tail(n):返回DataFrame的后n行,默认为5行。
- df.columns:返回DataFrame的列索引。
- df.index:返回DataFrame的行索引。
- df.info():显示DataFrame的基本信息,包括列名、数据类型、非空值数量等。
- df.describe():显示DataFrame的统计摘要信息,包括计数、均值、标准差、最小值、最大值等。
统计分析函数:
df.mean() # 返回所有列的均值
df.mean(1) # 返回所有行的均值,下同
df.corr() # 返回列与列之间的相关系数
df.count() # 返回每一列中的非空值的个数
df.max() # 返回每一列的最大值
df.min() # 返回每一列的最小值
df.median() # 返回每一列的中位数
df.std() # 返回每一列的标准差
df.var() # 方差
s.mode() # 众数
五、Dataframe基本技巧总结
访问DataFrame数据:
- 使用列名来访问DataFrame中的列数据。例如,df['column_name']可以访问名为'column_name'的列。
- 使用df.loc[row_indexer, column_indexer]来访问具有特定行索引和列索引的数据。
- 使用df.iloc[row_indexer, column_indexer]来使用整数索引访问数据。
列操作:
- 可以使用df['new_column'] = value来添加新的列,并为每个元素赋予相同的值。
- 可以使用df.drop('column_name', axis=1)来删除指定的列。
- 可以使用df.rename(columns={'old_name': 'new_name'})来重命名列。
行操作:
- 可以使用df.loc[row_indexer]来访问具有特定行索引的行数据。
- 可以使用df.iloc[row_indexer]来使用整数索引访问行数据。
- 可以使用df.drop(row_indexer)来删除指定的行。
筛选数据:
- 可以使用布尔索引来筛选DataFrame中的数据。例如,df[df['column'] > 0]会返回满足条件的行数据。
- 可以使用df.isin(values)来筛选DataFrame中包含在给定值列表中的行数据。
缺失数据处理:
- 可以使用df.isnull()和df.notnull()方法来检测DataFrame中的缺失数据。
- 可以使用df.dropna()方法来删除DataFrame中的缺失数据。
- 可以使用df.fillna(value)方法来填充DataFrame中的缺失数据。
排序和排名:
- 可以使用df.sort_values(by='column')方法对DataFrame进行排序。
- 可以使用df.rank()方法对DataFrame中的元素进行排名。
统计分析:
- 可以使用df.describe()方法获取DataFrame的统计摘要信息,如计数、均值、标准差、最小值、最大值等。
- 可以使用df.sum()、df.mean()、df.median()、df.std()等方法计算DataFrame的总和、平均值、中位数、标准差等。
六、文件读写处理
1.csv文件
对于非常多且大量的数据处理,手动创建DataFrame,在实战中是不切合实际,往往是通过读取文件导入,比较常见的文档是csv和xlsx,可以读本地文件,也可以在线读网络地址的文件。
读取csv文件的方式:
data = pd.read_csv('data.csv')
# 如果是网址,访问如下:
data = pd.read_csv('https://xxxx.xx.xx/xx/data.csv')
导出成csv文件:
data.to_csv('new.csv')
需要注意的是:如把一个文件先读进来在写入到另一个文件,会发现两个文件大小不一样,打开也会发现新导出的文件多了一列。即index列,这是因为在读入文件时,会默认添加index列,序列为0,1,2......
如果数据文件中已经有index,可以自行指定,这样就不会再增加一列了。
data = pd.read_csv('data.csv', index_col = ['idx'])
2.excel文件
data = pd.read_excel('xxx.xlsx', sheet_name='Sheet1')
# 如果是网址,访问如下:
data = pd.read_csv('https://xxxx.xx.xx/xx/xxx.xlsx')
需要注意的是:pandas只能读取excel中的数据,其他对象,比如图片公式等是不能读入的。上面函数参数sheet_name='Sheet1'表示只读取Sheet1工作表中的内容。
写文件到xlsx文件。
data.to_excel('new.xlsx', sheet_name='Sheet1')
3.其他文件
- text文件:读text文件,pd.read_text();写text文件,pd.to_text()
- json文件:读json文件,pd.read_json();写json文件,pd.to_json()
- html文件:读html文件,pd.read_html();写html文件,pd.to_html()
- pickle文件:读pickle文件,pd.read_pickle();写pickle文件,pd.topickle()
4.检查数据
df.head() # 查看前5条,括号里可以写明你想看的条数
df.tail() # 查看尾部5条
df.sample(10) # 随机查看10条
df.shape # 查看行数和列数
df.info() # 查看索引、数据类型和内存信息
df.describe() # 查看数值型列的汇总统计,
# df.describe() 计算出各字段的总数、平均数、标准差、最小值、四分位数和最大值
df.dtypes # 查看各字段类型
df.axes # 显示数据行和列名
df.columns # 列名
十一、pandas 处理字符串
Pandas 提供了一系列的字符串函数,因此能够很方便地对字符串进行处理。
函数名称 | 函数功能和描述 |
lower() | 将的字符串转换为小写。 |
upper() | 将的字符串转换为大写。 |
len() | 得出字符串的长度。 |
strip() | 去除字符串两边的空格(包含换行符)。 |
split() | 用指定的分割符分割字符串。 |
cat(sep="") | 用给定的分隔符连接字符串元素。 |
get_dummies() | 返回一个带有独热编码值的 DataFrame 结构。 |
contains(pattern) | 如果子字符串包含在元素中,则为每个元素返回一个布尔值 True,否则为 False。 |
replace(a,b) | 将值 a 替换为值 b。 |
count(pattern) | 返回每个字符串元素出现的次数。 |
startswith(pattern) | 如果 Series 中的元素以指定的字符串开头,则返回 True。 |
endswith(pattern) | 如果 Series 中的元素以指定的字符串结尾,则返回 True。 |
findall(pattern) | 以列表的形式返出现的字符串。 |
swapcase() | 交换大小写。 |
islower() | 返回布尔值,检查 Series 中组成每个字符串的所有字符是否都为小写。 |
issupper() | 返回布尔值,检查 Series 中组成每个字符串的所有字符是否都为大写。 |
isnumeric() | 返回布尔值,检查 Series 中组成每个字符串的所有字符是否都为数字。 |
repeat(value) | 以指定的次数重复每个元素。 |
find(pattern) | 返回字符串第一次出现的索引位置。 |
注意:上述所有字符串函数全部适用于 DataFrame 对象。
十二、pandas与numpy的转换
在某些应用场景中,如果需要把pandas转成numpy进行相互转换,这样提高处理速度和易操作性。
把numpy转成pandas
np1 = np.random.standard_normal((4,3)).round(6)
df = pd.DataFrame(np1)
print(df)
对df进行简单处理
df.columns = [['No11', 'No12', 'No13']]
dates = pd.date_range('2024-1-1', periods=4, freq='M')
df.index = dates
df.sum()
df.mean()
df.cumsum()
df.describe()
np.sqrt(df)
df.cumsum().plot(lw=2.0) #可直接画图
把pandas转成numpy
np2 = np.array(df)
print(np2)
相关推荐
- Linux基础知识之修改root用户密码
-
现象:Linux修改密码出现:Authenticationtokenmanipulationerror。故障解决办法:进入单用户,执行pwconv,再执行passwdroot。...
- Linux如何修改远程访问端口
-
对于Linux服务器而言,其默认的远程访问端口为22。但是,出于安全方面的考虑,一般都会修改该端口。下面我来简答介绍一下如何修改Linux服务器默认的远程访问端口。对于默认端口而言,其相关的配置位于/...
- 如何批量更改文件的权限
-
如果你发觉一个目录结构下的大量文件权限(读、写、可执行)很乱时,可以执行以下两个命令批量修正:批量修改文件夹的权限chmod755-Rdir_name批量修改文件的权限finddir_nam...
- CentOS「linux」学习笔记10:修改文件和目录权限
-
?linux基础操作:主要介绍了修改文件和目录的权限及chown和chgrp高级用法6.chmod修改权限1:字母方式[修改文件或目录的权限]u代表所属者,g代表所属组,o代表其他组的用户,a代表所有...
- Linux下更改串口的权限
-
问题描述我在Ubuntu中使用ArduinoIDE,并且遇到串口问题。它过去一直有效,但由于可能不必要的原因,我觉得有必要将一些文件的所有权从root所有权更改为我的用户所有权。...
- Linux chown命令:修改文件和目录的所有者和所属组
-
chown命令,可以认为是"changeowner"的缩写,主要用于修改文件(或目录)的所有者,除此之外,这个命令也可以修改文件(或目录)的所属组。当只需要修改所有者时,可使用...
- chmod修改文件夹及子目录权限的方法
-
chmod修改文件夹及子目录权限的方法打开终端进入你需要修改的目录然后执行下面这条命令chmod777*-R全部子目录及文件权限改为777查看linux文件的权限:ls-l文件名称查看li...
- Android 修改隐藏设置项权限
-
在Android系统中,修改某些隐藏设置项或权限通常涉及到系统级别的操作,尤其是针对非标准的、未在常规用户界面显示的高级选项。这些隐藏设置往往与隐私保护、安全相关的特殊功能有关,或者涉及开发者选项、权...
- 完蛋了!我不小心把Linux所有的文件权限修改了!在线等修复!
-
最近一个客户在群里说他一不小心把某台业务服务器的根目录权限给改了,本来想修改当前目录,结果执行成了根目录。...
- linux改变安全性设置-改变所属关系
-
CentOS7.3学习笔记总结(五十八)-改变安全性设置-改变所属关系在以前的文章里,我介绍过linux文件权限,感兴趣的朋友可以关注我,阅读一下这篇文章。这里我们不在做过的介绍,注重介绍改变文件或者...
- Python基础到实战一飞冲天(一)--linux基础(七)修改权限chmod
-
#07_Python基础到实战一飞冲天(一)--linux基础(七)--修改权限chmod-root-groupadd-groupdel-chgrp-username-passwd...
- linux更改用户权限为root权限方法大全
-
背景在使用linux系统时,经常会遇到需要修改用户权限为root权限。通过修改用户所属群组groupid为root,此操作只能使普通用户实现享有部分root权限,普通用户仍不能像root用户一样享有超...
- 怎么用ip命令在linux中添加路由表项?
-
在Linux中添加路由表项,可以使用ip命令的route子命令。添加路由表项的基本语法如下:sudoiprouteadd<network>via<gateway>这...
- Linux配置网络
-
1、网卡名配置相关文件回到顶部网卡名命名规则文件:/etc/udev/rules.d/70-persistent-net.rules#PCIdevice0x8086:0x100f(e1000)...
- Linux系列---网络配置文件
-
1.网卡配置文件在/etc/sysconfig/network-scripts/下:[root@oldboynetwork-scripts]#ls/etc/sysconfig/network-s...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- oracle忘记用户名密码 (59)
- oracle11gr2安装教程 (55)
- mybatis调用oracle存储过程 (67)
- oracle spool的用法 (57)
- oracle asm 磁盘管理 (67)
- 前端 设计模式 (64)
- 前端面试vue (56)
- linux格式化 (55)
- linux图形界面 (62)
- linux文件压缩 (75)
- Linux设置权限 (53)
- linux服务器配置 (62)
- mysql安装linux (71)
- linux启动命令 (59)
- 查看linux磁盘 (72)
- linux用户组 (74)
- linux多线程 (70)
- linux设备驱动 (53)
- linux自启动 (59)
- linux网络命令 (55)
- linux传文件 (60)
- linux打包文件 (58)
- linux查看数据库 (61)
- linux获取ip (64)
- linux进程通信 (63)