pandas.read_pickle #

熊猫。read_pickle ( filepath_or_buffer , compression = 'infer' , storage_options = None ) [来源] #

从文件加载 pickled pandas 对象(或任何对象)。

警告

加载从不受信任的来源收到的腌制数据可能不安全。看这里

参数
filepath_or_buffer str,路径对象或类文件对象

字符串、路径对象(实现os.PathLike[str])或实现二进制readlines()函数的类文件对象。还接受 URL。 URL不限于S3和GCS。

压缩str 或 dict,默认 'infer'

用于磁盘数据的即时解压缩。如果“infer”和“filepath_or_buffer”是类路径,则检测以下扩展名的压缩:“.gz”、“.bz2”、“.zip”、“.xz”、“.zst”、“.tar” 、“.tar.gz”、“.tar.xz”或“.tar.bz2”(否则不压缩)。如果使用“zip”或“tar”,ZIP 文件必须仅包含一个要读入的数据文件。设置为None则不解压缩。也可以是键设置为 { , , , , , }'method'之一的字典,其他键值对分别转发到 , , , ,或 。作为示例,可以使用自定义压缩字典传递以下内容以进行 Zstandard 解压缩: 。'zip''gzip''bz2''zstd''xz''tar'zipfile.ZipFilegzip.GzipFilebz2.BZ2Filezstandard.ZstdDecompressorlzma.LZMAFiletarfile.TarFilecompression={'method': 'zstd', 'dict_data': my_compression_dict}

1.5.0 版本中的新增功能:添加了对.tar文件的支持。

版本 1.4.0 中更改: Zstandard 支持。

storage_options字典,可选

对于特定存储连接有意义的额外选项,例如主机、端口、用户名、密码等。对于 HTTP(S) URL,键值对将urllib.request.Request作为标头选项转发。对于其他 URL(例如以“s3://”和“gcs://”开头),键值对将转发到fsspec.open。请参阅fsspecurllib了解更多详细信息,有关存储选项的更多示例,请参阅此处

返回
与文件中存储的对象类型相同

也可以看看

DataFrame.to_pickle

将 DataFrame 对象腌制(序列化)到文件。

Series.to_pickle

将 Series 对象腌制(序列化)到文件。

read_hdf

将 HDF5 文件读入 DataFrame。

read_sql

将 SQL 查询或数据库表读入 DataFrame。

read_parquet

加载 parquet 对象,返回 DataFrame。

笔记

read_pickle 仅保证向后兼容 pandas 0.20.3,前提是该对象是使用 to_pickle 序列化的。

例子

>>> original_df = pd.DataFrame(
...     {"foo": range(5), "bar": range(5, 10)}
...    )  
>>> original_df  
   foo  bar
0    0    5
1    1    6
2    2    7
3    3    8
4    4    9
>>> pd.to_pickle(original_df, "./dummy.pkl")  
>>> unpickled_df = pd.read_pickle("./dummy.pkl")  
>>> unpickled_df  
   foo  bar
0    0    5
1    1    6
2    2    7
3    3    8
4    4    9