python读取文件编码
❶ python3读文件编码错误怎么办
在python3中系统默认编码是unicode,读取文件经常会编码错误导致报错。
首先先确认要读取文件的编码,可这样操作:
记事本打开文本文件,点击“文件”-“另存为”查看编码:
importcodecs
f=codecs.open(r"test.txt","r","gbk")
print(f.read())
f.close()
(示例的文件是ANSI所以使用GBK读取)
以上就可以正确读取想要的文件了
❷ python 读取文件时能指定编码吗
代码如下:
import os
import codecs
filenames=os.listdir(os.getcwd())
out=file("name.txt","w")
for filename in filenames:
out.write(filename.decode("gb2312").encode("utf-8"))
out.close()
将执行文件的当前目录及文件名写入到name.txt文件中,以utf-8格式保存
如果采用ANSI编码保存,用如下代码写入即可:
复制代码代码如下:
out.write(filename)
打开文件并写入
引用codecs模块,对该模块目前不了解。在此记录下方法,有空掌握该模块功能及用法。
复制代码代码如下:
import codecs
file=codecs.open("lol.txt","w","utf-8")
file.write(u"我")
file.close()
读取ANSI编码的文本文件和utf-8编码的文件
读取ANSI编码文件
建立一个文件test.txt,文件格式用ANSI,内容为:
复制代码代码如下:
abc中文
用python来读取
复制代码代码如下:
# coding=gbk
print open("Test.txt").read()
结果:abc中文
读取utf-8编码文件(无BOM)
把文件格式改成UTF-8:
复制代码代码如下:
结果:abc涓 枃
显然,这里需要解码:
复制代码代码如下:
# -*- coding: utf-8 -*-
import codecs
print open("Test.txt").read().decode("utf-8")
结果:abc中文
读取utf-8编码文件(有BOM)
某些软件在保存一个以UTF-8编码的文件时,默认会在文件开始的地方插入三个不可见的字符(0xEF 0xBB 0xBF,即BOM)。在有些软件可以控制是否插入BOM。如果在有BOM的情况下,在读取时需要自己去掉这些字符,python中的codecs mole定义了这个常量:
复制代码代码如下:
# -*- coding: utf-8 -*-
import codecs
data = open("Test.txt").read()
if data[:3] == codecs.BOM_UTF8:
data = data[3:]
print data.decode("utf-8")
结果:abc中文
在看下面的例子:
复制代码代码如下:
# -*- coding: utf-8 -*-
data = open("name_utf8.txt").read()
u=data.decode("utf-8")
print u[1:]
打开utf-8格式的文件并读取utf-8字符串后,解码变成unicode对象。但是会把附加的三个字符同样进行转换,变成一个unicode字符。该字符不能被打印。所以为了正常显示,采用u[1:]的方式,过滤到第一个字符。
注意:在处理unicode中文字符串的时候,必须首先对它调用encode函数,转换成其它编码输出。
设置python默认编码
复制代码代码如下:
import sys
reload(sys)
sys.setdefaultencoding("utf-8")
print sys.getdefaultencoding()
今天碰到了 python 编码问题, 报错信息如下
复制代码代码如下:
Traceback (most recent call last):
File "ntpath.pyc", line 108, in join
UnicodeDecodeError: 'ascii' codec can't decode byte 0xa1 in position 36: ordinal not in range(128)
显然是当前的编码为ascii, 无法解析0xa1(十进制为161, 超过上限128). 进入python console后, 发现默认编码确实是 ascii, 验证过程为:
在python2.6中无法调用sys.setdefaultencoding()函数来修改默认编码,因为python在启动的时候会调用site.py文件,在这个文件中设置完默认编码后会删除sys的setdefaultencoding方法。不能再被调用了. 在确定sys已经导入的情况下, 可以reload sys这个模块之后, 再 sys.setdefaultencoding('utf8')
复制代码代码如下:
import sys
reload(sys)
sys.setdefaultencoding("utf-8")
print sys.getdefaultencoding()
确实有效, 根据 limodou 讲解, site.py 是 python 解释器启动后, 默认加载的一个脚本. 如果使用 python -S 启动的话, 将不会自动加载 site.py.
上面写的挺啰嗦的.
==================================
如何永久地将默认编码设置为utf-8呢? 有2种方法:
==================================
第一个方法<不推荐>: 编辑site.py, 修改setencoding()函数, 强制设置为 utf-8
第二个方法<推荐>: 增加一个名为 sitecustomize.py, 推荐存放的路径为 site-packages 目录下
sitecustomize.py 是在 site.py 被import 执行的, 因为 sys.setdefaultencoding() 是在 site.py 的最后删除的, 所以, 可以在 sitecustomize.py 使用 sys.setdefaultencoding().
复制代码代码如下:
import sys
sys.setdefaultencoding('utf-8')
既然 sitecustomize.py 能被自动加载, 所以除了设置编码外, 也可以设置一些其他的东西
字符串的编码
复制代码代码如下:
s1='中文'
像上面那样直接输入的字符串是按照代码文件的编码来处理的,如果是unicode编码,有以下三种方式:
复制代码代码如下:
1 s1 = u'中文'
2 s2 = unicode('中文','gbk')
3 s3 = s1.decode('gbk')
unicode是一个内置函数,第二个参数指示源字符串的编码格式。
decode是任何字符串具有的方法,将字符串转换成unicode格式,参数指示源字符串的编码格式。
encode也是任何字符串具有的方法,将字符串转换成参数指定的格式。
❸ Python 读写文件的编码与解码问题
演示文件为docx文档,内容如下:
运行源码查看报错信息
UnicodeDecodeError: 'gbk' codec can't decode byte 0xab in position 15: illegal multibyte sequence
上述错误是一种很常见的解码错误,下面介绍该错误的解决方法
把utf-8,gbk等各种编码方式都试了一遍,还是没有解决问题然后仔细看报错信息,根据UnicodeDecodeError: 'utf-8' codec can't decode byte 0xfb in position 14: invalid start byte,猜测文件中某个字节不能解码,打开文件一看,并没有看出什么问题来
open() 函数的第三个参数不是用来野唯接收编码方式的,而磨脊信是传入一个buffering的值,此处传入了'gbk'字符串,所以系统提示传一个瞎轮整型
通过调用office的API进行操作,因为在office上能完成的操作,都能通过win32完成,所以我们选择使用win32
(Python3.5 需要安装 win32compat,里面含了 win32 的很多包)
❹ Python怎么获取HDFS文件的编码格式
你好,你可以利用python3的python3-magic来获得文件的编码格式。下面是对应的代码
import magic
blob = open('unknown-file').read()
m = magic.open(magic.MAGIC_MIME_ENCODING)
m.load()
encoding = m.buffer(blob) # "utf-8" "us-ascii" etc
❺ Python字符编码使用什么码
Python 2.x 和 Python 3.x 的字符编码存在较大的区别。下面将分别介绍它们的编码原理及相关内容。
Python 2.x 字符编码
在 Python 2.x 中,str 类型默认使用 ASCII 编码。ASCII 编码是在 1960 年代初开发的一种编码方式,用于将英文字母、数字、符号等字符表示为字节。由于 ASCII 编码只使用了 7 位二进制数,因此只能表示 128 种字符。
当需要使用非 ASCII 字符时,在 str 类型前添加 u 前缀,即可将字符串转换为 Unicode 类型,如下所示:
str1 = 'hello' # 默认使用 ASCII 编码
str2 = u'你好' # 使用 Unicode 编码
Python 3.x 字符编码
在 Python 3.x 中,str 类型默认使用 Unicode 编码,即 Python 2.x 中的 Unicode 类型。Unicode 编码是一种支持全球范围内的字符集,裤岁正能够表示几乎所有语言的字符,包括汉字、日文、希腊字母等。
为了支持字节和 Unicode 类型之间的转换,Python3.x 新增了 bytes 类型。bytes 类型与 str 类型的区别在于,bytes 类型会自动将字符串转雀猛换成字节,而 str 类型会自动将字节转换成字符串。
bytes 类型使用 b 前缀表示,如下所示:
str1 = 'hello' # 默认使用胡悔 Unicode 编码,即 Python 2.x 中的 Unicode 类型
str2 = b'hello' # 使用 bytes 类型
编码原理及注意事项
字符编码的原理在于将字符转换为二进制表示,以便计算机能够处理。
ASCII 编码使用 7 位二进制数对字符进行编码,而 Unicode 编码使用 16 位或 32 位二进制数对字符进行编码。
在 Python 中,可以使用 encode 方法将 Unicode 字符串转换为字节类型,使用 decode 方法将字节类型转换为 Unicode 字符串。编码方式有多种,如 UTF-8、GBK、Unicode 等,需要根据实际业务需求进行选择。
UTF-8 编码是一种常用的 Unicode 字符编码方式,它使用变长字节对字符进行编码,能够表示几乎所有的字符。GBK 编码是一种用于汉字编码的字符集,只能表示中文字符。
Python 3.x 默认使用 UTF-8 编码,因此在读取文件或进行网络传输时,需要明确指定编码方式以避免出现乱码等问题。
总结
由于字符编码十分复杂,涉及到的知识点较多,因此学习时需要耐心且注意细节。在使用 Python 进行编程时,需要根据实际情况选择合适的编码方式,以避免出现乱码等问题。
希望我的回答能够对您有所帮助!
❻ Python:查看文件的编码格式-chardet
其中, encoding 为检测出的编码, confidence 为可信度, language 是语言。
另外一个例子:
检测的编码是GB2312,注意到GBK是GB2312的超集,两者是同一种编码,检测正确的概率是74%,language字段指出的语言是'Chinese'。
注意:chardet支持检测的编码列表请参考官方文档 Supported encodings 。
❼ Python读写文件时,遇到中文编码需要怎么处理
使用utf-8编码橡槐:
withopen("f.txt","r",encoding="utf-8")如扰ascode:
print(code.read())
#或者下渣如旦面这种:
f=open("f.txx","r",encoding="utf-8")
print(f.read())
f.close()
❽ python读写有中文的文件时,是否需要设置编码格式
需要:
with open("路径","模式",encoding="utf8") as f:
如果不确定编码格式,后面读取可能会出问题