python读unicode
⑴ python unicode编码
python unicode编码:
下面的代码创建了一个Unicode字符串,用UTF-8编码器将它编码,然后写入到一个文件中去,接着把数据从文件中读回来,解码成Unicode字符串对象,最后,打印出Unicode字符串,用以确认程序正确地运行。
在Linux中编写,在VIM中输入如下代码,保存为uniFile.py
#/home/xiaopeng/python/code/uniFile.py
'''
:Writes
aUnicodestringtoafileinutf-8andreadsitbackin
'''
CODEC='utf-8'编码方式
FILE='unicode.txt'要存的文件名
hello_out=u"Helloworld "创建了一个Unicode格式的字符串
bytes_out=hello_out.encode(CODEC)用UTF-8编码
f=open(FILE,'w')
f.write(bytes_out)写入指定文件中
f.close()
f=open(FILE,'r')
bytes_in=f.read()读取
f.close()
hello_in=bytes_in.decode(CODEC)解码
printhello_in打印
在终端中输入:python uniFile.py
结果打印出 Hello world
然后在python目录下会发现多了一个名为unicode.txt的文件,用cat命令查看一下,发现里面的内容和打印的结果一样.
把Unicode应用到实际中注意一下四点:
1程序中出现字符串时一定要加一个前缀u
2不要用str()函数,用Unicode()代替
3 不要用过时的string模块。如果传给它非ASCII码,它会把一切搞砸。
4 不到必须时不要在你的程序里编解码Unicode字符,只在你要写入文件或者数据库或者网络时,才调用encode()函数和decode()函数。
⑵ python 字符串格式的unicode编码转中文
python对于Unicode编码可以使用decode进行转换成中文:
>>> str = b'\xe8\xb4\xb9\xe8\x84\x91\xe5\xad\x90'
>>> str.decode('utf-8')
'费脑子'
如果是字符串类型的Unicode编码没办法直接用decode进行转换:
>>> str ="\\xe8\\xb4\\xb9\\xe8\\x84\\x91\\xe5\\xad\\x90"
>>> str.decode('utf-8')
Traceback (most recent call last):
File "<stdin>", line 1, in <mole>
AttributeError: 'str' object has no attribute 'decode'
处理方式:
>>> str = eval("b" + "\"" + str + "\"")
>>> str.decode('utf-8')
'费脑子'
⑶ python123汉字的unicode编码值
python的默认编码是ascii,可以通过sys.setdefaultencoding('utf-8')函数设置python的默认编码。
python中可以通过encode和decode的方式改变数据的编码,比如:
>>> u'汉字'
u'\u6c49\u5b57'
>>> u'汉字'.encode('utf-8')
'\xe6\xb1\x89\xe5\xad\x97'
>>> u'汉字'.encode('utf-8').decode('utf-8')
u'\u6c49\u5b57'
我们可以通过这两个函数设置编码。
那么,python中的str是什么类型?
>>> import binascii
>>> '汉字'
'\xba\xba\xd7\xd6'
>>> type('汉字')
>>> print binascii.b2a_hex('汉字')
babad7d6
>>> print binascii.b2a_hex(u'汉字')
Traceback (most recent call last):
File "", line 1, in
UnicodeEncodeError: 'ascii' codec can't encode characters in
position 0-1: ordinal not in range(128)
>>> print binascii.b2a_hex(u'汉字'.encode('utf-8'))
e6b189e5ad97
>>> print binascii.b2a_hex(u'汉字'.encode('gbk'))
babad7d6
binascii是将数据的二进制转换成ascii,上面的解释是:‘汉字'的类型是str,二进制是babad7d6,u‘汉字'是无法转换成ascii,这样就报出了开头的第一个错误。解决办法就是把它.encode(‘utf-8')成str类型。因为我命令行是windows默认的GBK编码,所有u'汉字'.encode(‘gbk')的时候,输出结果和‘汉字'结果一样。
⑷ 如何使用python 打开unicode的文件
Python核心库的open函数是按照ascii设计的。但是,现在我们越来越多地要面对Unicode文件。好在python提供了codecs模块,帮我们解决了这个问题。
codecs模块的open定义如下
open( filename, mode[, encoding[, errors[, buffering]]])
Open an encoded file using the given mode and return a wrapped version providing transparent encoding/decoding.
其中前两个参数filename和mode和默认的open相同。第三个参数encoding是关键,制定了文件的编码方式。
对于常用的Unicode有这几种utf_16、utf_16_le、utf_16_be、utf_8,每一种还有一些可用的别名,具体可以查找python manual。
utf_16、utf_16_le、utf_16_be参数的区别是这样的。
如果指定了utf_16,python会检查文件的BOM(Byte Order Mark)来判断,文件类型到底是utf_16_le、utf_16_be。对于没有BOM的文件会报错。
如果我们直接指定了utf_16_le、utf_16_be,python就不检查BOM了。对于没有BOM的文件很好用。但是,对于有BOM的文件就要注意,它会把BOM当作第一个字符读入。
⑸ Python字符编码使用什么码
Python 2.x 和 Python 3.x 的字符编码存在较大的区别。下面将分别介绍它们的编码原理及相关内容。
Python 2.x 字符编码
在 Python 2.x 中,str 类型默认使用 ASCII 编码。ASCII 编码是在 1960 年代初开发的一种编码方式,用于将英文字母、数字、符号等字符表示为字节。由于 ASCII 编码只使用了 7 位二进制数,因此只能表示 128 种字符。
当需要使用非 ASCII 字符时,在 str 类型前添加 u 前缀,即可将字符串转换为 Unicode 类型,如下所示:
str1 = 'hello' # 默认使用 ASCII 编码
str2 = u'你好' # 使用 Unicode 编码
Python 3.x 字符编码
在 Python 3.x 中,str 类型默认使用 Unicode 编码,即 Python 2.x 中的 Unicode 类型。Unicode 编码是一种支持全球范围内的字符集,裤岁正能够表示几乎所有语言的字符,包括汉字、日文、希腊字母等。
为了支持字节和 Unicode 类型之间的转换,Python3.x 新增了 bytes 类型。bytes 类型与 str 类型的区别在于,bytes 类型会自动将字符串转雀猛换成字节,而 str 类型会自动将字节转换成字符串。
bytes 类型使用 b 前缀表示,如下所示:
str1 = 'hello' # 默认使用胡悔 Unicode 编码,即 Python 2.x 中的 Unicode 类型
str2 = b'hello' # 使用 bytes 类型
编码原理及注意事项
字符编码的原理在于将字符转换为二进制表示,以便计算机能够处理。
ASCII 编码使用 7 位二进制数对字符进行编码,而 Unicode 编码使用 16 位或 32 位二进制数对字符进行编码。
在 Python 中,可以使用 encode 方法将 Unicode 字符串转换为字节类型,使用 decode 方法将字节类型转换为 Unicode 字符串。编码方式有多种,如 UTF-8、GBK、Unicode 等,需要根据实际业务需求进行选择。
UTF-8 编码是一种常用的 Unicode 字符编码方式,它使用变长字节对字符进行编码,能够表示几乎所有的字符。GBK 编码是一种用于汉字编码的字符集,只能表示中文字符。
Python 3.x 默认使用 UTF-8 编码,因此在读取文件或进行网络传输时,需要明确指定编码方式以避免出现乱码等问题。
总结
由于字符编码十分复杂,涉及到的知识点较多,因此学习时需要耐心且注意细节。在使用 Python 进行编程时,需要根据实际情况选择合适的编码方式,以避免出现乱码等问题。
希望我的回答能够对您有所帮助!