手机
当前位置:查字典教程网 >脚本专栏 >python >Python BeautifulSoup中文乱码问题的2种解决方法
Python BeautifulSoup中文乱码问题的2种解决方法
摘要:解决方法一:使用python的BeautifulSoup来抓取网页然后输出网页标题,但是输出的总是乱码,找了好久找到解决办法,下面分享给大家...

解决方法一:

使用python的BeautifulSoup来抓取网页然后输出网页标题,但是输出的总是乱码,找了好久找到解决办法,下面分享给大家

首先是代码

复制代码 代码如下:

from bs4 import BeautifulSoup

import urllib2

url = 'http://www.jb51.net/'

page = urllib2.urlopen(url)

soup = BeautifulSoup(page,from_encoding="utf8")

print soup.original_encoding

print (soup.title).encode('gb18030')

file = open("title.txt","w")

file.write(str(soup.title))

file.close()

for link in soup.find_all('a'):

print link['href']

在刚开始测试的时候发现,虽然输出是乱码的,但是写在文件里面却是正常的.然后在网上找了找解决办法才发现

print一个对象的逻辑:内部是调用对象的__str__得到对应的字符串的,此处对应的是soup的__str__ 而针对于soup本身,其实已经是Unicode编码,所以可以通过指定__str__输出时的编码为GBK,以使得此处正确显示非乱码的中文

而对于cmd:(中文的系统中)编码为GBK,所以只要重新编码为gb18030就可以正常输出了

就是下面这行代码

复制代码 代码如下:

print (soup.title).encode('gb18030')

解决方法二:

BeautifulSoup在解析utf-8编码的网页时,如果不指定fromEncoding或者将fromEncoding指定为utf-8会出现中文乱码的现象。

解决此问题的方法是将Beautifulsoup构造函数中的fromEncoding参数的值指定为:gb18030

复制代码 代码如下:

import urllib2

from BeautifulSoup import BeautifulSoup

page = urllib2.urlopen('http://www.jb51.net/');

soup = BeautifulSoup(page,fromEncoding="gb18030")

print soup.originalEncoding

print soup.prettify()

【Python BeautifulSoup中文乱码问题的2种解决方法】相关文章:

python解决字典中的值是列表问题的方法

pymssql ntext字段调用问题解决方法

Python中使用中文的方法

python paramiko实现ssh远程访问的方法

python 不关闭控制台的实现方法

python 中文乱码问题深入分析

python BeautifulSoup使用方法详解

python正则表达式修复网站文章字体不统一的解决方法

Python字符串的encode与decode研究心得乱码问题解决方法

python sqlobject(mysql)中文乱码解决方法

精品推荐
分类导航