当前位置:Gxlcms > Python > 为什么这个网页的源代码用python爬下来后用beautifulsoup解析后会出现字符丢失?

为什么这个网页的源代码用python爬下来后用beautifulsoup解析后会出现字符丢失?

时间:2021-07-01 10:21:17 帮助过:85人阅读

回复内容:

又是你这个只点感谢不点赞的坏人……
话说你为什么要这么心急地学呢,基础不扎实啊,太冒进了,很显然没有清晰的思路…

首先编程要有默认的编码,也就是在文件的一开始加上
 # -*- coding: utf-8 -*-
你是python2 代码前 加上# coding:utf-8

看python培训黄哥的三篇文章
python开发爬虫汉字编码不再是问题:
将python2中汉字会出现乱码的事一次性说清楚
article/python_bianma.md at master · pythonpeixun/article · GitHub
python爬虫访问多个网站、中文编码的处理。
python爬虫访问多个网站、中文编码的处理。
python3访问sina首页中文的处理
python3访问sina首页中文的处理


可能在你这个转来转处的地方丢失。
ur = list(ur)
ur = ur[:-1]
****************
 ur = res.contents[0]
    ur = list(ur)
    ur = ur[:-1]
    temp = unicode(ur[0])
    for index in range(0, len(ur), 4):
        temp = unicode(ur[index])
        print temp.strip()
        print ur[index+1].string
        print ur[index+1]['href']
        print '\n'
似乎response 后面用了俩decode 后面一个改encode应该就好了吧。。。

Decode是把括号里转成Unicode

Encode是Unicode转成括号里,就是UTF-8

Unicode就是个中转站


再不行就同一楼ignore。。。 还是用Requests库来处理http请求吧

人气教程排行