当前位置:Gxlcms > Python > python采集博客中上传的QQ截图文件

python采集博客中上传的QQ截图文件

时间:2021-07-01 10:21:17 帮助过:67人阅读

哎,以前写博文的时候没注意,有些图片用QQ来截取,获得的图片文件名都是类似于QQ截图20120926174732-300×15.png的形式,昨天用ftp备份网站文件的时候发现,中文名在flashfxp里面显示的是乱码的,看起来好难受,所以写了一个python小脚本,爬取整个网站,然后获取每个文章页面的图片名,并判断如果是类似于QQ截图20120926174732-300×15.png的形式就输出并将该图片地址和对应的文章地址保存在文件中,然后通过该文件来逐个修改。

好了,下面是程序代码:

  1. import urllib2
  2. from bs4 import BeautifulSoup
  3. import re
  4. import sys
  5. reload(sys)
  6. sys.setdefaultencoding('utf-8')
  7. baseurl = "http://www.gxlcms.com/dont-worry.html"
  8. #说明下,起始地址是第一篇文章的地址,通过该文章的页面就
  9. #可以使用BeautifulSoup模块来获取上一篇文章的地址
  10. file = open(r"E:\123.txt","a")
  11. def pageloop(url):
  12. page = urllib2.urlopen(url)
  13. soup = BeautifulSoup(page)
  14. img = soup.findAll(['img'])
  15. if img == []:
  16. print "当前页面没有图片"
  17. return
  18. else:
  19. for myimg in img:
  20. link = myimg.get('src')
  21. print link
  22. pattern = re.compile(r'QQ\S*[0-9]*png')
  23. badimg = pattern.findall(str(link))
  24. if badimg:
  25. print url
  26. file.write(link + "\n")
  27. file.write(url+"\n")
  28. def getthenextpage(url):
  29. pageloop(url)
  30. page = urllib2.urlopen(url)
  31. soup = BeautifulSoup(page)
  32. for spanclass in soup.findAll(attrs={"class" : "article-nav-prev"}):
  33. #print spanclass
  34. if spanclass.find('article-nav-prev') != -1:
  35. pattern = re.compile(r'http://www.gxlcms.com/\S*html')
  36. pageurl = pattern.findall(str(spanclass))
  37. for i in pageurl:
  38. #print i
  39. getthenextpage(i)
  40. getthenextpage(baseurl)
  41. print "the end!"
  42. file.close()

最后,对和我以前刚开始做网站的同学说下,图片命名的话最好是用数字形式或者是英文、拼音的形式,要不然到最后想修改的话就麻烦了,所以最好就是从刚开始就养成好的习惯,用正确的命名规范来问文章、图片来命名,这样就会好很多。

人气教程排行