时间:2021-07-01 10:21:17 帮助过:23人阅读
没有做过网页抓取类似的功能,file_get_contents这个方法使用的次数也不多。
昨天在phpchina上看见一个网页询问说,使用file_get_contents在抓取souhu blog的时候,出现乱码问题,但是抓取新浪blog的时候却没有
乱码问题。这个问题,我不知道的怎么解决,更不知道为什么。今天,在phpchina上看到lz已经结贴了。答案如下:
获取的头部当中有Content-Encoding: gzip说明内容是GZIP压缩的 解压后就能得到内容了array(11) {
[0]=>
string(15) "HTTP/1.1 200 OK"
[1]=>
string(35) "Content-Type: text/html;charset=gbk"
[2]=>
string(17) "Connection: close"
[3]=>
string(13) "Server: nginx"
[4]=>
string(35) "Date: Fri, 29 Oct 2010 00:36:51 GMT"
[5]=>
string(26) "Vary: Host,Accept-Encoding"
[6]=>
string(14) "Pragma: Public"
[7]=>
string(26) "Cache-Control: max-age=300"
[8]=>
string(38) "Expires: Fri, 29 Oct 2010 00:41:53 GMT"
[9]=>
string(22) "Content-Encoding: gzip"
[10]=>
string(14) "FSS-Cache: HIT"
}
file_get_contents超时问题及解决方案
http://tech.cncms.com/web/php/111869.html