当前位置:Gxlcms > PHP教程 > php_采集网页_基准3步

php_采集网页_基准3步

时间:2021-07-01 10:21:17 帮助过:5人阅读

php_采集网页_标准3步
/','',$str);				return $str;}function filterA($str){				$str=preg_replace('/]*)>/','',$str);//过滤A标签				$str=preg_replace('/<\/a>/','',$str);				return $str;}class caiji{			public function fenyelist($data){					//sg_调试_仿discuz采集					//获取分页列表数组 例如:http://movie.douban.com/top250?start=(*)&filter=&type=					$fenye_url=$data['fenye_url'];					$fenye_from=$data['fenye_from'];		//0					$fenye_to=$data['fenye_to'];			//200					$fenye_increment=$data['fenye_increment'];			//25					//现在就可以得到一个数组					$fenye_list=array();					for($i=$fenye_from;$i<=$fenye_to;$i+=$fenye_increment){						$fenye_list[]=preg_replace("/\(\*\)/",$i,$fenye_url);					}					return $fenye_list;			}						public function archivesByReg($fenye_list,$reg){			//下面开始第2阶段,遍历数组$fenye_list列表页(N个http://movie.douban.com/top250?start=25&filter=&type=";)				//并且根据指定的正则,获取每个文章的具体路径存放到数组				//http://movie.douban.com/subject/1867345/"				//样本:$reg='/http:\/\/movie\.douban\.com\/subject\/[\d]*/';				$arr[][]=null;				$i=0;				foreach($fenye_list as $one){									//$one="http://localhost/ci/豆瓣电影TOP250.htm";					$temp=file_get_contents($one);					preg_match_all($reg,$temp,$arr[$i++]);									}				//var_dump($arr);	//3维数组   [0-9][0][0-25]							//遍历这个3维数组,将每篇文章的网址,放到结果数组并返回				 $one_arr=array();				 foreach($arr as $arr2){					 foreach($arr2[0] as $item){						$one_arr[]=$item;					 }				 }				 $one_arr =unique($one_arr); //去重复元素				 return $one_arr;			}			public function archivesByDOM($fenye_list,$rule){				require_once("../simple_html_dom.php");//在www_local根目录				$html = new simple_html_dom();				$one_arr=array();//准备一个空数组,接收				foreach($fenye_list as $one){//遍历列表数组					$content=file_get_contents($one);//取出每一个列表的HTML					$html->load($content);//从字符串中加载文档					$arr_A=$html->find($rule);//返回对象数组					foreach($arr_A as $item){						$href=$item->href;						//echo $href."
"; $one_arr[]=$href;//将每一篇文章的url加到数组当中 } //千万记得清理一下内存 $html->clear(); } $one_arr =unique($one_arr); //去重复url return $one_arr; } public function downEveryArticle($filename,$bodyRule,$outputdir){ //现在开始第3阶段,反序列化filename,得到数组$article_arr,每个成员是一篇文章url //遍历$article_arr,利用$bodyRule本地化每一篇文章的正文内容,
输出到指定目录 $article_arr=unserialize(file_get_contents($filename)); //var_dump($article_arr);exit;//sg_调试 require_once("../simple_html_dom.php");//在www_local根目录 $html = new simple_html_dom(); $i=1; if(!file_exists($outputdir)){ mkdir($outputdir); } set_time_limit(0); foreach($article_arr as $one){//$one对应一篇文章的Url // if($i>25){ // exit; // } $file=$outputdir.$i.'.htm'; if(!file_exists($file)){ $content=filterJS(file_get_contents($one)); $html->load($content); $content=$html->find($bodyRule,0)->innertext; //var_dump($content);exit;//sg_调试 $html->clear();//千万记得清理一下内存 //本地化每一篇文章的正文内容 file_put_contents($file,$content); } $i=$i+1; } echo "采集文章,到本地完毕,请进入下一步,DOM或正则+refresh+sql插入"; } public function insertSQL(){ //DOM或正则采集单篇文章各个字段+sql插入+refresh //单篇文章已经本地化:http://localhost/csdn/temp/1.htm num为1-76 //先取得num,为构造目标url作准备 $dir_url="http://localhost/csdn/temp/"; set_time_limit(0); $start=1;//如果没有传参数Num就从1开始,传了就从指定的参数开始 $end=30; if(isset($_GET['num'])){ $num=$_GET['num']; if($num>$end){ echo "字段收集完毕"; exit; } }else{ $num=$start; } $url=$dir_url.$num.'.htm';//构造目标url 如http://localhost/csdn/temp/1.htm $content=file_get_contents($url); //准备2维数组接收,首个参数是字段名, //第2是通过正则和DOM从$content中匹配出来的各个字段的值 $preg_arr[][]=null; require_once("simple_html_dom.php"); $html = new simple_html_dom(); //第1个字段,匹配a_title $html->load($content); $fields['a_title']=trim($html->find('span.link_title',0)->plaintext); $html->clear();//千万记得清理一下内存 //var_dump($fields);exit;//sg_调试 //第2个字段,匹配a_body $html->load($content); $fields['a_body']=trim($html->find('div#article_content',0)->plaintext); $html->clear();//千万记得清理一下内存 //var_dump($fields);exit;//sg_调试 //第3个字段,匹配a_pubdate $html->load($content); $temp=trim($html->find('span.link_postdate',0)->plaintext); //echo $temp;//2014-01-08 17:32 $temp=strtotime($temp); //echo date("Y n j G i s",$time); $fields['a_pubdate']=$temp; $html->clear();//千万记得清理一下内存 //var_dump($fields);exit;//sg_调试 //下面就可以插入数据库了 $fields["t_id"]=4; $database='ci'; $host='localhost'; $user='root'; $pwd='root'; $table='csdn_article'; $link=mysql_connect($host,$user,$pwd); mysql_select_db($database); mysql_query("set names utf8"); $sql='insert into '.$table.'(t_id,a_title,a_body,a_pubdate) values("'.addslashes($fields["t_id"]).'","'.addslashes($fields["a_title"]).'","'.addslashes($fields["a_body"]).'","'.addslashes($fields["a_pubdate"]).'")'; //var_dump($sql);exit;//sg_调试 $b=mysql_query($sql) or die("Invalid query: " . mysql_error()); var_dump($b); $num=$num+1; //下面开始收集第2页 到第225页;千万注意要提交到本页面 //basename(__FILE__);就个就是本文件的名字,带后缀 echo ''; } } //$a=new caiji(); //========================第1大步========================== //$data['fenye_url']="http://blog.csdn.net/u012576807/article/list/(*)"; //$data['fenye_from']=1; //从多少开始 //$data['fenye_to']=2; //到多少 //$data['fenye_increment']=1; //每次增加多少 //$fenye_list=$a->fenyelist($data);//第一阶段完成 //var_dump($fenye_list);exit; //下面开始第2阶段,遍历数组$fenye_list列表页(http://movie.douban.com/top250?start=25&filter=&type=";) //2选其1,根据正则,获取每个文章的具体url,返回数组$article_arr //$reg='/http:\/\/blog\.csdn\.net\/pre_eminent\/article\/details\/[\d]*/'; //$article_arr=$a->archivesByReg($fenye_list,$reg); //2选其1,根据DOM规则如UL里面的LI,获取每个文章的具体url存放到数组$article_arr //$rule='div#article_list span.link_title a'; //$article_arr=$a->archivesByDOM($fenye_list,$rule); //var_dump($article_arr); exit; //先序列化,要用的时候,再反序列化 //$filename="csdn"; //$filename="D:/article_arr_".$filename.".txt"; //file_put_contents($filename,serialize($article_arr));exit; //至此,第2阶段完成,请open下一个PHP页面第3阶段,遍历数组$article_arr,本地化每一篇文章 //下面进入第4阶段,通过refresh,从本地读取每篇文章 //并取出相应字段,拼装成SQL,插入数据库 //========================第2大步========================== //上接getAllArticles1.php; //现在开始第3阶段,反序列化并遍历数组$article_arr,本地化每一篇文章的正文内容 /* $filename="csdn"; $filename="D:/article_arr_".$filename.".txt"; $bodyRule='div#article_details';//这就文章的主要内容 $outputdir='D:/www_local/csdn/temp/'; $a=new caiji(); $a->downEveryArticle($filename,$bodyRule,$outputdir);exit; */ //========================第3大步========================== //下面进入第4阶段,通过DOM或正则+refresh+sql插入,从本地读取每篇文章 //并取出相应字段,拼装成SQL,插入数据库 //$a->insertSQL();//注意,这个要单独拿出来! $dir_url="http://localhost/csdn0/temp/"; set_time_limit(0); $start=1;//如果没有传参数Num就从1开始,传了就从指定的参数开始 $end=76; if(isset($_GET['num'])){ $num=$_GET['num']; if($num>$end){ echo "字段收集完毕"; exit; } }else{ $num=$start; } $url=$dir_url.$num.'.htm';//构造目标url 如http://localhost/csdn/temp/1.htm $content=file_get_contents($url); //准备2维数组接收,首个参数是字段名, //第2是通过正则和DOM从$content中匹配出来的各个字段的值 $preg_arr[][]=null; require_once("simple_html_dom.php"); $html = new simple_html_dom(); //第1个字段,匹配a_title $html->load($content); $fields['a_title']=trim($html->find('span.link_title',0)->plaintext); $html->clear();//千万记得清理一下内存 //var_dump($fields);exit;//sg_调试 //第2个字段,匹配a_body $html->load($content); $fields['a_body']=trim($html->find('div#article_content',0)->plaintext); $html->clear();//千万记得清理一下内存 //var_dump($fields);exit;//sg_调试 //第3个字段,匹配a_pubdate $html->load($content); $temp=trim($html->find('span.link_postdate',0)->plaintext); //echo $temp;//2014-01-08 17:32 $temp=strtotime($temp); //echo date("Y n j G i s",$time); $fields['a_pubdate']=$temp; $html->clear();//千万记得清理一下内存 //var_dump($fields);exit;//sg_调试 //下面就可以插入数据库了 $fields["t_id"]=4; $database='ci'; $host='localhost'; $user='root'; $pwd='root'; $table='csdn_article'; $link=mysql_connect($host,$user,$pwd); mysql_select_db($database); mysql_query("set names utf8"); $sql='insert into '.$table.'(t_id,a_title,a_body,a_pubdate) values("'.addslashes($fields["t_id"]).'","'.addslashes($fields["a_title"]).'","'.addslashes($fields["a_body"]).'","'.addslashes($fields["a_pubdate"]).'")'; //var_dump($sql);exit;//sg_调试 $b=mysql_query($sql) or die("Invalid query: " . mysql_error()); var_dump($b); $num=$num+1; //下面开始收集第2页 到第225页;千万注意要提交到本页面 //basename(__FILE__);就个就是本文件的名字,带后缀 echo '';?>

人气教程排行