首页 诗词 字典 板报 句子 名言 友答 励志 学校 网站地图
当前位置: 首页 > 教程频道 > 网站开发 > PHP >

求采集页数多里,怎样分开一部分一部分采,该怎么解决

2012-02-02 
求采集页数多里,怎样分开一部分一部分采连接$urlarray()里面一共有1000个页面的URL地址,我写了一个采集类

求采集页数多里,怎样分开一部分一部分采
连接$url=array()里面一共有1000个页面的URL地址,

我写了一个采集类

foreach ($url as $key => $value){
$get_json_contetns=$caiji->getJson($value);
$excel_contetns[]=$caiji->getContents($get_json_contetns,$key);
}

像这样循化出来的$excel_contetns 就是我要采集的内容。

当我采集50页以下,还好,当页数多了,就采集超时了,还请大侠指点一下,我怎么处理一下???

[解决办法]
将 $url 存入数据库
逐次从数据库读取 $value 执行采集,如遇新的 url,重复第一步
[解决办法]
不要拘泥于“存不存数据库”,问题的实质是将单一的任务分解成多个任务来完成

热点排行