当前位置:Gxlcms > PHP教程 > php递归导致内存不够

php递归导致内存不够

时间:2021-07-01 10:21:17 帮助过:36人阅读

$user = 'root';$pass = 'thrope';$dbh = new PDO('mysql:host=localhost;dbname=income', $user, $pass);$query = 'insert into picinfo set picpath=:pp, picsize=:ps';//把文件路径和文件大小写入数据库$stmt = $dbh->prepare($query);function dir_read($dir){	$dh = opendir($dir);//if (is_dir($dir)) echo realpath($dir).'
'; while (false !== ($filename = readdir($dh))){//echo realpath($dir.'/'.$filename).'
'; //if ($filename == '.' || $filename == '..') continue; if (is_file($dir.'/'.$filename)){ global $stmt; $stmt->execute(array(':pp'=>realpath($dir.'/'.$filename), ':ps'=>filesize(realpath($dir.'/'.$filename)))); //echo $dbh->errorCode(); } if (is_dir(realpath($dir.'/'.$filename)))//这个递归调用特别耗费资源 dir_read(realpath($dir.'/'.$filename)); } closedir($dh);}dir_read('K:/project/fileOperate');

上面的代码主要功能是把K:/project/fileOperate这个目录下所有的文件和子文件夹下所有的文件名和文件大小写入数据库中,但是这个递归太耗费资源了,占用了超过1G内存
我想请教是我什么地方做得有问题?或者有更好的方法?


回复讨论(解决方案)

之前xu版主的一个方法在这里借用一下
$dir='d:\\';
$res=glob($dir);
for($i=0;$i if(is_dir($res[$i])){
$res=array_merge($res,glob($res[$i].'/*'));
$g=glob($res[$i].'/*');
var_dump($g);
}
}
?>

你 为什么把 if ($filename == '.' || $filename == '..') continue; 注释掉?

当 $filename = '.' 和 $filename = '..' 时,is_dir(realpath($dir.'/'.$filename) 成立,不就产生死循环了吗?

其实用 glob 函数 或 目录迭代器要简单的多

这边递归耗内存应该是mysql的insert操作耗内存比较严重, 可以考虑使用load data infile 这种方式优化一下。。

if ($filename == '.' || $filename == '..') continue; ?句是必?有的,否??死循?。

用PHP自带的SPL库处理会快很多:例如
$iterator = new \RecursiveIteratorIterator(new RecursiveDirectoryIterator('./'));
foreach ($iterator as $it){
echo $it->getFilename(),'->',$it->getSize(),'
';
}

可以自己参考下手册,SPL还是封装的蛮好的

memory_get_peak_usage
我用这个函数分别测试了空脚本和你的代码运行于一个全是零碎文件的8.4G的D盘,结果相差无几
有点搞不懂了

1G也太恐怖了吧,楼主还是想想别的办法吧

感觉LZ的代码有问题哇 应该把那个判断是不是当前和上级目录的加进来,这个样子应该就不会有那么大的内存占用了

if ($filename == '.' || $filename == '..') continue;
这个要加上。

人气教程排行