我正在尝试逐行读取文件。问题是文件太大(超过 500000 行)并且我达到了内存限制。我想知道如何在不受内存限制的情况下读取文件。
我正在考虑解决方案多线程(比如将文件分成更小的组(每组 100000 行)并在多线程中读取它),但我不知道如何详细执行。请帮助我(抱歉英语不好)。
这是我的代码
$fn = fopen("myfile.txt", "r");
while(!feof($fn)) {
$result = fgets($fn);
echo $result;
}
fclose($fn);
你可以使用发电机来处理内存使用情况。这只是用户在文档页面上编写的示例:
function getLines($file)
{
$f = fopen($file, 'r');
try {
while ($line = fgets($f)) {
yield $line;
}
} finally {
fclose($f);
}
}
foreach (getLines("file.txt") as $n => $line) {
// insert the line into db or do whatever you want with it.
}
生成器允许您编写使用 foreach 迭代一组数据的代码,而无需在内存中构建数组,这可能会导致您超出内存限制,或者需要大量的处理时间来生成。相反,您可以编写一个生成器函数,它与普通函数相同,只不过生成器不是返回一次,而是可以根据需要生成多次,以便提供要迭代的值。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)