当我尝试将大文件分割为8GB文件时,出现内存相关错误。
# split -C 8000000000 r_mini_20120503.txt split: memory exhausted
但是我可以使用相同的命令创build4GB文件。 有没有办法增加这个目的的内存?
也许split是这个任务有点错误的工具。 你可以用dd (未经testing)来尝试:
infile=r_mini_20120503.txt filesize=1234567890 # manual set skip=0 chunk=8000000000 bs=1000000000 count=8 part=1 while [ $skip -lt $filesize ] ; do dd if=$infile of=$infile.$part bs=$bs count=$count skip=$skip skip=[[ $skip + $chunk ]] part=[[ $part + 1 ]] done
正如我写的,没有经过检验。
我会说你想要使用比你的系统更多的内存。
您可以在单用户模式下执行此操作,因此服务较less,而其他内容(如X和GDM)正在运行。
为此,运行telinit 1
或..安装更多的RAM。 这很便宜。
你的盒子里有多less内存? 你可以暂时增加一些交换到你的系统,但这将是狗慢:P