Di masa lalu, pada sistem linux, saya bisa memotong file log yang besar dan terbuka (yaitu, file yang sedang aktif ditulis oleh suatu proses) menggunakan cat /dev/null > file.log
.
Namun, pada 10.9 (Mavericks), sepertinya tidak demikian. Saya punya file 11GB yang sedang didata oleh aplikasi, tetapi ketika saya melakukan perintah yang sama dengan file tersebut, sepertinya tidak ada yang terjadi.
Ketika saya mencoba ini pada file ukuran sepele, itu berhasil.
Ini adalah ls -l /dev/null
:
crw-rw-rw- 1 root wheel 3, 2 Dec 16 12:49 /dev/null
Saya juga sudah mencoba cp /dev/null file.log
tidak berhasil.
Berpikir bahwa saya dapat mengambil keuntungan dari fungsi truncate ( man 2 truncate
di Darwin) saya mengkompilasi ini dan menjalankannya terhadap dua file, satu ukuran sepele dan yang lainnya file log yang sebenarnya. Sekali lagi, ini bekerja melawan file sepele dan tidak bekerja pada log yang jauh lebih besar.
/*
* Copyright (c) 2013 Thomas de Grivel <[email protected]>
*
* Permission to use, copy, modify, and distribute this software for any
* purpose with or without fee is hereby granted, provided that the above
...
* OR IN CONNECTION WITH THE USE OR PERFORMANCE OF THIS SOFTWARE.
*/
#include <unistd.h>
int main (int argc, const char **argv)
{
int e = 0;
while (--argc) {
argv++;
if (truncate(*argv, 0)) {
e = 4;
warn("%s", *argv);
}
}
return e;
}
Proses kembali 0
terlepas dari file mana yang saya gunakan.
du
ataudu -h
dikatakan? Apakah mungkin file tersebut adalah file yang jarang?du -h /tmp/file.log
hasil dalam11G /tmp/file.log
Jawaban:
cat /dev/null
agak rumit cara untuk menulis perintah yang tidak menghasilkan output.:
atautrue
yang lebih jelas.Dalam semua
cat /dev/null > file
,: > file
dan bahkan> file
di sebagian besar kerang, shell membuka file dengan O_TRUNC pada stdout, kemudian menjalankan aplikasi yang tidak apa-apa output, maka file ditutup dan dibiarkan terpotong.Namun, dalam kasus itu atau ketika menggunakan
truncate
system call, jika proses yang mengisi file itu tidak membukanya dengan flag O_APPEND, kali berikutnya ia menulis ke deskriptor file yang telah dibuka pada file, itu akan menulis data di offset itu ada di dalam file.Karena HFS + tidak mendukung file jarang, itu berarti bahwa ruang sebelum offset itu harus dialokasikan kembali dan diisi dengan nol oleh sistem.
Jadi, Anda harus mematikan aplikasi yang sedang menulis ke file itu sebelum memotongnya. Atau Anda perlu memastikan aplikasi membuka file dengan
O_APPEND
(seperti dengan>>
jika menggunakan redirection shell).Jika Anda ingin bereksperimen dengannya:
Sekarang fd 3 dari shell saya adalah 100000 byte di dalam file
Sekarang file terpotong (ukuran 0, tidak ada ruang yang digunakan pada disk).
Menulis 1 byte ke file pada offset 100000, file tersebut sekarang berukuran 100001 bytes, yang pertama semuanya nol, akan menggunakan lebih dari 100k pada HFS +, tetapi sekitar hanya satu blok disk di sebagian besar sistem file Unix lainnya
Di sisi lain, dengan:
Menulis 1 byte ke file tidak diimbangi 100000, tetapi pada akhir file karena
O_APPEND
. File berukuran 1 byte, dan membutuhkan ruang yang dibutuhkan untuk menampung satu byte itu.sumber