Saya memiliki kotak OpenSolaris yang membagikan dua sistem file ZFS. Salah satunya adalah koneksi NFS ke kotak CentOS yang menjalankan server VMware (gambar disk disimpan di ZFS). Yang lainnya adalah koneksi iSCSI ke server Windows 2008 dengan format NTFS di atas ZFS. Kedua koneksi langsung melalui gig-E (tanpa switch).
Saya menjalankan munin untuk memantau kotak-kotak itu, tetapi saya tidak yakin nomor apa yang seharusnya saya harapkan. Adakah yang bisa memberi saya beberapa angka dasar untuk dibandingkan atau memberikan saran tentang di mana harus mulai menyetel?
Berikut adalah statistik NFS yang saya lihat, saya akan memposting iSCSI setelah saya memperbaiki munin pada kotak solaris: P
vmware-server
nfs
iscsi
zfs
Sysadminicus
sumber
sumber
Jawaban:
Kami telah mendorong Sun X4100 menulis lebih dari GigE terikat dan iSCSI ke Sun X4500 ke 280MB / s.
Ada banyak yang dapat dilakukan untuk menyetel tumpukan TCP pada Solaris untuk membantu, ini saya konfigurasi penyetelan stok saya. (ambil dari beberapa koleksi whitepapers Sun):
Juga, layak untuk dilihat pada mesin OpenSolaris Anda adalah mengubah interval fsflush, penyesuaian "sihir" interupsi dan menonaktifkan cincin lembut. Tambahkan berikut ini ke / etc / system (diperlukan reboot):
Layak disebutkan, saya melakukan ini pada Solaris 10 - bukan OpenSolaris - tapi saya pikir tunables harus bekerja untuk Anda sama saja.
Saya penggemar berat Filebench karena bermain-main dengan opsi tuning dan melakukan tes throughput.
Rilis OpenSolaris 2009.06 yang baru saja dinamai sangat menarik di dunia iSCSI dan ZFS.
Semoga ini bisa membantu!
sumber
Saya mendapatkan sekitar 90 MB / detik untuk array EMC AX150i saya melalui iSCSI pada ethernet 1GB.
sumber
Untuk hanya satu dd atau bonnie ++ (kecepatan mentah, penulisan linier) Anda harus cukup dekat dengan kecepatan kawat.
Tapi bottleneck Anda akan menjadi array disk, setelah Anda mulai mendapatkan beban IO acak dari beberapa VM, jauh lebih banyak daripada transportasi.
Juga, jika Anda tidak memiliki cache tulis yang didukung baterai dengan jumlah RAM yang signifikan, kinerja Anda akan kawah segera setelah Anda mulai mendapatkan banyak penulisan dengan IO lain yang sedang terjadi.
sumber
Saya sudah bisa mendorong data melalui iSCSI hingga sekitar 200 Mbit / detik melalui tautan 1GB. Tapi saya punya 14 disk RAID 6 yang di-host oleh EMC CX4-240 dengan tidak banyak lagi menggunakan cache pada saat itu.
Hambatan terbesar mungkin adalah jumlah cache controller dan kecepatan disk (untuk saat cache penuh).
sumber
Saya mendapatkan sekitar 80 MB / S ke server windows saya melalui ISCSI pada ethernet 1G. Target: KernSafe iStorage Server http://www.kernsafe.com/Product.aspx?id=5 Penggagas: Pemrakarsa Microsoft www.microsoft.com/downloads/details.aspx?familyid=12cb3c1a-15d6-4585-b385-befd1319f825&displaylang= id
Hardisk: ATA 7200
sumber
Bagi kita yang lebih dekat ke hal-hal semi-pro (daripada pro) saya mendapatkan 150MB konstan dan konsisten membaca 120MB menulis dari server W2012 dual 1GB nic bekerja sama melalui draytek dikelola beralih ke blackarmorsnas melalui tembaga RJ45, transfer tunggal file 20GB. Tidak ada operasi simulatan lainnya selama tes. Untuk mencapai ini saya menggunakan frame jumbo 9k, rx & tx flow, yaitu semua optimisasi driver normal, tetapi tidak ada tweak selain menghidupkan dan menaikkan frame jumbo ke max.
sumber