Kami memiliki sepasang tautan Ethernet 1Gbps yang dialihkan secara beragam antara lokasi yang jaraknya sekitar 200 mil. 'Klien' adalah mesin baru yang cukup kuat (HP DL380 G6, dual E56xx Xeon, 48GB DDR3, sepasang R1 SAS 300GB 10krpm disk, W2K8R2-x64) dan 'server' juga merupakan mesin yang cukup layak (HP BL460c G6 , dual E55xx Xeons, 72GB, R1 sepasang 146GB 10krpm SAS disk, dual-port Emulex 4Gbps FC HBA yang ditautkan ke dual Cisco MDS9509s kemudian ke HP EVA 8400 khusus dengan disk FC 128k 450GB 15krpm, RHEL 5.3-x64).
Menggunakan SFTP dari klien, kami hanya melihat sekitar 40Kbps throughput menggunakan file besar (> 2GB). Kami telah melakukan uji coba server untuk 'server lokal lain' dan melihat sekitar 500Mbps melalui sakelar lokal (Cat 6509), kami akan melakukan hal yang sama di sisi klien, tetapi itu tinggal beberapa hari lagi.
Apa metode pengujian lain yang akan Anda gunakan untuk membuktikan kepada penyedia tautan bahwa masalahnya adalah masalah mereka?
sumber
Jawaban:
Tuning an Elephant:
Ini bisa membutuhkan tuning, mungkin bukan masalah di sini seperti yang dikatakan pQd. Tautan semacam ini dikenal "Long, Fat Pipe" atau gajah (lihat RFC 1072 ). Karena ini adalah pipa gigabit gemuk yang melewati suatu jarak (jarak ini benar-benar waktu / latensi dalam kasus ini), jendela penerima tcp harus besar (Lihat TCP / IP Illustrated Volume 1, Bagian Perpanjangan TCP untuk gambar).
Untuk mengetahui seperti apa seharusnya jendela penerima, Anda menghitung produk penundaan bandwidth:
Jika ada 10MS latensi, kalkulator ini memperkirakan Anda ingin menerima jendela sekitar 1,2 MB. Kita dapat melakukan perhitungan sendiri dengan rumus di atas:
Jadi, Anda mungkin ingin menjalankan dump paket untuk melihat apakah penskalaan jendela tcp (ekstensi TCP yang memungkinkan untuk jendela yang lebih besar) sedang terjadi untuk menyetel ini begitu Anda mengetahui apa pun masalahnya yang besar.
Batas Jendela:
Jika ini masalahnya, bahwa Anda terikat dengan ukuran jendela tanpa penskalaan, saya akan mengharapkan hasil berikut jika tidak ada penskalaan jendela di tempat dan ada sekitar 200 ms latensi terlepas dari ukuran pipa:
Begitu:
Untuk mendapatkan hasil yang Anda lihat, Anda hanya perlu menyelesaikan latensi, yaitu:
Jadi (Untuk 40 kBytes / s):
(Silakan periksa Matematika saya, dan ini tentu saja tidak termasuk semua overhead protokol / header)
sumber
40kbps sangat rendah [sampai-sampai saya curiga konverter media yang salah / dupleks tidak cocok [tetapi Anda memiliki gigabit sehingga tidak ada tempat untuk setengah dupleks!] Dll]. harus ada paket loss atau jitter yang sangat tinggi.
iperf adalah alat pertama yang muncul di pikiran saya untuk mengukur throughput yang tersedia. lari di satu sisi
dan di sisi lain:
kemudian Anda dapat bertukar peran klien / server, gunakan -d untuk dupleks dll. jalankan mtr antara kedua mesin sebelum memulai tes dan lihat latensi / paket kerugian yang Anda miliki pada tautan yang tidak digunakan, dan bagaimana mereka berubah selama transfer data.
Anda ingin melihat: jitter yang sangat kecil dan tidak ada paket yang hilang sampai link jenuh pada 90-sesuatu persen dari kapasitasnya.
iperf untuk * nix dan menang , baca di sini dan di sini tentang hal itu.
mtr untuk * nix dan menang .
sumber
tracepath dapat menunjukkan masalah perutean antara kedua situs.
iperf, ttcp dan bwping dapat memberikan Anda informasi yang bermanfaat.
apakah Anda tahu bagaimana tautan 1GB ini disediakan? apakah Anda menjembatani atau merutekan melalui tautan ini? Apa SLA Anda untuk tautan? Anda bisa dibentuk oleh penyedia tautan Anda?
jika Anda hanya mendapatkan 40kbs, maka ada masalah serius, apakah Anda yakin itu bukan tautan 1MB dan bukan tautan 1GB / s. Anda mungkin akan menemukan bahwa kecepatan tautannya tidak seperti yang Anda pikirkan :-)
sumber
RFC 2544 atau Y.156sam
Ini adalah tes jaringan yang dilakukan untuk membuktikan SLA oleh operator. IPERF dan sejenisnya bukan metode uji jaringan yang dapat diverifikasi.
sumber