Kedengarannya jelas bahwa koneksi yang lebih cepat menurunkan latensi ... Tapi saya ingin tahu: Saya bekerja dari jarak jauh pada host di sisi lain dunia - cahaya hanya dapat berjalan begitu cepat (1 kaki dalam nano detik) dan kami berdua memiliki koneksi broadband melebihi unggahan 1.000 kbps dan unduhan 10.000 kbps:
Apakah koneksi bandwidth yang lebih tinggi akan menurunkan waktu yang dibutuhkan untuk melakukan ping ?? Karena sangat sedikit data, bagaimana koneksi yang lebih cepat akan membantu? Saat ini ping membutuhkan 450ms apakah ada cara saya bisa memperbaikinya ??
internet
ping
network-speed
gWaldo
sumber
sumber
Jawaban:
Pertama, Bandwidth tidak sama dengan latensi. Koneksi yang lebih cepat tidak selalu mengurangi latensi Anda. 450ms memang tampak agak lambat tetapi tidak terlalu jauh jika Anda akan 1/2 jalan di seluruh dunia. Sebagai kerangka acuan, kecepatan tinggi, tautan latensi rendah akan membutuhkan ~ 70-80ms untuk melintasi AS. Anda mungkin dapat mengurangi latensi dengan mengubah penyedia Anda dengan asumsi mereka memiliki jalur peering yang lebih optimal. tapi aku tidak bisa menjanjikan apa pun.
sumber
Koneksi "lebih cepat" (seperti yang Anda rujuk) tidak mengurangi latensi. Koneksi "lebih cepat" memungkinkan lebih banyak data ditempatkan pada kabel dalam periode waktu tertentu.
Bandwidth adalah ukuran kapasitas.
Latensi adalah ukuran keterlambatan.
EDIT
Berikut adalah contoh perbedaan antara bandwidth dan latensi: Bayangkan 2 koneksi internet, satu 10Mbps dan yang lainnya 1 Mbps. Keduanya memiliki latensi 50 ms. Sekarang bayangkan saya mengirim penekanan tombol ke terminal jarak jauh di ujung koneksi itu. Demi kesederhanaan katakanlah bahwa setiap keystroke mengkonsumsi bandwidth 1 Mbps. Pada koneksi 10Mbps saya dapat mengirim huruf A, B, C, D, E, F, G, H, I, J secara bersamaan, sehingga mereka semua tiba di terminal jarak jauh 50ms kemudian dan didengungkan layar ... pada saat yang sama. Sekarang pada koneksi 1Mbps setiap keystroke dikirim secara independen karena masing-masing keystroke mengkonsumsi semua bandwidth yang tersedia. Jadi huruf A dikirim, dan kemudian 50 ms kemudian diterima oleh terminal jarak jauh dan bergema di layar, diikuti oleh huruf B 50 ms setelah itu, lalu huruf C ... sampai ke huruf J. Diperlukan 500ms untuk kesepuluh huruf yang akan diterima di terminal jarak jauh dan untuk digema ke layar. Apakah koneksi 10Mbps lebih cepat? Bukan itu. Latencynya 50ms seperti koneksi 1Mbps. Tampaknya lebih cepat karena memiliki throughput yang lebih tinggi (bandwidth) dan lebih banyak data dapat ditempatkan pada kabel pada satu waktu. Itulah perbedaan antara bandwidth (kapasitas) dan latensi (penundaan). Dalam arti yang ketat, koneksi "lebih cepat" (dengan cara yang Anda rujuk) tidak akan mengurangi latensi. Tampaknya lebih cepat karena memiliki throughput yang lebih tinggi (bandwidth) dan lebih banyak data dapat ditempatkan pada kabel pada satu waktu. Itulah perbedaan antara bandwidth (kapasitas) dan latensi (penundaan). Dalam arti yang ketat, koneksi "lebih cepat" (dengan cara yang Anda rujuk) tidak akan mengurangi latensi. Tampaknya lebih cepat karena memiliki throughput yang lebih tinggi (bandwidth) dan lebih banyak data dapat ditempatkan pada kabel pada satu waktu. Itulah perbedaan antara bandwidth (kapasitas) dan latensi (penundaan). Dalam arti yang ketat, koneksi "lebih cepat" (dengan cara yang Anda rujuk) tidak akan mengurangi latensi.
sumber
Koneksi diukur dalam dua faktor utama, latensi dan bandwidth. Tidak ada yang namanya "kecepatan tinggi" atau "lebih cepat". Itu adalah pemasaran doublespeak dan tidak ada artinya dalam konteks koneksi yang dikelola secara profesional.
sumber
Saya punya poin untuk mengatakan di sini terkait dengan ping.
Biasanya, traffic ICMP tidak diberi prioritas tinggi. Jadi, mengukur keterlambatan / latensi jaringan tidak akan akurat menggunakan ping atau lalu lintas berbasis icmp lainnya.
Penundaan antara dua poin dapat dihitung menggunakan rumus:
Penundaan transmisi adalah waktu untuk mendorong bit paket pada kabel. Penundaan propagasi terkait dengan media dan merupakan waktu untuk mencapai tujuan. Keterlambatan pemrosesan terkait dengan mesin / router penerima dan pengirim.
sumber
Seringkali, ya. Tetapi keduanya bukan hal yang sama dan tidak terhubung langsung. Itu hanya terjadi bahwa biasanya koneksi dengan bandwidth lebih banyak juga memiliki latensi lebih rendah karena teknologi yang digunakan.
Tapi itu tidak selalu benar. Pertimbangkan metode cepat untuk mentransfer sejumlah besar data: mengisi 12 hard disk 2TB dengan data dan mengirimkannya melalui kurir. Kecepatan transfer data SANGAT tinggi (lebih dari 2000MBps mengingat Anda dapat mengirim 24TB dalam 24 jam). Latensi juga sangat tinggi (24 jam). Dialup memiliki latensi yang jauh lebih rendah daripada itu, tetapi perlu bertahun-tahun untuk mengirim 24TB melalui dialup.
Bukan ide yang baik untuk langsung menyamakan keduanya. Jika Anda secara khusus membutuhkan latensi yang lebih rendah, Anda harus bertanya tentang hal itu secara khusus dan tidak berbelanja dengan bandwidth.
sumber
Satu-satunya solusi nyata untuk meningkatkan latensi Anda adalah mempersingkat jumlah hop di antara dua host yang dimaksud.
Jika Anda adalah pelanggan korporat yang cukup besar, Anda harus dapat membuka dialog dengan penyedia telekomunikasi Anda pada kedua ujungnya tentang mengambil rute IP yang lebih pendek (mungkin lebih mahal) antara kedua situs.
sumber
Anda telah melakukan banyak posisi tanpa mengumpulkan fakta. Taruhan terbaik Anda adalah mencoba mengidentifikasi sumber latensi tinggi: dari mana asalnya? Kemudian Anda dapat mencoba menjawab pertanyaan: bagaimana cara memperbaikinya?
Jalankan traceroute, atau lebih baik lagi, mtr (mytraceroute). Jika Anda menggunakan Windows, Anda dapat menggunakan winmtr. PingPlotter juga merupakan alat yang bagus untuk ini.
Temukan di mana latensi tinggi Anda dimulai, kemudian bekerja untuk memperbaikinya. Melemparkan lebih banyak bandwidth pada masalah Anda bukanlah jawabannya.
sumber
Bandwidth yang lebih tinggi tidak akan banyak membantu, kecuali data curah menghilangkan data interaktif. Jika kedua belah pihak menggunakan serat bukan xDSL / Kabel / Nirkabel, yang mungkin Anda mencukur 20-80ms pada RTT Anda.
Lakukan tes ping menggunakan pingtest.net untuk menentukan kualitas setiap tautan. Latensi itu penting, tetapi / jitter / dapat membuat perbedaan besar juga. Saya lebih suka memiliki koneksi yang lebih lambat (3 Mbps) tanpa jitter daripada koneksi yang lebih cepat (misalnya 15 Mbps) dengan jitter.
Untuk koneksi TCP (mis. SSH, telnet dll), beberapa penyetelan TCP dapat membantu.
Anda juga dapat melihat menggunakan akselerator TCP; ada yang komersial tetapi pepsal sudah bisa membuat perbedaan.
sumber
Mungkin firewall / router Anda adalah masalahnya ...
Satu-satunya cara untuk BENAR-BENAR mengetahui di mana kerusakannya adalah dengan melakukan traceroute, seperti yang dinyatakan di atas,
sumber
Ada banyak jawaban berbeda untuk pertanyaan ini, dan jawaban yang benar (menurut saya) adalah "Itu tergantung".
Tidak masalah jika Anda memiliki koneksi 1gbit / s jika sudah jenuh. TCP (dan protokol lainnya) bergantung pada pemeriksaan transmisi yang pada 99% kasus tidak diprioritaskan dengan benar dengan QoS atau teknologi serupa.
Garis simetris (SDSL, serat dll.) Umumnya lebih cocok untuk operasi dengan latensi rendah, karena mereka tidak berbagi RX dengan TX (yang berarti bahwa TCP ACK, balasan ICMP, dll. Tidak akan terhalang jika Anda mengunduh dengan kobaran api penuh). Masih memerlukan QoS untuk menjamin lalu lintas untuk aplikasi sensitif (khususnya VoIP).
Anehnya, jumlah hit (dan kualitas hit) di google ketika memprioritaskan TCP ACK cukup tipis .. bicara dengan pakar jaringan mana pun, dan mereka akan tahu mengapa Anda memerlukan ini.
sumber
Ya, tapi tidak banyak.
Bandwidth yang lebih tinggi akan berarti bahwa paket tersebut akan memakan waktu lebih sedikit untuk sepenuhnya mengunduh sebelum paket lain dapat mengirimkan data dan waktu seluruh paket untuk mengunduh adalah faktor di sini juga tetapi pada kenyataannya itu hanya akan menambah 10-20 ms dalam kondisi terburuk kasus.
Kemungkinan penyebab latensi lainnya adalah transmisi nirkabel, hampir setiap bentuk nirkabel multi-akses akan menimbulkan banyak masalah pada latensi, apakah itu nirkabel rumah biasa atau nirkabel seluler karena kartu nirkabel harus menunggu sampai semua orang selesai mengirimkan data sebelum dapat mengirim memiliki data. Semakin banyak pengguna mentransmisikan pada sistem nirkabel, semakin lambat kecepatan DAN latensi (sekali lagi tidak banyak, terutama disebabkan oleh menunggu sampai jelas untuk mengirim)
Faktor nomor satu adalah waktu paket data akan dihabiskan untuk diurutkan pada router dan infrastruktur WAN lainnya.
Waktu minimum teoritis satu paket data yang diperlukan untuk melakukan perjalanan ke seluruh dunia adalah sekitar 70 ms, saat itulah paket tersebut bepergian dengan kecepatan cahaya.
Tanyakan sekitar dan cari tahu apakah orang lain pada koneksi yang lebih cepat dan ISP lain mengalami latensi yang sama, sangat mungkin disebabkan oleh ISP atau koneksi tetapi sangat tidak mungkin.
sumber
Bandwidth dan penundaan berbeda, tetapi tidak sepenuhnya tidak terhubung. Meskipun pada dasarnya benar, banyak hal tidak hitam dan putih. Ada banyak nuansa abu-abu di antaranya.
Memang benar bahwa memiliki bandwidth yang lebih besar tidak selalu berarti memiliki penundaan yang lebih rendah, dan itu tidak berarti memiliki penundaan yang sama atau lebih tinggi.
Kita harus ingat bahwa itu tergantung pada infrastruktur yang terdiri dari perangkat jaringan dan media fisik di jalan dari host kami ke tujuannya.
Satu ISP dapat memprioritaskan koneksi bandwidth rendah / tinggi, dan memberikan lebih banyak manfaat perangkat keras dan lunak untuk satu atau yang lain yang akan menghasilkan perbedaan dalam penundaan.
Dan dengan semangat berbagai contoh berbeda yang diberikan di sini, ya - lebih baik mengambil truk dengan 20 disk dengan kapasitas yang sama kemudian mengambil truk yang sama dengan hanya 1 dari 20 disk ini. Namun - bagaimana dengan berat disk? Lebih banyak disk berarti lebih banyak bahan bakar dan akselerasi lebih lambat. Tetapi bagaimana jika saya mengganti mesin truk?
Jadi, singkatnya - bandwidth dan delay berbeda, tetapi tidak sepenuhnya tidak terhubung.
sumber