Berapa latensi jaringan "tipikal" untuk pantai timur - barat Amerika Serikat?

106

Saat ini kami sedang berusaha memutuskan apakah akan memindahkan pusat data kami dari pantai barat ke pantai timur.

Namun, saya melihat beberapa angka latensi yang mengganggu dari lokasi pantai barat saya ke pantai timur. Berikut adalah contoh hasil, mengambil file logo .png kecil di Google Chrome dan menggunakan alat dev untuk melihat berapa lama permintaan:

  • Pantai barat ke pantai timur:
    latensi 215 ms, waktu transfer 46 ms, total 261 ms
  • Pantai barat ke pantai barat:
    latensi 114 ms, waktu transfer 41 ms, total 155 ms

Masuk akal bahwa Corvallis, OR secara geografis lebih dekat ke lokasi saya di Berkeley, CA jadi saya berharap koneksi menjadi sedikit lebih cepat .. tapi saya melihat peningkatan latensi + 100 ms ketika saya melakukan tes yang sama ke NYC server. Sepertinya .. berlebihan bagiku. Terutama karena waktu yang dihabiskan untuk mentransfer data aktual hanya meningkat 10%, namun latensi meningkat 100%!

Rasanya ... salah ... bagi saya.

Saya menemukan beberapa tautan di sini yang sangat membantu (melalui Google tidak kurang!) ...

... tapi tidak ada yang berwibawa.

Jadi, apakah ini normal? Rasanya tidak normal. Apa latensi "khas" yang harus saya harapkan ketika memindahkan paket jaringan dari pantai timur <--> pantai barat Amerika Serikat?

Jeff Atwood
sumber
10
Pengukuran apa pun di seluruh Jaringan yang tidak Anda kendalikan tampaknya tidak ada gunanya. Terlalu sering dalam jenis diskusi Jaringan ini sepertinya kita lupa ada komponen temporal yang terkait dengan setiap paket. Jika Anda menjalankan tes berulang kali 24 x 7 dan tiba pada beberapa kesimpulan itu adalah satu hal. Jika Anda menjalankan tes dua kali maka saya sarankan Anda menjalankannya lagi. Dan bagi mereka yang menganjurkan penggunaan ping sebagai ukuran kinerja, jangan lakukan. Di setiap jaringan utama yang pernah saya kerjakan, kami menetapkan lalu lintas ICMP ke prioritas terendah. Ping hanya berarti satu hal, dan itu bukan;) tentang kinerja.
dbasnett
Dari tempat saya tinggal, Jefferson City, MO, waktunya mirip.
dbasnett
4
Sebagai catatan: cahaya itu sendiri membutuhkan waktu ~ 14 ms untuk melakukan perjalanan dari NY ke SF dalam garis lurus (mengingat serat sepanjang jalan).
Shadok
Serat ringan bergerak dengan faktor kecepatan 0,67 (setara dengan indeks bias) ~ 201.000 km / s, jadi setidaknya 20 ms.
Zac67

Jawaban:

114

Kecepatan Cahaya:
Anda tidak akan mengalahkan kecepatan cahaya sebagai titik akademis yang menarik. Tautan ini berfungsi untuk Stanford ke Boston pada waktu ~ 40 ms sebaik mungkin. Ketika orang ini melakukan perhitungan, dia memutuskan bahwa internet beroperasi sekitar "dalam faktor dua kecepatan cahaya", jadi ada sekitar ~ 85ms waktu transfer.

Ukuran Jendela TCP:
Jika Anda mengalami masalah kecepatan transfer, Anda mungkin perlu meningkatkan ukuran tcp jendela penerima. Anda mungkin juga perlu mengaktifkan penskalaan jendela jika ini adalah koneksi bandwidth tinggi dengan latensi tinggi (Disebut "Pipa Panjang Berlemak"). Jadi jika Anda mentransfer file besar, Anda harus memiliki jendela penerima yang cukup besar untuk mengisi pipa tanpa harus menunggu pembaruan jendela. Saya masuk ke beberapa detail tentang bagaimana menghitung itu dalam jawaban saya Tuning an Elephant .

Geografi dan Latensi:
Titik kegagalan beberapa CDN (Content Distribtuion Networks) adalah mereka menyamakan latensi dan geografi. Google melakukan banyak penelitian dengan jaringan mereka dan menemukan kekurangan dalam hal ini, mereka mempublikasikan hasilnya di buku putih Moving Beyond End-to-End Path Information untuk Mengoptimalkan Kinerja CDN :

Pertama, meskipun sebagian besar klien dilayani oleh simpul CDN yang berdekatan secara geografis, sebagian kecil klien mengalami latensi beberapa puluh milidetik lebih tinggi daripada klien lain di wilayah yang sama. Kedua, kami menemukan bahwa penundaan antrian sering mengesampingkan manfaat dari klien yang berinteraksi dengan server terdekat.

Peerings BGP:
Juga jika Anda mulai mempelajari BGP (protokol perutean internet inti) dan bagaimana ISP memilih peering, Anda akan menemukan itu lebih sering tentang keuangan dan politik, sehingga Anda mungkin tidak selalu mendapatkan rute 'terbaik' ke lokasi geografis tertentu tergantung di ISP Anda. Anda dapat melihat bagaimana IP Anda terhubung ke ISP lain (Sistem Otonomi) menggunakan router kaca . Anda juga dapat menggunakan layanan whois khusus :

whois -h v4-peer.whois.cymru.com "69.59.196.212"
PEER_AS | IP               | AS Name
25899   | 69.59.196.212    | LSNET - LS Networks
32869   | 69.59.196.212    | SILVERSTAR-NET - Silver Star Telecom, LLC

Juga menyenangkan untuk menjelajahi ini sebagai peering dengan alat gui seperti linkrank , ini memberi Anda gambaran internet di sekitar Anda.

Kyle Brandt
sumber
setuju, kecepatan cahaya saat burung gagak terbang adalah yang terbaik yang dapat Anda lakukan. Ngomong-ngomong jawaban yang sangat bagus, ini persis apa yang saya cari. Terima kasih.
Jeff Atwood
4
Bagi yang penasaran, matematika yang sebenarnya adalah: 3000 mi / c = 16.1ms
tylerl
15
Dalam ruang hampa, sebuah foton dapat melakukan perjalanan khatulistiwa dalam sekitar 134 ms. Foton yang sama dalam gelas akan memakan waktu sekitar 200 ms. Sepotong 3.000 mil serat memiliki 24 ms. keterlambatan tanpa perangkat apa pun.
dbasnett
11
Ini mengingatkan saya pada Kasus Email 500 Mile .
bahamat
42

Situs ini akan menyarankan sekitar 70-80 ms latensi antara pantai Timur / Barat yang khas AS (San Francisco ke New York misalnya).

Jalur Trans-Atlantik
NY 78 London
Cuci 87 Frankfurt
Jalur Trans-Pasifik
SF 147 Hong Kong
Jalur Trans-USA
SF 72 NY

latensi jaringan oleh pasangan kota dunia

Inilah waktu saya (saya di London, Inggris, jadi waktu pantai Barat saya lebih tinggi daripada Timur). Saya mendapatkan selisih latensi 74ms, yang tampaknya mendukung nilai dari situs itu.

NY - 108ms latency, 61ms transfer, 169 total
OR - 182ms latency, 71ms transfer, 253 total

Ini diukur menggunakan alat dev Google Chrome.

Adams kaya
sumber
2
grafik keren! NY to SF saat ini ada 71 msdi dalamnya, jadi Anda benar - kami tidak bisa berharap untuk melakukan lebih baik dari itu.
Jeff Atwood
Terima kasih. Itu banyak membantu saya. Ini adalah sumber lain untuk mencari latensi jaringan antara berbagai tempat di dunia - dotcom-monitor.com/WebTools/network_latency.aspx
Sajib Mahmood
10

Ukur dengan ICMP terlebih dahulu jika memungkinkan. Tes ICMP biasanya menggunakan payload yang sangat kecil secara default, tidak menggunakan handshake tiga arah, dan tidak harus berinteraksi dengan aplikasi lain di stack seperti HTTP. Apa pun masalahnya, sangat penting agar hasil HTTP tidak tercampur dengan hasil ICMP. Mereka adalah apel dan jeruk.

Dengan jawaban Rich Adams dan menggunakan situs yang dia rekomendasikan, Anda dapat melihat bahwa pada tulang punggung AT&T, dibutuhkan 72 ms untuk lalu lintas ICMP untuk berpindah antara titik akhir SF dan NY mereka. Itu angka yang lumayan, tetapi Anda harus ingat bahwa ini ada di jaringan yang sepenuhnya dikendalikan oleh AT&T. Itu tidak memperhitungkan transisi ke jaringan rumah atau kantor Anda.

Jika Anda melakukan ping terhadap careers.stackoverflow.com dari jaringan sumber Anda, Anda akan melihat sesuatu yang tidak terlalu jauh dari 72 ms (mungkin +/- 20 ms). Jika itu masalahnya, maka Anda mungkin bisa berasumsi bahwa jalur jaringan antara Anda berdua baik-baik saja dan berjalan dalam rentang normal. Jika tidak, jangan panik dan ukur dari beberapa tempat lain. Bisa jadi itu ISP Anda.

Dengan asumsi bahwa telah berlalu, langkah Anda selanjutnya adalah menangani lapisan aplikasi dan menentukan apakah ada yang salah dengan overhead tambahan yang Anda lihat dengan permintaan HTTP Anda. Ini dapat bervariasi dari satu aplikasi ke aplikasi karena perangkat keras, OS, dan tumpukan aplikasi, tetapi karena Anda memiliki peralatan yang hampir sama di kedua pantai Timur dan Barat, Anda bisa membuat pengguna pantai Timur menekan server pantai Barat dan pengguna pantai Barat memukul Timur. pantai. Jika kedua situs dikonfigurasikan dengan benar, saya berharap untuk melihat semua angka menjadi lebih kurang sama dan untuk itu menunjukkan bahwa apa yang Anda lihat cukup setara untuk yang kasar.

Jika waktu HTTP itu memiliki variasi yang luas, saya tidak akan terkejut jika ada masalah konfigurasi pada situs yang berkinerja lebih lambat.

Sekarang, setelah Anda berada pada titik ini, Anda dapat mencoba melakukan optimasi yang lebih agresif di sisi aplikasi untuk melihat apakah angka-angka itu dapat dikurangi sama sekali. Misalnya, jika Anda menggunakan IIS 7, apakah Anda memanfaatkan kemampuan caching, dll? Mungkin Anda bisa memenangkan sesuatu di sana, mungkin tidak. Ketika datang untuk mengutak-atik item tingkat rendah seperti jendela TCP, saya sangat skeptis bahwa itu akan memiliki banyak dampak untuk sesuatu seperti Stack Overflow. Tapi hei - Anda tidak akan tahu sampai Anda mencobanya dan mengukur.

Michael Gorsuch
sumber
7

Beberapa jawaban di sini menggunakan ping dan traceroute untuk penjelasannya. Alat-alat ini ada di tempatnya, tetapi tidak dapat diandalkan untuk pengukuran kinerja jaringan.

Secara khusus, (setidaknya beberapa) router Juniper mengirim pemrosesan acara ICMP ke bidang kontrol router. Ini JAUH lebih lambat daripada pesawat penerusan, terutama di router backbone.

Ada keadaan lain di mana respons ICMP bisa jauh lebih lambat daripada kinerja penerusan aktual router. Misalnya, bayangkan router semua-perangkat lunak (tanpa perangkat keras penerusan khusus) yang 99% dari kapasitas CPU, tetapi masih menggerakkan traffic dengan baik. Apakah Anda ingin menghabiskan banyak siklus memproses respons traceroute, atau meneruskan lalu lintas? Jadi memproses respons adalah prioritas yang sangat rendah.

Akibatnya, ping / traceroute memberi Anda batas atas yang wajar - segalanya berjalan setidaknya secepat itu - tetapi mereka tidak benar-benar memberi tahu Anda seberapa cepat lalu lintas nyata berjalan.

Dalam acara apa pun -

Berikut ini adalah contoh traceroute dari University of Michigan (AS tengah) ke Stanford (pantai barat AS). (Kebetulan melewati Washington, DC (pantai timur AS), yang berjarak 500 mil ke arah yang "salah".)

% traceroute -w 2 www.stanford.edu
traceroute to www-v6.stanford.edu (171.67.215.200), 64 hops max, 52 byte packets
 1  * * *
 2  * * *
 3  v-vfw-cc-clusta-l3-outside.r-seb.umnet.umich.edu (141.211.81.130)  3.808 ms  4.225 ms  2.223 ms
 4  l3-bseb-rseb.r-bin-seb.umnet.umich.edu (192.12.80.131)  1.372 ms  1.281 ms  1.485 ms
 5  l3-barb-bseb-1.r-bin-arbl.umnet.umich.edu (192.12.80.8)  1.784 ms  0.874 ms  0.900 ms
 6  v-bin-arbl-i2-wsu5.wsu5.mich.net (192.12.80.69)  2.443 ms  2.412 ms  2.957 ms
 7  v0x1004.rtr.wash.net.internet2.edu (192.122.183.10)  107.269 ms  61.849 ms  47.859 ms
 8  ae-8.10.rtr.atla.net.internet2.edu (64.57.28.6)  28.267 ms  28.756 ms  28.938 ms
 9  xe-1-0-0.0.rtr.hous.net.internet2.edu (64.57.28.112)  52.075 ms  52.156 ms  88.596 ms
10  * * ge-6-1-0.0.rtr.losa.net.internet2.edu (64.57.28.96)  496.838 ms
11  hpr-lax-hpr--i2-newnet.cenic.net (137.164.26.133)  76.537 ms  78.948 ms  75.010 ms
12  svl-hpr2--lax-hpr2-10g.cenic.net (137.164.25.38)  82.151 ms  82.304 ms  82.208 ms
13  hpr-stanford--svl-hpr2-10ge.cenic.net (137.164.27.62)  82.504 ms  82.295 ms  82.884 ms
14  boundarya-rtr.stanford.edu (171.66.0.34)  82.859 ms  82.888 ms  82.930 ms
15  * * *
16  * * *
17  www-v6.stanford.edu (171.67.215.200)  83.136 ms  83.288 ms  83.089 ms

Secara khusus, perhatikan perbedaan waktu antara hasil traceroute dari router cuci dan router atla (hop 7 & 8). jalur jaringan berjalan terlebih dahulu untuk mencuci dan kemudian ke atla. mencuci membutuhkan 50-100ms untuk merespons, atla membutuhkan sekitar 28ms. Jelas atla lebih jauh, tetapi hasil traceroute menunjukkan bahwa itu lebih dekat.

Lihat http://www.internet2.edu/performance/ untuk banyak info tentang pengukuran jaringan. (Penafian, saya dulu bekerja untuk internet2). Lihat juga: https://fasterdata.es.net/

Untuk menambahkan beberapa relevansi spesifik dengan pertanyaan awal ... Seperti yang Anda lihat, saya memiliki waktu ping pulang pergi 83 ms ke Stanford, jadi kami tahu jaringan setidaknya bisa berjalan secepat ini.

Perhatikan bahwa jalur jaringan penelitian & pendidikan yang saya ambil di traceroute ini mungkin lebih cepat daripada jalur internet komoditas. Jaringan R&E pada umumnya overprovision koneksi mereka, yang membuat buffering di setiap router tidak mungkin. Juga, perhatikan jalur fisik yang panjang, lebih panjang dari pantai ke pantai, meskipun jelas mewakili lalu lintas nyata.

michigan-> washington, dc-> atlanta-> houston-> los angeles-> stanford

Dan Pritts
sumber
6

Saya melihat perbedaan yang konsisten, dan saya duduk di Norwegia:

serverfault       careers
  509ms            282ms
  511ms            304ms
  488ms            295ms
  480ms            274ms
  498ms            278ms

Ini diukur dengan metode yang akurat dan terbukti secara ilmiah dalam menggunakan tampilan sumber daya Google Chrome dan hanya berulang kali menyegarkan setiap tautan.

Traceroute ke serverfault

Tracing route to serverfault.com [69.59.196.212]
over a maximum of 30 hops:

  1    <1 ms     1 ms    <1 ms  81.27.47.1
  2     2 ms     1 ms     1 ms  qos-1.webhuset.no [81.27.32.17]
  3     1 ms     1 ms     1 ms  81.27.32.10
  4     1 ms     2 ms     1 ms  201.82-134-26.bkkb.no [82.134.26.201]
  5    14 ms    14 ms    14 ms  193.28.236.253
  6    13 ms    13 ms    14 ms  TenGigabitEthernet8-4.ar1.OSL2.gblx.net [64.209.94.125]
  7    22 ms    21 ms    21 ms  te7-1-10G.ar3.cph1.gblx.net [67.16.161.93]
  8    21 ms    20 ms    20 ms  sprint-1.ar3.CPH1.gblx.net [64.212.107.18]
  9    21 ms    21 ms    20 ms  sl-bb20-cop-15-0-0.sprintlink.net [80.77.64.33]
 10   107 ms   107 ms   107 ms  144.232.24.12
 11   107 ms   106 ms   105 ms  sl-bb20-msq-15-0-0.sprintlink.net [144.232.9.109]
 12   106 ms   106 ms   107 ms  sl-crs2-nyc-0-2-5-0.sprintlink.net [144.232.20.75]
 13   129 ms   135 ms   134 ms  sl-crs2-chi-0-15-0-0.sprintlink.net [144.232.24.208]
 14   183 ms   183 ms   184 ms  sl-crs2-chi-0-10-3-0.sprintlink.net [144.232.20.85]
 15   189 ms   189 ms   189 ms  sl-gw12-sea-2-0-0.sprintlink.net [144.232.6.120]
 16   193 ms   189 ms   189 ms  204.181.35.194
 17   181 ms   181 ms   180 ms  core2-gi61-to-core1-gi63.silverstartelecom.com [74.85.240.14]
 18   182 ms   182 ms   182 ms  sst-6509b-gi51-2-gsr2-gi63.silverstartelecom.com [74.85.242.6]
 19   195 ms   195 ms   194 ms  sst-6509-peak-p2p-gi13.silverstartelecom.com [12.111.189.106]
 20   197 ms   197 ms   197 ms  ge-0-0-2-cvo-br1.peak.org [69.59.218.2]
 21   188 ms   187 ms   189 ms  ge-1-0-0-cvo-core2.peak.org [69.59.218.193]
 22   198 ms   198 ms   198 ms  vlan5-cvo-colo2.peak.org [69.59.218.226]
 23   198 ms   197 ms   197 ms  stackoverflow.com [69.59.196.212]

Trace complete.

Traceroute ke karir

Tracing route to careers.stackoverflow.com [64.34.80.176]
over a maximum of 30 hops:

  1     1 ms     1 ms     1 ms  81.27.47.1
  2     2 ms     1 ms    <1 ms  qos-1.webhuset.no [81.27.32.17]
  3     1 ms     1 ms     1 ms  81.27.32.10
  4     1 ms     1 ms     2 ms  201.82-134-26.bkkb.no [82.134.26.201]
  5    12 ms    13 ms    13 ms  193.28.236.253
  6    13 ms    14 ms    14 ms  TenGigabitEthernet8-4.ar1.OSL2.gblx.net [64.209.94.125]
  7    21 ms    21 ms    21 ms  ge7-1-10G.ar1.ARN3.gblx.net [67.17.109.89]
  8    21 ms    20 ms    20 ms  tiscali-1.ar1.ARN3.gblx.net [64.208.110.130]
  9   116 ms   117 ms   122 ms  xe-4-2-0.nyc20.ip4.tinet.net [89.149.184.142]
 10   121 ms   122 ms   121 ms  peer1-gw.ip4.tinet.net [77.67.70.194]
 11     *        *        *     Request timed out.

Sayangnya, sekarang mulai masuk ke lingkaran atau yang lainnya dan terus memberikan bintang dan batas waktu hingga 30 hop dan kemudian selesai.

Catatan, traceroute berasal dari host yang berbeda dari timing di awal, saya harus RDP ke server yang di-host untuk menjalankannya

Lasse Vågsæther Karlsen
sumber
1
benar, diharapkan bahwa pusat data pantai timur akan lebih bersahabat dengan pemirsa Eropa kami - Anda akan melihat sekitar + 200 ms waktu yang dibutuhkan untuk melintasi lebar Amerika Serikat. Haruskah hanya ~ 80 ms per jawaban lainnya?
Jeff Atwood
kelihatannya konsisten di sekitar 200ms, saya telah me-refresh sekitar 20-30 kali sekarang pada keduanya (bukan pada waktu yang sama sekalipun), dan situs serverfault sepertinya melayang sekitar 200ms +/- lebih dari yang lain . Saya mencoba traceroute, tetapi muncul dengan bintang pada segalanya jadi mungkin admin IT kami telah memblokir sesuatu.
Lasse Vågsæther Karlsen
2

Saya melihat sekitar 80-90 ms latensi pada link yang dikelola dengan baik dan terukur antara pantai Timur dan Barat.

Akan menarik untuk melihat di mana Anda mendapatkan latensi - coba alat seperti traceroute layer-four (lft). Peluangnya banyak didapat pada "last mile" (yaitu di penyedia broadband lokal Anda).

Diharapkan bahwa waktu transfer hanya sedikit terpengaruh - packet loss dan jitter adalah pengukuran yang lebih berguna untuk dilihat ketika menyelidiki perbedaan waktu transfer antara dua lokasi.

BrianEss
sumber
2

Hanya untuk bersenang-senang, ketika saya memainkan game online Lineage 2 NA rilis dari dalam Eropa:

Response time to east coast servers: ~110-120ms
Response time to west coast servers: ~190-220ms

Perbedaannya tampaknya mendukung bahwa hingga 100ms masuk akal, mengingat sifat internet yang tidak terduga.

Dengan menggunakan uji refresh Chrome yang diakui, saya mendapatkan waktu muat dokumen yang berbeda dengan sekitar 130ms.

Oskar Duveborn
sumber
2

setiap orang di sini memiliki poin yang sangat bagus. dan sudah benar dalam POV mereka sendiri.

Dan semuanya bermuara pada tidak ada jawaban pasti yang nyata di sini, karena ada begitu banyak variabel yang diberikan setiap jawaban dapat selalu terbukti salah hanya dengan mengubah satu dari seratus variabel.

Seperti latensi 72ms NY ke SF adalah latensi dari PoP ke PoP dari pembawa paket. Ini tidak memperhitungkan salah satu poin hebat lainnya yang beberapa orang tunjukkan di sini tentang kemacetan, kehilangan paket, kualitas layanan, paket yang tidak sesuai pesanan, atau ukuran paket, atau pengubahan rute jaringan antara dunia PoP yang sempurna dengan PoP .

Dan kemudian ketika Anda menambahkan mil terakhir (umumnya bermil-mil) dari PoP ke lokasi Anda yang sebenarnya di dua kota di mana semua variabel ini menjadi jauh lebih berubah, hal mulai meningkat secara eksponensial karena kemampuan tebakan yang masuk akal!

Sebagai contoh, saya menjalankan tes antara kota NY dan SF selama hari kerja. Saya melakukan ini pada suatu hari jika tidak ada "insiden" besar yang terjadi di seluruh dunia yang akan menyebabkan lonjakan lalu lintas. Jadi mungkin ini bukan rata-rata di dunia todays! Namun demikian itu adalah ujian saya. Saya sebenarnya mengukur dari satu lokasi bisnis ke lokasi lainnya selama periode ini, dan selama jam kerja normal di setiap pantai.

Pada saat yang sama, saya memonitor nomor penyedia sirkuit di web.

Hasilnya adalah angka latensi antara 88 dan 100 ms dari pintu ke pintu lokasi bisnis. Ini tidak termasuk nomor latensi jaringan antar kantor.

Latensi jaringan penyedia layanan berkisar antara 70 dan 80 ms. Berarti latensi mil terakhir bisa berkisar antara 18 dan 30 ms. Saya tidak menghubungkan puncak dan terendah yang tepat antara kedua lingkungan.

jim adcox
sumber
1

Waktu NYC:

NY     OR
109ms  271ms
72ms   227ms
30ms   225ms
33ms   114ms
34ms   224ms

Menggunakan Chrome, pada koneksi perumahan.

Menggunakan lft dari VPS di pusat data di Newark, New Jersey:

terracidal ~ # lft careers.stackoverflow.com -V
Layer Four Traceroute (LFT) version 3.0
Using device eth0, members.linode.com (97.107.139.108):53
TTL LFT trace to 64.34.80.176:80/tcp
 1  207.192.75.2 0.4/0.5ms
 2  vlan804.tbr2.mmu.nac.net (209.123.10.13) 0.4/0.3ms
 3  0.e1-1.tbr2.tl9.nac.net (209.123.10.78) 1.3/1.5ms
 4  nyiix.Peer1.net (198.32.160.65) 1.4/1.4ms
 5  oc48-po3-0.nyc-75bre-dis-1.peer1.net (216.187.115.134) 1.6/1.5ms
 6  216.187.115.145 2.7/2.2ms
 7  64.34.60.28 2.3/1.8ms
 8  [target open] 64.34.80.176:80 2.5ms

terracidal ~ # lft serverfault.com -V
Layer Four Traceroute (LFT) version 3.0
Using device eth0, members.linode.com (97.107.139.108):53
TTL LFT trace to stackoverflow.com (69.59.196.212):80/tcp
 1  207.192.75.2 36.4/0.6ms
 2  vlan803.tbr1.mmu.nac.net (209.123.10.29) 0.4/0.4ms
 3  0.e1-1.tbr1.tl9.nac.net (209.123.10.102) 1.3/1.4ms
 4  nyk-b3-link.telia.net (213.248.99.89) 1.6/1.4ms
 5  nyk-bb2-link.telia.net (80.91.250.94) 1.9/84.8ms
 6  nyk-b5-link.telia.net (80.91.253.106) 1.7/1.7ms
 7  192.205.34.53 2.1/2.1ms
 8  cr1.n54ny.ip.att.net (12.122.81.106) 83.5/83.6ms
 9  cr2.cgcil.ip.att.net (12.122.1.2) 82.7/83.1ms
10  cr2.st6wa.ip.att.net (12.122.31.130) 83.4/83.5ms
11  cr2.ptdor.ip.att.net (12.122.30.149) 82.7/82.7ms
12  gar1.ptdor.ip.att.net (12.123.157.65) 82.2/82.3ms
13  12.118.177.74 82.9/82.8ms
14  sst-6509b-gi51-2-gsr2-gi63.silverstartelecom.com (74.85.242.6) 84.1/84.0ms
15  sst-6509-peak-p2p-gi13.silverstartelecom.com (12.111.189.106) 83.3/83.4ms
16  ge-0-0-2-cvo-br1.peak.org (69.59.218.2) 86.3/86.2ms
**  [neglected] no reply packets received from TTLs 17 through 18
19  [target closed] stackoverflow.com (69.59.196.212):80 86.3/86.3ms
Tom Ritter
sumber