Anda memiliki pusat data yang distandarisasi pada koneksi 10GE. Dengan, katakanlah, Nexus 7000 di inti, Nexus 5000 di agregasi, dan beberapa extender fabric untuk tepi ke server (saya menggunakan Cisco gear sebagai contoh karena ini adalah apa yang ada di lab khusus saya). Ada beberapa penyeimbang beban ACE 4710 menggantung Nexus 5000 Anda, tetapi ini hanya memiliki antarmuka 1GE. Semua koneksi switch Anda berukuran 10GE, dibutuhkan untuk lalu lintas timur-barat (VM-ke-VM) yang sangat besar di pusat data virtual yang modern.
Apakah load balancers tidak menjadi hambatan dalam kondisi lalu lintas tertentu? Saya dapat melihat bagaimana beberapa lalu lintas timur-barat lokal tidak perlu bahkan mencapai penyeimbang beban, tetapi ada situasi lain di mana Anda perlu melintasi inti, dan bahkan mungkin interkoneksi pusat data.
Pada dasarnya, saya tahu penyeimbang beban digunakan dalam lalu lintas client-server (utara-selatan), dan hal-hal seperti HTTP GET tidak perlu 10GE, tetapi apakah ada situasi di mana penyeimbang beban 1GE Anda dapat menghalangi jalan lain Jalur lalu lintas 10GE dan menyebabkan masalah untuk hal-hal seperti vMotion (misalnya)?
sumber
Jawaban:
Tentu saja, tetapi ini biasanya tidak terjadi pada jaringan yang direkayasa dengan baik.
Anda harus dapat mendesain jaringan Anda dengan cara yang akan memungkinkan sebagian besar lalu lintas internal server-ke-server Anda ("timur-barat" seperti yang Anda katakan) bahkan jika itu perlu melintasi inti Anda atau antara pusat data.
Sementara sering penyeimbang beban adalah gateway default untuk server di belakangnya, saya telah melihat pengaturan di mana protokol routing (yaitu OSPF atau RIP) dijalankan untuk memungkinkan lalu lintas "timur-barat" untuk menghindari penyeimbang beban, atau dalam penyebaran yang lebih kecil di mana rute statis digunakan.
Jika penyeimbang beban akan menjadi hambatan bahkan dengan desain yang baik (yaitu volume lalu lintas setinggi itu), maka ada cara menyeimbangkan beban di beberapa penyeimbang beban juga.
sumber
Ini memang hambatan dan akan membatasi throughput Anda ke "link terlemah dalam rantai" yang merupakan LB Anda. Namun, Anda bisa menyiasatinya. Jika Anda menggunakan sesuatu yang dikenal sebagai "switchback" atau "direct server return" Anda dapat melakukan arus lalu lintas async. Cara kerjanya adalah ini:
a) klien mengajukan permintaan http ke 2.2.2.2
b) LB menjawab pada 2.2.2.2 dan meneruskan permintaan yang masuk ke server - karena LB dan server berada pada LAN yang sama, ini dilakukan pada layer 2.
c) Server menerima koneksi masuk ini karena IP 2.2.2.2 ada di antarmuka loopback alias (jika tidak maka akan menjatuhkan paket yang tidak cocok dengan antarmuka).
d) Server merespons langsung ke klien.
Permintaannya beberapa byte. Konten yang disajikan dapat dalam ukuran berapa pun. Lalu lintas keluar tidak melalui LB sehingga Anda dapat menangani lalu lintas WAY lebih banyak.
Bersulang,
--tc
sumber