Saya berdebat dengan seorang kolega tentang kemungkinan konfigurasi. Kami menerapkan solusi blade baru yang memiliki sakelar 10 Gb dan dua server blade bawaan, masing-masing memiliki 4 10 Gb NIC.
Namun, sisa lingkungan kita masih 1 Gb.
Sakelar blade memiliki empat port 10GBASE-T eksternal yang akan otomatis masuk ke 1 Gb. Kami berencana LAGing ini.
Pada dasarnya, kita akan memiliki 80 Gb bandwidth NIC pada sakelar 10 Gb yang terhubung dengan tautan antar-sakelar 4 Gb.
Saya pikir kita harus secara manual mengatur port internal ke 1 Gb, tetapi dia tidak berpikir akan ada masalah kinerja yang terlihat dari desain di atas.
Harap beri tahu saya jika Anda pernah memiliki pengalaman dengan pengaturan serupa, atau jika Anda tahu ada masalah yang mungkin kami antisipasi.
Jawaban:
Pada dasarnya, bundel tautan 40 Gb Anda hanya untuk toleransi kesalahan kecuali jika Anda memiliki transfer blade-ke-blade pada sakelar blade; bahkan satu koneksi server 10 Gb lebih dari total bandwidth uplink Anda.
Ada banyak jaringan dan switch dengan kecepatan port campuran. Cisco memiliki pedoman berdasarkan penelitian yang luas. Port akses (koneksi server Anda) ke port distribusi (koneksi eksternal Anda) rasio bandwidth tidak boleh lebih besar dari 20: 1. Ini berarti bahwa untuk setiap 20 Gb dalam kecepatan port akses Anda, Anda memerlukan kecepatan port uplink 1 Gb. Apa yang Anda gambarkan (80 Gb ke 4Gb) adalah 20: 1. Distribusi yang disarankan untuk rasio inti jauh lebih rendah pada 4: 1.
sumber
Anda harus menerapkan QoS antara sakelar blade dan bagian lingkungan Anda yang lain, untuk mencegah aliran jumbo dari kelaparan aliran lainnya.
Bagaimana hal itu dapat dilakukan tergantung pada spesifikasi perangkat keras, tetapi masing-masing dari 10 port GbE Anda yang menghadap ke sakelar 1 GbE, memiliki 8 antrian perangkat keras (0-7, satu antrian per nilai CoS), di mana paket menunggu giliran untuk pergi.
Anda memiliki kesempatan untuk mengkonfigurasi algoritma penjadwalan yang digunakan oleh setiap antrian (prioritas ketat atau semacam penjadwalan). Antrean di mana frame Ethernet menunggu untuk meninggalkan sakelar blade, dapat dipilih saat bingkai memasuki sakelar.
Server OS, hypervisor, harus menandai frame Ethernet, sementara sakelar blade harus menghormati nilai-nilai CoS, memercayai mitra mereka.
Setelah ditandai, bingkai akan berakhir di antrian yang diinginkan, membuat Anda tetap terkendali.
Baca tentang dukungan Data Center Bridging ( DCB ) dan konfigurasi antara server blade dan sakelar.
Periksa dukungan DCB dalam sakelar 1 GbE: jika sakelar 1 Gb sesuai dengan DCB, Jeda Bingkai yang diarahkan ke sakelar blade, akan bertindak pada antrian tertentu jika terjadi kemacetan (Ethernet Priority Flow Control), sementara antrian dengan prioritas lebih tinggi akan terus memindahkan frame Ethernet.
sumber
Tidak ada perbedaan. Karena Anda memiliki port yang sama pada switch dengan bandwidth 1Gb dan 10Gb. Switch ini mungkin memiliki buffer paket bersama yang tidak menyebabkan masalah tetes mikroburst. Tetapi jika Anda mendapatkan bundle switch yang memiliki buffer terpisah pada port yang berbeda ketika Anda mungkin tidak mendapatkan ruang kosong dalam antrian output pada saat-saat beban tinggi.
sumber