VMware Distributed vSwitches (VDS) - Desain, teori, kasus dan contoh penggunaan * nyata *?

14

Saya mulai menjelajahi VMware Distributed Switches (dvSwitches atau VDS) untuk digunakan dalam instalasi yang ada dan yang baru. Asumsikan VMware versi 5.1 dan yang lebih baru dengan lisensi Enterprise Plus . Sebelum ini, saya telah memanfaatkan vSwitches standar yang didefinisikan dengan jenis uplink fisik yang tepat (1GbE atau 10GbE) dan dikelola secara independen pada host individu.

Bagaimana cara menggunakan Switch Terdistribusi membantu saya dalam hal dasar? Meneliti instalasi dan setup lain yang dijelaskan di internet, saya melihat banyak situasi di mana jaringan manajemen virtual atau antarmuka VMkernel tetap pada switch standar, dengan lalu lintas VM akan beralih ke switch terdistribusi; model hibrida. Saya bahkan telah melihat rekomendasi untuk menghindari sakelar terdistribusi sepenuhnya ! Tetapi lebih dari segalanya, info yang saya temukan online tampaknya sudah ketinggalan zaman. Dalam upaya yang lemah untuk mengonversi salah satu server saya yang ada, saya tidak yakin di mana antarmuka manajemen perlu didefinisikan, dan tidak bisa menemukan jawaban yang bagus tentang cara mengatasi ini.

Jadi, apa praktik terbaik di sini? Untuk menggunakan kombinasi sakelar standar dan terdistribusi? Atau ini bukan teknologi dengan mindshare yang bagus? Bagaimana ini diwarnai dengan dimasukkannya kemampuan LACP baru - baru ini di VDS?


Inilah skenario instalasi baru yang nyata:

  • Server HP ProLiant DL360 G7 dengan antarmuka 6 x 1GbE berfungsi sebagai host ESXi (mungkin 4 atau 6 host).
  • Solusi sakelar bertumpuk 4 anggota (Cisco 3750, HP ProCurve atau Extreme).
  • Penyimpanan mesin virtual NFS yang didukung oleh EMC VNX 5500 .

Apa cara paling tangguh paling bersih untuk membangun pengaturan ini? Saya telah diminta untuk menggunakan sakelar terdistribusi dan mungkin menggabungkan LACP.

  • Lempar semua 6 uplink ke dalam satu sakelar terdistribusi dan jalankan LACP di seluruh anggota sakelar sakelar fisik berbeda?
  • Kaitkan 2 uplink ke vSwitch standar untuk manajemen dan jalankan switch 4-uplink LACP terdistribusi yang terhubung untuk lalu lintas VM, vMotion, penyimpanan NFS, dll?
  • ???
  • Keuntungan.
putih
sumber

Jawaban:

3

Saya tahu bahwa banyak fitur baru tidak lagi didukung pada sakelar standar, seperti kembalikan jaringan jika terjadi kesalahan konfigurasi, dan pemeriksaan kesehatan jaringan. Anda sekarang dapat menyimpan dan mengembalikan dVS Anda secara terpisah, yang saya pikir merupakan masalah besar bagi orang-orang (itulah sebabnya beberapa orang akan merekomendasikan untuk menghindari dVS sepenuhnya.

Saya kira ada tiga alasan mengapa Anda harus menggunakan dVS sebagai lawan dari standar dalam pengaturan 5.1:

  • Rollback konfigurasi jaringan dan pemeriksaan kesehatan yang disebutkan di atas
  • Kemudahan manajemen. Untuk vMotion dll, Anda biasanya membutuhkan semua jaringan Anda identik di semua host. Ini menyebalkan dan ada banyak ruang untuk kesalahan saat menggunakan sakelar standar. Proses ini jauh lebih sederhana saat menggunakan dVS. Karena fitur-fitur ini Anda juga harus memiliki port vmk di dVS
  • Ini pendapat saya bahwa tidak akan ada banyak pengembangan pada switch standar, saya pikir semuanya akan bergerak lebih dan lebih ke arah dVS. Yaitu. Saya tidak berpikir fitur seperti LACP akan dipindahkan ke switch Standar.
  • Anda dapat menggunakan Network IO untuk mengontrol penggunaan uplink jika Anda memerlukannya (jika Anda khawatir tentang kejenuhan vmotion, dll.)
Rqomey
sumber
7

Dua manfaat utama switch yang didistribusikan adalah

  1. Lebih banyak fitur.
    • LACP seperti yang Anda sebutkan
    • Visibilitas ke aktivitas jaringan pada setiap port virtual (sehingga Anda dapat melihat penghitung unicast / multicast / broadcast untuk VM tertentu di antarmuka vCenter)
    • Iklan CDP dari vDS ke perangkat jaringan fisik
    • Mirroring / SPAN untuk pemantauan atau pemecahan masalah
    • Netflow
    • Vlans pribadi
    • Dan mereka diperlukan untuk beberapa fitur seperti kontrol jaringan I / O dan switch Cisco 1000V
  2. Manajemen dan konfigurasi yang lebih mudah.
    • Saat menambahkan host baru dengan antarmuka yang melayani grup port dalam vDS, Anda hanya perlu menetapkan antarmuka ke switch dan ada baiknya untuk pergi dengan semua grup port yang dikonfigurasi. (Profil host dapat mencapai akhir yang hampir sama, tetapi membuat perubahan pada profil host jauh lebih menyebalkan.)

Saya sudah menggunakannya dengan cukup sukses sejak 4.1. Ini merupakan peningkatan besar dibandingkan vSwitch standar, dan itu luar biasa untuk dapat menambahkan grup port VM baru ke semua host di sebuah cluster atau mengkonfigurasi jaringan host baru dengan dua klik, tapi saya selalu menghindari menggunakannya di host ' antarmuka manajemen; sepertinya ide yang buruk.

Shane Madden
sumber
Jadi Anda masih menggunakan model hybrid switch standar dan terdistribusi?
ewwhite
@ewwhite Persis; cara saya selalu mengaturnya adalah untuk memiliki antarmuka untuk port vmkernel manajemen host sebagai vSwitches standar, dan segala sesuatu yang lain sebagai vDS.
Shane Madden
Lihat pengaturan server 6 pNIC di atas. Apa yang membuat desain lebih bijaksana, menggabungkan LACP dan VDS?
ewwhite
@ewwhite Pilihan kedua terdengar hebat, dengan peringatan bahwa saya belum menggunakan fitur LACP di vDS 5.1, jadi saya tidak bisa menjamin seberapa baik kerjanya.
Shane Madden