Bagaimana Anda meyakinkan manajemen bahwa 3560/3750 adalah ide buruk di DC Anda?

12

3560/3750 memiliki buffer kecil dan membuat saklar lemari yang bagus. Namun saya sangat sering melihat switch ini berada di DC. Banyak orang cenderung menggunakannya karena mereka umumnya mampu 1Gb dan L3.

Apakah ada cara untuk membuktikan seberapa buruk mereka dalam penyebaran DC? Saya cukup sering mendengar orang mengatakan mereka melepas 3750 mereka sesegera mungkin, tetapi saya belum pernah mendengar skenario kegagalan aktual yang dapat digunakan untuk membuat manajemen tahu untuk mengeluarkannya.

mellowd
sumber
8
Pertama-tama buktikan bahwa mereka adalah ide yang buruk dengan mengumpulkan data kinerja.
Zoredache
1
Ini mengasumsikan manajemen Anda ada di pihak Anda untuk memulai dan akan mendengarkan argumen data kinerja. Banyak jiwa jejaring yang buruk ditaklukkan di bawah CTO yang tidak memahami teknologi sebaik yang mereka pikirkan dan lebih suka menghabiskan uang untuk proyek yang sangat terlihat daripada beberapa infrastruktur jaringan yang tersembunyi dari pandangan. Di sisi lain, memiliki CTO yang mendengarkan alasan tidak berarti menggunakan switch berperforma lebih tinggi diberikan sebagai persyaratan kinerja untuk aplikasi perlu dipahami dan dibuktikan untuk mendukung pertumbuhan saat ini dan yang diantisipasi.
generalnetworkerror
Kecuali Anda memiliki Nexus inti yang membutuhkan kemampuan di luar 3560, maka saya merasa switch 3560/3750 fantastis. Mari kita hadapi itu, siapa yang memiliki $ 10k untuk dibelanjakan pada saklar 1U hari ini? Kecuali Anda melakukan sesuatu yang istimewa, jawabannya bukan siapa-siapa.
Brain2000

Jawaban:

13

FWIW Saya memiliki pengalaman dengan 3750 (3750G, dan kemudian 3750E / 3560E) pada skala dalam pengaturan TOR; awalnya dengan L2 port-channels / GLBP (varian 2x1G dan 2x2G dan 2x4G langka untuk rak db) dan kemudian dengan L3 ke TOR (pergi dengan ini untuk 3750E / 3560E dan 10G ke inti). Saya berbicara ribuan dari mereka. Kami hanya melihat masalah dengan buffer untuk layanan dengan bandwidth paling intensif, dan pada saat itu kami tetap melihat 10G ke host (dan kotak pizza padat dengan 24-48 SFP +).

Apakah Anda akan dapat membuktikan apa pun kepada manajemen benar-benar akan tergantung pada aplikasi dan Anda melakukan pekerjaan rumah Anda pada apa persyaratan desain dan aplikasi Anda, dan mengetahui persis apa spesifikasi aplikasi tersebut. , serta kecepatan pertumbuhan yang diharapkan itu. Siapkan tinjauan desain dengan rantai manajemen Anda serta pemilik / pelanggan utama jaringan.

Manajemen ingin melihat data , dan jika Anda tidak memiliki sumber daya untuk sepenuhnya menguji kotak (datang dengan rencana uji, sambungkan ke beberapa perangkat penghasil lalu lintas, keluarkan sepenuhnya dan tekankan untuk menguji spesifikasi desain, dll) ini akan sulit dilakukan. Mereka tidak akan terkesan dengan bukti anekdotal, dan menemukan data sulit semacam ini mungkin terbukti sulit, karena saya yakin orang yang menerbitkan hal semacam ini akan melanggar semua jenis NDA.

Semua orang yang memposting jawaban untuk ini telah menguraikan "area masalah" platform 3750 dengan cukup baik: mode susun dan kegagalan aneh yang melekat padanya, ukuran buffer, dll. Ada juga pertanyaan ini yang menguraikan masalah dengan mengumpulkan statistik SNMP pada penurunan antrian output - buffer dibagikan di seluruh ASIC, jadi statistik apa pun yang Anda dapatkan dengan ini melalui SNMP akan sama untuk rentang port tertentu (ini bisa menjadi salah satu poin penting yang dapat Anda bawa dengan rantai manajemen Anda).

Untuk meringkas, saya akan mengatakan bahwa 3750/3560 akan "baik" untuk sebagian besar penyebaran, bahkan pada skala yang agak besar. Hindari menumpuknya jika Anda bisa, tetapi saya akan mengatakan bahwa tidak terlalu mengerikan untuk melakukan ini dalam jumlah yang sangat kecil dan dapat dikelola.

John Jensen
sumber
10

Itu benar-benar tergantung pada skenario penempatan Anda. 3560/3750 adalah switch yang hebat, memiliki buffer yang layak, dan biasanya berfungsi dengan baik untuk sebagian besar aplikasi. Jika pusat data Anda melihat arus lalu lintas yang membutuhkan buffer lebih besar, Anda harus dapat menarik statistik dari sakelar, seperti penggunaan buffer dan penurunan paket. Manajemen yang meyakinkan untuk menjatuhkan sakelar yang menjatuhkan paket mereka seharusnya tidak terlalu menjadi tantangan. Kupikir.

Yosef Gunsburg
sumber
5
"Jatuhkan sakelar yang menjatuhkan paket mereka" - hebat!
Stefan
8

Pada hari-hari awal 3750, terutama teknologi penumpukan yang dirilis tepat sebelum 2010 atau lebih, ada banyak masalah dengan kegagalan saklar menyebabkan tumpukan gagal dengan cara yang tidak begitu anggun. Gabungkan bahwa dengan fakta bahwa meningkatkan tumpukan bukanlah proses yang paling intuitif (sudah diperbaiki sejak saat itu), 3750 benar-benar mendapatkan reputasi buruk yang telah macet sejak saat itu.

Di pusat data kecil, tumpukan 3750 mewakili opsi yang relatif murah untuk mendapatkan kepadatan port tanpa biaya sakelar berbasis sasis. Saya sendiri baru saja menginstal untuk pelanggan yang lebih kecil solusi pusat data yang melibatkan beberapa server Cisco UCS C220 M3 dengan Netapp FAS2240, dan saya menggunakan tumpukan 3750-an untuk memberikan redundansi etherchannel multi-chasis untuk setiap perangkat baru serta semua server lama mereka selama masa transisi. Itu bekerja sangat, sangat baik.

Jadi - apakah 3750 memiliki masalah? Mungkin sama dengan saklar lain yang sudah ada selama ini. 6500 memiliki masalah sejak awal dalam siklus hidupnya, dan sekarang sudah bertahun-tahun tidak buruk. Saya sarankan melihat apa yang Anda akan melemparkannya, dan jika metrik kinerja bertahan, maka pastikan Anda memantau kinerjanya dengan kewaspadaan.

Mierdin
sumber
Saya telah menggunakan 3750-an dengan kesuksesan berkali-kali juga. Kemudian lagi, penyebaran DC saya cukup kecil karena sebagian besar waktu saya dihabiskan di inti MPLS. Saya terus mendengar betapa 'buruknya' mereka, dan saya yakin mereka buruk untuk beberapa hal, tetapi tidak pernah melihat pernyataan ini didukung dengan data yang keras
mellowd
Sekali lagi, saya pikir sebagian besar masalah historis dengan produk. Belum lagi Anda harus menyebarkannya di mana-mana, berbasis sasis menjadi jauh lebih hemat biaya dengan persyaratan port yang lebih tinggi - belum lagi kurangnya kemampuan 10GbE hilir untuk 3750. Ini pertanyaan standar ukuran, menurut pendapat saya, sekarang produk ini telah menghilangkan beberapa kerutan besar.
Mierdin
6

Jujur saja, cara paling umum yang pernah saya lihat pada 3750-an, adalah ketika sakelar inti ditingkatkan ke Nexus 7k. Biasanya (tetapi tidak selalu) bagian dari penyegaran itu adalah untuk memindahkan TOR ke Nexus 2000 FEXs atau Nexus 5000s.

Meskipun 3750 tidak memiliki buffer terbesar, dalam pikiran kebanyakan orang, mereka bekerja "cukup baik" di sebagian besar lingkungan DC perusahaan.

Kecuali jika Anda dapat memberikan nilai dolar pada masalah yang disebabkan oleh memiliki 3560/3750 di DC, saya ragu Anda dapat meyakinkan manajemen untuk menggantinya di luar siklus penyegaran produk reguler.

Brett Lykins
sumber
Masalah terbesar yang saya dengar dari mereka adalah ketika Anda mungkin memiliki beberapa server yang terpasang pada antarmuka pertunjukan, dan antarmuka yang pergi ke WAN adalah 100 MB atau kurang. Tetapi sekali lagi, saya belum melihat data yang sulit untuk mendukung hal ini
mellowd
2
Itu akan menjadi masalah dengan buffer kecil karena Anda akan mencadangkan data dari tautan manggung Anda menunggu untuk mencapai tautan 100Meg, tapi ini bukan masalah buffer - Ini adalah "Kami tidak mengukur bandwidth dari WAN kami benar "masalah.
bigmstone
6

@mellowd tentu saja benar, switch ini bukan switch DC yang dapat digunakan, karena buffer yang sangat terbatas, mereka akan melakukan microburst dan menurunkan traffic.

Pertimbangkan Anda memiliki 2 * 1GE masuknya dan 1 * 1GE keluar. Skenario kasus terburuk adalah, bahwa port keluar mulai turun setelah port masuk telah dikirim pada waktu yang sama untuk 2 ms. Skenario kasus terbaik adalah, bahwa Anda dapat menangani 8ms burst.

Anda memiliki buffer egress 2MB per 4 port, jadi 2MB / (1Gbps / 8) = 16ms maksimum dan 16/4 = 4ms minimum. Bagilah nomor itu dengan jumlah port masuk yang ingin dikirim, dan Anda mendapatkan jumlah berapa lama Anda bisa mengatasinya. Artinya, semakin banyak port masuk (server) yang Anda tambahkan, semakin sedikit microbursting yang dapat Anda tangani.

Jika Anda harus hidup dengan 3750/3560, Anda harus membaca dokumen ini untuk memaksimalkan penggunaan buffer. Dan jika Anda masih menggunakan LACP saat keluar, meskipun grafik Anda menunjukkan bahwa permintaan jalan keluar rata-rata sangat rendah.

Untuk membuktikan kepada manajer Anda bahwa buffer tidak cukup memantau / mengetuk / merentang jaringan Anda saat ini mengalihkan semua downlink, maka Anda akan memiliki cap waktu dan ukuran paket yang akan keluar dan Anda dapat menghitung berapa lebih dari 1Gbps permintaan instan Anda dan berapa banyak penyangga Anda harus menanganinya.

ytti
sumber
6

Kinerja tentu saja merupakan masalah penting dan ditangani dengan baik di atas tetapi ada juga banyak perbedaan berdasarkan fitur dan set fitur:

  1. Kebutuhan untuk unit RPS eksternal adalah masalah besar di banyak instalasi - saklar 1U menjadi lebih mahal dalam hal biaya awal, ruang yang hilang dan manajemen yang berkelanjutan. Daya redundan harus dianggap mutlak di semua lingkungan lingkungan data terkecil.

  2. Banyak dan banyak kode yang tidak perlu untuk konektivitas pengguna akhir sedang berjalan - lebih banyak peluang untuk cacat, masalah keamanan, dan waktu henti.

  3. Fitur DC (ISSU, DCB, penyimpanan, elemen skrip on-box tertentu) tidak - dan tidak akan - pada perangkat yang berfokus pada kampus. Mekanisme untuk mengelola dan skala ekstensi L2 dengan cara yang waras juga (yaitu FabricPath / TRILL, OTV, VXLAN, dll) juga cenderung hilang dari keadaan sekarang dan peta jalan di luar produk DC. Daftar di sini hanya akan tumbuh - virtualisasi on-box, dukungan mekanisme bantuan HW, dll.

  4. Skalabilitas - Bagaimana Anda menumbuhkan infrastruktur? Banyak dan banyak sakelar (mahal untuk dikelola)? Penumpukan (sulit, masalah pemasangan kabel utama) berantakan. Selain itu fleksibilitas jenis antarmuka (serat vs tembaga, misalnya) pada densitas dapat menjadi tantangan.

Secara umum perbedaan antara DC dan switching lemari semakin meningkat. Di dunia Cisco ada sistem operasi yang berbeda (NXOS vs IOS) untuk alasan yang sangat bagus - persyaratan yang sangat berbeda menghasilkan solusi yang berbeda. Kecepatan fitur untuk mekanisme autentikasi pengguna (802.1x) atau integrasi AV mewah tidak diperlukan di pusat data sementara kemampuan untuk menghentikan berton-ton 10GE tidak diperlukan di lemari kabel. Alat yang berbeda untuk pekerjaan yang berbeda. Kotak Nexus yang menghubungkan desktop juga merupakan paket yang kurang ideal.

Saya juga akan mengarahkan Anda ke berbagai panduan desain (CVD, dll) yang menjabarkan alasan untuk jenis switch yang digunakan di berbagai titik dalam jaringan. Ada sesuatu yang bisa dikatakan untuk solusi yang umumnya menyerupai praktik umum terbaik di industri, dan sakelar yang Anda sebutkan umumnya tidak memiliki tempat di DC - terlepas dari jaringan manajemen atau situasi konektivitas lokal kasus khusus tertentu.

rnxrx
sumber
4

Saya punya pelanggan yang telah menempatkan mereka sebagai SAN switch stack (menggunakan 3750X) dengan SAN terhubung pada 10Gbit dan kemudian host ESX mereka terhubung di Gbit (atau beberapa Gbit menggunakan LAG) dan jumlah penurunan output astronomi tidak peduli bagaimana Anda mencoba dan menyetel buffer.

Pelanggan yang sama memiliki dua tumpukan 3750 lainnya di DC yang sama untuk jaringan lain dan semuanya bersih.

TL; DR: Ini benar-benar tergantung pada jenis lalu lintas yang akan Anda masukkan melalui tumpukan dan di mana kemacetan Anda.

David Rothera
sumber
3

Catu daya / kipas dalam 3560/3750 tidak bisa diganti panas / sekali sakelar dipasang dan kegagalan yang tak terhindarkan dari perangkat ini terjadi, semua server harus dicabut dari 3560/3750 saat sedang dilepas dan diganti dengan RMA.

Arah kipas pada 3560-an / 3750-an juga menjadi masalah dengan lorong panas / lorong dingin dan pemasangan pendingin lainnya. Memasang sakelar di mana port sakelar menghadap ke belakang server menciptakan situasi di mana kipas sakelar bertiup ke arah yang salah. Ini terlalu panas saklar yang membuatnya lebih cenderung gagal / perlu diganti.

Alex.D.Pappas
sumber