http://bpap.ir

VMSTDC: Virtualized Multi Service and Tenancy Data Center

در مقاله زیر سعی شده است بطور چکیده، روش و ساختار طراحی منطقی مراکز داده بر اساس متد VMSTDC با بکارگیری فناوری های همچون مجازی سازی، SDN و سرویس گرا ارائه شود تا خواننده با اصول اولیه و مفاهیم کلی این روش آشنا گردد. در این گذر به ناچار معماری های اولیه طراحی زیر ساخت شبکه مرکز داده به اختصار توضیح داده می شود تا درک بهتری از ویژگی های ممتاز روش طراحی VMSTDC بو جود آید. مرکز داده با رویکرد VMSTDC مبتنی بر زیر ساخت مجازی سازی در لایه شبکه، سرور و سیستم عامل، امنیت و ذخیره سازی طراحی و اجرا می شود. هریک از زیر ساخت های بیان شده تا اندازهای مفاهیم مجازی سازی را ارائه می کنند و بدینگونه نمی توان انتظار داشت که همه زیر ساخت های تشکیل دهنده مراکز داده VMSTDC به یک اندازه از مزایایی مجازی سازی برخوردار باشند.بنابراین برای درک مفهوم VMSTDC می بایست ابتدا به بررسی مفصل هریک از زیر فناوری های فراهم کننده راه کار VMSTDC بپردازیم. برای شروع از لایه شبکه شروع می کنیم و با ارزیابی فناوری های مجازی سازی در این بخش حرکت خود را برنامه ریزی می کنیم. در مقالات بعدی تلاش بر این خواهد بود بر اساس محصولات شرکت های اصلی ارائه کننده فناوری مجازی سازی در بخش شبکه، طرح مفهومی و Conceptual از طرح مرکز داده با بخش های اصلی آن به منظور ارزیابی و مقایسه به معماری های سنتی شبکه در مرکز داده بررسی شود.

 

معماری سنتی لایه شبکه مرکز داد ( Classic Data Centre  Architecture )

 در گذشته بطور سنتی مراکز داده از معماری و هم بندی شبکه های سه لایه که توسط شرکت Cisco ارائه شده بود، در طراحی پیروی می کردند. لازم به ذکر است معماری فوق در زمان ارائه بهعنوان شاهکار طراحی و راه کاری بسیار کارا مد نسبت به روش های پیشین تلقی می گردید. معماری سه لایه شبکه با دید سرویس گرا، سه بخش اصلی برای شبکه در نظر می گیرد. سه بخش مورد نظر به تفکیک Access/Distribution/Core نامیده می شوند و هر بخش دارای وظایف مشخصی و تعریف شده ای می باشد. با توجه به این رویکرد، تهیه و ارائه محصولات انحصاری برای هر بخش بصورت مستقل از دیگر بخش های شبکه ممکن می گردید. سازندگان تجهیزات شبکه، در رقابتی تنگاتنگ شروع به عرضه محصولات گوناگون برای هر بخش کردند. سازندگان بزرگ با هدف بدست آوردن سهم بیشتری از بازار اقدام به عرضه مجموعه محصول برای سه لایه بیان شده کردند. بهعنوان مثال شرکت Cisco اقدام به عرضه سوئیچ های سری Catalyst 29xx برای لایه Access، سری Catalyst 3xxx/4500/ برای لایه Distribution و سری Catalyst 6500 بهعنوان لایه Core کرد. دیگر بازیگران اصلی همچون Brocade/Extreme/Juniper/Arista و غیره نیز بسته های محصول شبکه مرکز داده خود را به مانند Cisco ارائه کردند. با گذشت حدود دو دهه از ارائه تجهیزات با چنین رویکردی، با تغییر در کارکرد مراکز داده و ارائه فناوری های که نگاه سرویس گرا داشتند، نقش مراکز داده دچار تحولاتی شد که لازم می نمود بازنگری در معماری سه لایه شبکه صورت پذیرد. دلیل این امر افزایش توان پردازشی سرور ها به دلایل گوناگون، ضرورت توجه به امنیت بهعنوان چالشی جدید، پیاده سازی الزامات خدمات میزبانی سرویس و سرور بهعنوان خدمتی نو در سبد خدمات مرکز داده و دیگر عوامل می باشد. نیازمندی های فوق باعث ایجاد لایه اتصال سرور(Ethernet Data Center) و لایه سرویس (Load Balancer, Application Security, Traffic Analyzer) در شبکه گردید. لایه های فوق دارای نیازمندی های گوناگون پردازشی و پهنای باند می باشند در نتیجه تجهیزات ارائه شده برای لایه های جدید دارای کارکرد های کاملا متفاوت می باشند که امکان تجمیع آن در یک دستگاه را منتفی می نماید. به عنوان مثال سوئیچ های که مسئول اتصال سرور ها به شبکه می باشند می بایست دارای زمان گذر دهی( Switching latency ) کم، پورت های پر سرعت و نسبت بار گذاری ( Over subscription ) کمتر از 3 باشند. تجهیزاتی که در بخش امنیت بکار گرفته می شود نیز می بایست از توان پردازی بسیار زیاد با زمان پاسخ دهی ( Response time ) کم برخوردار باشند. نمود چنین رویکردی منجر به ارائه رده ی جدیدی از سوئیچ ها بهعنوان سوئیچ های مرکز داده و نیز تجهیزات امنیتی و سرویسی بصورت سخت افزار مجزا گردید. اگر بخواهیم به تجهیزات ارائه شده اشاره کنیم می توان از Cisco 4948E، Cisco 4710 وCisco FWSM یاد کرد. لازم به ذکر است موارد قابل اشاره بسیار بیشتر بوده که دراین مقاله تنها به بخش کوچکی از آن اشاره می شود. به دلایل گوناگون فنی، سرویس های عرضه شده در لایه ها جدید شامل Service Layer and Ethernet DC، امکان تجمیع کردن آن را در معماری پیشین نا ممکن می نماید. هر چند تلاش های برای این مهم انجام گرفت ولی به دلیل وجود محدودیت، مورد استقبال قرار داده نشد. محدودیت های معماری کلاسیک مراکز داده را می توان شامل عوامل زیر دانست.

 

  1. محدودیت در تعداد و نوع پورت های ارائه شده( کمتر از 2000 پورت)
  2. زمان گذر دهی ( Switching Latency ) در حدود چند ده میکرو ثانیه
  3. زمان بازیابی مسیر عبور ترافیک در حدود چند ده ثانیه
  4. عدم امکان بهره برداری از کلیه مسیر های قابل استفاده به دلیل محدودیت های پروتکل ( STP )
  5. عدم امکان ایجاد یکپارچگی و ارتباط مدیریت شده لایه شبکه با زیر ساخت مجازی سازی

 

 برای رفع محدودیت های فوق، راه کار Ethernet Fabric توسط بازیگران اصلی حوزه شبکه برای لایه Ethernet DC ارائه گردید. ویژگیهای اصلی مراکز داده با روش معماری VMSTDC امکان بهره برداری بیشینه از ظرفیت زیر ساخت شبکه بصورت همزمان می باشد که در ادامه این مقاله به شرح آن می پردازیم. یکی از ارکان مرکز داده در روش VMSTDC، پیاده سازی زیر ساخت شبکه بر پایه فناوری Ethernet Fabric و SDN می باشد هر چند راه کار Ethernet Fabric از بد و تولد برای رفع کمبود های معماری کلاسیک ایجاد شده بود ولی به دلیل ویژگی های بالقوه توانست بهعنوان بستر جدید ارتباطی در مراکز داده با فناوری های مجازی سازی و فناوری SDN بکار گرفته شود. در مقاله SDN به طور مختصر و مفید مفاهیم و رویکرد اصلی این فناوری مورد ارزیابی قرار گرفت.

 

Ethernet Fabric پلی میان معماری سنتی و مدرن طراحی مرکز داده

 با اهمیت یافتن مراکز داده به عنوان دارایی های ارزشمند و تاثیر گذار بر فعالیت های کسب و کار سازمان ها و شرکت ها صرفنظر از کارکرد آن و همچنین نیازمندی های حوزه سرویس و امنیت، ضرورت ایجاد ویژگی های همچون دسترس پذیری99,999%، امنیت فراگیر، چابکی در تامین نیازهای کسب و کار را صد چندان نموده است. به منظور برآورده ساختن نیازهای جدید، لازم بود که تغییراتی بنیادین، بیش از آنچه که پیشتر اتفاق افتاده بود در حوزه طراحی منطقی مراکز داده انجام شود. تغییرات بیان شده علاوه بر پوشش نیاز های کسب و کار می بایست در راستای تامین نیازمندی های فناوری های جدید همچون مجازی سازی باشد تا امکان ارائه خدمات جدید سرویسی در بستر های جدید محقق گردد. اولین گام عملی برای رفع محدودیت های معماری سنتی، ارائه فناوری Ethernet Fabric می باشد. Ethernet Fabric به مجموعه فناوری های گفته می شود که محدودیت های معماری سنتی شبکه را در لایه 2مدل OSI از پیش رو برداشته و دریچه های جدیدی را برای ایجاد بیشترین سازگاری میان زیر ساخت شبکه در مرکز داده با دیگر لایه های مرکز داده را ممکن می سازد. در معماری و فناوری Ethernet Fabric محدودیت های پروتکل های لایه دوم مدل OSI بخصوص STP بطور کامل مرتفع می گردد و همچنین تعداد پورت های قابل استفاده، زمان بازیابی مسیر عبور ترافیک ( Network Failure Converging time )، استفاده همزمان کلیه لینکها (L2Multipath ) حل می گردد و نیز نسبت گذردهی ( Over Subscription ) لینک های ارتباطی به شرایط ایده آل، یعنی یک می رسد. در فناوری Ethernet Fabric، لایه های شبکه از دو لایه Access و Aggregation تشکیل می شوند. در این معماری بر خلاف معماری سنتی که هر سوئیچ ها بصورت المانی مستقل اقدام به پردازش و ارسال بسته داده می کند، حال تجهیزات شبکه به عنوان بخشی از یک سیستم اقدام به پردازش و ارسال داده می کنند. می توان اینگونه فرض کرد که هر سوئیچ در معماری Ethernet Fabric ابتدا تجهیزات متصل شده(Connected host) به خود را ثبت نام کرده و سپس دیگر تجهیزات شبکه را از وجود host مورد نظر مطلع می کنند هر سوئیچ با استفاده از پروتکل Short-Path First کلیه مسیر های لایه 2 (forwarding table ) منتهی بههر Host را محاسبه می کند. بنابراین همه تجهیزات شبکه دید مشترک و کاملی از Host های متصل شده و مسیر های دسترسی لایه 2 به آن را دارند. در شکل زیر همبندی کلی معماری Ethernet Fabric ارائه شده است.

 

1

راه کار  Ethernet Fabric  بر پایه معماری شناخته شده دیگری به نام Spine-Leaf  استوار است. نظریه و معماری Spine/Leaf توسط آقای چارلز کلوس پژوهشگر شرکت Bell در دهه ی  1950 ارائه شده است که در این مقاله فرصت پرداخت به آن نمی باشد. بطور خلاصه برای عبور ترافیک شرق و غرب (East West) که به ترافیک میان سروری معروف می باشد می بایست کمترین تاخیر و بیشترین پهنای باند را ایجاد کرد. مهیا کردن چنین بستری تنها در صورتی ممکن است که بتوان شرایط عبور ترافیک از یک پورت به پورت دیگر درون یک سوئیچ را میان چندین سوئیچ شبیه سازی نمود. در این شبیه سازی رابطه و نسبت OS، زمان تاخیر و پاسخ دهی از اهمیت بالایی برخوردار می شود. بنابراین چالش اصلی در راه کار Ethernet Fabric کاهش تاخیر و زمان پاسخ دهی و افزایش بیشینه پهنای باند می باشد. این الزامات باعث گردید همه سازندگان تجهیزات شبکه رده جدیدی از محصولات خود را با ویژگی های یاد شده ارائه کنند تا امکان ساخت شبکه Ethernet fabric ممکن گردد. در تعریف جدید، لایه access به Leaf و لایه Aggregation به Spine تعبیر می شود. ارتباط میان تجهیزات لایه spine با لایه Leaf می تواند بصورت Layer 2 و یا Layer 3 پیکربندی شود. مفهوم عبارت فوق این است که لینک های میان این دو لایه بصورت Switched و یا Routed کار می کند. اما تفاوت چیست و هر روش چه نقاط ضعف و قوتی دارد. پرسش مهم دیگری که می تواند در ذهن خوانند ایجاد شود این است که آیا پیکربندی لینک ارتباطی میان سوئیچ های لایه Leaf و Spine بصورت Layer 2/3 محدودیتی را در تعداد سوئیچ های Spine/Leaf، تعداد پورت و سرعت بازیابی شبکه ایجاد خواهد نمود ؟ پاسخ به این پرسش را باید بر اساس نوع پیاده سازی فناوری Ethernet Fabric توسط سازندگان و ارائه کنند گان این فناوری جستجو کرد. هدف از فناوری Ethernet Fabric همانا کاهش تعداد Node میان دو سرور به بیشینه ی 3 سوئیچ و استفاده همزمان از همه لینک های ارتباطی میان بخش های گوناگون تجهیزات شبکه می باشد. کاهش تعداد سوئیچ ها در مسیر ارتباطی دو سرور می تواند افق های جدیدی از گسترش پذیری و توسه پذیری را به ارمغان آورد. در این گذر پروتکل های همچون Trill، SPB و VxLAN و همچنین پروتکل های مسیر یابی مانند OSPF/IS-IS/ BGP بهعنوان ابزار مدیریت کننده جریان های ترافیکی مطرح می باشد. در این مقاله، راه کار ارائه شده توسط شرکت هایCisco, Brocade, Juniper, Dell force10 ، Extreme و Arista به تفضیلی بررسی می شود و محدودیت ها و ویژگی های هر یک از تولید کنندگان بصورت جداول نهایی ارائه می شود تا امکان جمع بندی برای خواننده ممکن گردد. برای شروع ابتدا به سراغ شرکت Cisco می رویم.

 

بخش اول بررسی راه کار Ethernet Fabric شرکت Cisco

 شرکت Cisco  فناوری Ethernet Fabric خود را با نام تجاری FabricPath در اواخر سال 2010 میلادی ارائه کرد. در این فناوری به منظور ایجاد ارتباط میان لایه Leaf و Spine استفاده از بستر Layer 2 ضروری می باشد تعداد سوئیچ های Spine در معماری FabricPath شرکت Cisco می تواند به شانزده عدد برسد. روش جابجا کردن ترافیک در FabricPath با استفاده از الگو ریتم های پردازشی پروتکل مسیریابی IS-IS و پارامترهای Layer 2 انجام می شود. بر اساس راه کار فوق، امکان استفاده از 16 مسیر همزمان برای اتصال هر سوییچ لایه Leaf به لایه spine ممکن می باشد. طرح همبندی فناوری FabricPath با استفاده از 16 سوئیچ Spine بصورت شکل زیر می باشد.

        2

 

بیشینه پورت های 10Gb/s قابل حصول، حدود 24576  با نسبت OS = 1 ( عدد OS مناسب برای مراکز داده بین 1 تا 3 پیشنهاد می شود )   می باشد تعداد پورت های 10Gb/s قابل بهره برداری با نسبت OS=3 برابر با  73000 پورت است. ساختار ایجاد شده همانند شکل بالا را می توان به مانند سوئیچ بزرگی با تعداد پورت های بسیار در نظر گرفت. اگر کارکرد Layer 3 به لایه Spine واگذار شود پیشنهاد می گردد از دو، سه و یا حداکثر چهار سوییچ در این لایه استفاده شود. دلیل این امر بخاطر محدودیت های پروتکل Anycast FHRP می باشد که منجر به کاهش تعداد پورت های قابل استفاده به 6144 پورت می شود. در صورتی که از چهار سوئیچ در لایه Spine استفاده شود، همبندی فناوری FabricPath بصورت شکل زیر خواهد بود.

3

 

با دقت در شکل های بالا میتوان دریافت که برای ایجاد افزونگی می بایست از Host 1 به دست کم دو سوییچ Leaf لینک برقرار نمود. نکته مهم این است که لینک های ایجاد شده در این وضعیت امکان توزیع بارو فعالیت بطور همزمان را نداشته و بصورت Active/passive کار می کنند. پیش از عرضه فناوری FabricPath توسط Cisco، این شرکت فناوری Virtual Port Channel را معرفی کرده بود. ایده اصلی این فناوری رفع چالش های افزونگی، توزیع پذیری و جایگشت پذیری در Layer 2  مدل OSI می باشد. Layer 2 در مدل OSI در واقع جولانگاه پروتکل قدیمی STP می باشد. مسیر عبور ترافیک Layer 2 شبکه بر اساس محاسبات این پروتکل تعیین می شود و بسیاری از محدودیت های ایجاد شده به منظور جلوگیری از Loop، ناشی از این پروتکل است. بطور خلاصه فناوری Virtual Port Channel می تواند دو سوئیچ فیزیکی را به یک سوئیچ منطقی از دید پروتکل های Layer 2 تبدیل کند بنابراین می توان دو لینک متصل به دو سوئیچ فیزیکی را بصورت Aggregate شده تبدیل کرد و مشکل مربوط به مسدود شدن یکی از لینک ها به دلیل اجرای پروتکل STP را حل کرد.  شکل زیر بیانگر کارکرد فناوری Virtual Port Channel  می باشد.

 

4

 

در شکل فوق از دید Host A سوئیچ های S1 وS2  بصورت یک سوئیچ دیده میشوند بنابراین ایجاد Port Aggregation از طرف Host و سوئیچ ها براحتی ممکن می باشد و همچنین ویژگی جایگشت پذیری، توزیع بار و افزونگی بطور کامل برقرار می باشد. برای ایجاد هماهنگی میان فناوری FabricPath و VPC، شرکت Cisco نگارش تکمیلی دیگری را بنام Virtual port Channel + یا به اختصار VPC+  معرفی کرده است. لازم به ذکر است که فناوری VPC+  هیچ ارتباط مستقیمی با فناوری FabricPath ندارد بلکه در شرایطی که نیاز به ایجاد دسترس پذیری و توزیع بار در لینکهای ارتباطی بین Host با سوییچ لایه Leaf است، از این فناوری استفاده می شود. در فناوری FabricPath Layer 2 Network بطور خلاصه، دو تا چهار سوییچ  به عنوان لایه Spine (Nexus/6000/7000 ) پیکربندی می شوند. سوئیچ های Spine نباید بطور مستیم به هم متصل باشند. لایهspine  می تواند علاوه برکارکرد Layer 2، کارکرد همزمان Layer 3 ای نیز داشته باشند. تعداد سوییچ های لایه Leaf ( Nexus 5000 ) با توجه به تعداد پورت های لایه Spine تا چند ده سوییچ ولی بصورت مضربی از دو قابل افزایش می باشد. سوئیچ های لایه Leaf می بایست به کلیه سوئیچ های لایه Spine متصل بوده و به یکدیگر متصل نباشند. در شکل زیر همبندی شبکه FabricPath به همراه VPC+ نشان داده شده است.

5

 

 به این نکته باید اشاره کرد که در همبندی شکل فوق، از بستر Layer 2 برای ارتباط لایه Spine و Leaf استفاده شده است. هر جفت از سوییچ های لایه Leaf از دید Host 1 و سوییچ های لایه Spine به دلیل استفاده از فناوری VPC+ بصورت یک سوئیچ منطقی شناخته می شود. نکته مهم دیگر این است که همه لینک ها ارتباطی بین بخش Spine/Leaf قابل استفاده و جایگشت پذیر می باشند. این ویژگی در معماری سنتی به هیچ وجه دست یافتنی نمی باشد. اتصال Host 1 به دو سوییچ Leaf نیز بصورت Active/Active با امکان جایگشت پذیری کامل می باشد. یاد آوری این نکته ضروری می باشد که مدیریت ترافیک Layer 2 شبکه FabricPath توسط پروتکل IS-IS بهینه شده صورت می پذیرد. از راه کار FabricPath برای ایجاد شبکه ارتباطی داخلی مراکز داده در هر مقیاسی می توان  استفاده کرد هدف اصلی راه کار FabricPath فراهم ساختن پورت های 10Gb/s از چند ده پورت تا چندین هزار پورت می باشد. در بسیاری از شرایط نیاز است راه کار FabricPath را در مقیاس کوچک پیاده سازی کرد در چنین وضعیتی پیشنهاد می شود در لایه Spine از دو سوئیچ بصورت VCP+ شده در کنار FabricPath استفاده کرد  تا  همه مزایای مورد نظر قابل حصول گردد. در این حالت کارکرد Layer 3 نیز توسط لایه Spine اجرا می شود چنین شرایطی امکان ارائه حداکثر 3072 پورت 10Gb/s را با نسبت OS=1 ممکن می سازد. در شکل زیر همبندی فناوری FabricPath با استفاده از دو سوئیچ Spine نیز ارائه شده است.

11

 

معماری فوق در مقیاس کوچکتر جهت پیاده سازی راه کار FabricPath بسیار مناسب می باشد. بر اساس شکل فوق همانطور که بیشتر بیان شد نقش مسیریابی layer 3 توسط لایه ی Spine انجام می شود. به دلیل پیاده سازی VPC+ در سوئیچ های Spine، پروتکل HSRP بصورت Active/Active عمل می کند. هر جفت از سوییچ های لایه Leaf از دید میزبان ها و سوییچ های لایه Spine به دلیل استفاده از فناوری VPC+ بصورت یک سوئیچ منطقی شناخته شده و همه لینک ها ارتباطی قابل استفاده و جایگشت پذیر می باشند در ادامه به شرح مختصر نحوه عمل فناوری FabricPath می پردازیم.

 در فناوری FabricPath به هر سوئیچ با استفاده از پروتکل DRAP ( Dynamic Resource Allocation Protocol )  یا بصورت دستی یک شناسه یکتا یا Switch ID تعلق می گیرد و جدول مسیر یابی ارسال داده بر اساس این شناسه سوئیچ ها، نه MAC آدرس شکل می گیرد. به پورت های سمت میزبان CE یا Classic Ethernet Port و به پورت های ارتباط دهنده سوئیچ های Leaf و Spine، پورت های FE یا Fabric Port می گویند. پورت های CE با دریافت بسته داده از میزبان اقدام به افزودن Fabric Header مورد نیاز می کنند. Fabric Header شانزده بایت می باشد که شامل Switch ID مبداء و مقصد، شماره پورت مقصد ترافیک و نیز شماره توپولوژی شبکه FabricPath می باشد. در شبکه FabricPath تنها سوئیچ های Leaf هستند که شناسه های MAC/ Switch ID را نگهداری می کنند. پس از دریافت بسته داده ورودی، سوئیچ Leaf با جستجو در جدول مسیر یابی SID سوئیچ مقصد را پیدا می کند و بر اساس SID پورت های خروجی یا FP ها تعیین می شود. با خروج بسته داده از سوئیچ Leaf و ورود به سوئیچ  Spine عملیات تعیین پورت های منتهی به SID سوئیچ مقصد انجام می گردد و بسته داده به سمت سوئیچ مقصد باز ارسال می شود. سوئیچ Leaf مقصد با دریافت بسته داده آن را بازگشایی کرده و به میزبان مورد نظر تحویل می دهد. سوییچ های Leaf در پیکربندی فوق از پورت و آدرس MAC میزبان ها مطلع شده و این اطلاعات در کل شبکه FP قابل استفاده می باشد و در نتیجه دید کامل برای همه سوئیچ های شبکه Spine/Leaf بوجود می آید. سوئیچ ها در فناوری FabricPath با استفاده از مسیرهای درختی برای هدایت ترافیک اقدام می کنند. همانطور که پیشتر بیان شد به منظور انجام Inter VLAN Routing، سوییچ های لایه Spine می توانند به عنوان Gateway برای میزبان ها بکار روند. برای ایجاد افزونگی در Gateway می توان از پروتکل Anycast FHRP استفاده کرد. پروتکل Anycast FHRP نگارش جدیدی و بهبود یافته از پروتکل HSRP بوده ویژگی بارز Anycast FHRP به نسبت HSRP در این است که در پروتکل HSRP تعداد سوییچ های فعال لایه Spine در فرآیند IVR به دو عدد محدود می شود ولی با استفاده از پروتکل Anycast FHRP، تعداد سوئیچ های فعال در نقش Gateway به چهار عدد افزایش پیدا کرده است. به همین دلیل است که در بسیاری از بهروش های فناوری FabricPath در صورت استفاده از نگارش اولیه پروتکل HSRP، پیشنهاد استفاده از دو سوییچ در لایه Spine  با فناوری VPC+ شده است. در واقع امکان بکارگیری پروتکل Anycast FHRP با ارائه NXOS 6.2.2 به بعد ممکن گردیده است.   

 شاید روش دیگری پیاده سازی راه کار Ethernet Fabric، اجرای آن به همراه فناوری VXLAN می باشد. فناوری VXLAN امکان گسترش L2 Vlan را از بستر Layer 3 ممکن می سازد. در این روش لینکها های ارتباطی میان سوئیچ های Leaf و Spine بصورت Layer 3 پیکربندی می شوند به این مفهوم که برای میزبان های متصل به سوئیچ های لایه Leaf، این سوئیچ ها در نقش Gateway تعریف می شوند. با استفاده از پروتکل های مسیریابی مانند IS-IS/OSPF و غیره، مسیر های ارتباطی با میزبان ها تعیین می گردد. نکته مهم در خصوص راه کارFabricPath این است که در این روش  نیاز به تجهیز جانبی برای پیکربندی وجود ندارد و اینکه هیچ هم افزایی میان فناوری VXLAN و Ethernet Fabric وجود ندارد. هر یک از این فناوری های بصورت مستقل پیاده سازی می شود. از نظر نویسنده این مورد را می توان به عنوان یک ضعف بیان نمود.  در این بخش از گزارش سوئیچ های سری 7000  و 5600  شرکت Cisco که با هدف ارائه فناوری FabricPath عرضه شده بود مورد ارزیابی قرار گرفت شد.

 در متن بالا بطور خلاصه روش و رویکرد شرکت Cisco برای عرضه راه کار Ethernet Fabric توضیح داده شد. از مهمترین پارامترهای قابل بررسی، محاسبه End to End latency میان دو میزبان و نسبت گذردهی می باشد. از نظر نویسنده بیان این نکته ضروری می باشد که رویکرد Ethernet Fabric را می توان در بهبود چهار پارامتر و شاخص Latency/Oversubscription/Multipath/Convergence تعریف کرد. هر یک از این شاخصه ها تاثیر مستقیم بر کارکرد دیگر پارامترهای مهم مانند گسترش پذیری، زمان پاسخ دهی و پهنای باند دارند. در ادامه دو شاخص کلیدی تاخیر ( Latency ) و نسبت گذردهی (Oversubscription ) در صورت استفاده از ترکیب های گوناگون سوییچ های Nexus به عنوان لایه Spine و  Leaf، بررسی می شود. نتایج این ارزیابی به شرح جدول زیر می باشد تا خوانندگان این مقاله درک و دید مناسب از آنچه که ارائه شد را بدست آورند.

 22


جدول زیر مقایسه راه کار Ethernet Fabric  بر اساس محصولات گوناگون شرکتCisco

 با نگاه کوتاه به جدول فوق می توان به این نتیجه رسید که برای ایجاد بستر شبکه در مراکز داده، بکارگیری فناوری Ethernet Fabric امری ضروری می باشد. روند تکامل تجهیزات شبکه در شرکت Cisco با عرضه سوئیچ های Nexus بطور قابل ملاحظه ای پیشرفت را نشان می دهد. به عنوان آخرین شاخص می توان به هزینه های پایین راه اندازی شبکه های مبتنی بر معماری Spine/Leaf اشاره کرد. در جدول زیر مقایسه ای میان تجهیزات مورد استفاده در معماری کلاسیک با تجهیزات جدول فوق ارائه شده است تا خوانندگان این مقاله از نظر هزینه های پیاده سازی نیز، دید لازم را کسب کرده و امکان گزینش راه کار مناسب را داشته باشند. برای ایجاد پورت های 1Gb/s به تعداد دلخواه به نسبت OS<=1 می بایست هزینه های مطابق جدول زیر را در نظر گرفت.

 

33

  با در نظر گرفتن جدول فوق می توان به این نتیجه رسید که هزینه های طراحی مرکز داده در بخش شبکه در صورت پیروی از روش سنتی در یک کلام اتلاف منابع و دست نیافتن به نتیجه مورد دلخواه می باشد. زیرا ایجاد پورت های 10Gb/s در لایه Access به دلخواه ممکن نمی باشد و فقط ایجاد پورت های 1Gb/s در لایه Access شدنی می باشد، در حالی که رویکرد جدید Spine/Leaf نتایج باورنکردنی را به همراه خواهد داشت. برای حل صورت مسئله فوق در صورت بکارگیری فناوری Ethernet Fabric نتایج زیر قابل حصول می باشد.

 

44

 در آخر:  با بررسی و ارزیابی راه کار و فناوری FabricPath می توان چنین برداشت کرد که واحد های Control plane و Data Plane در این روش همچنان بصورت محلی به ایفای نقش می پردازند و شرکت Cisco تلاشی برای جداسازی آن انجام نداده است. در واقع رویکرد این شرکت در راستای فناوری SDN نمی باشد. نکته قابل توجه دیگر Latency بالای راه کار FabricPath این شرکت میباشد (شاید بتوان گفت یکی از کندترین راه کار های ارائه شده). از نظر توسعه پذیری راه کار Ethernet Fabric به دلیل ویژگی  Layer 2 16-way ECMP این شرکت نمره بسیار خوبی کسب می کند. در صورت ایجاد شبکه Layer 3 در لایه Spine/Leaf، توسعه پذیری نیز با محدودیتی مواجه نمی باشد. شرکت Cisco برای جبران و گذار به سمت راه کار های مجازی سازی و SDN، فناوری Application Centric Infrastructure را معرفی کرده است. فناوری ACI مبتنی بر فناوری SDN می باشد. در مقالات بعدی به تفضیل در خصوص معماری و فناوری ACI مطالبی ارائه خواهد شد.

 

بخش دوم بررسی راه کار Ethernet Fabric شرکت Arista

 در بخش پیشین تلاش شد تا راه کار Ethernet Fabric شرکت Cisco  که با نا تجاری FabricPath شناخته شده است، مورد بررسی قرار گیرد و نقاط ضعف  قوت آن از منظر کمی و کیفی مورد ارزیابی قرار گیرد. در بخش دوم این مقاله به بررسی راه کار Ethernet Fabric براساس تجهیزات شرکت Arista می پردازیم. شرکت Arista به یکی از تولید کنند گان بزرگ تجهیزات شبکه در دهه اخیر تبدیل شده است. کیفیت بالای تجهیزات با توجه به قیمت و کارائی بسیار خیره کننده باعث پیشرفت چشمگیر این شرکت شده است بطوری که نامداران این عرصه همچون Cisco, Brocade, Juniper دیگر به سختی توان به چالش کشیدن این شرکت در مسابقه performance و کارائی را دارند!. هرچند بنا به تعصب و غیرت شبکه ای نویسنده، هیچ چی Cisco نمیشه ولی با کمی دقت و بررسی متوجه نادرست بودن این طرز تلقی خواهیم شد. اما اجازه دهید از پیش داوری و قضاوت های سلیقه فاصله بگیریم و کمی با واقعیات رودررو شویم.

 شرکت Arista همچون دیگر بزرگان اقدام به ارائه راه کار Ethernet Fabric کرد. راه کار فوق به اختصار به SDCN معروف می باشد. SDCN همان Software Define cloud Network Fabric می باشد. به منظور بررسی راه کار شرکت Arista ابتدا به معرفی فناوری MLAG یا Multi chassis Link Aggregation می پردازیم. فناوری MLAG مشابه فناوری VPC شرکت Cisco می باشد. هدف از پیاده سازی این فناوری، رفع محدودیت و مشکلات ناشی از پروتکل STP می باشد. در فناوری MLAG دو سوئیچ فیزیکی به مانند یک سوئیچ منطقی عمل می کنند و امکان ایجاد Port Aggregation با ویژگی های مانند افزونگی، جایگشت پذیری و توزیع بار میان دو سوئیچ فیزیکی ممکن می شود. در معماری های 2 Tier، می توان از این فناوری به بهترین نحو جهت افزایش چشمگیر کارائی و کاهش Latency استفاده کرد. شکل زیر همبندی شبکه های مبتنی بر این فناوری را نشان می دهد.

 

9

 

در شکل فوق سوئیچ های لایه Spine در نقش Gateway بکار می روند به دلیل پیاده سازی فناوری MLAG میان زوج سوئیچ های Spine و Leaf، هر زوج سوئیچ بصورت یک سوئیچ منطقی در نظر گرفته می شود. در شکل زیر همبندی واقعی فناوری MALG  در ساختار Ethernet Fabric ارائه شده است.

 10

 با توجه به شکل می توان دریافت که سوئیچ های Leaf بصورت MLAG و سوئیچ های لایه Spine نیز بصورت MALG پیکربندی می شوند هر زوج سوئیچ با پیکربندی MALG بصورت یک سوئیچ منطقی عمل کرده و ویژگیهای همچون جایگشت پذیری، افزونگی و توزیع بار بطور کامل قابل اجرا می باشد. نقش Gateway همانطور که پیشتر بیان شد توسط سوئیچ های لایه Spine با استفاده از پروتکل vARP بصورت Active/Active قابل اجرا می باشد. پروتکل vARP می تواند تنها دو سوئیچ Spine را بصورت Active Gateway  معرفی کند. با بکار گیری فناوریL2 Leaf/spine شرکت Arista  می توان حدود 4100 پورت 10Gb/s با نسبت OS=1 ایجاد کرد هر چند براساس ادعای این شرکت می تواند تا دویست هزار پورت       10 Gb/s را فراهم نمود.! ( مگه میشه مگه داریم ).

 موضوع Ethernet Fabric در اینجا پایان نمی پذیرد. شرکت Arista فناوری Ethernet Fabric خود را در صورتی که لینک های ارتباطی میان لایه Spine/Leaf بصورت Layer 3/ w VXLAN پیکربندی شود نیز ارائه کرده است. همانطور که از نام آن پیداست در این روش با استفاده از پروتکل مسیریابی مانند BGP/OSPF ارتباط میان سوئیچ های Spine/Leaf برقرار می شود. می توان از 4 تا 64 سوئیچ به عنوان سوئیچ Spine استفاده کرد. نقش Gateway در این روش به عهده سوئیچ های Leaf می باشد که بصورت سوئیچ های Top of Rack جا نمایی شده اند. با این روش امکان فراهم ساختن حدود  131000  پورت 10Gb/s با نسبت OS=1 و یا چهارصد هزار پورت 10Gb/s با نسبت OS=3 ممکن می گردد. این تعداد پورت از تعداد کل سرور های عملیاتی در خاور میانه بیشتر است.! به دلیل قابل اجرا بودن فناوری Network Virtualization یا به اختصار NV می توان بستر Layer 2 را در کل شبکه مرکز داده با استفاده از فناوری VXLAN گسترش داد و ویژگی های مانند VM Mobility را فراهم ساخت. شکل زیر همبندی کلی شبکه Ethernet Fabric بر اساس راه کار Spine/Leaf Layer 3/ w VXLAN  شرکتArista  را با چهار سوئیچ Spine را نشان می دهد .

 11

 بر اساس ارزیابی راه کار های ارائه شده توسط شرکت Arista می توان دریافت که این شرکت مانند Cisco هیچ تلاشی برای جداسازی بخش Control Plane از Data plane انجام نداده است. منظور این است که همچنان واحد پردازش کننده و جابجا کننده اطلاعات بصورت محلی در Switch ها باقی مانده است یا بهتره چنین نتیجه گیری شود که Arista همچنان بطور سنتی با موضوع مدیریت و جابجا کردن ترافیک در شبکه برخورد می کند. در اواسط سال  2015 شرکت Arista اولین نگارش از SDN Controller خود را با نام Cloud Vision ارائه کرد تا پاسخی با نیاز های این بخش داده باشد در نتیجه امکان همکاری و یکپارچه سازی فناوری SDN در این راه بطور کامل بوجود آمده است هر چند کمی دیر. شاید بیان این نکته ضروری می نماید که فناوری Ethernet Fabric  انگیزه اصلی آفرینش فناوری SDN می باشد از این روست که نویسنده تلاش دارد تا در انتهای بررسی های خود استعداد های ذاتی و رویکرد هر راه کار را در پیاده سازی فناوری SDN تعیین نماید.  تا اینجا هدف بررسی و آشنا شدن با قابلیت های ارائه شده توسط شرکت Arista و مقیاس پذیری راه کار Ethernet Fabric بود. در ادامه پارامتر های مثل Oversubscription و Latency که بسیار با اهمیت می باشد مورد ارزیابی قرار خواهند گرفت. برای شروع ابتدا به بررسی پارامتر OS می پردازیم. درصورت استفاده از چهار تا 64 سوئیچ Spine به همراه شانزده تا پانصد و دوازده عدد سوئیچ Leaf، ( لطفا اعداد را یکبار در ذهنتان تصور کنید ) شاخص OS در بدترین حالت عدد 3 می باشد در صورت رعایت اصول طراحی عدد OS به مقدار ایده آل 1 خواهد رسید.  این شاخصه ها برای معماری Spine/Leaf بصورت Layer 3/ w VXLAN می باشد.

 اما Latency به عنوان چالش برانگیز ترین پارامتر مطرح می باشد. در شرایطی که بیان شد کمینه و بیشینه تاخیر بر اساس راه کار شرکت Arista بین 1.7  میکرو ثانیه تا کمتر از 3 میکرو ثانیه می باشد. در جدول زیر بطور خلاصه پیکربندی های مختلف برای فراهم ساختن حدود 500 -200 پورت 10 Gb/s ارائه شده است و پارامتر های Latency  و OS مورد ارزیابی قرار گرفته است تا امکان مقایسه برای خوانندگان ممکن گردد.

55

 در مقایسه به راه کار شرکت Cisco می توان دید که بیشینه تاخیر در راه کار شرکت Arista از تاخیر یکی از سوئیچ های شرکت Cisco کمتر باشد. مثلا سوئیچ 9396PX شرکت Cisco دارای تاخیر حدود 1 تا 2 میکرو ثانیه می باشد در صورتی که ترکیب دو سوئیچ Arista 7050SX  به عنوان Leaf و یک سوئیچ Arista 7060CX-32  به عنوان سوئیچ Spine، روی هم رفته این سه سوئیچ کمتر از1.8 میکرو ثانیه تاخیر ایجاد می کنند. در صورتی که با همین پیکربندی سوئیچ های Cisco حدود 4 تا 5 میکرو ثانیه تاخیر ایجاد می کنند. ( باور نکردنی می باشد Cisco بیشتر از 2.5 برابر کندتر عمل می کند).

 در آخر:  با بررسی و ارزیابی راه کار و فناوری  شرکت Arista می توان چنین برداشت کرد که Control plane و Data Plane در این راه کار همچنان بصورت محلی در سوئیچ ها اجرا می شود و این شرکت تلاشی برای جداسازی آن انجام نداده است. در واقع رویکرد این شرکت در راستای فناوری SDN نمی باشد. در محصولات این شرکت امکان استفاده از Uplink های 40 Gb/s با سرعت 100 Gb/s نیز ممکن بوده و از نظر شاخص latency نمره بسیار خوبی می توان به محصولات این شرکت داد. توسعه پذیری در روش layer 2 مناسب و در روش Layer3  به دلیل بکار گیری پروتکل مسیر یابی و ویژگی 128-way  ECMP  Layer 3 بسیار زیاد می باشد. قیمت مناسب یکی دیگر از ویژگی های محصولات این شرکت می باشد. یکی از نقاط ضعف شرکت Arista نبود نمایندگی، فروشنده و پشتیبان کننده معتبر در ایران می باشد.

 

بخش سوم بررسی راه کار Ethernet Fabric شرکت Juniper

 شرکت Juniper به عنوان یکی از با سابقه ترین و خوش نام ترین شرکت های سازنده تجهیزات امنیتی و شاید شبکه در دنیا مطرح می باشد. این شرکت توانسته با ارائه تجهیزات با کیفیت در حوزه امنیت و شبکه خود را در لیست چند سازنده برتر قرار دهد. اما در این گزارش هدف تعریف و تمجید از Juniper نمی باشد بلکه زمان ارزیابی فنی محصول می باشد. باید در نظر داشت که انتظار ها از شرکت Juniper خواه نا خواه زیاد می باشد. این شرکت نیز مانند دیگر بزرگان حوزه زیر ساخت شبکه اقدام به معرفی راه کارهای اختصاصی خود با نام های تجاری QFabric  و Virtual Chassis Fabric نمود است.  راه کار Ethernet  Fabric شرکت Juniper در سال 2011  ارائه شده است. که در ادامه به شرح هر یک می پردازیم و از منظر کیفی و کمی آن را مورد ارزیابی قرار خواهیم داد.

 پیش از شروع لازم است به یکی دیگر از فناوری های تشکیل دهنده راه کار Ethernet Fabric، فناوری MC-LAG اشاره ای مختصر داشته باشیم. MC-LAG به فناوری اطلاق می شود که در آن دو سوئیچ فیزیکی به یک سوئیچ منطقی از دیدگاه Layer 2 تبدیل می شود. بیشینه تعداد سوئیچ در هر همبندی MC-LAG دو دستگاه می باشد بنابراین مانند فناوری Cisco VPC و Arista MLAG محدودیت های ناشی از پروتکل STP بطور کامل رفع می شود. در شکل زیر همبندی MC-LAG آنگونه که در مراکز داده از آن استفاده می شود ارائه شده است.

66

 اولین راه کار ارائه شده از سوی شرکت Juniper برای Ethernet Fabric، فناوری Virtual Chassis یا VC می باشد.  فناوری VC با همبندی  Core/aggregationیا Spine/Leaf  قابل اجرا می باشد. در لایه Spine می بایست از سوئیچ های سری Ex-8200 استفاده کرد این سوئیچ ها با بکارگیری فناوری Virtual Classic بصورت یک سوئیچ مجازی قابل پیکربندی می باشند. بیشینه تعداد سوئیچ های لایه Spine در راه کار Virtual Classic به دو سوئیچ محدود می شود. در لایه Leaf، هر جفت از سوئیچ ها با پیکربندی فناوری MC-LAG بصورت یک سوئیچ منطقی در نظر گرفته شده و ترافیک ورودی و خروجی به سرور ها و لایه Spine امکان جایگشت پذیری، افزونگی و توزیع بار را بطور کامل دارا می باشد. در شکل زیر همبندی فناوری VC نشان داده شده است.

 

77

در راه کار juniper VC کارکرد Layer3 و مسیر یابی توسط لایه Spine اجرا می شود. نکته مهمی که می بایست به آن توجه داشت آن است که افزونگی برای کارکرد لایه Spine با استفاده از پروتکل VRRP و پیکربندی های مورد نیاز که خاص شرکت Juniper می باشد ممکن می گردد. زیرا پروتکل VRRP دارای کارکرد Active/Passive بوده ولی با اجرای MC-LAG نحوه کارکرد پروتکل VRRP بصورت Active/Active  تغییر می کند. تعداد پورت های 10Gb/s قابل عرضه در فناوری  VC به 250 تا 500  عدد با نسبت OS=1 محدود و Latency حدود 13us تا 20us می باشد. با در نظر گرفتن شرایط و اعداد بدست آمده راه کار شرکت بزرگی چون Juniper نا امید کننده بنظر می رسد  از نظر شاخص Latency شرایط نا مناسب و از نظر گسترش پذیری و تعداد پورت های قابل ارائه، مقادیر ارائه شده به هیچ وجه، در خور شرکتی مانند Juniper نمی باشد. لازم به یاد آوری می باشد که راه کار Virtual Chassis به عنوان اولین تجربه شرکت Juniper سرمشق و منبع الهام بسیاری از شرکت های بزرگ گردید و از این منظر قابل ستایش می باشد. راه کار جدیدتر و تاثیر گذارتر Ethernet Fabric شرکت Juniper همانطور که پیشتر بیان شد بنام Virtual Chassis Fabric معروف می باشد. این فناوری به اختصار، VCF  نیز نامیده می شود. نگارش اولیه این فناوری با نام Virtual Chassis در بخش پیشین معروفی گردید هرچند مورد استقبال طراحان مراکز داده قرار نگرفت. همبندی فناوری VCF بر اساس همبندی مدل Spine/Leaf می باشد. بیشینه تعداد سوئیچ در این پیکربندی 32 عدد می باشد که از 2 تا 4 سوئیچ به عنوان Spine و تعداد 30 عدد به عنوان Leaf به ایفای نقش می پردازند. نوع ارتباط لایه Spine /Leaf بصورت layer 2 پیکربندی می شود. در صورتی که از سوئیچ های سری QFX-5100 در ساختار VCF استفاده شود بیشینه سوئیچ های قابل مدیریت به 20 عدد محدود می شود که از این تعداد 2 تا 4 عدد به عنوان لایه Spine و تعداد16 تا 18 عدد به عنوان لایه Leaf قابل پیکربندی می باشد. بیشینه تعداد پورت های 10Gb/s قابل استفاده در این روش به حدود 384 تا 1152 پورت با نسبت OS برابر با 1 تا 3 بالغ می شود. بیشینه Latency چنین ساختاری با بکارگیری سوئیچ های سری QFX5100 کمتراز 2us می باشد. فناوری VCF امکان یکپارچه شدن و پشتیبانی از فناوری SDN را دارا می باشد. در شکل زیر همبندی Juniper VCF با سوئیچ های QFX5100 نشان داده شده است.

 

 با توجه به شکل فوق و اعداد بدست آمده می توان نتیجه گرفت که محاسبات و پردازش های مربوط به کارکرد layer 3 و مسیر یابی توسط لایه Spine انجام می شود و نتایج آن در اختیار لایه Leaf گذاشته می شود. دراین روش بنوعی مدل توزیع شده ای از کارکرد های layer 3 بوجود خواهد آمد در خصوص MC-LAG نیازی به استفاده از لینک های ارتباطی میان دو سوئیچ Leaf وجود نداشته و این فرآیند توسط لایه Control Plane یا Spine سوئیچ مدیریت می شود!. راه کار VCF برای مراکز داده متوسط و کوچک بسیار مناسب می باشد هر چند ملاحظات هزینه ای نیز در این گزینش تاثیر گذار خواهد بود. در ادامه شیوه و کارکرد ساختار VCF مورد بررسی اجمالی قرار می گیرد تا خواننده با کارکرد این فناوری نیز آشنا گردد. فناوری VCF از دو المان اصلی تشکیل شده است که هریک دارای کارکرد ویژه ای می باشد. در زیر به شرح هریک از این المان ها پرداخته شده است.

Control plane: واحد Control Plane در فناوری VCF درواقع توسط سوئیچ های لایه Spine که می بایست از سریQFX5100-24Q  باشند اجرا می شود. کارکرد Routing Engine که مربوط به کنترل پورت های شبکه، ایجاد ساختار Loop-free، تشکیل زیر ساخت Fabric، مدیریت سوئیچ های Leaf و دیگر سرویس های مرتبت با جابجا کردن ترافیک در شبکه Ethernet Fabric بوده، توسط سوئیچ های لایه Spine بصورت مدل A/P اجرا می گردد. سرویس Control Plane بصورت جایگشت پذیر و افزونه توسط لایه Spine اجرا می گردد. درصورت خرابی Master RE دیگر سوئیچ که در نقش Backup RE است عهده دار نقش RE خواهد بود.   

Data plane: بخش Data plane در واقع همان سوئیچ های لایه Leaf می باشند. در فناوری VCF به سوئیچ های لایه leaf بنا به تعریف و کارکرد آن، Line card می گویند. Line card ها قابلیت اجرای کلیه پروتکل هایLayer 2/3 را بصورت سخت افزاری (ASIC) دارند. محل اتصال تجهیزات شبکه، لایه Leaf می باشد سوئیچ های لایه Leaf با دریافت داده های مورد نیاز از Control Plane، کلیه فرآیندهای Switching/Routing و غیره را بصورت محلی در خود انجام می دهند. بر اساس بهروش ها و تجربیات نویسنده استفاده از سوئیچ های سری QFX5100 بسیار در کیفیت سرویس دهی تاثیر گذار خواهد بود.   

اما روش دوم پیاده سازی فناوری Ethernet Fabric شرکت Juniper بنام QFabric معروف می باشد. دو نگارش از این فناوری بنام QFX3000-M و  QFX3000-G توسط این شرکت عرضه شده است. تفاوت ای دو نگارش در تعداد پورت های 10Gb/s و Latency آن می باشد. در این فناوری واحد Control Plane توسط سخت افزاری مجزا برای کلیه سوئیچ های ساختار QFabric اجرا می شود این شیوه ی کارکرد بسیار شبیه اصول و مفاهیم فناوری SDN می باشد شاید بتوان گفت بنیانگذاران فناوری SDN از QFabric الهام گرفته اند!. فناوری QFabric بسیار وابسته به المانی بنام QFabric Director  است. QFabric Director یا به اختصار QFD به عنوان Control Plane (واحد پردازش و تصمیم گیری) به ایفای نقش می پردازد. کلیه پردازش های مورد نیاز در ساختار QFabric اعم از مسیریابی Layer2/3، کنترل دسترسی، پروتکل های مسیر یابی، QOS و غیره توسط QFD انجام می گردد. در ادامه گزارش به تشریح کلیه المان های ساختار استاندارد QFabric می پردازیم. هر ساختار QFabric از سه المان فیزیکی به شرح زیر تشکیل می شود.

Node: سوئیچ های که مسئول تامین ارتباط سرور ها، NAS و Firewall با شبکه مرکز داده می باشند، طبق تعریف به این بخش لایه Leaf نیز گفته می شود. بیشینه تعداد سوئیچ های این لایه در مدل QFX3000-G به 128 دستگاه و در نگارش QFX3000-M به 16 سوئیچ محدود می شود. سوئیچ های لایه Leaf می توانند کلیه پردازش های layer2/3 را بصورت محلی با استفاده از داده های دریافتی از Director اجرا کنند.

Interconnect: به سوئیچ های فراهم کننده ارتباط میان سوئیچ ها ی Leaf گویند طبق تعریف این بخش به لایه Spine نیز شناخته می شود. بیشینه تعداد سوئیچ های این بخش به 4 عدد محدود می شود.

Director: همانطورکه پیشتر بیان شد ، مغز ساختار QFabric در واقع Director می باشد. این بخش کلیه نتایج پردازشی ساختار QFabric را در اختیار Data Plane  (واحد جابجا کنند اطلاعات) یا سوئیچ های لایه Leaf قرار می دهد. اطلاعات دریافتی از QFD در PFE و RE مورد استفاده قرار می گیرد. Packet Forward Engine و Routing Engine سخت افزار های بهینه و اختصاصی برای فرایند ارسال بسته داده برروی شبکه توسط سوئیچ های لایه Leaf می باشند که اطلاعات مورد نیاز خود را از Director دریافت می کنند. بر خلاف راه کار های دیگر Ethernet Fabric شرکت های مانندCisco  و Arista که مورد بررسی قرار گرفت، راه کار QFabric تلاش بیشتری برای برون سپاری پردازش های مورد نیاز در شبکه و معماری Ethernet Fabric به Control Plane اختصاصی دارد. حال به بررسی المان های منطقی ساختار QFabric می پردازیم.

Server Node Group: وضعیتی که میزبان یا سرور تنها یک سوئیچ Leaf متصل باشد. تعداد پورت های میزبان اهمیت نداشته بلکه مهم این است که همه پورت های میزبان به یک سوئیچ لایه Leaf متصل باشند. امکان تعریف چندین SNG در ساختار QFabric ممکن می باشد. هدایت ترافیک Layer 2/3 توسط این گروه ممکن می باشد.

Redundant SNG: در این حالت میزبان با دست کم دو پورت شبکه، به دو سوئیچ مجزای لایه Leaf متصل می باشد. این دو سوئیچ می توانند بصورت یک سوئیچ منطقی قابلیت اجرای پروتکل LACP را داشته و کلیه الزامات جایگشت پذیری، افزونگی و توزیع بار را تامین کنند. امکان تعریف چندین RSNG در ساختار QFabric ممکن می باشد. ، هدایت ترافیک Layer 2/3 توسط این گروه منطقی ممکن می باشد.

Network Node Group: در ساختار QFabric برای ارتباط تجهیزات Layer 3 با QFabric از این مفهوم استفاده می شود. امکان تعریف تنها یک NNG در هر ساختار QFabric وجد دارد و می توان تا 8 سوئیچ لایه Leaf را عضو این گروه نمود. اعضاء این گروه دارای کارکرد RE نمی باشند بلکه این فرآیند توسط QFD انجام می شود و نتایج آن از راه PEF سوئیچ های عضو این گروه اجرا می شود. می توان به زبان ساده چنین برداشت کرد که پردازش های مربوط مانند پروتکل های مسیر یابی توسط QFD انجام می پذیرد و نتایج آن به سوئیچ های Leaf که عضو NNG می باشند ارسال می شود. مثلا پیام های دریافتی مربوط به پروتکل BGP/OSPF همسایگان بیرونی پس از پردازش و حصول نتیجه توسط بخش QFD به سوئیچ Leaf مناسب ارسال شده و پاسخ مناسب به همسایه ی مربوطه توسط  PFE سوئیچ Leaf تعیین شده ارسال می شود. در معماری QFabric ارتباط لایه Spine/Leaf با بکارگیری لینک های Layer 2  برقرار می شود. در همبندی QFabric کارکرد Layer 2/3 توسط لایه Leaf صورت می پذیرد به این معنی که Gateway میزبان ها و سرور ها، بجای سوئیچ های لایه Spine سوئیچ های لایه Leaf تعریف می شوند. برای تامین جایگشت پذیری، افزونگی و توزیع بار، سوئیچ های لایه Leaf نیازی به استفاده از فناوری MC-LAG ندارند بلکه مدیریت این کار توسط QFD پیکربندی و مدیریت می شوند. شکل زیر نشانگر معماری QFabric می باشد.

15

 

در فناوری QFabric امکان ارائه پورت های 10Gb/s  بین 768  تا حدود 6144  با نسبت OS برابر با 2تا 3 ممکن می گردد هر چند شرکت Juniper با عرضه سوئیچ های سری OCX1000x توانسته است تعداد پورت های خود را افزایش دهد. بیشینه Latency در این روش حدود 2.5 تا 6 میکرو ثانیه تخمین زده می شود. از دید نویسنده با توجه به وجود راه کارهای گوناگون در حوزه Ethernet Fabric با رویکرد SDN، می توان نتیجه گرفت که راه کار QFabric شرکت  Juniper از نظر کارکرد همانطور که پیشتر گفته شده بسیار  شبیه مفاهیم اصلی SDN بوده ولی برخلاف باور جهانی نسبت به شرکت Juniper، راه کار QFabric دارای مزیت ویژه ای نمی باشد هرچند که قابل تقدیر می باشد. بهعنوان مثال در خصوص Oversubscription و  Latency شاخصه های ارائه شده برای مقیاس کوچک مناسب بوده ولی برای مقیاس متوسط و بزرگ شاخصه های فوق چندان مناسب نمی باشد و نکته مهمتر اینکه امکان همکاری و یکپارچه سازی فناوری QFabric با فناوری SDN وجود ندارد. شرکت Juniper به منظور جبران خلاء سازگاری و پشتیبانی از فناوری SDN اقدام به معرفی راه کار Contrail نموده است. تلاش نویسنده بر این بوده تا بتواند بر اساس مستندات ارائه شده توسط شرکت Juniper مطالب این بخش را تهیه کند هر چند در این راه به دلیل نبود مستندات شفاف روند تکمیل این بخش با کندی و دشواری همراه بوده است. در جدول زیر بطور خلاصه پیکربندی های مختلف برای فراهم ساختن حدود 500 -200 پورت 10 Gb/s ارائه شده است و پارامتر های Latency  و OS مورد ارزیابی قرار گرفته است تا امکان مقایسه برای خوانندگان ممکن گردد. هزینه های اعلام شده بدون در نظر گرفتن SFP و لایسنس های مسیریابی می باشد.

  88

بر اساس جدول فوق برای دست یافتن به نسبت OS=1 می بایست از 1/2 و یا 1/3 پورت های موجود استفاده کرد

در آخر:  با بررسی و ارزیابی راه کار Ethernet Fabric شرکت Juniper می توان گفت که رویکرد اجرایی این شرکت بی نظیر می باشد و حتی الگوی پدید آورندگان فناوری SDN می باشد. گسترش پذیری Layer 2 در صورت استفاده از سوئیچ های سری 5100 محدود به 16-Way ECMP می باشد. در صورت ایجاد بستر ارتباطی Layer 3 میان لایه Spine/Leaf، به دلیل ویژگی  Layer 3 64-way ECMP، توسعه پذیری مانند دیگر راه کار ها ارائه شده می باشد همچنین این شرکت با چالش های اساسی مانند Latency و Oversubscription در راه کار QFabric مواجه است که می بایست با توجه به رقبای جدید چاره اندیشی نماید.. برای مراکز داده در مقیاس کوچک راه کار VCF این شرکت کمی گران ولی مناسب می باشد. محصولات جدید این شرکت امکان استفاده از Uplink های  با سرعت 100 Gb/s را پیدا کرده اند. قیمت مناسب با توجه به ویژگی های خاص، یکی دیگر از ویژگی های محصولات این شرکت می باشد. یکی از نقاط ضعف شرکت Juniper نبود نمایندگی، فروشنده و پشتیبان کننده معتبر در ایران می باشد.

 

بخش چهارم بررسی راه کار Ethernet Fabric شرکت Brocade

شرکت Brocade به عنوان یکی از تولید کنندگان مطرح حوزه تجهیزات شبکه و ذخیره سازی معروف می باشد. این شرکت به همان اندازه که در زمینه تولید سوئیچ های SAN خوش نام بوده، در زمینه تولید تجهیزات شبکه پس از خرید شرکت Foundry نیز صاحب سبک و نام می باشد. این شرکت برای عقب نماندن در بازار تجهیزات شبکه، همانند دیگر شرکت های بزرگ این حوزه اقدام به معرفی راه کار Ethernet Fabric خود با نام تجاری Virtual Cluster System یا به اختصار VCS نموده است. راه کار Brocade VCS به مانند دیگر راه کار های این بخش با هدف رفع محدودیت ها و ضعفهای معماری سنتی بخش زیر ساخت شبکه و فراهم ساختن بستری مناسب برای فناوری های جدید مانند مجازی سازی و SDN طراحی شده است.  لازم به یاد آوری می باشد که محصولات سری Brocade VDX تنها برای این منظور عرضه شده اند بنابراین تمرکز ما بر این رده از تجهیزات می باشد. بنظر نویسنده راه کار VCS شرکت Brocade تا حدودی از فناوری ها و مفاهیم بکار رفته در ساختار SAN Switch های این شرکت الهام گرفته شده است. همبندی سوئیچ های راه کار VCS می تواند به سه روش شامل Ring/Full Mesh و البته Spine/Leaf باشد. لازم به یاد آوری است که شرکت Brocade ترجیح می دهد بجای عبارت Spine/Leaf از عبارت مرسوم خود در شبکه SAN معروف به معماری Core/Edge استفاده کند. برای شروع ابتدا به سراغ یکی از زیر فناوری های مجازی سازی بنام Brocade MCT یا Multi-chassis Trunking می رویم و بررسی خود را با این ارزیابی این فناوری آغاز می کنیم. با استفاده از فناوری MCT می توان دو سوئیچ را از دیدگاه OSI Layer2/3 بصورت یک واحد منطقی تبدیل کرد. بنابراین سوئیچ و سروری که به این ساختار منطقی متصل باشد می تواند بصورت Active/Active به جابجا کردن اطلاعات بپردازید. این فناوری همانند دیگر فناوری های ارائه شده برای رفع محدودیت های ناشی از پروتکل STP مانند Cisco  VPC, Arista MC-LAG می باشد. در شکل زیر همبندی این فناوری ارائه شده است.

99

بر اساس شکل فوق ویژگی های افزونگی، دسترس پذیری، توزیع بار و جایگشت پذیری بطور کامل عملیاتی بوده و در صورت بروز خرابی در یکی از لینک ها، ارائه سرویس توسط سرور ممکن می باشد.

اما Brocade VCS، فناوری اصلی شرکت Brocade برای Ethernet Fabric می باشد. راه کار VCS بر اساس پروتکل Trill می باشد. پروتکل Trill با ادغام ویژگی های پروتکل های مسیر یابی مانند IS-IS و ویژگیهای Switching، کلیه محدودیت های ناشی از پروتکل های OSI Layer 2 را از میان برداشته و قابلیت ECMP، توزیع بار و جایگشت پذیری را بطور کامل محقق می نماید. با استفاده از فناوری VCS امکان اتصال سوئیچ های سری Brocade VDX به تعداد 48 دستگاه ممکن می باشد. از این تعداد بین 2 تا 4 دستگاه به عنوان لایه Spine و بین 44 تا 46 دستگاه به عنوان لایه Leaf پیکربندی می شوند. دلیل محدود بودن سوئیچ های لایه Spine به چهار عدد مربوط به پروتکل VRRP-E می باشد. تعداد پورت های 10Gb/s قابل دسترسی با نسبت OS=1 برابر با 1536 می باشد تعداد پورت های 10Gb/s با نسبت OS=2 برابر با 3072 و نسبت OS=3 برابر با 4096 پورت می باشد. در شکل زیر همبندی فناوری Brocade VCS ارائه شده است.

 

12

بر اساس شکل بالا کل شبکه VCS بصورت سوئیچی بزرگ و یکتا از دید میزبان های بیرونی دیده خواهد شد. در ادامه به شرح کارکرد ساختار VCS می پردازیم.

Control Plane: در فناوری VSC واحد Control Plane بصورت توزیع شده و مشترک توسط کلیه سوئیچ های متصل در شبکه VCS اجرا می شود. رویکرد شرکت Brocade مبتنی بر محلی سازی واحد Control plane ولی بصورت پراکنده و یکسان در کلیه سوئیچ های لایه Spine/leaf می باشد.

Data Plane: واحد Data Plane در واقع سوئیچ های لایه Leaf شبکه VCS میباشند که می توانند بر اساس اطلاعات دریافتی از واحد Control Plane محلی خود نسبت به جابجا کردن ترافیک بصورت کاملا سخت افزاری اقدام کنند. لازم به ذکر است که سوئیچ های سری VDX از کلیه ویژگی های Layer 3  در کنار Layer 2 پشتیبانی می کنند.

در ادامه به نحوه جابجا شدن اطلاعات در شبکه VCS پرداخته می شود. در فناوری VCS، به پورت های که سوئیچ های شبکه VCS را بهم متصل می کنند، Fabric port می گویند. به پورت های که تجهیزات و میزبان های بیرونی را به سوئیچ های شبکه VCS ارتباط می دهند، Edge Port می گویند. پس اتصال سوئیچ ها در شبکه VCS، به هر سوئیچ شناسه ی VCS Fabric ID یکتا بصورت خودکار اختصاص داده می شود، هرچند که امکان اختصاص و تغییر این شناسه بصورت دستی نیز ممکن می باشد. به لینک های ارتباط دهنده سوئیچ های لایه Spine/Leaf، لینک های ISL می گویند. درصورتی که بیش از یک لینک ارتباط میان دو سوئیچ را برقرار کند، لینکهای مورد نظر بطور خودکار  تشکیل پورت های Aggregate شده را می دهند. نکته مهم این است که فرآیند گره زدن پورت ها بصورت سخت افزاری انجام می شود و به نسبت پروتکل LACP که فرآیند نرم افزاری بوده، بسیار بهینه تر فرایند توزیع بارو افزونگی را فراهم می کنند. بطور نمونه مدت زمان بازیابی لینک خراب با استفاده از Brocade ISL Trunking در حد چند ده میکرو ثانیه می باشد در صورتی که با استفاده از پروتکل LACP، این پروسه درحد چند ده میلی ثانیه می باشد. تلاش شرکت Brocade بر این استوار بوده است که فرایند تشکیل شبکه VCS بدون نیاز به پیکربندی خاصی انجام شود این مهم حتی در تشکیل پورت های Trunk میان لینک های ISL ارتباط دهنده دو سوئیچ نیز مشاهده می شود.  پس از ورود بسته داده توسط میزبان به سوئیچ های Leaf، برچسب سوئیچ مورد نظر و مقصد به بسته اضافه می شود و مسیر یابی بر اساس شناسه VCS FID در شبکه VCS انجام  می شود. پس از رسیدن بسته داده به سوئیچ Leaf مقصد، برچسب های افزوده شده برداشته می شود و در نهایت بسته داده به میزبان مورد نظر تحویل داده می شود. لازم به یاد آوری می باشد که پروتکل FSPF ( Fabric Short Path First ) همبندی و مسیر های ارتباطی  Loop Free میان سوئیچ ها را محاسبه و ترسیم می کند. پروتکل FSPF همان پروتکل مسیر یابی شبکه SAN شرکت Brocade، می باشد. با استفاده از این پروتکل امکان بهره برداری از چندین مسیر بصورت هم زمان با ویژگی های کامل جایگشت پذیری، افزونگی و توزیع بار وجود دارد. یکی از فناوری های شگفت انگیز ارائه شده توسط شرکت Brocade که به منظور ایجاد افزونگی و توزیع بار، فناوری Virtual Link Aggregation Group می باشد. هدف از این فناوری حذف محدودیت های ناشی از پروتکل STP در کنار دیگر ویژگی های یاد شده می باشد. این فناوری مانند Cisco VPC و Arista MC-LAG می باشد. همانطور که در شکل زیر نشان داده شده است با استفاده از فناوری vLAG می توان تجهیزات بیرونی مانند سرور و ذخیره ساز را به بیش از دو سوئیچ متصل نمود و لینک های ارتباطی را بصورت Aggregate شده پیکربندی کرد. لینک ها Aggregate شده ویژگی های کامل افزونگی و توزیع بار را مانند لینک ها Aggregate شده منتهی به دو سوئیچ دارا می باشند. برتری vLAG به نسبت دیگر فناوری ها مانند VPC و MC-LAG در این است که می توان Link Aggregation را میان یک میزبان با دو سوئیچ و حتی تا چهار سوئیچ برقرار نمود در صورتی که در فناوری های یاد شده مانند VPC و MC-LAG این مهم تنها با دو سوئیچ ممکن می گردد.

 

 13

بر اساس بهروش های ارائه شده از سوی شرکت Brocade، کارکرد Layer 3 می تواند توسط لایه Spine اجرا گردد تا بیشینه گسترش پذیری و کارائی بوجود آید. مفهوم عبارت فوق در این است که کارکرد مسیر یابی Inter VLAN و Layer 3 در این لایه قابل اجرا می باشد. به منظور فراهم ساختن افزونگی برای Layer 3 استفاده از پروتکل VRRP پیشنهاد می شود. شرکت Brocade با بهینه سازی پروتکل VRRP، توانسته است به محدودیت های ناشی از این پروتکل پایان دهد. همانطور که پیشتر اشاره شده است پروتکل VRRP برای فراهم ساختن افزونگی در Gateway ایجاد شده است. این پروتکل بصورت استاندارد دارای کارکرد Active/Passive می باشد بنابراین این روش کارکردی باعث ایجاد گلوگاه های ترافیکی در این لایه میگردد. Brocade این مشکل را با معرفی VRRP-E مرتفع می کند. با استفاده از این پروتکل می توان تا بیش از چهار سوئیچ لایه Spine را به عنوان Gateway فعال در فرایند مسیر یابی و جابجا کردن اطلاعات پیکربندی کرد. و بطور همزمان از کلیه لینک های منتهی به لایه Spine با ویژگی توزیع بار و افزونگی کامل بهره برداری کرد. با دقت در راه کار Brocade VCD می توان به این نتیجه رسید که راه کار VCS با الهام از ایده های شبکه های ارتباطی ذخیره سازی همچون SAN و رویکرد های ناشی از تاثیر فناوری SDN توانسته است تا حد قابل قبولی محصولی مناسب را ارائه کند هر چند که راه توسعه محصولات سری Brocade VDX همچنان باز می باشد. از منظر پارامترهای مد نظر نویسنده موضوع از این قرار می باشد که Latency سوئیچ های سری VDX حدود 700 ns تا 900 ns می باشد. نسبت OS در این شرایط در بدترین وضعیت برابر با 3 می باشد. در جدول زیر بطور خلاصه پیکربندی های مختلف برای فراهم ساختن حدود 500 -200 پورت 10 Gb/s ارائه شده است و پارامتر های Latency  و OS مورد ارزیابی قرار گرفته است تا امکان مقایسه برای خوانندگان ممکن گردد. هزینه های اعلام شده بدون در نظر گرفتن SFP و لایسنس های مسیریابی می باشد.

14

 

بر اساس جدول فوق برای دست یافتن به نسبت OS=1 می بایست از1/2 تا  1/3 پورت های موجود استفاده کرد.

در آخر:  با بررسی و ارزیابی راه کار Ethernet Fabric شرکت Brocade  می توان گفت که رویکرد اجرایی این شرکت هوشمندانه می باشد. این شرکت تلاشی برای جداسازی واحد Control Plane و Data plane ننموده است. از نظر گسترش پذیری VCS Fabric Layer 2 و بیشینه مسیر های قابل استفاده Layer 2 16-Way ECMP در شرایط بسیار مناسبی می باشد. گسترش پذیری Layer3  بواسطه 32-Way ECMP در شرایط خوبی می باشد. به دلیل نبود پورت های 40Gb/s به تعداد مناسب، شاخص Oversubscription برای مقادیر کمتر از 3 هزینه بر بوده به این معنی که می بایست از تعداد سوئیچ های بیشتری به نسبت دیگر محصولات در شبکه استفاده شود و در کل راه کار VCS برای مراکز داده در مقیاس کوچک گرانتر از دیگر راه کار ها می باشد. از نظر Latency می بایست اذعان داشت که راه کار VCS در حد متوسط و بهتر از Cisco و ضعیف تر از Juniper و Arista می باشد.

راه کار VCS از فناوری SDN پشتیبانی می کند. بعضی از محصولات این شرکت امکان استفاده از Uplink های  با سرعت 100 Gb/s را دارند. قیمت مناسب یکی دیگر از ویژگی های محصولات این شرکت می باشد. یکی از نقاط ضعف شرکت Brocade نبود نمایندگی، فروشنده و پشتیبان کننده معتبر در ایران می باشد.

بخش پنجم بررسی راه کار Ethernet Fabric شرکت DELL - Force 10

شرکت Dell یکی از بازیگران اصلی بازار فناوری اطلاعات و مالک بسیاری از شرکت های تولید کننده و مطرح در حوزه های گوناگون فناوری اطلاعات می باشد. شرکت Force 10 نامی نا آشنا در ایران اما معروف در دنیای غرب که با عرضه محصولات ممتاز خود توانسته وسوسه خرید را در Dell برانگیزد. شرکت Dell سر انجام این شرکت را به تصاحب خود درآورد تا بتواند سبد محصولات خود را بیش از پیش کامل کند. شرکت Dell بواسطه رایانه های شخصی و خانگی خود معروف می باشد اما چند سالی است که در بخش شبکه، حرف های زیادی برای گفتن پیدا کرده است. شرکت Dell force 10 نیز مانند دیگر بازیگران اصلی، راه کار Ethernet fabric خود را بر اساس محصولات شرکت force 10 ارائه کرده است. که در ادامه به بررسی آن خواهیم پرداخت. شرکت Dell Force10 برای عقب نماندن در بازار تجهیزات شبکه، همانند دیگر شرکت های بزرگ این حوزه اقدام به معرفی راه کار Ethernet Fabric خود با نام تجاری Active Fabric  نموده است. راه کار Active Fabric به مانند دیگر راه کار های این بخش با هدف رفع محدودیت ها و ضعفهای معماری سنتی بخش زیر ساخت شبکه و فراهم ساختن بستری مناسب برای فناوری های جدید مانند مجازی سازی و SDN طراحی شده است.  لازم به یاد آوری می باشد که محصولات سری Z9xxx و S5000/6000 تنها برای این منظور عرضه شده اند. همبندی سوئیچ های راه کار Active Fabric  منطبق با معماری Close-based  یا شبکه های Spine/Leaf می باشد. برای شروع ابتدا به سراغ یکی از زیر فناوری های مجازی سازی بنام Dell force10 VLT  یا Virtual Link Trunking رفته و بررسی خود را با این ارزیابی این فناوری آغاز می کنیم. با استفاده از فناوری VLT می توان دو سوئیچ را از دیدگاه OSI Layer2/3 بصورت یک واحد منطقی تبدیل کرد. بنابراین سوئیچ و سروری که به این ساختار منطقی متصل باشد می تواند بصورت Active/Active به جابجا کردن اطلاعات بپردازید. این فناوری همانند دیگر فناوری های ارائه شده برای رفع محدودیت های ناشی از پروتکل STP مانند Cisco  VPC, Arista MC-LAG می باشد. در شکل زیر همبندی این فناوری ارائه شده است.

15