อนาคตของระบบเครือข่ายภายใน Data Center โดย HPE Aruba

0

ภายในงานสัมมนา TTT Virtual Summit: Enterprise Cloud & Data Center 2022 ที่เพิ่งจบไป คุณไญยวิทย์ กังใจ Presales Consultant จาก HPE Aruba ได้ออกมาอัปเดตถึงแนวโน้มด้านการออกแบบระบบเครือข่ายภายใน Data Center ที่ปัจจุบันมีการเติบโตอย่างรวดเร็วและทวีความซับซ้อนมากยิ่งขึ้น รวมไปถึงแนะนำสถาปัตยกรรมแบบ Distributed Services ซึ่งมีความยืดหยุ่นและสามารถขยายการเชื่อมต่อในอนาคตได้ดีกว่า โดยสามารถสรุปสาระสำคัญได้ดังนี้

7 สิ่งที่ต้องพิจารณาในการออกแบบระบบเครือข่ายภายใน Data Center

เมื่อองค์กรต้องการอัปเกรดหรือสร้างระบบเครือข่ายภายใน Data Center ขึ้นมาใหม่ ควรพิจารณาถึง 7 ประเด็นดังต่อไปนี้เพื่อให้มั่นใจว่าการลงทุนและผลลัพธ์ที่ได้จะคุ้มค่ามากที่สุด

  1. High Speed & Cost – อินเทอร์เฟซของเซิร์ฟเวอร์ในปัจจุบันเริ่มหันไปใช้การเชื่อมต่อแบบ 10G, 25G และ 50G มากขึ้นเรื่อยๆ ระบบเครือข่ายภายใน Data Center จึงต้องอัปเกรดแบนด์วิดท์ไปสู่ระดับ 40G, 100G หรือ 400G ตาม
  2. Low Latency – แอปพลิเคชันสมัยใหม่อาจไม่ได้ต้องการ Latency ระดับมิลลิวินาทีอีกต่อไป เช่น แอปพลิเคชันสำหรับเทรด อาจต้องการ Latency ต่ำถึงระดับ 10 ~ 100 นาโนวินาที องค์กรจำเป็นต้องจัดเตรียมฮาร์ดแวร์เพื่อรองรับความต้องการเหล่านี้ด้วยเช่นกัน
  3. Size & Consumption – ยิ่งองค์กรใช้ฮาร์ดแวร์ที่มี Port Density (จำนวนพอร์ตต่อขนาดฮาร์ดแวร์) สูง ยิ่งช่วยประหยัดพื้นที่ในตู้ Rack และลดการบริโภคพลังงานลง ซึ่งจะช่วยลดค่าใช้จ่ายในการดูแล Data Center ได้เป็นอย่างดี
  4. Extensibility – ความสามารถในการรองรับการขยายระบบได้ง่ายในอนาคต
  5. Reliability – ความเสถียรของระบบเครือข่ายที่ต้องสามารถรองรับการทำแบบ 27x7x365 รวมไปถึงการออกแบบระบบสำรองที่ช่วยให้ระบบเครือข่ายยังคงดำเนินต่อไปได้แม้จะมีอุปกรณ์ใดอุปกรณ์หนึ่งหยุดทำงานอย่างไม่คาดฝัน
  6. Support / SLA – จัดเตรียมอุปกรณ์สำรองให้พร้อมตลอดเวลา เพื่อแทนทีอุปกรณ์ที่มีปัญหาเมื่อเกิดเหตุไม่คาดฝัน
  7. Integration & Automation – นำระบบอัตโนมัติเข้ามาใช้เพื่อลดการเกิด Human Error ในระบบเครือข่ายที่มีความซับซ้อน รวมไปถึงออกแบบระบบเครือข่ายให้รองรับการทำงานร่วมกับ 3rd Parties เพื่อให้เกิดการบริหารจัดการอย่างบูรณาการ

Leaf/Spine – สถาปัตยกรรมเครือข่ายภายใน Data Center แบบ 2 Tiers ยุคใหม่

จากการศึกษาของ HPE Aruba พบว่า พฤติกรรมของทราฟฟิกที่เกิดขึ้นภายใน Data Center เปลี่ยนไปจากเดิม ร้อยละ 70 ของ Workload จะเป็นการประมวลผลภายใน Data Center เอง หรือกล่าวได้ว่าเป็นทราฟฟิกประเภท East-West ซึ่งการออกแบบระบบเครือข่ายภายใน Data Center แบบ Multi-tiers สมัยก่อนที่ประกอบด้วย Core – Distribution – Access เพื่อเน้นการรับส่งข้อมูลแบบ North-South จึงไม่ตอบโจทย์ความต้องของ Data Center ยุคใหม่อีกต่อไป การออกแบบระบบเครือข่ายแบบ 2 Tiers (Spines & Leafs) ที่เน้นการรับส่งข้อมูลแบบ East-West และมีความซับซ้อนน้อยกว่า รวมไปถึงสามารถขยายระบบในอนาคตได้ง่าย จึงเป็นทางเลือกใหม่ของ Data Center ในปัจจุบัน

สำหรับการออกแบบระบบเครือข่ายแบบ Spines & Leafs นั้น จะแบ่งออกเป็น 4 รูปแบบตามขนาดของ Data Center และความต้องการด้านการขยายระบบในอนาคต ดังนี้

  • Spine (Top of Rack) – ใช้ Spine Switch เชื่อมต่อกับเซิร์ฟเวอร์โดยตรง บริหารจัดการง่าย เหมาะสำหรับ Data Center ขนาดเล็กที่ไม่ต้องการขยายระบบมากในอนาคต
  • Layer 2 Leaf/Spine – ใช้ Spine คู่กับ Leaf Switch เชื่อมต่อกันผ่าน Layer 2 ซึ่งยังคงง่ายต่อการบริหารจัดการ เหมาะสำหรับ Data Center ที่มีขนาดใหญ่ขึ้น (ไม่เกิน 1,000 Server Ports) และมีแนวโน้มจะขยายระบบเพิ่มในระดับหนึ่ง
  • Layer 3 Leaf/Spine – ใช้ Spine คู่กับ Leaf Switch เชื่อมต่อกันผ่าน Layer 3 ลดข้อจำกัดด้านจำนวน VLAN สามารถขยายระบบออกไปเป็นจำนวนมากได้ในอนาคต
  • VxLAN Overlay – ต่อยอดจาก Layer 3 Leaf/Spine ด้วยการครอบ VxLAN เพื่อให้แต่ละเซิร์ฟเวอร์รับส่งข้อมูลหากันได้ง่ายยิ่งขึ้น เหมาะสำหรับ Data Center ขนาดใหญ่ที่ต้องการขยายระบบออกไปเป็นจำนวนมากหรือมีหลายๆ Data Center ในอนาคต

Centralized Services Architecture ไม่เหมาะต่อการขยายระบบ Data Center

โดยทั่วไปแล้ว การออกแบบระบบเครือข่ายแบบ Leaf/Spine สามารถแบ่งกลุ่ม Leaf Switch ออกได้ตามประเภทของแอปพลิเคชันหรือเซอร์วิสที่ใช้งาน เช่น Compute Leaf, Storage Leaf, Service Leaf, Border/Edge Leaf เป็นต้น อุปกรณ์เครือข่ายอื่นๆ เช่น Firewall และ Load Balance มักเชื่อมต่อผ่าน Service Leaf เพื่อให้เกิดการจัดการแบบรวมศูนย์ กลายเป็นสถาปัตยกรรมแบบ Centralized Services อย่างไรก็ตาม การโยกทราฟฟิกให้มาผ่าน Service Leaf ก่อนที่จะไปยังจุดหมายปลายทางนั้นเป็นเรื่องยากสำหรับหลายๆ องค์กร ทั้งยังสิ้นเปลืองแบนด์วิดท์และก่อให้เกิด Latency ที่สูง นอกจากนี้ยังไม่สามารถจัดการทราฟฟิกระหว่าง VM ที่อยู่บนโฮสต์หรือ VLAN เดียวกันได้อีกด้วย

HPE Aruba จึงได้นำเสนอสถาปัตยกรรมแบบ Distributed Services โดยนำบริการด้านเครือข่ายต่างๆ เช่น Firewall และ Load Balance มาใส่ไว้ใน Leaf Switch แทน เพื่อจัดการทราฟฟิกที่วิ่งผ่านโดยตรง เสมือนวางขวางหน้า Workload ไม่จำเป็นต้องโยกทราฟฟิกไปยัง Service Leaf อีกต่อไป ลดการก่อ Latency ที่เปล่าประโยชน์และเพิ่มความง่ายในการบริหารจัดการ ที่สำคัญคือสามารถจัดการทราฟฟิกระหว่าง VM ที่อยู่บนโฮสต์หรือ VLAN เดียวกันได้อีกด้วย ตอบโจทย์ทั้งการทำ Macro และ Micro Segmentation

แนะนำ Aruba CX 10000 Distributed Services Switch

แน่นอนว่าการเพิ่มบริการด้านเครือข่ายอื่นๆ เข้าไปยัง Switch ย่อมส่งผลกระทบต่อประสิทธิภาพโดยรวม HPE Aruba จึงได้เพิ่มชิปเซ็ต Pensando ประสิทธิภาพสูงเข้าไปยัง Aruba CX 10000 – Distributed Services Switch สำหรับทำหน้าที่เป็น Data Processting Unit (DPU) ที่สามารถประมวลผลทราฟฟิกได้ด้วยความเร็วในระดับ 800G และจัดเก็บ State ของทราฟฟิกได้อย่างสมบูรณ์ ทำให้ HPE Aruba สามารถเสริมบริการด้านเครือข่ายและความมั่นคงปลอดภัยเข้าไปใน Switch ได้โดยตรง ไม่ว่าจะเป็นการทำ Stateful Firewall, DDoS Protection, Encryption, NAT, Load Balancer, Flow Logging และอื่นๆ

สำหรับการบริหารจัดการนั้น แบ่งออกเป็น 2 ส่วน คือ

  • Aruba Fabric Composer – โซลูชัน Software-Defined Orchestration อัจฉริยะที่ใช้บริหารจัดการ Switch ในระบบเครือข่ายแบบ Leaf/Spine ทั้งการทำ Provisioning และ Deployment
  • Pensando Policy Services Manager – ระบบการจัดการบริการด้านเครือข่ายและความมั่นคงปลอดภัยอื่นๆ ที่ให้บริการผ่านชิปเซ็ต Pensando

ผู้ที่สนใจการออกแบบระบบเครือข่ายภายใน Data Center แบบ Spines & Leafs ด้วยสถาปัตยกรรม Distributed Services สามารถรับชมวิดีโอการบรรยายเรื่อง “อนาคตของระบบเครือข่ายภายใน Data Center” โดยคุณไญยวิทย์ กังใจ Presales Consultant จาก HPE Aruba ภายในงานสัมมนา TTT Virtual Summit: Enterprise Cloud & Data Center 2022 ที่เพิ่งจัดไปเมื่อวันที่ 21 – 23 มิถุนายน ได้ที่นี่

ท่านใดสนใจโซลูชัน HPE Aruba หรือต้องการสอบถามข้อมูลเพิ่มเติม สามารถติดต่อได้ที่ คุณนวรัตน์ จิตรตระการวงศ์ อีเมล [email protected] หรือโทรศัพท์ 085-912-8968