16 พ.ย. 2020 เวลา 17:26 • ธุรกิจ
"ยักษ์เขียว" NVIDIA เปิดตัว Supercomputing Suite ซึ่งจะมาพลิกโฉมการพัฒนา AI ในอนาคตอันใกล้นี้
อันประกอบไปด้วยชิปประมวลผลด้านกราฟฟิค(GPU) ตัวใหม่เพื่อการพัฒนา AI ในระดับซูเปอร์คอมพิวเตอร์, DGX AI Station คอมพิวเตอร์ที่มีพลังประมวลผลไม่แพ้ Data center และ Platform การเชื่อมต่อ Cloud computing ความเร็วสูง
เมื่อชิปการ์ดจอจะไม่ได้เอามาไว้เล่นเกมส์แต่จะถูกนำมาใช้เป็นมันสมองของ AI
A100 GPUS มาพร้อมกับแรมมหาศาลที่ 80GB แบบ HBM2e ไม่ใช่แค่เยอะแต่เร็วจัด ๆ ด้วย
ด้วยลักษณะการประมวลผลของชิปประมวลผลด้านกราฟฟิคหรือ GPU ที่เหมาะกับงานด้าน AI ทำให้ GPU นั้นเป็นที่นิยมในการพัฒนาด้าน AI มากกว่า CPU
โดยเมื่อต้นปีที่ผ่านมาได้มีการสำรวจพบว่าการให้บริการ Cloud computing ที่เป็นแบบ GPU นั้นมีอัตราส่วนแซงการให้บริการด้วย CPU ไปเป็นที่เรียบร้อยแล้ว
1
มาวันนี้ NVIDIA ยักษ์ใหญ่ในวงการผู้ผลิตชิปกราฟฟิคการ์ดทีเรารู้จักกันดี ก็ได้เริ่มขยับตัวเข้าสู่การพัฒนา Hardware เพื่อรองกับการพัฒนาด้าน AI ที่กำลังเติบโตอย่างรวดเร็ว
ด้วยการพัฒนา Platform และ Hardware ให้เป็นมาตราฐานสำหรับงานด้าน AI โดยเฉพาะ ซึ่งเมื่อต้นปีก็ได้เปิดตัว A100 40GB ชิปประมวลผลสำหรับงาน AI ไปแล้ว
1
มาวันนี้ NVIDIA ก็ได้เปิดตัว NVIDIA HGX AI supercomputing platform อันประกอบไปด้วย
Spec ของ A100 80GB
** 1. การ์ดประมวลผลตัวใหม่ A100 80GB **
ซึ่งมาพร้อมแรม HBM2e ขนาด 80G ซึ่งทำให้เป็นการ์ดประมวลผลที่มี Memory Bandwidth สูงสุดในปัจจุบัน ทลายกำแพงข้อจำกัด 2TB/s ไปเป็นที่เรียบร้อย
2
ซึ่งการที่มี Memory Bandwidth สูงขนาดนี้ย่อมเหมาะกับการพัฒนา AI ให้สามารถประมวลผลข้อมูลปริมาณมหาศาลได้โดยไม่ติดคอขวดของ Memory Bandwidth อีกต่อไป
เปรียบเทียบให้เห็นภาพก็เหมือน คนหัวดี(ชิป GPU มีความสามารถประมวลผลสูงมาก) หากเอกสารงานแห่มาเป็นปึกได้ก็ยังทำงานได้ทันเพราะคนมันหัวดี แต่ที่งานช้าก็เพราะเอกสารส่งมาให้ทำแค่ทีละแผ่น
โดยมีชิปประมวลผลหลักคือ Third-Generation Tensor Cores GPUs ซึ่งมีประสิทธิภาพสูงกว่าชิป Volta (ชิป GPU เฉพาะทางด้าน AI รุ่นแรกของ NVIDIA) ถึง 20 เท่า
ประสิทธิภาพที่เพิ่มขึ้นของ A100 80GB เมื่อเทียบกับ A100 40GB
และแน่นอนว่าเจ้า A100 80GB ถูกออกแบบมาให้สามารถทำการประมวลผลโดยการเชื่อมต่อการ์ดหลายตัวเพื่อช่วยกันคำนวนหรือการต่อ SLI นั่นเอง (ถ้าของ AMD ก็ Crossfire)
ซึ่งเจ้า A100 80GB ก็มาพร้อมกับ Third-Generation NVLink® และ NVSwitch™ ที่สามารถรองรับอัตราการส่งข้อมูลระหว่างกันได้สูงถึง 600 GB/s
โดย A100 80GB รองรับการเชื่อมต่อกันได้สูงสุดถึง 7 การ์ด โดยเมื่อเชื่อมต่อกันการ์ดแต่ละตัวจะมีขนาดความจุแรมใช้งานได้ที่ 10GB
ดังนั้น AI สำหรับงานประเภท automatic speech recognition models ซึ่งใช้ในการเรียนรู้ด้านภาษา อย่างเช่น RNN-T การใช้แรม 80G เต็มของ A100 80GB ตัวเดียวจะมีประสิทธิภาพในการทำงานที่ดีกว่า
เพราะการนำเอาข้อมูลมาเป็นปึกเพื่อประมวลผลโดยคนคนเดียวทีเดียวอาจจะดีกว่าการแบ่งเอกสารให้คน 7 คนช่วยกันคิดแล้วค่อยเอาข้อมูลมารวมกัน
ผู้ผลิต Hardware หลายเจ้าพร้อมทำการผลิต Server ภายใต้ Platform HGX AI
โดย Partner ของ NVIDIA ซึ่งเป็นผู้ผลิต Hardware หลายเจ้าพร้อมทำการผลิต Server ภายใต้ Platform HGX AI และพร้อมจำหน่ายให้กับลูกค้าภายในต้นปีหน้า
** 2. DGX Station A100 **
แม้ว่า Partner เพิ่งพร้อมลุย NVIDIA เองก็ยังได้เปิดตัว DGX Station A100 Server สำหรับงาน AI ที่มาพร้อมกับการ์ด A100 80GB ถึง 4 ตัว ซึ่งมีความสามารถในการประมวลผลงานด้าน AI สูงถึง 2.5 petaflops
ทาง NVIDIA โฆษณาว่าเจ้า DGX Station A100 จะเป็นการยกเอาซูเปอร์คอมพิวเตอร์สำหรับงาน AI ออกจาก Data center เลยทีเดียว
ด้วยความสามารถในการแบ่งงานและสร้าง GPU จำลองได้สูงสุดถึง 28 ตัวโดยที่ประสิทธิภาพยังไม่ลดทอนลง เพื่อให้ผู้ใช้งานที่เชื่อมต่อกับ DGX Station A100 สามารถใช้งาน AI ตัวอื่น ๆ ได้ในเวลาเดียวกัน ช่วยเพิ่มขีดความสามารถในการพัฒนา AI ขึ้นไปอีกขั้น
หัวใจของ DGX Station ก็คือการ์ด A100 80GB
DGX Station A100 มาพร้อมกับ CPU 64 แกนของ AMD และแรมของระบบที่ 512 GB ส่วน Harddisk เป็นแบบ NVME SSD ขนาด 7.68 TB
ทั้งนี้แม้ว่าเจ้า A100 80GB จะเป็นการ์ดประมวลผลด้านกราฟฟิคแต่ก็ไม่ใช่การ์ดจอแบบที่เราใช้กัน การจะแสดงผลบนจอมอนิเตอร์นั้นจึงต้องต่อผ่านการ์ดแปลงอีกที
ที่เห็นด้านล่างซ้ายคือการ์ดแปลงสำหรับต่อออกจอมอนิเตอร์สำหรับ A100 80GB ทั้ง 4 ตัว
ซึ่งก็เป็นที่น่าประหลาดใจเล็กน้อยที่เจ้า DGX Station นี้ใช้ CPU ของ AMD ก็แสดงให้เห็นว่า CPU ของ Intel เริ่มโดนแย่งตลาดมากขึ้น
และด้วยระบบระบายความร้อน. . . ไม่ใช่ซิ ต้องเรียกว่าระบบทำความเย็นจะดีกว่า (เคสคอมฯ ที่เป็นตู้เย็นดี ๆ นี่เอง) ที่จะช่วยให้ DGX Station สามารถทำงานได้เต็มประสิทธิภาพแบบไม่กลัวร้อนกันเลยทีเดียว
ใส่ตู็เย็นเข้าไปในเคสคอมกันเลยทีเดียว
ทั้งนี้แม้ว่าจะเพิ่งเปิดตัว แต่บริษัทยักษ์ใหญ่หลายรายก็ได้เริ่มใช้งาน DGX Station แล้ว อย่างเช่น Lockheed Martin ผู้ผลิตเครื่องบินรายใหญ่ และ BMW Group ต่างก็ใช้งานในการพัฒนา AI ของตนเพื่อเพิ่มประสิทธิภาพการผลิต
โดยเจ้า DGX Station A100 นี้พร้อมวางจำหน่ายแล้ว บริษัท, มหาวิทยาลัยหรือศูนย์วิจัยไหนสนใจก็ติดต่อกันได้
Spec ของ DGX Station A100
** 3. Mellanox InfiniBand **
โดยอันนี้ไม่ใช้ Hardware แต่เป็นอีกบริการที่ NVIDIA เปิดตัว กับ Mellanox 400G InfiniBand Platform การเชื่อมต่อ Cloud computing ความเร็วสูง
โดยเป็น Platform ที่ทำให้ผู้ใช้งานสามารถเชื่อมต่อเข้ากับ Data center ด้วยอัตราการส่งข้อมูลที่สูงและมี Latency ต่ำ
การจะใช้พลังการประมวลผลของ Cloud computing ความเร็วในการเชื่อมต่อก็คือหัวใจสำคัญอย่างหนึ่ง
ด้วยการพัฒนาอุปกรณ์และระบบที่มีความยุ่งยากซับซ้อนน้อยลง ค่าอุปกรณ์เชื่อมต่อมีราคาถูกลง แต่ได้ความเร็วและอัตราการส่งข้อมูลที่สูงขึ้น
โดย Partner ของ NVIDIA อันประกอบไปด้วย Dell , Lenovo, Atos, และ Dupermicro มีแผนจะนำ Mellanox 400G InfiniBand เข้าใช้งานกับ Hardware ของตนเร็ว ๆ นี้
ชุดอุปกรณ์ที่เป็นส่วนหนึ่งของ Mellanox 400G InfiniBand
และ Azure ซึ่งเป็น Cloud computing platform ของ Microsoft ก็ได้เข้าร่วมเป็น Partner กับ NVIDIA ในการพัฒนา platform การเชื่อมต่อ datacenter ความเร็ซสูง
1
โดย Azure สามารถทำความเร็วในการเชื่อมต่อได้สูงถึง 200 GB/s ต่อ GPU หรือสูงถึง 1.6 Tb/s ต่อ VM(Virtual Machine) 1 เครื่องและสามารถเชื่อมต่อ GPUs นับพันตัวด้วยค่า latency ที่ต่ำผ่านระบบของ Infiniband
ก็นับเป็นอีกหนึ่งกิจการที่มีการขยับตัวเร็ว ก้าวเข้าไปเป็นผู้นำในตลาด Hardware เพื่อรองรับการเติบโตของ AI ที่นับวันเราก็จะได้ยินและได้ใช้มันมากขึ้น
ว่าแต่อย่าเน้นทำชิปสำหรับ AI จนเลิกทำการ์ดจอไปซะก่อนละ NVIDIA
RTX ซีรี่ย์ 3000 ยังไม่ได้ลองเลย ขอเก็บตังค์ก่อนน่อ ^^

ดูเพิ่มเติมในซีรีส์

โฆษณา