10 ธ.ค. เวลา 06:56 • วิทยาศาสตร์ & เทคโนโลยี

เหรียญอีกด้านของ AI ที่อาจจะนำมาซึ่งปัญหาการขาดน้ำได้!!!

บทความนี้มาจากคลิปๆหนึ่งที่ผมได้ดูและฟังมา แล้วมันทำให้ผมได้เห็นอีกมุมมอง หรือเหรียญอีกด้านของระบบนิเวศของ AI โดยเฉพาะ Data Center ที่มีข่าวโคร่มๆกันมาว่าจะมาตั้งที่เมืองไทย
การทำงานของ AI (Artificial Intelligence) คือการใช้ระบบคอมพิวเตอร์หรืออัลกอริทึมเพื่อเลียนแบบความสามารถทางปัญญาของมนุษย์ เช่น การคิด การเรียนรู้ การตัดสินใจ และการแก้ปัญหา
AI ทำงานโดยเริ่มจาก การเก็บข้อมูล → เรียนรู้ → ประมวลผล → ตัดสินใจ และปรับปรุงผลลัพธ์ให้ดีขึ้น โดยใช้โมเดลทางคณิตศาสตร์และโครงข่ายประสาทเทียมร่วมกับเทคโนโลยีขั้นสูงเพื่อแก้ปัญหาและทำงานแทนมนุษย์
ส่วนไหนของการทำงาน AI ที่กินพลังงานสูง
ส่วนที่กินพลังงานเยอะที่สุดของ AI ขึ้นอยู่กับประเภทของงานและกระบวนการ แต่โดยทั่วไป การฝึกโมเดล (Training) มักเป็นส่วนที่ใช้พลังงานมากที่สุด รองลงมาคือ การใช้งานโมเดล (Inference) และการจัดการโครงสร้างพื้นฐานในศูนย์ข้อมูล
1. การฝึกโมเดล (Training) – ใช้พลังงานมากที่สุด
การฝึกโมเดล AI โดยเฉพาะโมเดลขนาดใหญ่ เช่น GPT-4 หรือ DALL-E ต้องใช้พลังการประมวลผลจาก GPU/TPU จำนวนมาก
โมเดลขนาดใหญ่มี พารามิเตอร์หลายพันล้านตัว ที่ต้องคำนวณซ้ำหลายรอบกับข้อมูลมหาศาล
ตัวอย่าง:
การฝึก GPT-3 ใช้พลังงานประมาณ 1,287 เมกะวัตต์ชั่วโมง (MWh) ซึ่งเทียบเท่ากับการใช้ไฟฟ้าของบ้านในสหรัฐฯ ราว 120 หลังต่อปี
2. การใช้งานโมเดล (Inference) – ใช้พลังงานรองลงมา
แม้การใช้งาน AI (Inference) จะใช้พลังงานน้อยกว่าการฝึกโมเดล แต่เมื่อมีผู้ใช้งานจำนวนมาก ความต้องการพลังงานจะสะสม
ตัวอย่าง:
การสร้างข้อความโดยโมเดล AI สำหรับผู้ใช้งานหนึ่งคน อาจใช้พลังงานไม่กี่จูล แต่เมื่อรองรับคำขอหลายล้านคำขอต่อวัน จะใช้พลังงานมหาศาล
ศูนย์ข้อมูลที่ให้บริการ Inference แบบเรียลไทม์ ต้องทำงานต่อเนื่องและต้องมีระบบระบายความร้อนที่มีประสิทธิภาพ
3. โครงสร้างพื้นฐาน (Infrastructure)
ระบบสนับสนุน เช่น เซิร์ฟเวอร์, ระบบจัดการข้อมูล, และระบบระบายความร้อนในศูนย์ข้อมูล ก็เป็นส่วนที่ใช้พลังงานไม่น้อย
ระบบระบายความร้อนอาจใช้พลังงานสูงถึง 40% ของพลังงานรวมในศูนย์ข้อมูล
การใช้พลังงานที่มาก นำไปสู่การสร้างความร้อนที่สูงขึ้น
การใช้พลังงานไฟฟ้ามากขึ้นมักทำให้เกิดความร้อนสูงขึ้น เนื่องจากกระบวนการแปลงพลังงานไฟฟ้าเป็นการประมวลผลทางดิจิทัลในฮาร์ดแวร์ เช่น CPU, GPU, หรือ TPU จะสร้างความร้อนระหว่างการทำงาน โดยปริมาณความร้อนขึ้นอยู่กับหลายปัจจัย เช่น ประเภทของฮาร์ดแวร์, ขนาดของโมเดล AI, และงานที่ประมวลผล
ตัวอย่างความร้อนที่เกิดจากฮาร์ดแวร์ AI:
GPU (การ์ดกราฟิก):
GPU ที่ใช้สำหรับการประมวลผล AI สามารถสร้างความร้อนสูงถึง 70–85°C หรือมากกว่านั้นขณะทำงานหนัก เช่น การฝึกโมเดล AI ขนาดใหญ่
TPU (Tensor Processing Unit):
TPU ของ Google ที่ออกแบบมาเฉพาะสำหรับ AI มีระบบระบายความร้อนเฉพาะ แต่ยังคงผลิตความร้อนในระดับสูง โดยเฉพาะในงาน AI ระดับใหญ่
ศูนย์ข้อมูล (Data Centers):
ศูนย์ข้อมูลขนาดใหญ่ที่ให้บริการ AI ต้องการระบบระบายความร้อน เช่น น้ำหล่อเย็นหรือระบบปรับอากาศอุตสาหกรรม เนื่องจากเซิร์ฟเวอร์รวมกันสร้างความร้อนมหาศาล
การจัดการความร้อน
ฮาร์ดแวร์: การออกแบบฮาร์ดแวร์ที่มีระบบระบายความร้อน เช่น พัดลม, ฮีตซิงก์, หรือการใช้น้ำหล่อเย็น
ซอฟต์แวร์: การปรับปรุงประสิทธิภาพของอัลกอริทึม AI เพื่อลดการใช้พลังงาน
สถานที่: ศูนย์ข้อมูลมักตั้งอยู่ในพื้นที่ที่อากาศเย็นเพื่อลดต้นทุนการระบายความร้อน
จากข้อมูลข้างต้น มันก็ทำให้ผมมานั่งคิดดูเหมือนกันนะว่า การที่เราอ้าแขนรับ Data Center มาที่ประเทศเรานั้น เราได้มีการเตรียมพร้อมถึงปัญหาที่อาจจะเกิดขึ้นแล้วหรือไม่ ถ้าหากมีการเตรียมความพร้อมที่ดีแล้ว ผมก็เป็นอีกเสียงที่เชียร์ให้มาเปิดที่ประเทศไทยนะ
====ช่องทางติดตาม====
Line OA: @npmestory หรือคลิก https://bit.ly/NPmeLine
โฆษณา