17 มิ.ย. เวลา 10:38 • หุ้น & เศรษฐกิจ

🎯 ทำไม AI ถึงแพงโคตร? | By BeautyInvestor

อย่างที่เราทราบๆกันนะคะว่า บริษัทเทคโนโลยียักษ์ใหญ่ของโลกกำลังแข่งขันกันเพื่อสร้าง AI ที่ชาญฉลาดมากยิ่งขึ้น ซึ่งการทำให้ AI ฉลาดนั้น บริษัทต่างๆก็ต้องการชิ้นส่วนคอมพิวเตอร์มากขึ้น และอาคารพิเศษที่เรียกว่าศูนย์ข้อมูล หรือ Data Center ซึ่งการแข่งขันในการแย่งชิงพื้นที่ความเป็นผู้นำในด้าน AI นั้นส่งผลให้ต้นทุนหรือค่าใช้จ่ายต่างๆพุ่งขึ้นอย่างมากนั่นเองค่ะ
ในช่วง 18 เดือนที่ผ่านมา บริษัทอย่าง Microsoft, Google และ Meta (บริษัทแม่ของ Facebook) ได้แสดงให้โลกเห็นแล้วว่า AI สามารถสร้างรายได้ให้พวกเขาได้มากมายมหาศาลแค่ไหน แต่มันก็มาพร้อมกับค่าใช้จ่ายมากมายในการพัฒนาอีกเช่นกัน
โดยทั้ง Microsoft และ Alphabet สามารถสร้างรายได้มากขึ้นจากการให้บริการคลาวด์ เนื่องจากธุรกิจต่างๆ หันมาใช้ AI มากขึ้น ขณะที่ทางด้าน Meta แม้จะยังไม่สามารถทำเงินได้มากมายนักจาก AI อย่างไรก็ตาม AI ก็ยังช่วยให้ผู้ใช้งานมี engagement มากขึ้นและทำให้โฆษณามีประสิทธิภาพดีขึ้น
ด้วยเหตุผลที่กล่าวมานี้ บริษัทต่างๆได้ใช้เงินหลายพันล้านดอลลาร์ไปกับการลงทุนด้าน AI และวางแผนที่จะใช้จ่ายมากขึ้นไปอีก โดยทางด้าน Microsoft กล่าวว่าเพิ่งใช้เงินไป 1.4 หมื่นล้านดอลลาร์ในไตรมาสล่าสุด และคาดว่าจะลงทุนเพิ่มอีกเยอะมากในอนาคตเพื่อสร้างโครงสร้างพื้นฐานด้าน AI
ขณะที่ทางด้าน Alphabet เองก็ประกาศว่าได้ใช้เงินไปถึง 1.2 หมื่นล้านในไตรมาสล่าสุด ซึ่งเพิ่มขึ้นจากปีที่แล้วถึง 91% และบริษัทคาดว่าในช่วงที่เหลือรายจ่ายมีแนวโน้มเพิ่มขึ้นจากระดับปัจจุบัน ส่วน Meta ก็ออกมาเพิ่มประมาณการรายจ่ายลงทุนด้าน AI ในปีนี้เพิ่มขึ้นอีก โดยคาดการณ์กันว่าจะอยู่ในช่วง 3.5-4 หมื่นล้านดอลลาร์ ซึ่งจะเป็นการเพิ่มขึ้นมากกว่า 40% จากปีก่อนหน้าอีกเช่นกัน
ค่าใช้จ่ายด้าน AI นั้นแพงมากค่ะ แพงมากขนาดที่นักลงทุนตกใจกับค่าใช้จ่ายของ AI จากทาง Meta โดยราคาหุ้นของ Meta ร่วงหนักทันทีหลังบริษัทประกาศแผนการลงทุน อย่างไรก็ตามเรื่องนี้ไม่ใช่เรื่องที่น่าแปลกใจสำหรับคนที่อยู่ในวงการเทคโนโลยีค่ะ เพราะเป็นความเชื่อกันมาโดยตลอดว่าการสร้าง AI จะมีแต่ราคาสูงขึ้นเรื่อยๆ โดยเหตุผลหลักๆจะมาจาก 2 ข้อ 1. โมเดล AI จะมีแต่ขนาดใหญ่ขึ้น และ 2 ความต้องการใช้ AI จะยิ่งมากขึ้นเรื่อยๆ ซึ่งทำให้ต้องมีการสร้างศูนย์ข้อมูลทั่วโลกมากขึ้นตามไปด้วยนั่นเองค่ะ
ดังนั้นนิคกี้จะพาไปดูสาเหตุที่ละข้อค่ะ
1️⃣ โมเดล AI ขนาดใหญ่ต้องการข้อมูลมากขึ้น และผู้ใช้งานก็ยิ่งต้องการโมเดลที่มีขนาดใหญ่ขึ้น
AI ที่ได้รับความนิยมในปัจจุบัน เช่น ChatGPT ใช้โมเดล AI ขนาดใหญ่ที่เรียนรู้จากข้อมูลจำนวนมาก หรือภาษาอังกฤษคือ Large Language Models (LLMs) เช่น หนังสือและโพสต์ออนไลน์ เพื่อให้คำตอบที่ดีที่สุดสำหรับผู้ใช้งาน
โดยบริษัทต่างๆคิดว่าการสร้างโมเดล AI เหล่านี้ให้มีขนาดใหญ่มากยิ่งขึ้น ก็จะยิ่งทำให้ AI ฉลาดมากขึ้นตามไปด้วย และอาจฉลาดกว่ามนุษย์ด้วยซ้ำในสักวันหนึ่ง
ขณะที่การสร้างโมเดล AI ที่ใหญ่ขึ้นนั้น ก็หมายความอีกเช่นกันว่า บริษัทจะต้องการข้อมูลที่มากขึ้นและพลังการประมวลผลของคอมพิวเตอร์ที่มากขึ้น และการฝึกอบรม AI ที่นานขึ้นตามไปด้วย โดยทางด้านบริษัท AI อย่าง Anthropic ซึ่งเป็นคู่แข่งของ OpenAI กล่าวว่าต้นทุนการเทรน AI ที่เปิดให้ใช้งานอยู่ในตลาดตอนนี้มีค่าใช้จ่ายประมาณ 100 ล้านดอลลาร์
แต่โมเดลที่กำลังถูกเทรนอยู่ และน่าจะปล่อยออกมาให้เห็นกันในปลายปีนี้หรือต้นปีหน้านั้นจะมีต้นทุนเกือบ 1 พันล้านดอลลาร์ และคาดว่าในปี 2025 และ 2026 ต้นทุนการเทรน AI อาจขึ้นไปสูงถึง 5 พันถึง 1 หมื่นล้านดอลลาร์ค่ะ
🎯 สาเหตุที่ต้นทุนในการเทรน AI แพงขึ้น ไม่ได้เกิดจากเทคโนโลยีแพงขึ้นนะคะ ปกติแล้วในโลกของเทคโนโลยี ราคาจะถูกลงเรื่อยๆ ซึ่งเรื่องนี้ยังเป็นจริงอยู่ค่ะ เช่น ถ้าเราเทรน AI โมเดลที่มีขนาดเท่าเดิมในอนาคต ราคาก็จะถูกว่าในปัจจุบันค่ะ แต่ที่แพงขึ้นนั้นเป็นเพราะว่าทุกคนอยากที่จะเทรน AI ที่โมเดลใหญ่ขึ้น และซับซ้อนมากขึ้นนั่นเองค่ะ
2️⃣ ชิปและการประมวลผลมีราคาแพง
ต้นทุนส่วนใหญ่มาจากชิปคอมพิวเตอร์พิเศษที่เรียกว่า GPU ซึ่งชิปเหล่านี้หายากและมีราคาแพงมาก โดยชิปขั้นสูงระดับ High-End ในตอนนี้ส่วนใหญ่นั้นมาจาก NVIDIA นั่นเองค่ะ โดยชิป H100 ของ NVIDIA ที่เป็นที่สุดของการเทรน AI ในตลาดนั้นมีราคาขายอยู่ที่ประมาณ 30,000 ดอลลาร์ต่อตัว ขณะที่ตัวแทนจำหน่ายบางรายก็ขายที่ราคามากกว่านี้หลายเท่าตัว และบริษัทเทคยักษ์ใหญ่ก็ต้องการชิปเหล่านี้จำนวนมากค่ะ
โดยทาง Meta ต้องการชิป H100 จาก NVIDIA มากถึง 3.5 แสนตัวภายในสิ้นปีนี้เพื่อมารองรับการวิจัยด้าน AI ของบริษัท ซึ่งต่อให้จะได้ราคาถูกลงจากการสั่งซื้อจำนวนมาก แต่สุดท้ายค่าใช้จ่ายก็ยังคงเป็นระดับหลายพันล้านดอลลาร์อยู่ดีค่ะ (อันนี้เฉพาะแค่ Meta เจ้าเดียวเท่านั้น)
อย่างไรก็ตามบริษัทต่างๆก็สามารถเทรน AI โดยไม่ต้องซื้อชิปเหล่านี้ก็ได้เช่นกันค่ะ โดยจะเปลี่ยนเป็นการเช่าแทน แต่ราคาก็ยังแพงอยู่ดี เพื่อให้เห็นภาพ Amazon cloud เปิดให้มีการเช่าหน่วยประมวลผลที่ถูกสร้างโดย Intel ที่ราคาประมาณ 6 ดอลลาร์ต่อชั่วโมงเท่านั้น แต่การเช่าชิป NVIDIA บางตัวอาจมีราคาเกือบ 100 เหรียญต่อชั่วโมงเลยทีเดียวค่ะ
นอกจากนี้เองในเดือนที่ผ่านมา NVIDIA ได้เปิดตัวชิปใหม่ที่เร็วกว่าและอาจมีราคาสูงเช่นกันอย่าง Blackwell ซึ่งจะทำให้บริษัทต่างๆสามารถฝึกโมเดล AI ที่มีขนาดใหญ่ได้รวดเร็วยิ่งขึ้น โดยทาง NVIDIA กล่าวว่าจะต้องใช้ชิป Blackwell ประมาณ 2 พันตัวในการเทรน AI ที่มี 1.8 ล้านล้านพารามิเตอร์ค่ะ (ถ้านึกไม่ออก ขนาดจะประมาณ GPT-4 ของ OpenAI ค่ะ) ซึ่งเทียบกับรุ่นปัจจุบันอย่าง Hopper (ที่มาพร้อมกับชิป H100) ที่จะต้องใช้ถึง 8 พันตัว
อย่างไรก็ตาม เรื่องไม่ได้จบแค่นี้ค่ะ เพราะเราจะยิ่งเทรน AI ที่มีโมเดลขนาดใหญ่ขึ้นเรื่อยๆ ดังนั้นต้นทุนก็จะยังคงเพิ่มขึ้นต่อไปนั่นเองค่ะ (ปัจจุบันตัวล่าสุดของ OpenAI ที่เพิ่งเปิดตัวไปมีชื่อว่า GPT-4o ค่ะ)
3️⃣ ศูนย์ข้อมูล หรือ Data Center
เราเห็นแล้วนะคะว่าบริษัทต่างๆจะต้องซื้อชิปมากมายมหาศาลแค่ไหน ซึ่งแน่นอนว่าสุดท้ายแล้วก็ต้องหาที่ให้ชิปมันอาศัยอยู่นั่นเองค่ะ ซึ่งเราเรียกว่า ศูนย์ข้อมูล หรือ Data Center
ถ้าใครไม่รู้จัก Data Center เป็นอาคารขนาดใหญ่ที่มีคอมพิวเตอร์และอุปกรณ์มากมาย และจะเป็นที่อยู่ของ server ค่ะ โดยทั้ง Meta, Amazon, Microsoft และ Alphabet (และอื่นๆที่มากมายที่ให้บริการ Cloud) กำลังเร่งสร้างและขยาย Data Center เพื่อรองรับความต้องการที่พุ่งสูงขึ้นค่ะ
โดยทางด้านสำนักวิจัยอย่าง Dell’Oro Group มีการประมาณการว่าบริษัทต่างๆจะใช้เงิน 2.94 แสนล้านดอลลาร์ในการสร้างศูนย์ข้อมูลในปีนี้ ซึ่งมากกว่าปี 2020 ที่มีการใช้จ่ายที่ 1.93 แสนล้านดอลลาร์ค่ะ แม้ว่ารายจ่ายส่วนใหญ่ที่เพิ่มขึ้นจะมาจากความต้องการบริการดิจิตอลที่เพิ่มสูงขึ้น เช่น streaming, social media หรือ cloud แต่สัดส่วนของการลงทุนเพื่อรองรับ AI ก็ค่อยๆเพิ่มขึ้นมาแล้วเช่นกัน แถมส่วนใหญ่ก็หนีไม่พ้นการไปสั่งซื้อชิปจาก NVIDIA ค่ะ
4️⃣ การทำข้อตกลง และคนเก่งๆ ก็ราคาแพงเช่นกัน
แม้ว่าต้นทุนส่วนใหญ่จะหมดไปกับชิปและศูนย์ข้อมูล แต่การจะเทรน AI ก็ต้องอาศัยข้อมูลเช่นเดียวกันค่ะ ซึ่งบริษัท AI ได้ใช้เงินซื้อ license ในการนำบทความข่าวมาเพื่อเทรน AI ของตน ตัวอย่างเช่น OpenAI ที่มีข้อตกลงกับสำนักพิมพ์หลายแห่งในยุโรป ขณะที่ Google เองก็จ่ายเงิน 60 ล้านดอลลาร์เพื่อใช้ข้อมูลจาก Reddit อีกเช่นกันค่ะ ขณะที่ด้าน Meta เองก็มีรายงานออกมาเช่นกันว่ากำลังเจรจาขอซื้อสำนักพิมพ์อย่าง Simon & Schuster อีกด้วย
นอกจากนี้เอง บริษัทต่างๆยังจ่ายเงินเป็นจำนวนมากเพื่อจ้างคนฉลาดที่มีความรู้เกี่ยวกับ AI ซึ่งมีบางช่วงในปีที่แล้ว ที่ทางด้าน Netflix ได้มีการลงโฆษณาจ้างงานสำหรับผู้จัดการผลิตภัณฑ์ AI ที่มีค่าจ้างถึง 9 แสนดอลลาร์ค่ะ
🎯 อย่างไรก็ตามตอนนี้มีบางบริษัทลองใช้โมเดลที่ถูกกว่า โดยทางด้าน Microsoft กล่าวว่า บริษัทกำลังพยายามสร้างโมเดล AI ขนาดเล็กที่มีค่าใช้จ่ายไม่มากนัก
พวกเขากล่าวว่าโมเดล AI ขนาดใหญ่ยังคงมีความสำคัญสำหรับงานที่ซับซ้อน แต่โมเดลขนาดเล็กอาจทำงานได้เพียงพอกับตามความต้องการบางอย่าง นอกจากนี้บริษัทอื่นๆ ก็กำลังพัฒนาโมเดล AI ขนาดเล็กเช่นกัน
อย่างไรก็ตาม ในตอนนี้คนส่วนใหญ่ในวงการ AI คิดว่าการสร้างโมเดลที่มีขนาดใหญ่ขึ้นคือหนทางที่เราต้องมุ่งหน้าไป แม้ว่าจะราคาแพงก็ตามค่ะ
Source: Bloomberg
โฆษณา