6 ก.พ. เวลา 14:00 • วิทยาศาสตร์ & เทคโนโลยี
สหรัฐอเมริกา

AI ใช้พลังงานสูงสุดมากแค่ไหน?

แม้จะมีแสงอาทิตย์เทียมแต่ผมก็ยังเชื่อว่าคุณยังต้องจ่ายค่าไฟฟ้าอยู่ดี...
ครั้งนึง Jen-Hsun Huang ซีอีโอของ NVIDIA ประกาศเปิดตัวชิป AI รุ่นใหม่ Blackwell GPU ซึ่งเป็นต้นแบบของการฝึก DeepSeek
และต่อมา Jen-Hsun Huang ซีอีโอของ NVIDIA ประกาศเปิดตัวชิป AI รุ่นใหม่ที่ "ทรงพลังแบบโคตรๆ"
นั่นคือ GPU Blackwell เขากล่าวว่าหลายองค์กรคาดว่าจะนำ Blackwell ของเขามาใช้
1
เช่น Amazon Web Services, Dell, Google, Meta, Microsoft, OpenAI, Oracle, XAI ไม่เว้นแม้กระทั่ง Tesla
เขาคุยว่า Blackwell ช่วยให้สามารถสร้าง AI ที่สร้างแบบเรียลไทม์ได้
สอดคล้องกับ Jim Fan นักวิทยาศาสตร์อาวุโสของ NVIDIA ที่ได้สรุปให้ Blackwell เป็น GPU ที่ทรงพลังที่สุด
และให้กำเนิด สัตว์ร้ายแห่งประสิทธิภาพตัวใหม่ DGX Grace-Blackwell GB200 ที่มีพลังการประมวลผลมากกว่า 1 Exaflop ภายในสถาปัตยกรรมเดียว
ประสิทธิภาพของ DGX ตัวแรกส่งมอบให้กับ OpenAI โดย Jen-Hsun Huang นี่อยู่ที่ 0.17 Petaflops
ส่วนพารามิเตอร์ GPT-4-1.8T สามารถฝึกได้บน 2,000 Blackwell หน่วยภายใน 90 วัน นั่นทำให้...กฎใหม่ของมัวร์เกิดขึ้น....
แต่ทุกอย่างก็ต้องแลก....
"หากคุณคิดว่าคอมพิวเตอร์จะไม่มีวันเร็วขึ้น คุณอาจสรุปได้ว่าเราต้องการดาวเคราะห์ 14 ดวงที่แตกต่างกัน 3 กาแล็กซีที่แตกต่างกัน 3 แห่ง และดวงอาทิตย์ 4 ดวงเพื่อเติมพลังงานให้กับพวกมัน"
แต่เห็นได้ชัดว่า สถาปัตยกรรมของคอมพิวเตอร์มีการปรับปรุงอย่างต่อเนื่อง ในช่วงสิบปีที่ผ่านมา
มนุษยชาติมีส่วนสำคัญในการปรับปรุงประสิทธิภาพของคอมพิวเตอร์และปัญญาประดิษฐ์เป็นล้านๆเท่า ....แต่พลังงานที่ใช้กลับไม่ได้เพิ่มขึ้นตาม
มีการตั้งคำถามต่อคำตอบที่ไม่ชัดเจน ว่า AI ใช้พลังงานและพลังงานมากแค่ไหน?
แล้วสิ่งนี้คุกคามอนาคตของเราหรือไม่?
ทันทีที่ประกาศ "วิกฤตพลังงาน" ของบริษัทชิปยักษ์ใหญ่ หุ้นพลังงานสะอาดในประเทศต่างๆจำนวนมากก็ได้รับความนิยม และในขณะเดียวกันก็เผยให้เห็นด้านที่ซ่อนอยู่ของการพัฒนาที่กำลังเติบโตของ generative ของ AI
1
Alex de Vries นักวิทยาศาสตร์ด้านข้อมูลชาวดัตช์ คาดการณ์ว่าภายในปีนี้(2570) สาขา AI ทั่วโลกจะใช้ไฟฟ้า 85-134 เทราวัตต์ชั่วโมงต่อปี
ซึ่งใกล้เคียงกับความต้องการพลังงานต่อปีของประเทศเนเธอร์แลนด์โดยประมาณ
การศึกษาหลายชิ้นยังชี้ให้เห็นถึงแง่มุมที่น่ากังวลของ generative AI เช่น ChatGPT และ DeepSeek (แต่ DeepSeek แสดงให้เห็นแล้วว่าใช้ไฟน้อยกว่ามาก)
Wachter ศาสตราจารย์แห่งมหาวิทยาลัยอ๊อกซฟอร์ด พบว่าแต่ละครั้งที่ได้รับการฝึกอบรม ChatGPT จะเทียบเท่ากับการใช้ไฟฟ้าของครัวเรือนเดนมาร์กประมาณ 126 ครัวเรือนในหนึ่งปี
นี่เป็นเพียงพลังเริ่มต้นสำหรับการฝึกโมเดล AI ขนาดใหญ่ และไม่รวมพลังที่ใช้โดยโมเดลเมื่อนำไปใช้จริงเพื่อการอนุมาน
รายงานปีที่แล้ว( 2567 )จากสำนักงานพลังงานระหว่างประเทศ (IEA) คาดการณ์ว่าการใช้ไฟฟ้าของศูนย์ข้อมูลทั่วโลก จะเพิ่มขึ้นสามเท่าอย่างมีนัยสำคัญ
เนื่องจากการพัฒนาปัญญาประดิษฐ์และสกุลเงินดิจิทัล
1
หน่วยงานดังกล่าวกล่าวว่าในปี 2565 ปริมาณการใช้ไฟฟ้าของศูนย์ข้อมูลทั่วโลกจะอยู่ที่ประมาณ 460 เทราวัตต์ชั่วโมง และอาจเพิ่มขึ้นเป็น 620 ถึง 1,050 เทราวัตต์ชั่วโมงภายในปี 2569
ซึ่งเทียบเท่ากับปริมาณการใช้ไฟฟ้าต่อปีของสวีเดนและเยอรมนีตามลำดับ
และมีข่าวแพร่สะพัดว่า generative AI เช่น ChatGPT กำลังก่อให้เกิดวิกฤตพลังงาน
แต่ไม่กี่วันต่อมา “FC” ของ Huang ค้นพบว่ายักษ์ใหญ่ด้านเทคโนโลยีไม่เคยพูดอะไรแบบนี้
“จุดจบของ AI คือฟาร์มแผงเซลล์แสงอาทิตย์(Solar Farm)และการจัดเก็บพลังงาน”
ดังนั้น....ตัวเลขทางเทคโนโลยีจึงแสดงสิ่งที่ตรงกันข้าม
แม้ว่าคำพูดของ Huang Renxun เกี่ยวกับความวิตกกังวลในการใช้ไฟฟ้า
จะเป็นข่าวลือ แต่ข้อโต้แย้งนี้ได้รับความนิยมในแวดวงเทคโนโลยี Silicon Valley ในสหรัฐอเมริกามาเป็นเวลานาน
Elon Musk ผู้เพิ่งนำ Starship ขึ้นบินทดสอบและระเบิดเป็นว่าเล่นก็เป็นหนึ่งในนั้น
1
เมื่อไม่นานมานี้ เขากล่าวว่า "สิ่งต่อไปที่จะขาดแคลนคือไฟฟ้า ภายในปีหน้า เราจะมีไฟฟ้าไม่เพียงพอที่จะใช้งานชิปทั้งหมด"
เมื่อวันที่ 16 มกราคม Sam Altman ซีอีโอของ OpenAI ยังกล่าวในการสัมภาษณ์ว่า ในยุคของปัญญาประดิษฐ์ โลกจะมีเรื่องสำคัญสองสิ่งในอนาคต
Sam Altman
"การพัฒนาเทคโนโลยี AI จะขึ้นอยู่กับความก้าวหน้าด้านพลังงาน"
นั่นคือ พลังของการประมวลผลและพลังงานที่ใช้... ดังนั้นปัญหาด้านพลังงานที่อยู่เบื้องหลัง Generative AI ได้รับความสนใจจากผู้มีชื่อเสียงด้านเทคโนโลยี
ตามรายงานของ New Yorker รายงานจากสถาบันวิจัยต่างประเทศแสดงให้เห็นว่า ChatGPT ตอบสนองต่อคำขอประมาณ 200 ล้านคำขอทุกวัน โดยใช้ไฟฟ้ามากกว่า 500,000 กิโลวัตต์ชั่วโมงในกระบวนการนี้
ปริมาณการใช้ไฟฟ้าเฉลี่ยต่อวันของครัวเรือน(เฉพาะ)อเมริกันคือ 29 กิโลวัตต์ชั่วโมง ซึ่งหมายความว่าปริมาณการใช้ไฟฟ้ารายวันของ ChatGPT เทียบเท่ากับปริมาณการใช้ไฟฟ้าของครัวเรือนอเมริกัน 17,000 ครัวเรือน
1
โดยเมื่อพิจารณาจากปริมาณการให้คำปรึกษารายวันของ ChatGPT ที่ 270 ล้านครั้ง และปริมาณการให้คำปรึกษาต่อเดือนเกือบ 8 พันล้านครั้ง
เป็นที่ทราบกันดีว่า A100 GPU จะใช้เวลาประมาณ 0.35 เพื่อ อนุมานหนึ่งคำถาม และ สมมติว่าแต่ละคำถามมีความยาวประมาณ 30 คำต่อคำ ChatGPT จำเป็นต้องจัดการคำปรึกษา 8 พันล้านคำทุกวัน
ต้องใช้เวลาประมาณ 780,000 ชั่วโมงในการทำงานกับ A100 GPU ซึ่งสอดคล้องกับประมาณ 32,400 A100 GPU ต่อวัน
A100 GPU จำนวน 32,400 ตัวที่กล่าวมาข้างต้นนั้นเทียบเท่ากับเซิร์ฟเวอร์ Nvidia DGX A100 จำนวน 4,000 เครื่องโดยประมาณ (พร้อมกับ A100 GPU จำนวน 8 ตัว)
อย่างหลังมีกำลังไฟสูงสุดเพียง 6.5 กิโลวัตต์ และการใช้พลังงานต่อเดือนประมาณ 18.72 ล้านกิโลวัตต์ชั่วโมง
เมื่อกล่าวถึงการทำงานของ DGX ในปี 2566 ปริมาณการใช้ไฟฟ้าต่อหัวของจีนจะอยู่ที่ประมาณ 79 กิโลวัตต์ /เดือน
ซึ่งหมายความว่าปริมาณการใช้ไฟฟ้าต่อเดือนของ ChatGPT เท่ากับปริมาณการใช้ไฟฟ้าของชาวจีนประมาณ 237,000 คนโดยประมาณ
นอกจากนี้ IEA รายงานว่าหาก AI ได้รับการบูรณาการ(แบบเดิมๆ)อย่างสมบูรณ์ ในการค้นหาของ Google อาจใช้พลังงานไฟฟ้ามากกว่าสิบเท่า
อย่างไรก็ตาม การใช้พลังงานส่วนใหญ่ในปัจจุบันของโมเดล AI ขนาดใหญ่ยังคงอยู่ในขั้นตอนของการประมาณค่าและการคาดการณ์ เนื่องจากหลังจากที่บริษัทเทคโนโลยีลงทุนเงินจำนวนมากใน AI
พวกเขาเลือกที่จะเก็บเทคโนโลยีและรายละเอียดไว้เป็นความลับ การศึกษาที่แตกต่างกันมีวิธีประมาณค่าและพิกัดการเปรียบเทียบที่แตกต่างกัน
ซึ่งทำให้ผู้คนได้รับผลกระทบทางจิตวิทยาที่แตกต่างกันด้วย
เพราะการเปลี่ยนแปลงที่เกิดจาก generative AI คือปัญญาประดิษฐ์ประเภทนี้ส่วนใหญ่ใช้การ์ด GPU ประสิทธิภาพสูงในการคำนวณ
ตามที่บริษัทที่ปรึกษาด้าน AI ของอเมริกา Formula Monks ระบุว่า GPU โปรเซสเซอร์กราฟิกขั้นสูงนั้น "ใช้พลังงานมาก" "GPU ใช้พลังงานต่อรอบการประมวลผลมากกว่า CPU (หน่วยประมวลผลกลาง) ถึง 10 ถึง 15 เท่า ซึ่งใช้พลังงานมาก"
และไม้เด็ด คือ "ปัจจุบันจีนมีการ์ด GPU ประสิทธิภาพสูงไม่เกิน 300,000 ใบในสต็อก ปริมาณการใช้พลังงานนี้น้อยมาก โดย 300,000 ชิ้นใช้ไฟฟ้าเพียงหลายร้อยล้านกิโลวัตต์-ชั่วโมงต่อปี"
1
เมื่อพิจารณาจากปริมาณการใช้ไฟฟ้า การใช้พลังงานของ AI จะไม่ส่งผลกระทบต่อระบบไฟฟ้าในปัจจุบัน
อย่างไรก็ตาม ในอนาคตด้วยการพัฒนาศูนย์คอมพิวเตอร์อัจฉริยะสำหรับการฝึกอบรม AI การใช้พลังงานก็จะเพิ่มขึ้นอีก
แต่เมื่อเทียบกับระยะการฝึกอบรมของโมเดลขนาดใหญ่ การใช้พลังงานของโมเดลขนาดใหญ่ในขั้นตอนการอนุมานสมควรได้รับความสนใจมากขึ้น
และAI ใช้พลังงานมากทั้งก่อนการฝึกอบรมและการอนุมาน แต่เนื่องจากการฝึกอบรมล่วงหน้าเป็นเหตุการณ์ที่เกิดขึ้นเพียงครั้งเดียว
แม้ว่าขนาดสัมบูรณ์ของเซสชันเดียวจะมีขนาดใหญ่ แต่ก็ไม่ได้คำนึงถึงสัดส่วนที่เพียงพอ การอนุมานมีการกระจาย และในอนาคตอาจมีผู้คนถึง 1 พันล้านคนในเวลาเดียวกัน
แม้ว่าแต่ละคนจะใช้ 250 วัตต์ แต่ก็ยังต้องใช้พลังงานถึง 250 พันล้านวัตต์ อีกด้านปัญญาประดิษฐ์กำลังพัฒนา
ในปี 2564 นักวิจัยจากมหาวิทยาลัยแมสซาชูเซตส์ ในสหรัฐอเมริกา ได้นำวงจรการฝึกโมเดล AI ขนาดใหญ่หลายตัวในขณะนั้นเป็นตัวอย่าง
และพบว่ากระบวนการดังกล่าวปล่อยก๊าซคาร์บอนไดออกไซด์มากกว่า 626,000 ปอนด์
ซึ่งเกือบห้าเท่าของคาร์บอนไดออกไซด์ในการปล่อยก๊าซเรือนกระจกตลอดอายุการใช้งานของรถยนต์ธรรมดา (รวมถึงกระบวนการผลิตของรถยนต์ด้วย)
นักวิจัยจากมหาวิทยาลัยโคโลราโดและมหาวิทยาลัยเท็กซัสก็เขียนไว้ในรายงานเรื่อง "Making AI Less Thirsty" ว่า Microsoft ใช้น้ำมากกว่า 700,000 ลิตร
เมื่อฝึก GPT-3 เพียงอย่างเดียว (พลังงาน)นั่นเพียงพอที่จะผลิตรถยนต์ BMW ได้ 370 คัน หรือรถยนต์ไฟฟ้า Tesla 320 คัน เลยทีเดียว
เหตุผลก็คือศูนย์ข้อมูลที่ใช้ในการฝึกอบรมและสนับสนุนการทำงานของ AI จริงๆ แล้วเป็นห้องคอมพิวเตอร์ที่เต็มไปด้วยเซิร์ฟเวอร์แบบเพรียวๆ
เนื่องจากเซิร์ฟเวอร์ที่สามารถทำงานเป็นระยะเวลานานโดยไม่มีการหยุดชะงักและมักจะมีความร้อนมากเกินไป
ศูนย์ข้อมูลเหล่านี้จึงให้ความสำคัญกับสภาพแวดล้อมที่เย็นเป็นพิเศษ
ด้วยเหตุนี้ ศูนย์ข้อมูลแต่ละแห่งจึงต้องการน้ำปริมาณมากเพื่อระบายความร้อน และต้องใช้ทรัพยากรน้ำ(จืด)ที่สะอาดเพื่อหลีกเลี่ยงการกัดกร่อนของอุปกรณ์หรือการเติบโตของแบคทีเรีย
จากข้อมูลต่างๆแสดงให้เห็นว่าในศูนย์ข้อมูล อุปกรณ์ไอทีมีสัดส่วนการใช้พลังงานที่ใหญ่ที่สุด โดยคิดเป็น 45%
รองลงมาคือระบบปรับอากาศคิดเป็น 40% เช่นกัน
เอาล่ะๆๆๆ ผมขอยกตัวอย่าง ChatGPT ที่เรานิยมใช้กันล่ะกัน
การศึกษาของมหาวิทยาลัยแคลิฟอร์เนียพบว่าทุกๆ 20 คำถามที่ผู้ใช้ตอบ ChatGPT จำเป็นต้องใช้น้ำมากกว่า 500 มล. เพื่อทำให้ฮาร์ดแวร์เย็นลง
Qu Haifeng ซึ่งมีประสบการณ์ด้านข้อมูลมากกว่า 20 ปี กล่าวในการให้สัมภาษณ์ว่า "เมื่อเปรียบเทียบกับอุตสาหกรรมอื่นๆ แล้ว ศูนย์ข้อมูลได้รับการจัดอันดับอยู่ในแถวหน้าในแง่ของปริมาณการใช้ไฟฟ้าต่อกำลังการผลิตต่อหน่วย
และปริมาณการใช้ไฟฟ้าต่อพื้นที่อาคาร ตามไปจนถึงการดำเนินงานใน 8-10 ปี เมื่อคำนวณเป็นงวด ๆ ค่าพลังงานคิดเป็นประมาณครึ่งหนึ่งของต้นทุนรวมของศูนย์ข้อมูลและค่าไฟก็แพงกว่าห้องคอมพิวเตอร์ทั่วๆไปด้วยซ้ำ”
“พวกมันเปรียบเสมือนโรงถลุงเหล็ก ที่ไม่ปล่อยควันไม่เพียงแต่สร้างมูลค่าทางเศรษฐกิจแต่ยังใช้พลังงานสูงอีกด้วย”
การเปรียบเทียบปริมาณน้ำจืดสะอาดที่ใช้ในการฝึกอบรม GPT-3 กับปริมาณการใช้น้ำในกิจกรรม
ตามรายงาน ในปี 2566จะใช้ไฟฟ้ามากกว่า 200 พันล้านกิโลวัตต์ คิดเป็น 2.7% ในปี 2563
และ คาดว่าภายในปี 2568 ปริมาณการใช้ไฟฟ้าของศูนย์ข้อมูลฝึกอบรม จะเกิน 400 พันล้านกิโลวัตต์ชั่วโมง คิดเป็น 4.1% ของปริมาณการใช้ไฟฟ้าทั้งหมด
ศูนย์ข้อมูลฝึกอบรม GPT-3 ที่ใช้พลังงานสูงได้กลายเป็นผู้เขมือบไฟฟ้าจำนวนมาก
อย่างไรก็ตาม ศูนย์ข้อมูลฝึกอบรมในปัจจุบันใช้พลังงานสูง แต่ " อัตราการใช้งานจริงกลับต่ำมาก "
หลายแห่งสร้างเพียงตัวอาคารของศูนย์ข้อมูลและอุปกรณ์ระบบเครื่องกลไฟฟ้าและเครื่องปรับอากาศบางส่วนเท่านั้น ซึ่งไม่ได้หมายความว่าระบบไอทีกำลังทำงานอยู่ภายในจริง
สิ่งนี้ยังนำไปสู่ ​​"ความจุที่ติดตั้งเซิร์ฟเวอร์และทรัพยากร(บริการ)คอมพิวเตอร์ที่ใช้ ใน อัตราส่วนนี้ยังต่ำมากและสร้างขยะออกมาจำนวนมาก”
“หากโมเดลโครงสร้างพื้นฐานใหม่ที่กว้างขวางเช่นนี้ได้รับอนุญาตให้พัฒนา ไม่เพียงแต่การใช้พลังงานที่แท้จริงของศูนย์ข้อมูลจะยังคงเพิ่มขึ้นเท่านั้น
แต่คุณภาพการพัฒนาของเศรษฐกิจดิจิทัลก็จะลดลงอย่างมากเช่นกัน”
การตระหนักถึงแรงกดดันที่ AI นำมา ต่อสิ่งแวดล้อมและการใช้พลังงาน ทำให้ผู้ปฏิบัติงานกำลังคิดหาแนวทางแก้ไข
เพื่อประหยัดพลังงาน สำหรับอุตสาหกรรม AI กำลังอยู่ระหว่างนวัตกรรมทางสถาปัตยกรรม
เนื่องจากผู้คนพบว่าการฝึก ChatGPT ในรูปแบบขนาดใหญ่ต้องใช้พลังในการประมวลผลเป็นจำนวนมาก และไม่เป็นมิตรต่อสิ่งแวดล้อม
บริษัทหลายแห่งจึงเริ่มดำเนินการฝึกอบรมโมเดลที่ใหญ่ขึ้นโดยมีขั้นตอนการฝึกอบรมน้อยลง
ทิศทางที่ได้รับความนิยมอย่างหนึ่งคือรุ่นขนาดใหญ่ที่เรียกว่า MoE (Mixed Expert Model) นักวิจัยพบว่าโมเดลขนาดใหญ่นี้ได้รับการปรับปรุงโดยใช้ Transformer ที่ฝึกได้เร็วกว่าภายใต้พลังการประมวลผลเท่าเดิม
และมีความสามารถในการปรับขนาดได้สูง ทำให้โมเดลสามารถเพิ่มพารามิเตอร์ในขณะที่รักษาต้นทุนการคำนวณไว้ไม่เปลี่ยนแปลง
ทำให้ขยายไปสู่พารามิเตอร์โมเดลที่ใหญ่มากๆได้
เลเยอร์ MoE ของ Switch Transformers
นี่เป็นนวัตกรรมทางเทคนิคและควบคุมไปที่ "แหล่งที่มา" ซึ่งเป็นทิศทางที่นักเร่งความเร็วทางเทคโนโลยีในปัจจุบันยอมรับ
สำหรับผู้ที่มองโลกในแง่ดีเกี่ยวกับเทคโนโลยีเชื่อว่า ด้วยการพัฒนาเทคโนโลยีที่เร่งขึ้นอย่างรวดเร็ว หลายๆ สิ่งจะพบคำตอบ(เอง)ตามธรรมชาติผ่านการทำซ้ำ
แต่ควรพิจารณาการใช้พลังงานของ AI อย่างสมเหตุสมผล สำหรับการดำเนินงานบริการทางสังคมที่ให้บริการโดยแพลตฟอร์มอินเทอร์เน็ต ซึ่งก็คือ "อินเทอร์เน็ตสำหรับผู้บริโภค"
เมื่อพูดถึงการเจาะลึกเข้าไปในอินเทอร์เน็ตเชิงอุตสาหกรรมอย่างแท้จริง “การใช้พลังงานและพลังการประมวลผลที่จำเป็นในการขยาย AI ก็ยังคงอยู่ในระดับต่ำ”
เพราะทุกประเทศต่างสิ้นเปลืองไฟฟ้าเป็นจำนวนมากทุกปี และใช้ไฟฟ้าที่ไม่ก่อให้เกิดคุณค่าทางสังคม
1
ตามหลักแล้ว..หากการใช้พลังงานของ AI เพิ่มขึ้น "นั่นหมายความว่าเทคโนโลยีอุตสาหกรรมนี้กำลังพัฒนา และการใช้พลังงานเหล่านี้เป็นพลังงานคุณภาพสูง"
จากการประมาณการ เมื่อพิจารณาจากการใช้พลังงานรายวันของ ChatGPT ที่ 500,000 kWh การใช้พลังงานในแต่ละวันของการถลุงแร่อะลูมิเนียมจะเทียบเท่ากับ ChatGPT ที่ทำงานเป็นเวลา 2,900 วัน
ดังนั้น อย่ากลัวการใช้พลังงานของศูนย์ข้อมูล แต่ควรมุ่งเน้นไปที่การปรับปรุงประสิทธิภาพการใช้พลังงาน แทนที่จะลดขนาดลง
นี่ก็เหมือนกับความเป็นกลางของคาร์บอน เราไม่ได้พยายาม เพื่อลดการใช้พลังงานของเราแต่ต้องควบคุมการปล่อยก๊าซคาร์บอนและปรับปรุงคุณภาพการใช้พลังงาน
ในระยะสั้นสังคมมนุษย์ยังคงต้องการการพัฒนา AI เพื่อปูทางไปสู่การพัฒนาเศรษฐกิจคุณภาพสูงและการเปลี่ยนแปลงพลังงาน
อย่างไรก็ตาม ในหมู่บ้านวงแหวนซิลิคอนแวลลีย์ที่ห่างไกลออกไป ซึ่งเป็นที่ที่โลกจับตามอง หลายคนได้ "เตรียมพร้อมสำหรับวันฝนตก"
พวกเขามีทุนและจุดเริ่มต้นที่เกินขอบเขตของผู้ประกอบการทั่วไปความมั่นใจนี้ทำให้พวกเขาพยายามสร้างอนาคตให้กับสังคมทั้งหมด
คนที่โดดเด่นที่สุดในหมู่พวกเขาคือ Sam Altman ผู้นำของ AGI ยุคนี้ที่เชื่อมั่นในการปฏิวัติทางเทคโนโลยีและผู้นำของ OpenAI
ผู้ที่สนับสนุนวิกฤติพลังงานกำลังเตรียมพร้อมสำหรับโลกวิกฤติที่เขาจินตนาการไว้ ว่าการลงทุนที่ใหญ่ที่สุดในอาชีพ ไม่ใช่การไปดาวอังคารหรือสร้างจรวด
แต่เป็นการลงทุนในบริษัทพลังงานสองแห่ง
1
นิวเคลียร์ฟิวชันของ Helion Energy
ได้แก่ Helion และ Oklo พวกเขากำลังทำสิ่งที่มนุษย์ไม่สามารถทำได้มานานหลายทศวรรษ นั่นก็คือ นิวเคลียร์ฟิวชัน
และนามแฝงของเทคโนโลยี Helion นี้เรียกว่าดวงอาทิตย์เทียม
นั่นคือการจำลองสภาพแวดล้อมของดวงอาทิตย์หลายร้อยล้านองศาเซลเซียสบนโลกเพื่อผลิตกระแสไฟฟ้า
ในปี 2566 Altman เคยกล่าวในการให้สัมภาษณ์ว่าศักยภาพของนิวเคลียร์ฟิวชันนั้นมี "มหาศาลอย่างไม่น่าเชื่อ"
“ถ้าเราสามารถบรรลุความฝันที่จะมีพลังงานสะอาด ที่ราคาถูก ปลอดภัย คุณภาพชีวิตของทุกคนจะดีขึ้นอย่างไม่น่าเชื่อ
ด้วยเหตุนี้ ผมจึงหลงใหลในสองโครงการนี้มานานแล้ว”
นอกจากนี้ Terman Jeff Bezos ผู้ก่อตั้ง Amazon ยังระดมทุนได้ 130 ล้านดอลลาร์จาก General Fusion บริษัทสตาร์ทอัพนิวเคลียร์ฟิวชั่นของแคนาดา เช่นกัน
และบริษัทยักษ์ใหญ่ด้านเทคโนโลยี เช่น Peter Thiel และ Bill Gates พวกเขาเชื่อว่านิวเคลียร์ฟิวชันที่ควบคุมได้ซึ่งไม่ได้เกิดขึ้นจริงมาหลายปีแล้ว คาดว่าจะกลายเป็นจริงภายในไม่กี่ปี
แต่ทุกอย่างยังอีกยาวไกลอย่าง Helion ของ Altman
แม้ว่าจะสามารถสร้างพลังงานผ่านนิวเคลียร์ฟิวชันได้แล้ว นี่ยังคงเป็นเส้นทางที่มีเดิมพันสูง
จึงไม่ต้องสงสัยเลยว่าคลื่นแห่งปัญญาประดิษฐ์ในปัจจุบันไม่ได้เป็นเพียงเกี่ยวกับปัญญาประดิษฐ์อย่างเดียวเท่านั้น....
โฆษณา