11 ก.พ. เวลา 07:10 • วิทยาศาสตร์ & เทคโนโลยี

Nvidia ตอนที่ 32: ยุค Generative AI

ตั้งแต่ก่อนยุคคริปโตบูม ความสนใจในด้าน AI ก็มีมากขึ้นเรื่อยๆ โดยเริ่มจาก AlexNet ที่ปลุกการแข่งขันการแยกแยะภาพโดยใช้ neural network และมีการพยายามใช้มันในการทำแยกแยะเนื้อหาของสื่อโซเชียลอีกด้วย
โดยที่ Google Jeff Dean และ Greg Corrado ได้เริ่มต้นโครงการที่ชื่อว่า Google Brain และเชิญ Andrew Ng อาจารย์จาก Stanford มาร่วมด้วย ในปี 2011 เพื่อต้องการที่จะจำลองสมองมนุษย์ด้วยคอมพิวเตอร์ 1000 เครื่องที่มี CPU 16,000 ตัว
และในปี 2013 ทาง Google Brain ก็เริ่มจ้าง Geoffrey Hinton และในปี 2014 ทีมก็เริ่มใหญ่ขึ้น โดยมี Jeff Dean, Quoc Le, Ilya Sutskever, Alex Krizhevsky, Samy Bengio, และ Vincent Vanhoucke มาร่วมทีม และภายหลังก็มี Anelia Angelova, Samy Bengio, Greg Corrado, George Dahl, Michael Isard, Anjuli Kannan, Hugo Larochelle, Chris Olah, Salih Edneer, Benoit Steiner, Vincent Vanhoucke, Vijay Vasudevan, Fernanda Viegas และ Chris Lattner มาร่วมทีมเพิ่ม
ทีมนี้ได้ทำงานวิจัยในหลายๆ ด้าน โดยมี Google Translate เป็นผลงานหลักที่ทำมาตั้งแต่ปี 2006 และได้รับการพัฒนาเรื่อยมา และในปี 2015 ทางทีมเริ่มทำ library ที่ชื่อว่า Tensorflow มาใช้งานภายในทีม ก่อนที่จะเปิดเผยสู่สาธารณะในต้นปี 2017 จนเป็นที่นิยมในหมู่นักวิจัยที่ต้องอาศัยการคำนวณมากๆ เนื่ิองจากสนับสนุนอุปกรณ์ที่หลากหลายทั้ง CPU, GPU และ Tensor chip ของทาง Google เอง
และหลังจากนั้นไม่นาน นักวิจัยจาก Google ทีมนี้เองได้ศึกษาเรื่องการนำ neural network ไปใช้ในการสร้างข้อความผ่านสถาปัตยกรรมที่เรียกว่า Transformer และได้ตีพิมพ์เปเปอร์ที่ชื่อว่า Attention is all you need (2017) และในปี 2018 ทีมงานจาก OpenAI ก็ได้ออก GPT-1 โดยในตอนนั้นมีจำนวน parameter เพียง 117 ล้านตัว ซึ่งตอนนั้นมีประสิทธิภาพดีกว่าวิธีการแบบเดิมเพียง 5.7% ในการตอบคำถาม และในการขยายความ (textual entailment) 1.5% เท่านั้น
แต่โมเดลก็ได้รับการพัฒนามาเรื่อยๆ จนเกิด GPT-3 (2022) และ 3.5 ที่มีจำนวน parameter มากถึง 175 พันล้านตัว และถูกพัฒนาต่อให้โต้ตอบกับมนุษย์ได้จนเกิด ChatGPT (2023) และเกิดทำให้เกิดกระแส Generative AI มาจนถึงปัจจุบัน
กระแสดังกล่าว ทำให้บริษัทเทคต่างๆ ไม่ว่าจะเป็น Google, Facebook, Microsoft เป็นต้น ต่างเริ่มให้ความสนใจกับเทคโนโลยีนี้ และเริ่มสั่ง GPU จำนวนมากจาก Nvidia และแข่งขันกันพัฒนา AI ให้มีความสามารถทัดเทียมมนุษย์ (AGI)
และยิ่งพัฒนาให้มันเก่งมากขึ้นเท่าไร มันก็ต้องอาศัยการฝึกจากข้อมูลต่างๆ ที่มากขึ้นเรื่อยๆ แต่ความฉลาดมันแปรผันกับปริมาณข้อมูล และการฝึกเป็นแบบ logarithm ซึ่งแปลว่าจำนวน GPU ที่ต้องการจะสูงขึ้นเร็วมากๆ ทั้งจากจำนวนบริษัทที่เข้าสู่สนามนี้มากขึ้น และจากความต้องการการฝึกที่สูงขึ้นเป็นทวีคูณ จนในช่วงปี 2022-2024 รายได้ของ Nvidia เติบโตอย่างก้าวกระโดดจนนักวิเคราะห์คาดการณ์ยังไงให้ตาย ก็เดารายได้ของ Nvidia ต่ำเกินไป
แล้วผมก็ขอตัดจบมหากาพย์ Nvidia ไว้แค่ 2^5 ตอนแบบดื้อๆ นะครับ ยาวจนคนน่าจะเริ่มเบื่อแล้ว
และเพื่อให้เป็นพิธีแบบที่น้องพีพีไม่ชอบ บัดนี้ได้เวลาอันเป็นมงคลฤกษ์แล้ว ผมก็ขอปิดงานเขียนเรื่อง Nvidia ไว้แต่เพียงเท่านี้ครับ
3
โฆษณา