3 ก.พ. เวลา 23:00 • วิทยาศาสตร์ & เทคโนโลยี

เปิดตัว OpenAI o3-mini: เร็วขึ้น ฉลาดขึ้น และคุ้มค่ากว่าเดิม!

ในวันที่ 31 ธันวาคม 2568 OpenAI ได้เปิดตัว o3-mini อย่างเป็นทางการ ซึ่งเป็นเวอร์ชันขนาดเล็กแต่ทรงพลังของ Model ตระกูล o3 ที่เน้นความสามารถในการให้เหตุผล (reasoning) โดยเฉพาะในงานด้าน STEM (วิทยาศาสตร์ คณิตศาสตร์ วิศวกรรม และเทคโนโลยี) จุดเด่นของโมเดลนี้คือ ความเร็วที่ดีขึ้น ต้นทุนที่ต่ำลง และการใช้งานที่มีประสิทธิภาพสูงขึ้น
การแข่งขันในตลาด AI และการมาของ Deepseek
การเปิดตัวนี้เกิดขึ้นในช่วงเวลาที่ อุตสาหกรรม AI กำลังร้อนแรง โดยเฉพาะการมาของ Deepseek ซึ่งเป็นโมเดล AI reasoning จากจีนที่ได้รับความสนใจอย่างมาก เนื่องจากมุ่งเน้นความสามารถด้าน reasoning และการเข้าใจภาษาธรรมชาติในระดับสูง
Deepseek กำลังกลายเป็นคู่แข่งสำคัญของ OpenAI และยังมีจุดแข็งในเรื่องของการรองรับโมเดลแบบ open-source ซึ่งช่วยให้ชุมชนนักพัฒนาสามารถนำไปปรับปรุงและปรับแต่งได้ตามต้องการ ทำให้เป็นทางเลือกที่น่าสนใจสำหรับนักวิจัยและองค์กรที่ต้องการความยืดหยุ่น
การเปิดตัวของ o3-mini จึงเป็นหมากสำคัญของ OpenAI ในการรักษาความเป็นผู้นำในตลาด AI reasoning โดยทาง OpenAI ต้องพัฒนาโมเดลที่สามารถแข่งขันได้ ทั้งในด้านคุณภาพ ประสิทธิภาพ และต้นทุน เพื่อให้มั่นใจว่าผู้ใช้ยังคงเลือกแพลตฟอร์มของตน
สิ่งที่ทำให้ o3-mini น่าสนใจ
  • ให้เหตุผลได้ดีขึ้น – ลดข้อผิดพลาดในงานที่ซับซ้อนลงถึง 39% และให้คำตอบที่ชัดเจนกว่า o1-mini ข้อมูลที่แม่นยำและชัดเจนมากขึ้นโดยที่ต้นทุนการประมวลผลต่ำลงกว่ารุ่นก่อนถึง 63%
  • ตอบสนองเร็วขึ้น – o3-mini ถูกออกแบบเพื่อให้คำตอบที่เร็วขึ้นถึง 24% เมื่อเทียบกับรุ่นก่อน (เช่น o1-mini)
  • รองรับฟีเจอร์นักพัฒนา – โมเดลนี้รองรับการเรียกใช้ฟังก์ชัน (function calling) การสร้างผลลัพธ์ที่มีโครงสร้าง (structured outputs) และส่งข้อความสำหรับนักพัฒนา (developer messages)
  • ปรับระดับการให้เหตุผล – สามารถเลือกระดับการคิดและให้เหตุผลของ Model ได้ว่าจะให้ AI คิดไวหรือคิดลึก โดยมีตัวเลือก3 ระดับ
Low Effort → ใช้เวลาน้อย ตอบเร็ว เหมาะกับงานทั่วไป
Medium Effort → สมดุลระหว่างความเร็วและความแม่นยำ
High Effort → คิดลึกขึ้น ตอบแม่นขึ้น ใช้เวลากับโจทย์ที่ซับซ้อน
โดยใน ChatGPT จะใช้ระดับ medium เป็นค่าเริ่มต้น
  • เหมาะสำหรับงานด้าน STEM และการแก้ปัญหาซับซ้อน- ด้วยความสามารถในการให้เหตุผลเชิงลึกและความแม่นยำที่สูงขึ้น o3-mini จึงเป็นตัวเลือกที่ยอดเยี่ยมสำหรับงานด้านวิทยาศาสตร์ คณิตศาสตร์ และวิศวกรรม ไม่ว่าจะเป็นการแก้โจทย์ปัญหาทางคณิตศาสตร์ระดับสูง การวิเคราะห์ข้อมูลทางฟิสิกส์ หรือการช่วยพัฒนาอัลกอริทึมขั้นสูงสำหรับ AI และ Machine Learning
Performance: OpenAI o3-mini vs. o1-mini vs. o1
ความสามารถด้านคณิตศาสตร์ของ OpenAI o3-mini ใน AIME 2024
หนึ่งในการทดสอบที่สำคัญของโมเดล AI ด้านคณิตศาสตร์คือ AIME 2024 (American Invitational Mathematics Examination) ซึ่งใช้วัดความสามารถของ AI ในการแก้โจทย์คณิตศาสตร์ระดับแข่งขัน ผลลัพธ์จากกราฟแสดงให้เห็นว่า
  • o3-mini (Low Reasoning Effort) → ทำคะแนนได้ใกล้เคียงกับ o1-mini (60.0 vs 63.6)
  • o3-mini (Medium Reasoning Effort) → ทำคะแนนเทียบเท่า o1 (79.6 vs 83.3)
  • o3-mini (High Reasoning Effort) → ทำคะแนนสูงสุดถึง 87.3 แซงหน้า o1 (83.3) และ o1-mini (63.6)
นอกจาก AIME 2024 แล้ว o3-mini ยังมีประสิทธิภาพสูงขึ้นในงานคณิตศาสตร์ระดับสูง (FrontierMath)
✔️ เมื่อใช้ High Reasoning Effort → สามารถแก้โจทย์ FrontierMath ได้สำเร็จ 32% ในครั้งแรก
✔️ โจทย์ระดับ T3 (ยากที่สุด) สามารถแก้ได้มากกว่า 28%
💡 หมายเหตุ: ผลการทดสอบ FrontierMath นี้ ยังไม่รวมการใช้เครื่องมือ Python หรือเครื่องคิดเลข
จุดแข็งของ o3-mini ในคณิตศาสตร์:
🔹 คิดได้ลึกขึ้นและแม่นยำขึ้นในโจทย์ที่ยาก
🔹 ปรับระดับการให้เหตุผลได้ เพื่อให้เหมาะสมกับงานที่ต้องการ
🔹 เร็วขึ้นแต่ยังคงความแม่นยำสูง
ความสามารถของ OpenAI o3-mini ในการตอบคำถามวิทยาศาสตร์ระดับปริญญาเอก (PhD-level Science Questions – GPQA Diamond)
จากการทดสอบด้วย GPQA Diamond ซึ่งเป็นชุดคำถามที่ครอบคลุม ชีววิทยา, เคมี และฟิสิกส์ ระดับปริญญาเอก โมเดล o3-mini แสดงให้เห็นถึงการพัฒนาอย่างชัดเจนเมื่อเทียบกับรุ่นก่อนหน้า
ผลการทดสอบ GPQA Diamond
✔️ o3-mini (Low Reasoning Effort) → ทำคะแนนได้ 70.6 สูงกว่า o1-mini (60.0)
✔️ o3-mini (Medium Reasoning Effort) → ทำคะแนนได้ 76.8 ใกล้เคียงกับ o1 (78.0)
✔️ o3-mini (High Reasoning Effort) → ทำคะแนนได้สูงถึง 79.7 แซงหน้า o1 (78.0)
📌 ข้อสังเกตสำคัญ:
🔹 แม้จะเป็นโมเดลขนาดเล็ก แต่เมื่อใช้ High Effort สามารถให้ผลลัพธ์ที่แม่นยำพอ ๆ กับ OpenAI o1
🔹 ที่ Low Effort ก็ยังให้ผลดีกว่า o1-mini แสดงให้เห็นถึงการพัฒนาในด้านตรรกะทางวิทยาศาสตร์
🔹 เหมาะสำหรับ งานวิเคราะห์ข้อมูลทางวิทยาศาสตร์และการวิจัย
ความสามารถของ OpenAI o3-mini ในการแข่งขันเขียนโค้ด (Competition Coding – Codeforces)
หนึ่งในจุดแข็งของ o3-mini คือความสามารถด้าน การแข่งขันเขียนโค้ด (Competitive Programming) ซึ่งวัดผลด้วย Codeforces Elo Score เพื่อเปรียบเทียบประสิทธิภาพของ AI ในการแก้โจทย์การเขียนโปรแกรมที่ท้าทาย
ผลการทดสอบ Codeforces Elo Score
✔️o3-mini (Low Reasoning Effort) → ทำคะแนน 1831 สูงกว่า o1-mini (1650)
✔️ o3-mini (Medium Reasoning Effort) → ทำคะแนน 2036 เทียบเท่า o1 (1891)
✔️ o3-mini (High Reasoning Effort) → ทำคะแนนสูงสุดที่ 2130 แซง o1
📌 ข้อสังเกตสำคัญ:
🔹 o3-mini ทำคะแนนได้สูงกว่าทุกรุ่นก่อนหน้า รวมถึง o1-mini และ o1
🔹 Reasoning Effort ที่สูงขึ้นช่วยให้โมเดลแก้โจทย์ซับซ้อนได้ดีขึ้น
🔹 ที่ Medium Effort โมเดลทำได้ใกล้เคียงกับ o1 แสดงถึงความสามารถระดับสูง
ความสามารถของ OpenAI o3-mini ใน Software Engineering (SWE-bench Verified)
SWE-bench Verified เป็นการทดสอบที่ใช้วัดความสามารถของ AI ใน การแก้ไขโค้ดและแก้ปัญหาซอฟต์แวร์ ซึ่งเป็นตัวชี้วัดสำคัญสำหรับงาน Software Engineering
ผลการทดสอบ SWE-bench
✔️ o3-mini (Low Reasoning Effort) → ทำคะแนน 40.8 ใกล้เคียงกับ o1-preview (41.3)
✔️ o3-mini (Medium Reasoning Effort) → ทำคะแนน 42.9 ใกล้เคียงกับ o1 (48.9)
✔️ o3-mini (High Reasoning Effort) → ทำคะแนนสูงสุด 49.3 แซง o1
📌 ข้อสังเกตสำคัญ:
🔹 ที่ High Effort → o3-mini แซง o1 ในงาน SWE-bench แสดงให้เห็นถึง ความสามารถด้านการแก้ไขโค้ดที่เหนือกว่า
🔹 SWE-bench ยังวัดผลด้วย Agentless scaffold และ Internal tools scaffold ซึ่งที่ High Effort o3-mini ทำคะแนนสูงถึง 61% ใน internal tools
การประเมินความพึงพอใจของผู้ใช้ต่อ OpenAI o3-mini (Human Preference Evaluation)
จากการทดสอบโดย ผู้เชี่ยวชาญภายนอก (External Expert Testers) พบว่า o3-mini ให้คำตอบที่ ชัดเจนและแม่นยำกว่า o1-mini โดยเฉพาะในงานที่ต้องใช้การให้เหตุผลเชิงลึก
ผลการทดสอบความพึงพอใจของผู้ใช้
✔️ 56% ของผู้ใช้ชอบคำตอบของ o3-mini มากกว่า o1-mini
✔️ ลดข้อผิดพลาดร้ายแรงลง 39% ในคำถามที่ซับซ้อน
✔️ ได้รับความนิยมมากขึ้นในหมวด STEM (Science, Technology, Engineering, and Mathematics)
📌 ข้อสังเกตสำคัญ:
🔹 o3-mini ให้ผลลัพธ์ที่แม่นยำขึ้น และมีการใช้เหตุผลที่ดีขึ้นเมื่อเทียบกับ o1-mini
🔹 อัตราความผิดพลาด (Major Errors) ลดลงอย่างเห็นได้ชัด แสดงถึงคุณภาพของคำตอบที่พัฒนาขึ้น
🔹 ในสถานการณ์ที่มีเวลาจำกัด (เช่น การให้คำตอบเร็ว) o3-mini ก็ยังได้รับการประเมินสูงกว่า o1-mini
ความเร็วของ OpenAI o3-mini: ตอบเร็วขึ้นกว่าเดิม!
หนึ่งในจุดเด่นของ o3-mini คือความเร็วที่เพิ่มขึ้นในการประมวลผลและการตอบสนอง เมื่อเปรียบเทียบกับ o1-mini พบว่า o3-mini มีเวลาในการสร้างคำตอบแรก (Time to First Token) เร็วขึ้นโดยเฉลี่ยถึง 2500ms
การเข้าถึงในการใช้งาน Model
🔹 ผู้ใช้ ChatGPT รุ่นฟรีสามารถทดลองใช้งาน o3-mini ได้โดยการคลิกปุ่ม “Reason” ในช่องข้อความ เพื่อสัมผัสประสบการณ์การให้เหตุผลที่ฉลาดยิ่งขึ้น
🔹 ChatGPT Plus และ Team – ได้รับโควต้า 150 ข้อความต่อวัน ทำให้สามารถใช้งานได้มากขึ้นสำหรับงานวิเคราะห์และการทำงานที่ต้องการ AI reasoning
🔹 ChatGPT Pro – ผู้ใช้ที่สมัครแพ็กเกจ Pro (200 ดอลลาร์ต่อเดือน) สามารถใช้งาน o3-mini ได้แบบไม่จำกัด รองรับงานที่ต้องการ AI reasoning อย่างต่อเนื่อง
🔹 ChatGPT Enterprise และ Edu – คาดว่าจะได้รับการอัปเดตภายใน สัปดาห์หน้า เพื่อเพิ่มขีดความสามารถให้กับองค์กรและสถาบันการศึกษา
ด้วยความสามารถที่หลากหลายและความยืดหยุ่นในการใช้งาน o3-mini ได้รับการออกแบบมาเพื่อตอบสนองความต้องการของผู้ใช้งานในหลากหลายสาขา ไม่ว่าจะเป็นนักวิจัย นักพัฒนา หรือผู้ใช้งานทั่วไป การเข้าถึงฟีเจอร์ที่สามารถปรับระดับการให้เหตุผลได้ ทำให้ผู้ใช้สามารถเลือกใช้ AI ตามความต้องการเฉพาะของตนเองได้อย่างมีประสิทธิภาพ
OpenAI เปิดตัว o3-mini ด้วยความมุ่งมั่นที่จะปรับปรุงประสิทธิภาพด้านการให้เหตุผลในงานที่ซับซ้อน โดยเฉพาะในงาน STEM พร้อมทั้งลดต้นทุนและเวลา latency ซึ่งเป็นปัจจัยสำคัญในยุคที่ตลาด AI มีการแข่งขันอย่างเข้มข้น การเปิดตัวครั้งนี้ไม่เพียงแต่เป็นการยกระดับเทคโนโลยี AI ในด้านการให้เหตุผลเท่านั้น แต่ยังเป็นการเตรียมพร้อมสำหรับอนาคตที่อุตสาหกรรมต้องเผชิญกับความท้าทายด้านต้นทุนและประสิทธิภาพที่สูงขึ้นในตลาดโลก
References
1. OpenAI, "Introducing OpenAI o3-mini,"
2. OpenAI o3-mini System Card | OpenAI
โฆษณา