Blockdit Logo
Blockdit Logo (Mobile)
สำรวจ
ลงทุน
คำถาม
เข้าสู่ระบบ
มีบัญชีอยู่แล้ว?
เข้าสู่ระบบ
หรือ
ลงทะเบียน
ChatGPT Insights
•
ติดตาม
28 มี.ค. เวลา 07:03 • วิทยาศาสตร์ & เทคโนโลยี
เจาะลึก GPT-4o Audio Models : โมเดลเสียงใหม่ล่าสุดจาก OpenAI
เมื่อวันที่ 20 มีนาคม 2568 OpenAI ได้เปิดตัวโมเดลเสียงรุ่นใหม่ถึง 3 รุ่น ซึ่งเป็นการก้าวกระโดดครั้งสำคัญในด้านเทคโนโลยีเสียงของ AI โดยมีเป้าหมายเพื่อยกระดับประสบการณ์การสื่อสารผ่านเสียงให้มีความสมจริง สามารถนำไปใช้งานได้อย่างยืดหยุ่นมากยิ่งขึ้น ไม่ว่าจะเป็นในงานบริการลูกค้า การสร้างสรรค์คอนเทนต์ การถอดเสียงประชุม โดยโมเดลเหล่านี้ประกอบด้วยความสามารถในการแปลงข้อความเป็นเสียง (Text-to-Speech) และแปลงเสียงเป็นข้อความ (Speech-to-Text) ในบทความนี้เราจะเจาะลึก Model ทั้ง 3 รุ่นกันครับ
เปิดประสบการณ์ใหม่กับเสียง AI ที่ชาญฉลาดและปรับแต่งได้
OpenAI ไม่ได้หยุดอยู่แค่การพัฒนาโมเดลเสียงเพื่อการใช้งานพื้นฐานเท่านั้น แต่ได้ผลักดันขีดจำกัดของเทคโนโลยี AI ด้านเสียง โดยมุ่งมั่นสร้างเครื่องมือที่ช่วยให้ผู้ใช้งานสามารถควบคุม ปรับแต่ง และสร้างประสบการณ์เสียงที่สอดคล้องกับบริบทและอารมณ์ของการสื่อสารได้อย่างมีประสิทธิภาพ โมเดลเสียงใน GPT-4o เหล่านี้คือรากฐานใหม่สำหรับการสร้าง "Voice Agent" ที่ทั้งฉลาด ล้ำสมัย และมีความสามารถใกล้เคียงกับมนุษย์มากขึ้นเรื่อย ๆ
เจาะลึกโมเดลเสียงทั้ง 3 รุ่น
1. GPT-4o-mini-tts: โมเดล Text-to-Speech ที่ควบคุมได้แม่นยำ
GPT-4o-mini-tts คือโมเดลที่สามารถแปลงข้อความให้กลายเป็นเสียงพูดได้อย่างสมจริงมากกว่าที่เคยมีมา จุดแข็งของโมเดลนี้คือความสามารถในการ "กำกับเสียง" หรือ Steerability ที่ให้ผู้ใช้งานสามารถกำหนดลักษณะการพูดได้อย่างละเอียด ทั้งในแง่ของน้ำเสียง อารมณ์ จังหวะการพูด หรือแม้กระทั่งสไตล์ เช่น ให้พูดเหมือนนักเล่านิทาน พนักงานบริการที่เห็นอกเห็นใจ หรืออัศวินในยุคกลาง เป็นต้น พร้อมเสียงพื้นฐานให้เลือกใช้งานถึง 11 รูปแบบ
ราคา: 1.5 เซ็นต์ต่อนาที (ประมาณ $0.60 ต่อล้านโทเค็น)
OpenAI ได้เปิดให้ทดลองโมเดลนี้ผ่านเว็บไซต์
openai.fm
ซึ่งเป็นแพลตฟอร์มอินเทอร์แอกทีฟที่เปิดโอกาสให้นักพัฒนาและผู้สนใจทั่วไปสามารถพิมพ์ข้อความและฟังเสียงที่โมเดลสร้างขึ้นได้ทันที พร้อมทั้งมีตัวอย่างโค้ดและ API สำหรับการนำไปใช้งานเชิงพาณิชย์หรือโปรเจกต์ส่วนตัว
OpenAI.fm: เว็บไซต์เดโมอินเทอร์แอกทีฟสำหรับทดลองโมเดลเสียง GPT-4o-mini-tts
OpenAI.fm
คือแพลตฟอร์มที่ให้ผู้ใช้สามารถทดลองใช้งาน โมเดล Text-to-Speech (TTS) ตัวล่าสุดของ OpenAI ได้ทันทีผ่านเบราว์เซอร์ โดยสามารถเลือกได้ทั้ง
●
VOICE (เสียง): เช่น Echo, Shimmer, Coral, Alloy
●
VIBE (อารมณ์/โทนเสียง): เช่น “Patient Teacher”, “Santa”, หรือ “NYC Cabbie
●
SCRIPT: พิมพ์ข้อความที่ต้องการให้ AI อ่านออกเสียง
เมื่อกำหนดตัวเลือกครบแล้ว ผู้ใช้สามารถกด Play เพื่อฟังเสียงที่สร้างขึ้นได้ทันที หรือเลือกดาวน์โหลดและแชร์เสียงไปใช้ในงานต่าง ๆ ได้อย่างง่ายดาย
2. GPT-4o-transcribe: โมเดล Speech-to-Text ความแม่นยำสูงระดับอุตสาหกรรม
GPT-4o-transcribe ได้รับการพัฒนาขึ้นจาก Whisper ซึ่งเป็นโมเดลรุ่นก่อนของ OpenAI โดยได้รับการปรับปรุงอย่างครอบคลุมในด้านคุณภาพการถอดเสียง ความเข้าใจสำเนียง และความแม่นยำในสภาพแวดล้อมที่มีเสียงรบกวน ด้วยการฝึกฝนโมเดลบนข้อมูลเสียงจำนวนมาก พร้อมผสมผสานเทคนิค Reinforcement Learning และการกลั่นกรองความรู้ (Distillation) ทำให้สามารถลดค่า Word Error Rate (WER) ได้อย่างมีนัยสำคัญ โดยเฉพาะเมื่อเปรียบเทียบกับ Whisper v2 และ v3
ราคา: 0.6 เซ็นต์ต่อนาที (ประมาณ $0.006 ผ่าน API ของ OpenAI)
3. GPT-4o-mini-transcribe: โมเดล Speech-to-Text สำหรับการใช้งานทั่วไป
ในขณะที่ GPT-4o-transcribe เน้นความแม่นยำสูงสุด GPT-4o-mini-transcribe ถูกออกแบบให้มีขนาดเล็กกว่าและทำงานได้รวดเร็ว เหมาะสำหรับแอปพลิเคชันที่ต้องการประสิทธิภาพและความเร็ว เช่น การจดบันทึกเสียงอัตโนมัติ การแชทด้วยเสียง หรือระบบที่ต้องตอบสนองแบบ real-time โดยยังคงรักษาความแม่นยำในระดับที่ใช้งานได้ดีเยี่ยม
ราคา: 0.3 เซ็นต์ต่อนาที
การประเมินประสิทธิภาพ: ชุดทดสอบมาตรฐาน FLEURS
เพื่อประเมินประสิทธิภาพของโมเดลเสียงทั้งหมด OpenAI ใช้ชุดทดสอบชื่อว่า FLEURS (Few-shot Learning Evaluation of Universal Representations of Speech) ซึ่งเป็น benchmark มาตรฐานสำหรับการประเมินโมเดล Speech-to-Text โดยครอบคลุมกว่า 100 ภาษา และใช้คลิปเสียงที่ผ่านการถอดความโดยมนุษย์เป็นเกณฑ์อ้างอิง ทำให้สามารถวัดค่า WER ได้อย่างแม่นยำและเที่ยงตรง โดย WER เป็นตัวชี้วัดที่แสดงถึงความถูกต้องในการถอดเสียง ยิ่งมีค่าต่ำยิ่งดี
กราฟแสดงผลเปรียบเทียบค่า Word Error Rate (WER) ของโมเดล Speech-to-Text รุ่นใหม่จาก OpenAI กับ Whisper รุ่นก่อนหน้า บนชุดทดสอบมาตรฐาน FLEURS ที่ครอบคลุมกว่า 100 ภาษา
จากผลการทดสอบ โมเดล GPT-4o-transcribe และ GPT-4o-mini-transcribe สามารถเอาชนะ Whisper รุ่นก่อนหน้าได้อย่างชัดเจนในเกือบทุกภาษา โดยเฉพาะภาษาในกลุ่มเอเชียใต้ เช่น ฮินดี ทมิฬ เตลูกู อูรดู และมาลายาลัม ซึ่งมีความซับซ้อนทางเสียงสูง นอกจากนี้ ยังแสดงให้เห็นถึงความแม่นยำที่ยอดเยี่ยมในภาษาไทยด้วย สะท้อนให้เห็นถึงความสามารถของโมเดลใหม่ในการจัดการกับสำเนียงและสภาพแวดล้อมที่ซับซ้อน พร้อมรองรับงานถอดเสียงหลายภาษาได้อย่างมีประสิทธิภาพ
กราฟเปรียบเทียบค่า Word Error Rate (WER) บนชุดข้อมูล FLEURS ของโมเดล Speech-to-Text รุ่นใหม่จาก OpenAI กับ Model ชั้นนำของคู่แข่ง
เมื่อเปรียบเทียบกับโมเดลชั้นนำจากค่ายอื่น เช่น Gemini 2.0 Flash, Scribe-v1 และ Nova-3 พบว่าโมเดล GPT-4o-transcribe มีค่า Word Error Rate (WER) ต่ำที่สุดในหลายภาษา โดยเฉพาะภาษาอังกฤษ ฝรั่งเศส จีนกลาง ญี่ปุ่น และฮินดี ซึ่งเป็นกลุ่มภาษาที่มีความซับซ้อนในการถอดเสียง นอกจากนี้ โมเดลยังแสดงความเสถียรในการทำงานและรองรับการประมวลผลได้ดี จึงเหมาะอย่างยิ่งสำหรับการนำไปใช้งานในระดับองค์กร ไม่ว่าจะเป็นระบบบริการลูกค้าแบบ real-time, transcription สำหรับการประชุมหลายภาษา
จุดเด่นที่ทำให้โมเดลเสียงของ OpenAI แตกต่าง!
●
รองรับมากกว่า 100 ภาษาและสำเนียงหลากหลาย
●
สามารถปรับแต่งลักษณะการพูดได้อย่างละเอียด เช่น ความเร็ว น้ำเสียง และอารมณ์
●
ใช้ Reinforcement Learning เพื่อลด WER และเพิ่มความแม่นยำ
●
ผสานการทำงานร่วมกับ Agents SDK และ Realtime API ได้อย่างมีประสิทธิภาพ
●
พร้อมใช้งานทันทีผ่าน OpenAI API ทำให้สะดวกสำหรับนักพัฒนาในการเชื่อมต่อกับระบบที่มีอยู่และนำไปประยุกต์ใช้งานได้อย่างรวดเร็ว
ข้อจำกัดของโมเดลเสียง OpenAI
●
รองรับไฟล์เสียงไม่เกิน 25MB เท่านั้น (รองรับ MP3, WAV และรูปแบบมาตรฐานอื่น ๆ) ซึ่งอาจไม่เหมาะสำหรับการประมวลผลไฟล์เสียงความยาวมากกว่าหลายนาทีติดต่อกัน
●
ไม่เปิดเป็นโอเพ่นซอร์ส เพื่อป้องกันการนำไปใช้ผิดวัตถุประสงค์ เช่น การเลียนแบบเสียงบุคคล (Deepfake) หรือการละเมิดสิทธิส่วนบุคคล
●
ยังไม่รองรับการสังเคราะห์เสียงจากตัวอย่างเสียงผู้ใช้งานเอง (Custom Voice Cloning) เพื่อควบคุมความปลอดภัยในการใช้งาน
●
จำกัดการใช้งานเฉพาะเสียงสังเคราะห์จากระบบที่ OpenAI กำหนดไว้ล่วงหน้า เพื่อป้องกันการสร้างเสียงที่ไม่เหมาะสม
สรุป: เสียงคืออนาคตของ AI ที่ใกล้ตัวเรามากกว่าที่คิด
การเปิดตัวโมเดลเสียงรุ่นใหม่ในปี 2025 ของ OpenAI ถือเป็นก้าวสำคัญที่สะท้อนถึงวิสัยทัศน์ในการพัฒนา AI ที่มีความเข้าใจมนุษย์อย่างลึกซึ้งมากยิ่งขึ้น ไม่เพียงแค่ในด้านข้อความ แต่ยังครอบคลุมถึงเสียงที่เป็นธรรมชาติและเปี่ยมด้วยอารมณ์ เทคโนโลยีเสียงนี้จะเปิดโอกาสให้กับธุรกิจ ผู้พัฒนา และผู้สร้างสรรค์คอนเทนต์ได้ใช้เสียง AI ในการสร้างประสบการณ์ใหม่ ๆ ที่มีคุณภาพและเข้าถึงผู้ใช้งานได้ดีขึ้น
สามารถทดลองใช้งานจริงได้แล้ววันนี้ที่
https://www.openai.fm
Reference Source
1. OpenAI, “Introducing next-generation audio models in the API”
Link:
https://openai.com/index/introducing-our-next-generation-audio-models/#:~:text=Today%2C%20we%E2%80%99re%20launching%20new%20speech,meeting%20note%20transcription%2C%20and%20more
2. TechCrunch – Kyle Wiggers, “OpenAI upgrades its transcription and voice-generating AI models”
Link:
https://techcrunch.com/2025/03/20/openai-upgrades-its-transcription-and-voice-generating-ai-models/#:~:text=OpenAI%20claims%20that%20its%20new,%E2%80%9D
3. VentureBeat – Carl Franzen, “OpenAI’s new voice AI models...lets you add speech to your text apps in seconds”
Link:
https://venturebeat.com/ai/openais-new-voice-ai-models-gpt-4o-transcribe-let-you-add-speech-to-your-existing-text-apps-in-seconds/#:~:text=It%20is%20meant%20to%20supersede,speech%20speeds%20across%20100%2B%20languages
4. OpenAI Developer Community, “New audio models in the API + tools for voice agents”
Link:
https://community.openai.com/t/new-audio-models-in-the-api-tools-for-voice-agents/1148339#:~:text=new%20,more%2C%20check%20out%20our%20docs
เทคโนโลยี
chatgpt
ai
บันทึก
2
2
โฆษณา
ดาวน์โหลดแอปพลิเคชัน
© 2025 Blockdit
เกี่ยวกับ
ช่วยเหลือ
คำถามที่พบบ่อย
นโยบายการโฆษณาและบูสต์โพสต์
นโยบายความเป็นส่วนตัว
แนวทางการใช้แบรนด์ Blockdit
Blockdit เพื่อธุรกิจ
ไทย