17 ก.ย. 2022 เวลา 03:29 • วิทยาศาสตร์ & เทคโนโลยี
🤖🤟 #AIล่ามภาษามือ แปลกันสดๆบนหน้าจอเลย
มาดูเทคโนโลยีล้ำๆจากจีนกันต่อนะคะ วันนี้โอ้โหBeijing พามาดูเทคโนโลยีเพื่อ #ผู้พิการ กันมั่งค่ะ ✨✨
ต้องเกริ่นก่อนว่า ที่จีนมีจำนวนผู้มีปัญหาทางการได้ยิน มากถึง 27.8 ล้านคนเลยค่ะ ขณะที่มีล่ามภาษามือทั่วประเทศเพียงไม่ถึง 10,000 คนเท่านั้น ทำให้การใช้ชีวิตของกลุ่มคนเหล่านี้มีอุปสรรคเยอะมาก จึงเป็นที่มาของแรงบันดาลใจให้ผู้พัฒนาด้านไอทีต่างๆ ไม่ว่าจะเป็น Tencent, Baidu, Metacave ต่างหันมาจริงจังในการผลิตเทคโนโลยี เพื่ออำนวยความสะดวกแก่กลุ่มคนเหล่านี้
ใครที่ได้ติดตามกีฬาโอลิมปิคฤดูหนาว & พาราลิมปิคที่กรุงปักกิ่ง ผ่านช่อง CCTV เมื่อต้นปีที่ผ่านมา คงจะได้เห็นพิธีกรที่เป็นคนจริงๆ นั่งคู่กับ #พิธีกรAIล่ามภาษามือ แปลกันสดๆผ่านหน้าจอทีวีกันมาบ้างแล้วใช่มั๊ยคะ ... แต่การใช้งานยังไม่หมดเพียงเท่านี้ แล้วก็ไม่ได้จำกัดอยู่เฉพาะหน้าจอทีวีด้วย
🤖 ล่ามภาษามือส่วนตัว พาไปได้ทุกที่ ทุกเวลา
ผู้มีปัญหาทางการได้ยิน สามารถโหลดแอพล่ามภาษามือนี้ไว้ในมือถือ เวลาจะสื่อสารกับใคร ก็ให้เปิดแอพนี้ไว้ แอพนี้จะแปลงเสียงคู่สนทนาเป็นภาษามือ ผ่านล่ามAIบนหน้าจอมือถือให้ชมได้เลยค่ะ ซึ่งความถูกต้องของการแปลก็สูงถึง 98.5% เลย
🤖 ใช้ที่ไหนได้บ้าง
☑ยกตัวอย่าง use case นึงที่ดีมากๆเลยก็คือ เทคโนโลยีนี้ช่วยให้นักศึกษาที่มีปัญหาทางการได้ยิน สามารถเข้านั่งในชั้นเรียนเดียวกับนศ.ปกติ เรียนไปพร้อมๆกันได้เลย ไม่ต้องหาครูภาษามือมาสอนโดยเฉพาะ เพราะสามารถดูท่าทางภาษามือที่แปลผ่านมาบนหน้าจอมือถือได้เลย
☑️นอกจากนี้บนเวปไซต์, รายการไลฟ์ และ สถานที่ต่างๆก็นำเทคโนโลยีนี้ไปใช้สื่อสารกับผู้พิการด้วยค่ะ เช่น ร.พ., ธนาคาร, สนามบิน, ป้ายรถเมล์, พิพิธภัณฑ์ และสถานที่สาธารณะอื่นๆมากมาย
☑️ นอกจากแปลคำพูดเป็นภาษามือแล้ว เค้ายังมีแปลตัวหนังสือจากในเวป และแอพต่างๆ เป็นภาษามือด้วยนะคะ
==================
🤖 เกร็ดน่ารู้เรื่องเทคโนโลยี แบบเข้าใจง่ายๆ
◾️จริงๆแล้วพื้นฐานของเทคโนโลยีนี้มาจาก #SpeechRecognition ที่เราคุ้นเคยกันดีอย่าง AI คำสั่งเสียงต่างๆ เช่น Siri (-iPhone), เสี่ยวตู้ (-Baidu), เสี่ยวอ้าย (-Xiaomi)
◾️เพียงแต่มันยังถูกพัฒนาต่อให้ซับซ้อนมากยิ่งขึ้น ไม่ใช่แค่ให้ AI ฟังภาษามนุษย์ให้เข้าใจ แล้วเซตคำตอบให้ AI ตอบกลับเราเท่านั้น แต่เค้าต้องเทรนให้AIแปลงคำพูดให้เป็นท่าทางภาษามือให้ได้ด้วย
◾️กระบวนการในการแปลคำพูดเป็นภาษามือ มันไม่ใช่แค่การแปลตรงๆคำต่อคำเท่านั้น แต่ต้องใช้เทคโนโลยี #SpeechTranslation ในการร้อยเรียงรูปประโยคขึ้นมาใหม่ ให้เหมาะกับการแปลเป็นท่าทางภาษามือ ในความหมายที่ถูกต้องด้วย
◾️สำหรับการสร้างท่าทางภาษามือนั้น เค้าได้ใช้วิธีการที่เรียกว่า #MachineLearning (MI) โดยเก็บท่าทางภาษามือทุกคำที่มี แบบ 1ตัวอักษร/1ท่าทาง ให้AI จำท่าทางการขยับเขยื้อนมือ,แขน,ข้อศอก,ไหล่ รวมถึงการแสดงออกทางใบหน้า ไม่ว่าจะเป็นดวงตา หรือรูปปาก (ใครเคยตามเพจนี้ น่าจะเคยเห็นหุ่นยนต์มือที่เคยเอาลงให้ดูกันนะคะ ขั้นนี้เค้าจะเทรนผ่านมือของหุ่นยนต์นี่แหละ)
◾️เมื่อได้ท่าทางภาษามือครบทุกตัวอักษรในคลังคำศัพท์แล้ว จึงจะสามารถเอาไปเทรนโมเดลได้ โดยฝึกคู่กับครูภาษามือที่เป็นคนจริงๆ ให้แปลคำและประโยคต่างๆไปพร้อมๆกันเพื่อให้ AI ก็อปปี้จังหวะท่าทางให้ได้เนียนเหมือนคนมากที่สุด
◾️ทีนี้เวลาที่เค้าจะขึ้นรูป Avatar เค้าก็จะใช้เทคโนโลยี #PortraitRendering ซึ่งเป็นเทคโนโลยีเดียวกับการสร้างตัวละครในโลก #Metaverse โดยเอาท่าทางที่ AI แปลได้ชำนาญแล้วไปแมพกับโมเดลร่างกาย 3 มิติที่มีทั้งโครงกระดูกและมัดกล้ามเนื้อ เพื่อสอนให้ตัวละครAIเรียนรู้ว่า การแปลเป็นท่าทางแต่ละคำนั้น จะต้องขยับร่างกายยังไงบ้าง ถึงจะมีท่าทาง, สีหน้า และแววตาที่เหมือนคนจริงๆ เพื่อให้ผู้ชมที่เป็นผู้พิการทางการได้ยินได้ร่วมไปกับอารมณ์ของผู้พูดในแต่ละเหตุการณ์
===================
💁 และนี่ก็เป็นอีกหนึ่งเทคโนโลยีที่น่าสนใจจากงาน #CIFTIS2022 ค่ะ
จบแล้วค่ะ เขียนคอนเท้นต์นี้ใช้พลังงานไปเยอะมากเลย เพราะอยากให้ทุกคนอ่านแล้วได้สาระดีๆติดไปด้วย ใครอ่านจบช่วยกดไลค์,แชร์ ให้กำลังกันด้วยนะค้า 😉😉
ใครสนใจเทคโนโลยีในจีน ติดตามต่อผ่านในhashtagนี้เลยค่ะ #โอ้โหBeijingไปให้สุดเรื่องเทคโนฯ
โฆษณา