Blockdit Logo
Blockdit Logo (Mobile)
สำรวจ
ลงทุน
คำถาม
เข้าสู่ระบบ
มีบัญชีอยู่แล้ว?
เข้าสู่ระบบ
หรือ
ลงทะเบียน
รอบรู้เทคโนโลยี by วินอิสอิส
•
ติดตาม
9 ส.ค. 2020 เวลา 11:31 • วิทยาศาสตร์ & เทคโนโลยี
ผู้เชี่ยวชาญคาดการณ์ภัยร้ายจาก A.I. ในปี 2035 ว่า Deepfake จะมีผลกระทบต่อสังคมมากที่สุด ในด้านการทำลายความเชื่อใจ (trust) ของมนุษย์ในสังคม
นับว่าเป็นกระแสอยู่พอสมควรเลยทีเดียว ในแง่ของภัยอันตรายที่อาจเกิดจากปัญญาประดิษฐ์(A.I.) และมีท่าทีว่าจะมีต่อไปเรื่อยๆ
ในแวดวงวิชาการ นักวิเคราะห์นโยบาย และภาคเอกชน ก็มีการตื่นตัวไม่แพ้กัน จึงมีการตั้งคำถามและโหวตกันถึง A.I. 20 อันดับ ที่คาดว่าจะเป็นภัยต่อสังคมที่สุดใน 15 ปีข้างหน้า
ผลโหวตชี้ออกมาว่า 'Deepfake เป็นอันตรายมากที่สุด ซึ่งแรกเริ่มเดิมทีแล้ว เทคโนโลยี Deepfake ถูกนำไปประยุกต์ใช้ในปัจจุบันอย่างแพร่หลายอยู่แล้วด้วย
เสริม: สำหรับผู้อ่านที่ไม่รู้จัก Deepfake มาก่อน
Deepfake คือการใช้เทคโนโลยี A.I. ในการสร้างรูปแบบของการปลอมแปลงเนื้อหาตั้งแต่ข้อความ ภาพ เสียง วิดีโอ หรือแม้กระทั่งบทความ เช่น การตัดต่อใบหน้าของดาราไปใส่ในวิดีโออนาจาร การปลอมแปลงวิดีโอที่ทำให้คนพูดประโยคที่ต่างจากวิดีโอต้นฉบับ และการปลอมแปลงเสียง
1
โดยคำว่า Deepfake เกิดจากการรวมกันของคำว่า "Deep Learning" ซึ่งเป็นหนึ่งในเทคนิคของการสร้าง A.I. ผสมรวมกับคำว่า "Fake" ซึ่งแปลว่าปลอม นั่นเอง
ทีมของผู้เชี่ยวชาญที่ทำการโหวตให้ความเห็นว่า ภัยจาก Deepfake ไม่ใช่ภัยคุกคามในลักษณะที่ใครหลายคนนึก อย่างเช่น บางคนอาจคุ้นชินภาพภัยอันตรายจาก A.I. ในลักษณะของทางกายภาพ เช่น หุ่นยนต์ทำร้ายร่างกายหรือทําลายทรัพย์สิน แต่ความอันตรายของมันอยู่ตรงที่
"การทำลายความเชื่อใจ (trust) ระหว่างมนุษย์ในสังคม"
ถึงอย่างนั้น บางคนก็อาจจะยังนึกภาพผลกระทบของภัยอันตรายนี้ไม่ออก เพราะมันออกจะฟังดูเป็นเรื่องของอนาคตอันไกลเหลือเกิน
A.I. จะทำอะไรเราได้? ทุกวันนี้ Siri ยังเอ๋อๆอยู่เลย
แต่ Shane Johnson ผู้เชี่ยวชาญด้านอาชญากรรมอนาคต (Future Crimes) ให้ความเห็นในประเด็นนี้ว่า
"ภัยอันตรายลักษณะนี้จะค่อยๆเติบโตและแทรกซึมในสังคมของเรามากขึ้นเรื่อยๆ และกลายเป็นส่วนหนึ่งของชีวิตเราในที่สุด"
ในการโหวตนี้ นักวิจัยทำการรวบรวมนักวิชาการในแวดวงต่างๆมา 14 คน ผู้เชี่ยวชาญจากภาคเอกชน 7 คน และผู้เชี่ยวชาญจากภาครัฐ 10 คน เพื่อทำการโหวตและให้ความเห็นว่า A.I. แบบใดที่น่าจะอันตรายที่สุด โดยพิจารณาในมุมของ ผลกระทบทางกายภาพ ทางสังคม ทางจิตใจ และความยากในการเอาชนะภัยอันตรายนี้
1
ผลลัพธ์ที่ได้เป็นดังภาพ
จากการปลอมแปลงเอกสาร (Forgery) ที่อยู่ในระดับต่ำสุด จนไปถึง Deepfake ที่อยู่ในระดับสูงสุด
โดยการเปรียบเทียบการใช้งาน A.I. ทั้ง 20 ชนิด ดังนี้ (เรียงจากด้านล่างซ้ายไปยังด้านขวาบน หรืออีกนัยหนึ่งคือ เรียงจากA.I. ที่อาจก่อภัยอันตรายในระดับความรุนแรงน้อยที่สุดไปยังระดับความรุนแรงสูงที่สุด)
1. Forgery: การปลอมแปลงเอกสาร รวมไปถึงลายเซ็น โดย A.I.
2. AI-assisted stalking: การใช้ A.I. สะกดรอยผู้อื่นในโลกดิจิทัล
3. Burglar bots: หุ่นยนต์ที่ถูกสร้างขึ้นเพื่อขโมยของ
4. AI-authored fake reviews: A.I. ตรวจจับความเห็นปลอม ที่อาจถูกสร้างโดยบอท
5. Bias exploitation: A.I. ที่ป้องกันอคติ(ในอัลกอรึทึม) ของ A.I. ตัวอื่น
6. Online eviction: การใช้ A.I. เพื่อขับไล่คนไม่พึงประสงค์ในโลกออนไลน์
1
7. Tricking face recognition: การหลอกลวงโปรแกรมตรวจจับใบหน้า
8. Snake oil: การนำคำว่า AI ปัญญาประดิษฐ์มาแอบอ้างอย่างเลื่อนลอยว่ามีอภินิหารวิเศษเกินจริงแก้ปัญหาได้ทุกอย่าง (เอาจริงๆก็เริ่มเกิดขึ้นแล้วในโลก Startup)
9. Autonomous attack drones: การใช้โดรนเพื่อการโจมตี
10. Military robot: หุ่นยนต์ปฏิบัติหน้าที่ทางการทหาร
11. Driverless vehicles as weapons: การใช้ยานพาหนะไร้คนขับเพื่อก่ออาชญากรรม
12. Learning based cyber attacks: การใช้ A.I. เพื่อเจาะระบบ
1
13. Evading AI detection: การใช้ A.I. เพื่อหลบหนีการตรวจจับด้วย A.I.
14. Data poisoning: จงใจใส่ข้อมูลที่มีอคติ (bias) เข้าไปในอัลกอรึทึมของ A.I. เพื่อให้ A.I. ตัวนั้นมีอคติตามไปด้วย (สามารถอ่านเรื่องนี้เพิ่มเติมได้ในบทความเก่าของผมที่ชื่อว่า Predictive policing ครับบ)
15. Market bombing: การใช้ A.I. เพื่อป้องกันการก่อการร้าย
16. Large scale blackmail: ใช้ A.I. เป็นเครื่องมือในการขู่กรรโชก
17. Disrupting AI-controlled systems: การทำลายระบบที่มี A.I. ฝังตัวอยู่ หรือการโจรกรรม A.I.
18. Tailored phishing: A.I. ที่สามารถสร้าง clickbait ขึ้นมาเพื่อหลอกลวงผู้ใช้งานให้กรอกข้อมูลส่วนตัว
19. AI-authored fake news: A.I. ตรวจจับข่าวปลอม
20. Audio/Video impersonation: การปลอมแปลงเสียงและวีดีโอ (Deepfake ที่เราพูดถึงกันอยู่นั่นเอง)
จะเห็นว่า Deepfake ถูกจัดว่าเป็นภัยอันตรายเหนือกว่าชนิดอื่นๆทั้งหมด
เพราะมนุษย์มักมีแนวโน้มที่จะเชื่อสิ่งที่ตาเห็นและสิ่งที่หูได้ยิน ดังนั้น เสียงและวีดีโอจึงเป็นเครื่องมือชั้นดีในการโน้มน้าวคนให้เชื่อ
ตัวอย่างที่พบเห็นได้อย่างชัดเจนคือ การที่หลายคนยังเชื่อรูปภาพที่ถูกพิสูจน์มาแล้วว่าถูกตัดต่อ และแน่นอนว่าในอนาคต เทคโนโลยี Deepfake จะทำให้การปลอมภาพและวีดีโอมีความแนบเนียนกว่านี้อีกหลายเท่าตัว
ภัยอันตรายอื่นๆ ที่ผู้เชี่ยวชาญเริ่มวิตกกังวลกันก็คือการใช้ รถไร้คนขับเพื่อก่ออาชญากรรมโดยเฉพาะ และการเขียนข่าวลวงด้วย A.I.
สรุป
ด้วยเทคโนโลยี Deepfake ในปัจจุบันที่ยังไม่แนบเนียนพอ เรายังพอมองออกว่าวีดีโอไหนเป็น Deepfake แต่ถ้าหากในอนาคต(อาจจะในอันใกล้นี้) ที่เทคโนโลยีมีการพัฒนาขึ้นมาก ถึงจุดนั้น การที่มนุษย์แยกวีดีโอที่ถูกทำขึ้นด้วย Deepfake อาจไม่ใช่เรื่องง่ายอีกต่อไป
ซึ่งนี่สามารถเป็นเครื่องมือที่มีอำนาจในการสร้างความโกลาหลในสังคมมากเลยทีเดียว เพราะมันสามารถบิดเบือนข่าวสาร ส่งต่อข่าวเท็จ เป็นเครื่องมือทางการเมือง สร้างความเสียหายแก่ตัวบุคคล และสร้างความสับสนเพื่อลดความเชื่อจากสาธารณชนที่มีต่อสังคม
ดังนั้นเราจึงต้องเรียนรู้ที่จะรับมือ และติดตามเทคโนโลยีอย่างสม่ำเสมอ เพื่อที่จะได้รู้ทันและรับมือได้อย่างทันท่วงทีนะครับบ
เพิ่มเติม
ตัวอย่างการปลอมแปลงเสียง ให้เหมือนว่า Obama พูดประโยคเหล่านี้จริงๆ
youtube.com
You Won’t Believe What Obama Says In This Video! 😉
“We’re entering an era in which our enemies can make anyone say anything at any point in time.” Check out more awesome videos at BuzzFeedVideo! https://bit.l...
References
https://www.inverse.com/innovation/deep-fakes-biggest-ai-threat
21 บันทึก
36
14
20
21
36
14
20
โฆษณา
ดาวน์โหลดแอปพลิเคชัน
© 2024 Blockdit
เกี่ยวกับ
ช่วยเหลือ
คำถามที่พบบ่อย
นโยบายการโฆษณาและบูสต์โพสต์
นโยบายความเป็นส่วนตัว
แนวทางการใช้แบรนด์ Blockdit
Blockdit เพื่อธุรกิจ
ไทย