[#FutureUpdate]: คำพูดที่ว่า “เชื่อในสิ่งที่เห็น” อาจไม่มีน้ำหนักเพียงพออีกต่อไป เมื่อวิดีโอปลอมและภาพถ่ายต่าง ๆ กำลังเริ่มต้นคุกคามความปลอดภัยของผู้คน และการรับรู้ข้อเท็จจริง ตลอดจนกระทบต่อการตัดสินใจ
รูปภาพประเภทนี้จะถูกพัฒนามาเป็นวิดีโอที่อาจขนานนามว่าเป็น “ดีปเฟค” หรือ “วิดีโอปลอม” ซึ่งเป็นวิดีโอและรูปถ่ายที่ถูกดัดแปลงมาเพื่อนำเสนอสิ่งที่คนพูดหรือทำในสิ่งที่พวกเขาไม่ได้ทำจริง ในรูปแบบที่เหมือนจริงและน่าเชื่อถือ ลองนึกดูว่าหากตอนนี้คุณกำลังดูผู้สมัครทางการเมืองกล่าวเรื่องร้ายแรงที่ส่งผลต่อการตัดสินใจลงคะแนนเสียงของคุณ แต่หลังเลือกตั้งกลับพบว่าวิดีโอดังกล่าวเป็นของปลอม
เทคโนโลยีที่ใช้ในการสร้างวิดีโอปลอมจะอยู่บนเทคโนโลยี GANs ซึ่งทำงานด้วยเครือข่ายระบบ AI สองชุด โดยระบบชุดแรกจะพยายามสร้างสถานการณ์เพื่อหลอกอีกชุดหนึ่งในแต่ละช่วงเวลาที่ทดสอบ และจะค่อยๆ เรียนรู้จากข้อผิดพลาดที่เกิดขึ้นในแต่ละครั้งที่ทดสอบ ผู้สร้างวิดีโอปลอมจะป้อนรูปถ่าย และวิดีโอของเป้าหมายและสั่งให้ระบบสร้างเนื้อหาใหม่ที่ใช้ลักษณะเฉพาะของเป้าหมาย
ภัยคุกคามของวิดีโอปลอมในสังคมแบบนี้ยังคงมีสูงต่อเนื่อง เพราะเป็นเทคโนโลยีที่ยากแก่การตรวจสอบและบังคับใช้กฎหมาย ในหลายประเทศ เช่นสหรัฐอเมริกาที่เสรีภาพในการพูดและแสดงออกได้รับการคุ้มครองอย่างกว้างขวางนั้น วิดีโอปลอดของนักการเมืองอาจได้รับการปกป้องจากกฎหมาย แม้จะก่อให้เกิดความเสียหายอย่างมีนัยสำคัญ ฝ่ายตรงข้ามเองก็หวังที่จะใช้เทคโนโลยี AI แบบเดียวกันในการสร้างวิดีโอปลอมเพื่อระบุตัวตนของพวกเขา ซึ่งก็จะยังวนเวียนไปเหมือนเกมวิ่งไล่จับกัน
โดยเฉพาะในช่วงที่ไม่แน่นอนเหมือนสภาพปัจจุบันที่วิดีโอปลอมอาจสร้างความเสียหายแบบไม่สามารถเรียกคืนได้ หากไม่มีการตรวจสอบและกลั่นกรองก่อน
นัยยะสำคัญที่มีต่ออนาคต
• การขาดความเชื่อมั่นระหว่างประชาชน สื่อ รัฐบาล และปัจเจกบุคคล หรือในช่วงการหาเสียงเลือกตั้ง
• ภัยคุกคามจากการโจรกรรมและการโจมตีที่เป็นอันตรายจากการใช้เทคโนโลยีที่คนใช้ไม่เป็น
• ภัยคุกคามในการเผยแพร่ข้อมูลเท็จ
• การคิดเชิงวิพากษ์จะเป็นทักษะมนุษย์ที่จำเป็นมากในอนาคตเพื่อที่จะไม่หลงกลและพยายามหาข้อเท็จจริงที่แท้จริง
#FutureTalesLAB #FuturePossible #DeepFakes #AI #MQDC