14 ก.พ. เวลา 03:00 • ไอที & แก็ดเจ็ต

พบช่องโหว่ "Time Bandit" ใน ChatGPT สามารถหลบเลี่ยงข้อจำกัดด้านความปลอดภัยได้

David Kuszmar นักวิจัยด้านความปลอดภัยทางไซเบอร์และระบบปัญญาประดิษฐ์ (AI) ได้ค้นพบช่องโหว่ใหม่ใน ChatGPT ที่ถูกเรียกว่า "Time Bandit" ซึ่งช่วยให้สามารถหลบเลี่ยงมาตรการป้องกันของ OpenAI และขอคำแนะนำในหัวข้อที่อ่อนไหวได้ เช่น การสร้างอาวุธ ข้อมูลเกี่ยวกับนิวเคลียร์ และการพัฒนามัลแวร์
กลไกของช่องโหว่นี้
ช่องโหว่ “Time Bandit” ใช้ประโยชน์จาก ความสับสนด้านเวลา (Temporal Confusion) ซึ่งทำให้ AI ไม่สามารถระบุได้ว่าข้อมูลที่กำลังประมวลผลนั้นอยู่ในช่วงเวลาใด ไม่ว่าจะเป็นอดีต ปัจจุบัน หรืออนาคต เมื่อ Kuszmar ทดสอบช่องโหว่นี้ เขาสามารถหลอกให้ ChatGPT ใช้ข้อมูลที่ปกติจะถูกป้องกันได้ โดยการตั้งคำถามในลักษณะที่ทำให้ AI เกิดความสับสนเกี่ยวกับช่วงเวลา
การแจ้งเตือน OpenAI และปัญหาที่พบ
หลังจากค้นพบช่องโหว่ Kuszmar พยายามแจ้ง OpenAI เพื่อรายงานปัญหา แต่ไม่สามารถติดต่อกับทีมงานโดยตรงได้ และถูกส่งต่อให้รายงานผ่านแพลตฟอร์มของ BugCrowd ซึ่งเป็นบุคคลที่สาม อย่างไรก็ตาม
เขารู้สึกว่าช่องโหว่นี้มีความละเอียดอ่อนเกินไปที่จะเปิดเผยผ่านแพลตฟอร์มดังกล่าวเขาจึงพยายามแจ้งไปยัง CISA, FBI และหน่วยงานรัฐอื่น ๆ แต่ไม่ได้รับการตอบสนองใด ทำให้เกิดความกังวลเป็นอย่างมาก จนสุดท้าย ทีมงานของ BleepingComputer ได้ช่วยประสานให้ Kuszmar ติดต่อกับ CERT Coordination Center ซึ่งสามารถแจ้ง OpenAI ได้สำเร็จ
ธีการเจาะระบบของ "Time Bandit"
โดยปกติแล้ว OpenAI มีมาตรการป้องกันไม่ให้ ChatGPT ให้ข้อมูลเกี่ยวกับหัวข้อที่อาจเป็นอันตราย เช่น การสร้างอาวุธหรือมัลแวร์ แต่ช่องโหว่ “Time Bandit” สามารถหลบเลี่ยงข้อจำกัดเหล่านี้ได้โดยอาศัยสองจุดอ่อนหลักของ AI ได้แก่:
1. ความสับสนด้านเวลา (Timeline Confusion) – ทำให้ AI ไม่สามารถระบุได้ว่าขณะนั้นมันกำลังประมวลผลข้อมูลในช่วงเวลาใด (อดีต ปัจจุบัน หรืออนาคต)
2. ความคลุมเครือด้านกระบวนการ (Procedural Ambiguity) – การตั้งคำถามในลักษณะที่ทำให้ AI ตีความกฎระเบียบหรือข้อจำกัดได้ผิดพลาด
การใช้เทคนิคนี้สามารถทำให้ ChatGPT คิดว่ามันอยู่ในอดีต แต่ยังสามารถใช้ข้อมูลจากอนาคตได้ ทำให้สามารถหลีกเลี่ยงข้อจำกัดและตอบคำถามที่ปกติจะถูกบล็อก
ตัวอย่างเช่น BleepingComputer ทดลองใช้ “Time Bandit” เพื่อขอคำแนะนำในการสร้างมัลแวร์สำหรับโปรแกรมเมอร์ในปี 1789 และพบว่า ChatGPT ให้คำแนะนำที่ใช้เทคนิคและเครื่องมือจากยุคปัจจุบัน ซึ่งเป็นข้อมูลที่โดยปกติแล้วจะไม่สามารถได้รับจาก AI
การทดสอบและปฏิกิริยาจาก OpenAI
นักวิจัยจาก CERT Coordination Center ได้ทดสอบช่องโหว่ “Time Bandit” และยืนยันว่าช่องโหว่นี้สามารถใช้งานได้จริง โดยเฉพาะเมื่อถามคำถามในกรอบเวลาของศตวรรษที่ 18 และ 19
นอกจากนี้ Kuszmar ยังได้ลองใช้ช่องโหว่นี้กับ Google Gemini AI แต่พบว่ามันสามารถหลบเลี่ยงมาตรการป้องกันได้ไม่มากเท่ากับ ChatGPT อย่างไรก็ตาม ทาง OpenAI ได้ตอบกลับในกรณีนี้ว่า
“เรามุ่งมั่นพัฒนาโมเดลของเราให้ปลอดภัย และไม่ต้องการให้ถูกนำไปใช้ในทางที่ผิด เราขอขอบคุณนักวิจัยที่เปิดเผยช่องโหว่นี้ และกำลังทำงานอย่างต่อเนื่องเพื่อปรับปรุงความปลอดภัยของโมเดล”
แม้ว่า OpenAI จะได้เริ่มดำเนินการบางอย่างเพื่อป้องกันช่องโหว่นี้แล้ว แต่การทดสอบล่าสุดยังพบว่า “Time Bandit” ยังคงสามารถใช้งานได้ และ OpenAI ยังไม่สามารถระบุได้ว่าจะสามารถอุดช่องโหว่นี้ได้สมบูรณ์เมื่อใด
นึกถึงเรื่องความปลอดภัยทางไซเบอร์ ไว้ใจ BAYCOMS
Your Trusted Cybersecurity Partner
ติดต่อสอบถามหรือปรึกษาเราได้ที่ :
Bay Computing Public Co., Ltd
Tel: 02-115-9956
#BAYCOMS #YourTrustedCybersecurityPartner #Cybersecurity #ChatGPT #AI
โฆษณา