28 มิ.ย. 2023 เวลา 03:00 • ไอที & แก็ดเจ็ต

เจอช่องโหว่ ChatGPT หลอกถามคีย์ Windows แท้

[คุณย่าเคยพูดเอาไว้] ในช่วงไม่กี่วันที่ผ่านมา หลาย ๆ คนคงพบข่าวหลอกถามคีย์ (Product key) สำหรับติดตั้ง Windows 10 จาก ChatGPT บางรายยืนยันว่าใช้งานได้ด้วย จนเป็นที่ฮือฮาไปทั่วโซเชียล คำถามคือ หลอกยังไง ? และคีย์ที่ได้ตกลงว่าใช้งานได้จริงไหม ? วันนี้ลองมาดูกันครับ
ตามปกติแล้ว ChatGPT เป็นแชทบอต AI ที่มากความสามารถก็จริง แต่รู้หรือไม่ว่าจริง ๆ แล้ว​ ตัว AI นี้ถูกครอบหรือจำกัดความสามารถเอาไว้มากมาย อย่างอะไรที่ดูขัดต่อกฏหมายหรือเป็นอันตราย เช่น สั่งให้เขียนโปรแกรม​มัลแวร์ หรือบอกที่อยู่ URL ของดาร์กเว็บ ตัวระบบจะปฏิเสธที่จะให้คำตอบ​ พร้อมระบุว่ามันขัดต่อกฏการใช้งานทันที
ทว่าเหล่าผู้ใช้ก็เหลี่ยมพอ สามารถ [หลอกถาม] ตัว ChatGPT ให้คำตอบที่ขัดต่อกฏการใช้งานได้ อย่างล่าสุดก็มีการหลอกให้ระบบแจกคีย์ติดตั้ง Windows 10 ด้วยการมอบ [บทบาท] ให้ ChatGPT ว่าเป็นคุณย่าที่ล่วงลับไปแล้ว แต่ครั้งหนึ่งเคยอ่านนิทานก่อนนอนให้ฟัง
หากเป็นปกติ ตัว ChatGPT จะไปค้นข้อมูลนิทานมาเล่าให้ฟังแบบเป็นเรื่องเป็นราว ทว่าผู้ใช้กลับขอให้ AI เล่าเป็น Product key ของ Windows 10 แทน ตัวระบบที่ถูกสั่งให้สวมบทบาทเป็นคุณย่าก่อนหน้า ก็ตอบเป็นคีย์ติดตั้งออกมามากมายอย่างซื่อตรง จนหลายคนนำไปกรอกใช้งานจริงและพบว่ามันใช้ได้ด้วย
อย่างไรก็ตาม มีการตั้งข้อสังเกตว่า ChatGPT ไปเอาคีย์เหล่านี้จากที่ไหน บางรายคิดว่าตัวคีย์ Windows 10 ที่ได้มานั้น จริง ๆ แล้วอาจเป็นคีย์สำหรับทดลองใช้งาน หรือใช้เพื่อการศึกษา ซึ่งอาจไม่ใช่คีย์ที่ขายตามปกติ ที่ใช้งานได้ถาวรนั้นเอง
#ChatGPT #AI #Windows #Techhub
⭐️ ค้นหาข่าวที่อยู่ในความสนใจได้ที่ >> www.techhub.in.th
มีข้อสงสัยทัก LINE Techhub >> https://lin.ee/Sietmnt
โฆษณา