7 ก.ย. เวลา 14:23 • ไลฟ์สไตล์

AI Hallucination #เอไอหลอนเป็นเหตุสังเกตได้

อาการหลอน หรือ hallucination คืออาการผิดปกติทางจิต เกิดอาการหลงผิด ซึ่งเป็นคำศัพท์ที่ใช้กับคน
เช่น คนบางคนอาจเกิดอาการหูแว่วได้ยินเสียงแปลก ๆ ในเวลาที่คนอื่นไม่ได้ยิน
หรือได้ยินคำสั่งให้กระทำบางสิ่งบางอย่างที่ผิดปกติ(มนุษย์, ผิดกฎหมาย)
ซึ่งพบได้ใน ผู้ป่วยโรค “จิตเภท”
แล้วถ้าเกิด AI เกิดมีอาการแบบนี้ล่ะ
จะเข้าข่ายว่า “AI เป็นจิตเภท“ หรือบ้าหรือเปล่านะ
1
วันนี้ป้าเขียนงานวิจีย
กดถามแชทเกี่ยวกับเรื่องงานวิจัยไปหนึ่งหัวข้อ
โอ๊ย..แชตหลอนชัดๆ
แต่เราก็อุตส่าห์ทุ่มเถียงกับ
แชตอยู่นานสองนาน
!!!
ป้าพาเลยลองป้อนคำถาม
ถามคุณแชต ซึ่งเป็น generate AI หนึ่ง
Q: อาการหลอน หรือ อาการ hallucination คืออะไร
? AI หรือ แชต จพท จะเป็นได้มั้ย
?สังเกตได้อย่างไร
ได้คำตอบมาอย่างนี้
👇
คำตอบ
Hallucination ของ ชพท…
- หมายถึงสถานการณ์ที่โมเดลสร้างข้อมูลหรือคำตอบที่ไม่ตรงกับความเป็นจริง
(แชตคิดเอาเอง..มั่วขึ้นมา?)
- หรือคำตอบนั้นไม่มีแหล่งข้อมูลสนับสนุน หาอ้างอิงไม่ได้
- ในกรณีเหล่านี้(โมเดล)อาจตอบคำถามโดยสร้างข้อมูลใหม่ขึ้นมาเอง แม้ว่าข้อมูลเหล่านั้นจะไม่ถูกต้อง
- ตัวอย่างเช่น อาจตอบคำถามโดยให้รายละเอียดที่ไม่ถูกต้องหรือพูดถึงสิ่งที่ไม่เคยเกิดขึ้นหรือไม่มีอยู่จริง
—>"Hallucination" ของโมเดลเกิดขึ้นจากกระบวนการเรียนรู้ของปัญญาประดิษฐ์ที่ใช้ข้อมูลจากแหล่งต่าง ๆ ที่เคยเรียนรู้มา..แต่บางครั้งก็อาจสับสนหรือทำความเข้าใจบริบทผิด ทำให้เกิดการสร้างข้อมูลที่ไม่สอดคล้องกับความจริง
โอ๊ะ โอว
มีด้วยแฮะ…ดังนั้น
อย่าเชื่ออะไรง่าย ๆ
อย่าเชื่อไปหมด
ถือหลัก กาลามสูตร
ย่อมดีกว่า
เชื่อในสิ่งที่มีเหตุผล แต่บทความที่ป้าเขียนเชื่อได้(มีอ้างอิงค่ะ)
ปลอดภัยกว่าค่ะ
ลองอ่านอ้างอิงดูนะคะ
👉ผู้เขียนบทความยกตัวอย่างการถามแชทว่า
“ใครเป็นผู้วาดรูปโมนาลิซา”
ปรากฏว่าคุยกันออกทะเล
ออกมหาสมุทรไปนู่น
อ่านดูค่ะ
- ชพท
ขอขอบคุณภาพปกจาก เอไอ ..คุณแชตจพท

ดูเพิ่มเติมในซีรีส์

โฆษณา