8 ก.ย. เวลา 11:24 • การศึกษา
Ai By Shoper Gamer

AI hallucination คืออะไร

โดย
AI Hallucination หรือ ที่เรียกกันติดปากว่า "AI หลอน" นั้น หมายถึงปรากฏการณ์ที่โมเดล AI สร้างข้อมูล ข้อเท็จจริง หรือเนื้อหาที่ไม่ถูกต้อง ไม่เป็นความจริง หรือไม่สมเหตุสมผลออกมา โดยที่โมเดล AI นั้นเชื่อมั่นว่าสิ่งที่สร้างขึ้นมานั้นถูกต้อง ซึ่งอาจทำให้ผู้ใช้เข้าใจผิดและได้รับข้อมูลที่ไม่ถูกต้อง
  • ​อาการเป็นอย่างไร
○ สร้างข้อมูลที่ไม่มีอยู่จริง อาจเป็นการสร้างข้อมูลขึ้นมาใหม่ทั้งหมด หรือการดัดแปลงข้อมูลที่มีอยู่จริงให้ผิดเพี้ยนไป
○ ตอบคำถามนอกเหนือขอบเขตข้อมูลที่ได้รับการฝึกฝน
โมเดลอาจพยายามตอบคำถามที่ซับซ้อนเกินไป หรือคำถามที่ไม่มีข้อมูลเพียงพอในการตอบ
○ สร้างความเชื่อมโยงที่ไม่สมเหตุสมผล
โมเดลอาจสร้างความเชื่อมโยงระหว่างข้อมูลที่ไม่เกี่ยวข้องกัน หรือสร้างเหตุผลที่ไม่สอดคล้องกับหลักฐานที่มีอยู่
  • ​ปรเภทของ AI hallucination
○ Factual hallucination
การสร้างข้อมูลที่ผิดเพี้ยนเกี่ยวกับข้อเท็จจริง เช่น การระบุปีเกิดของบุคคลผิด หรือการระบุชื่อประเทศที่ไม่ถูกต้อง
○ Logical hallucination
การสร้างเหตุผลหรือข้อสรุปที่ไม่สอดคล้องกับหลักฐานที่มีอยู่ เช่น การสรุปว่า A เป็นสาเหตุของ B โดยไม่มีหลักฐานสนับสนุน
○ Referential hallucination
การอ้างอิงแหล่งที่มาที่ไม่มีอยู่จริง หรือการอ้างอิงข้อมูลที่ผิดพลาด
  • ​การแก้ไข (สำหรับผู้ใช้)
○ ตรวจสอบข้อมูล
ก่อนนำข้อมูลที่ได้จาก AI ไปใช้งาน ควรตรวจสอบความถูกต้องจากแหล่งข้อมูลอื่นๆ ที่น่าเชื่อถือเสมอ
○ ระบุขอบเขตของ AI
เข้าใจว่า AI มีข้อจำกัด และไม่สามารถให้ข้อมูลที่ถูกต้องได้ในทุกเรื่อง
○ ใช้คำถามที่ชัดเจนและเฉพาะเจาะจง
การถามคำถามที่ชัดเจนจะช่วยลดโอกาสที่ AI จะเข้าใจผิดและสร้างข้อมูลที่ไม่ถูกต้อง
○ เลือกใช้โมเดล AI ที่มีคุณภาพ
โมเดล AI ที่ได้รับการฝึกฝนด้วยข้อมูลที่มีคุณภาพและมีการปรับปรุงอย่างต่อเนื่อง จะมีโอกาสสร้างข้อมูลที่ถูกต้องแม่นยำมากกว่า
  • ​การแก้ไข (สำหรับผู้พัฒนา)
2
1) ปรับปรุงคุณภาพและปริมาณของข้อมูลฝึกสอน
1
○ ข้อมูลที่หลากหลาย
ข้อมูลฝึกสอนควรครอบคลุมหลากหลายรูปแบบ ภาษา และบริบท เพื่อให้โมเดลเรียนรู้รูปแบบที่ซับซ้อนและสามารถตอบสนองต่อคำถามได้อย่างหลากหลาย
○ ข้อมูลที่ถูกต้อง
ข้อมูลที่ใช้ฝึกสอนต้องมีความถูกต้องแม่นยำและเป็นปัจจุบัน การใช้ข้อมูลที่ผิดพลาดหรือล้าสมัยจะส่งผลให้โมเดลสร้างข้อมูลที่ผิดพลาดเช่นกัน
○ ข้อมูลที่สมดุล
ข้อมูลฝึกสอนควรมีความสมดุลในแง่ของประเภทของข้อมูล เพื่อป้องกันไม่ให้โมเดลมีอคติไปในทิศทางใดทิศทางหนึ่ง
2) พัฒนาเทคนิคการฝึกสอน
○ Reinforcement Learning from Human Feedback (RLHF)
การใช้เทคนิคนี้จะช่วยให้โมเดลสามารถเรียนรู้จากปฏิสัมพันธ์กับมนุษย์ และปรับปรุงการตอบสนองให้สอดคล้องกับความคาดหวังของมนุษย์มากขึ้น
(ปุ่ม👍และ ปุ่ม👎)
1
○ Fine-tuning
การปรับแต่งโมเดลที่ถูกฝึกสอนมาแล้วบนชุดข้อมูลเฉพาะเจาะจง จะช่วยให้โมเดลมีความสามารถในการตอบคำถามที่เกี่ยวข้องกับโดเมนนั้นได้ดีขึ้น
○ Regularization
การใช้เทคนิค Regularization เช่น L1/L2 regularization จะช่วยลดความซับซ้อนของโมเดล และป้องกันปัญหา overfitting ซึ่งเป็นสาเหตุหนึ่งที่ทำให้เกิด AI Hallucination
3) ออกแบบสถาปัตยกรรมของโมเดล
○ Attention Mechanism
การใช้ Attention Mechanism จะช่วยให้โมเดลสามารถให้ความสำคัญกับส่วนที่เกี่ยวข้องของข้อมูลมากขึ้น และลดการสร้างข้อมูลที่ไม่เกี่ยวข้อง
○ Contextual Understanding
การออกแบบโมเดลให้มีความสามารถในการเข้าใจบริบทของคำถาม จะช่วยให้โมเดลสามารถตอบคำถามได้อย่างถูกต้องและมีความหมายมากขึ้น
4) ตรวจสอบและประเมินผล
○ Human Evaluation
การให้มนุษย์ประเมินผลลัพธ์ที่ได้จากโมเดล จะช่วยระบุจุดบกพร่องและปรับปรุงโมเดลให้ดีขึ้น
○ Automatic Evaluation
การใช้เมตริกในการประเมินผล เช่น BLEU, ROUGE จะช่วยวัดประสิทธิภาพของโมเดลได้อย่างเป็นปริมาณ
5) สร้างระบบตรวจสอบข้อเท็จจริง
○ Fact-Checking
การสร้างระบบตรวจสอบข้อเท็จจริงภายในโมเดล จะช่วยให้โมเดลสามารถตรวจสอบความถูกต้องของข้อมูลที่สร้างขึ้นมาได้เอง
○ Source Attribution
การระบุแหล่งที่มาของข้อมูล จะช่วยให้ผู้ใช้สามารถตรวจสอบความถูกต้องของข้อมูลได้ง่ายขึ้น
Credit :
👇
  • ​https://techsauce.co/tech-and-biz/ai-hallucinations-why-ai-is-not-perfect
  • ​https://www.thailibrary.in.th/2024/06/04/ai-hallucination/
  • ​https://www.facebook.com/share/6TBMRWcxJiGGdoXH/?mibextid=xfxF2i
  • ​https://www.blockdit.com/posts/65cddee08afc4bbd4ca19c4b
  • ​https://www.ibm.com/topics/ai-hallucinations
  • ​https://cloud.google.com/discover/what-are-ai-hallucinations
✏️ Shoper Gamer

ดูเพิ่มเติมในซีรีส์

โฆษณา