Blockdit Logo
Blockdit Logo (Mobile)
สำรวจ
ลงทุน
คำถาม
เข้าสู่ระบบ
มีบัญชีอยู่แล้ว?
เข้าสู่ระบบ
หรือ
ลงทะเบียน
Deemmi Consultant
•
ติดตาม
27 เม.ย. เวลา 05:08 • วิทยาศาสตร์ & เทคโนโลยี
DEEMMI CONSULTANT CO., LTD.
📌 "𝐇𝐚𝐥𝐥𝐮𝐜𝐢𝐧𝐚𝐭𝐢𝐨𝐧" หรือการเกิดภาพหลอนของ AI คืออะไร
Generative AI อย่าง ChatGPT หรือ Bard AI มีความสามารถในสร้างผลงานต่าง ๆ มากมาย ตั้งแต่ภาพถ่าย บทความ บทเพลง ไปจนถึงวิดีโอ แต่ปัญหาใหญ่ของเจ้า AI ที่หลายคนไม่รู้ ก็คือ "Hallucination" หรือการเกิดภาพหลอนของ AI ซึ่งก็คือการที่พวกมันแสดงคำตอบให้เรา โดยที่ไม่เป็นความจริงแต่อย่างใด
1.ทำไม Generative AI ถึงเกิด Hallucination ได้
- ข้อมูลไม่เพียงพอ หรือเกิดจากอคติของข้อมูล (70% ของข้อมูลการฝึกโมเดล AI มาจากแหล่งตะวันตก ดังนั้นจึงมีโอกาสผิดพลาดในเรื่องของแหล่งข้อมูลได้ในบางคำถาม)
- ความซับซ้อนของโลก โลกจริงมีความซับซ้อน แค่ข้อมูลที่มีอาจไม่เพียงพอให้โมเดลเข้าใจ
- การวัดผลไม่ครอบคลุม AI อาจวัดผลแค่บางบริบทของเนื้อหาในคำถาม เช่น ความ "สวยงาม" หรือ "ดูดี" ซึ่งทำให้เกิดความผิดพลาดในการตอบคำถามได้
2. ตัวอย่าง AI Hallucination:
- สร้างรูปคน "ที่ไม่มีอยู่จริง" แปลภาษาผิดพลาด เขียนข่าวปลอม
3. ผลกระทบของ Hallucination มีอะไรบ้าง
- เมื่อ AI ให้ข้อมูลเท็จและผู้ใช้งานไม่ได้ตรวจสอบความจริงก่อนนำไปใช้ อาจส่งผลกระทบในการดำเนินงานของผู้ใช้งาน ทำให้สูญเสียความน่าเชื่อถือได้
4. วิธีป้องกัน Hallucination ของ AI มีอะไรบ้าง
- ตรวจสอบผลลัพธ์อย่างละเอียด โดยนำคำตอบที่ได้ไปตรวจสอบกับแหล่งอ้างอิงที่น่าเชื่อถือเพิ่มเติมทุกครั้ง
เมื่อเรียนรู้ข้อจำกัดของการใช้ AI แล้ว
อย่าลืมตรวจสอบผลลัพธ์ก่อนแชร์ทุก ๆ ครั้งน้าาา
สนใจเรียนรู้เพิ่มเติม อ่านต่อ
https://www.deemmi.com/seven-limitation-chatgpt/
ต้องการปรึกษา ทักหาเราได้ที่
Email:
info@deemmi.com
|
deemmi.com
| Line: (@) Deemmi
ใครเห็นว่าโพสต์นี้เป็นประโยชน์ ฝากกด Like กด Share เพื่อเป็นกำลังใจให้ทีม Deemmi น้าาา
#AI #OnlineMarketing #2024Trends #MarketingTrends #FutureOfMarketing #AIRevolutionสนใจเรื่อง
เทคโนโลยี
marketing
startup
1 บันทึก
1
โฆษณา
ดาวน์โหลดแอปพลิเคชัน
© 2024 Blockdit
เกี่ยวกับ
ช่วยเหลือ
คำถามที่พบบ่อย
นโยบายการโฆษณาและบูสต์โพสต์
นโยบายความเป็นส่วนตัว
แนวทางการใช้แบรนด์ Blockdit
Blockdit เพื่อธุรกิจ
ไทย