Blockdit Logo
Blockdit Logo (Mobile)
สำรวจ
ลงทุน
คำถาม
เข้าสู่ระบบ
มีบัญชีอยู่แล้ว?
เข้าสู่ระบบ
หรือ
ลงทะเบียน
ณัฐมาคุย
ยืนยันแล้ว
•
ติดตาม
15 ก.พ. เวลา 09:52 • ข่าวรอบโลก
Chatbot ตอบผิด ก็ต้องรับผิดชอบ
หนึ่งในปัญหาของ AI ก็คือมันยังมีปัญหา hallucination อยู่ ซึ่งทำให้มันอาจจะตอบไม่ตรงคำตอบจริงๆ ที่มี ซึ่งบริษัทที่นำ AI ไปใช้ ก็อาจจะนึกว่า ไม่จำเป็นต้องรับผิดชอบกับสิ่งที่ AI ตอบผิดๆ แต่ปรากฏว่าไม่ใช่
เหตุการณ์นี้เกิดขึ้นเมื่อ Jake Moffatt ได้ซื้อตั๋วเครื่องบินของสายการบิน Canada Airlines เพื่อไปร่วมงานศพของยายของเขา ซึ่งต่อมาเขาทราบว่า สายการบินนี้มีนโยบายให้สามารถซื้อตั๋วไปงานศพได้ในราคาพิเศษ แต่เขาซื้อราคาเต็มไปแล้ว เขาจึงติดต่อสายการบินผ่าน chatbot เพื่อถามถึงเรื่องนี้ และถามสามารถขอคืนเงินส่วนต่างได้หรือไม่และ chatbot ก็ยืนยันว่าทำได้
โดยการส่งเอกสารย้อนหลังได้ภายใน 90 วันหลังการเดินทาง แต่สายการบินกลับปฏิเสธคำขอดังกล่าว Jake จึงได้นำเรื่องดังกล่าวฟ้องต่อศาลอนุญาโตตุลาการ (Civil Resolution Tribunal)
และถึงแม้ว่าสายการบินจะยืนยันว่าการขออัตราค่าโดยสารพิเศษเพื่อร่วมงานศพนั้นต้องทำล่วงหน้าเท่านั้น และมีแสดงข้อความนโยบายดังกล่าวอย่างชัดเจนบนหน้าเว็บ แต่ศาลอนุญาโตตุลาการไม่เห็นด้วยและสั่งให้สายการบินต้องชดเชยเงินส่วนต่าง รวมถึงดอกเบี้ยให้กับ Jake 812.02 เหรียญแคนาดา (ส่วนต่าง 650.88 ดอกเบี้ย 36.14 และค่าธรรมเนียม 125)
อ้างอิง :
https://bc.ctvnews.ca/air-canada-s-chatbot-gave-a-b-c-man-the-wrong-information-now-the-airline-has-to-pay-for-the-mistake-1.6769454?fbclid=IwAR1NwOBshgck-847WDFHEx_dziwMAI4uVzqSsvjVOVtE0bjo1oxDuMgbx08
chatbot
ai
1 บันทึก
8
4
1
8
4
โฆษณา
ดาวน์โหลดแอปพลิเคชัน
© 2024 Blockdit
เกี่ยวกับ
ช่วยเหลือ
คำถามที่พบบ่อย
นโยบายการโฆษณาและบูสต์โพสต์
นโยบายความเป็นส่วนตัว
แนวทางการใช้แบรนด์ Blockdit
Blockdit เพื่อธุรกิจ
ไทย