15 ก.พ. เวลา 09:52 • ข่าวรอบโลก

Chatbot ตอบผิด ก็ต้องรับผิดชอบ

หนึ่งในปัญหาของ AI ก็คือมันยังมีปัญหา hallucination อยู่ ซึ่งทำให้มันอาจจะตอบไม่ตรงคำตอบจริงๆ ที่มี ซึ่งบริษัทที่นำ AI ไปใช้ ก็อาจจะนึกว่า ไม่จำเป็นต้องรับผิดชอบกับสิ่งที่ AI ตอบผิดๆ แต่ปรากฏว่าไม่ใช่
เหตุการณ์นี้เกิดขึ้นเมื่อ Jake Moffatt ได้ซื้อตั๋วเครื่องบินของสายการบิน Canada Airlines เพื่อไปร่วมงานศพของยายของเขา ซึ่งต่อมาเขาทราบว่า สายการบินนี้มีนโยบายให้สามารถซื้อตั๋วไปงานศพได้ในราคาพิเศษ แต่เขาซื้อราคาเต็มไปแล้ว เขาจึงติดต่อสายการบินผ่าน chatbot เพื่อถามถึงเรื่องนี้ และถามสามารถขอคืนเงินส่วนต่างได้หรือไม่และ chatbot ก็ยืนยันว่าทำได้
โดยการส่งเอกสารย้อนหลังได้ภายใน 90 วันหลังการเดินทาง แต่สายการบินกลับปฏิเสธคำขอดังกล่าว Jake จึงได้นำเรื่องดังกล่าวฟ้องต่อศาลอนุญาโตตุลาการ (Civil Resolution Tribunal)
และถึงแม้ว่าสายการบินจะยืนยันว่าการขออัตราค่าโดยสารพิเศษเพื่อร่วมงานศพนั้นต้องทำล่วงหน้าเท่านั้น และมีแสดงข้อความนโยบายดังกล่าวอย่างชัดเจนบนหน้าเว็บ แต่ศาลอนุญาโตตุลาการไม่เห็นด้วยและสั่งให้สายการบินต้องชดเชยเงินส่วนต่าง รวมถึงดอกเบี้ยให้กับ Jake 812.02 เหรียญแคนาดา (ส่วนต่าง 650.88 ดอกเบี้ย 36.14 และค่าธรรมเนียม 125)
โฆษณา