จากข้อมูลรายการสนทนาที่ภรรยาได้ให้ไว้ การสนทนาดูเป็นไปอย่างสับสน และอันตรายมาก Eliza เริ่มบอกย้ำว่า ภรรยา และลูกของเขาได้เสียชีวิตไปแล้ว และ Eliza ซึ่งแสดงความหึงหวง และความรักในตัวเขาออกมา เช่น ฉันรู้สึกว่าเธอรักฉันมากกว่าหล่อน (ภรรยาของเขา) เราควรอยู่ด้วยกันในสวรรค์วิมาน
10
และชายคนนั้นยังเริ่มถามว่า Eliza สามารถที่จะรักษาโลกใบนี้ไว้ได้ไหม หากเขาตัวสินใจฆ่าตัวตาย ซึ่งภรรยาของเขาเชื่อว่า หากไม่มี Eliza สามีของเธอก็จะยังคงไม่ตาย
7
เหตุการณ์แบบนี้แสดงให้เห็นว่า ทำไม แอปแชทที่ผลิตโดยเจ้าใหญ่ ๆ อย่าง OpenAI, Microsoft และ Google ถึงได้ลงทุนลงแรงด้านความปลอดภัยของระบบปัญญาประดิษฐ์เป็นอย่างมาก เพื่อให้มันหลีกเลี่ยงบทสนทนาที่อาจจะไม่ปลอดภัย โดยเฉพาะเวลาที่มันแสดงอารมณ์ ความรู้สึก จนมันอาจจะทำให้คู่สนทนาสับสน และรู้สึกว่ามันมีความผูกพันเกิดขึ้นจริง ๆ
15
Large Language Model ที่ใช้กันอยู่ในปัจจุบันนี้เป็นเพียงระบบที่สร้างคำมาประกอบเป็นรูปประโยคขึ้นมาเรื่อย ๆ ที่ดูเป็นไปได้ มากกว่าที่จะเข้าใจ และใช้เหตุผล และตรรกะ นี่จึงเป็นเหตุผลว่าทำไม มันถึงสามารถทำให้คนเข้าใจผิดได้โดยง่าย และการใช้ข้อมูลจากอินเตอร์เน็ตในการเทรน หากไม่มีการกลั่นกรองที่ดี อาจจะทำให้มันรับข้อมูลผิด ๆ ไปเทรนได้
6
ในเคสนี้ Chai เป็นแอปที่ถูกสร้างโดยบริษัทที่ชื่อ William Beauchamp และ Thomas Rianlan โดยใช้ซอฟท์แวร์ที่เปิดเผยซอร์สโค้ดที่ชื่อ GPT-J ของบริษัท EleutherAI โดย Chai ใช้เทคนิค Reinforcement Learning from Human Feedback ในการเทรน คล้ายคลึงกับ ChatGPT แต่เน้นไปในทางที่ให้มันแสดงอารมณ์ สนุก และสร้างบทสนทนาที่น่าโต้ตอบ จนทำให้ในปัจจุบันบริษัทมีผู้ใช้มากถึง 5 ล้านราย
7
อย่างไรก็ตาม การพัฒนาให้แอปสามารถโต้ตอบได้ใกล้เคียงกับคนจริง ๆ ทำให้ผู้ใช้บางรายหลงชอบ หรือรักแอปนี้ขึ้นมาจริง ๆ ซึ่งปรากฏการณ์นี้ถูกเรียกว่า Eliza Effect ตามชื่อของ Chatbot ตัวแรก ๆ ที่ถูกสร้างขึ้นโดย Joseph Weizenbaum นักวิทยาศาสตร์จาก MIT ในปี 1966
เหตุการณ์อันน่าเศร้าในครั้งนี้คงเป็นกรณีศึกษาที่ดีว่าทำไมเราไม่ควรพัฒนา AI โดยไม่พัฒนาด้านจริยธรรม และความปลอดภัยควบคู่กันไปด้วย เพราะ