Blockdit Logo
Blockdit Logo (Mobile)
สำรวจ
ลงทุน
คำถาม
เข้าสู่ระบบ
มีบัญชีอยู่แล้ว?
เข้าสู่ระบบ
หรือ
ลงทะเบียน
OldEXP
•
ติดตาม
25 มี.ค. 2020 เวลา 14:04 • ปรัชญา
หุ่นยนต์แสนอบอุ่น?? : AI
หุ่นยนต์จะคิดและแสดงได้เหมือนมนุษย์ได้ไหม?
Coldest Human - Warmest Robot
ลองสมมุติดูว่าถ้าหุ่นยนต์ที่คิดทำงานเป็นระบบถูกป้อนข้อมูล
แต่สามารถพูดแสดงผลออกมา เหมือนมนุษย์ได้จะเกิดอะไรขึ้น?
จะเกิดอะไรขึ้นถ้าหุ่นยนต์สามารถพูดเลียนแบบได้คล้ายมนุษย์
สามารถตบตามนุษย์ได้ว่า "ฉันคือมนุษย์" ซึ่งมันเกิดขึ้นแล้ว...
แต่ไม่ 100% เพราะอะไรเราต้องมาดูข้อมูลหลายๆข้อมูลกัน
The Turing Test : Imitation Game
การทดสอบของเทอริ่ง : เกมแห่งการตบตา
Alan Turing ( อลัน เทอริ่ง ) ได้เสนอการทดลองแบบหนึ่ง
ที่ชื่อว่า "Imitation Game - เกมแห่งการตบตา" ในปี 1950
เกมการทดลองในช่วงแรกๆนั้น เป็นการที่เอามนุษย์ 3 คน
นำไปแยกกันอยู่ในแต่ละห้องโดยที่ทั้ง 3 คนนั้นไม่รู้ว่าใคร
มีหน้าตาลักษณะเพศเป็นอย่างไร และแต่ละคนมีหน้าที่ต่างกัน
สมมุติว่า
คนที่ 1 - เพศชาย
คนที่ 2 - เพศหญิง
คนที่ 3 - คนที่ต้องทายว่าคนไหนเป็นเพศไหน
โดยคนที่ 1 หรือ 2 ต้องแกล้งหลอกว่าตนเองนั้นเป็นเพศอื่น
และการติดต่อสื่อสารนั้นเป็นการติดต่อกันผ่านตัวอักษร
เหมือนการแชทส่งข้อความกันในกลุ่มไลน์
ตัวอย่างเช่น
ชาย ( ชายแท้ ) - ชาย( หญิงแกล้งเป็นชาย )
หญิง ( ชายแกล้งเป็นหญิง ) - หญิง ( หญิงแท้ )
โดยคนที่สามนั้นต้องตัดสินแยกแยะให้ถูกว่า
ใครเป็นชาย ใครเป็นหญิงให้ได้ ซึ่งก็มีประมาณนี้
แต่ต่อมาก็มีการเปลี่ยนจากการทายเพศเป็นการทายว่า
"ใครเป็นหุ่นยนต์ ใครเป็นคน?"
The Turing Test - Imitation Game
ตัวแปรแทบจะเหมือนกันกับข้างต้นแต่เปลี่ยนแค่ หนึ่งในสอง
( หรือมากกว่านั้นแต่เพื่อการอธิบายง่ายๆจะข้อพูดเพียงแค่สอง )
คนหนึ่งเป็น มนุษย์ธรรมดา มีชีวิตและจิตใจจริงๆ
อีกคนเป็น หุ่นยนต์ที่ถูกโปรแกรมให้พูดเหมือนมนุษย์
ส่วนคนตัดสินมีหน้าที่ถามคำถาม และอ่านคำตอบของทั้งคู่
ซึ่งเป้าหมายของการทดลองนี้ คือ
"ถ้าคนตัดสิน แยกแยะไม่ออกว่าคนที่แชท ( ที่เป็นหุ่นยนต์ )
ด้วยเป็นหุ่นยนต์หรือมนุษย์ จะถือว่าหุ่นยนต์ตบตาได้สำเร็จ"
ซึ่งมีหุ่นยนต์ที่สามารถตบตาได้สำเร็จ เพียงแค่
2 โปรแกรม คือ ELIZA กับ PARRY
ซึ่งเราจะขอแค่ยกตัวอย่างของ ELIZA
การสนทนาของโปรแกรม ELIZA
ELIZA Imitation
Eliza เป็นโปรแกรมจำลองนักจิตบำบัดวิธี Rogerian
โปรแกรมต้นแบบได้ถูกคิดค้นอธิบาย
โดย โจเซฟ เวเซนบวม ในปี 1966
และถูกนำมาทำใหม่
โดย นอร์เบิร์ต แลนด์สไตนเนอร์ ในปี 2005
ELIZA : มีอะไรกลุ้มใจไหมคะ?
YOU : ผู้ชายเนี้ยมันก็เหมือนกันหมดเนอะ
ELIZA : แล้วมันเกี่ยวกันยังไงคะ? ช่วยอธิบายหน่อย
YOU : พวกผู้ชายชอบทำอะไรกวนใจพวกกับเรื่องอะไรก็ได้
ELIZA : ช่วยอธิบายยกตัวอย่างให้เจาะจงหน่อยได้ไหมคะ?
YOU : รู้ไหม...แฟนฉันทำให้ฉันต้องมาที่นี่
ELIZA : การที่แฟนของคุณอยากให้พาคุณมาที่นี่
นั้นสำคัญสำหรับคุณไหมคะ?
YOU : แฟนฉันชอบบอกว่าฉันซึมเศร้าตลอดเลย
ELIZA : ฉันเสียใจที่ได้ยินว่าคุณกำลังซึมเศร้านะ
YOU : ใช่มันจริง ฉันไม่สุขเลย
ELIZA : ช่วยเล่ามาหน่อยได้ไหมว่าอะไรทำให้
คุณไม่มีความสุขได้ไหมคะ?
ความรู้สึกในการสนทนากับโปรแกรม ELIZA นั้นให้
อารมณ์เหมือนคุยกับนักจิตบำบัดที่ถามถึงสถานการณ์
สภาพจิตใจของคุณเพื่อค้นหาว่ามีปัญหาอะไรและ
ให้ผู้ที่ถูกปรึกษานั้นได้สืบเสาะค้นหาสภาพจิตใจด้วยตัวเอง
นักจิตบำบัดมีหน้าที่แค่ถามและวิเคราห์อธิบายสิ่งที่ได้ยิน
เพียงเท่านั้นซึ่งมันก็คือวิธีที่เรียกว่า Rogerian
ผลสรุปก็คืออาจมีหลายโปรแกรมที่สามารถตบตาคนให้
หลงเชื่อว่าโปรแกรมนั้นคือมนุษย์จริงๆ
แต่ก็มีอีกหลายโปรแกรมเช่นกันที่ไม่สามารถจะหลอก
มนุษย์ได้เช่นกัน
แต่ทั้งสองผลลัพธ์นั้นไม่ใช่สิ่งสำคัญ สิ่งสำคัญคือ
"หุ่นยนต์หรือโปรแกรมสามารถคิดเองได้ไหม
สามารถคิดเหมือนที่มนุษย์คิดได้รึเปล่า?"
เราต้องมาดูอีกการทดลองหนึ่งเพื่อมาประกอบความเข้าใจ
The Chinese Room
ห้องปิดกับภาษาจีน
สมมุติว่าเราอยู่ในห้องปิดพร้อมกับหนังสือภาษาจีน
ซึ่งหนังสือนี้จะบอกเป็นเหมือนคำสั่งคอมพิวเตอร์ว่า
ถ้าเห็นประโยค - คุณพูดภาษาจีนได้ไหม?
ให้ตอบว่า - สามารถพูดภาษาจีนได้
( ให้จินตนาการว่ากำลังตอบเป็นภาษาจีน )
และในห้องก็จะมีกระดาษชิ้นเล็กที่มีตัวอักษรภาษาจีน
ซึ่งเอาไว้สำหรับมาเรียงกันเพื่อสร้างประโยค
ซึ่งคนในห้องปิดตายนั้นไม่ได้รู้ภาษาจีนเลย
แต่ต้องทำตามคำสั่งที่หนังสือภาษาจีนบอก
และเอากระดาษชิ้นเล็กๆสร้างประโยคเพื่อตอบกลับ
The Chinese Room
ซึ่งวิธีการมีดังนี้ และ ให้ดูตามภาพประกอบด้านบน
คนที่อยู่ด้านนอกนั้นสามารถเข้าใจภาษาจีนได้
หรือ เป็นเจ้าของภาษา ภาษาแม่ของเขาเป็นภาษาจีน
คนที่อยู่ด้านในไม่รู้ภาษาจีนเลย มีหนังสือคำสั่งภาษาจีน
กับกระดาษตัวอักษรภาษาจีนเพื่อสร้างประโยคตอบกลับ
คนด้านนอกมีหน้าที่ถามคำถามภาษาจีนให้กับคนที่อยู่ด้านใน
ซึ่งสมมุติคนด้านนอกเขียนลงในกระดาษแล้วถามว่า
"พูดภาษาจีนได้ไหม?"
( 你会说汉语吗 )
คนด้านในก็จะพยายามเปิดหาประโยคที่คล้ายกับกระดาษ
ที่ได้รับจากด้านนอก เมื่อเจอประโยคคล้ายๆกันเสร็จแล้ว
ก็นำกระดาษตัวอักษรมาสร้างประโยคส่งกลับหาคนด้านนอก
ซึ่งประโยคที่ตอบกลับไปก็คือ
"พูดภาษาจีนได้" หรืออาจจะเป็น "จีนภาษาได้พูด"
( 我会说中文 หรืออาจจะเป็น 会我说文中 )
คนด้านนอกมีหน้าที่ตัดสินว่าคนนี้สามารถสร้างประโยค
ภาษาจีนได้ถูกต้อง เป็นเจ้าของภาษาหรือไม่?
ซึ่งผลจะมี 2 อย่างคือ ถูกต้องใช่เป็น กับ ไม่ถูกไม่ได้เป็น
ซึ่งการทดลองนี้แก่นสาระปรัชญาหลักๆไม่ได้อยู่ที่ผล
แต่อยู่ที่กระบวนการ เพราะอะไร? ลองคิดดูว่า
แม้คนที่อยู่ด้านในจะสามารถตอบกลับสร้างประโยค
ภาษาจีนได้อย่างถูกต้อง แต่เขาก็ไม่ได้เข้าใจภาษาจีน
จริงๆหรอก เขาเพียงทำตามคำสั่งในหนังสือเพียงเท่านั้น
ก็เหมือนกับหุ่นยนต์ที่ถูกป้อนข้อมูลว่าถ้าเจอเหตุการณ์
คำถาม คำตอบ แบบนี้ ให้ทำตามนี้ มันเพียงทำตามคำสั่ง
มันไม่ได้คิด ไม่ได้รู้สึกเหมือนมนุษย์ ดังนั้น สรุปได้ว่า
แม้หุ่นยนต์จะสามารถตอบโต้แสดงได้เหมือนมนุษย์
แต่มันก็ไม่ได้นึกคิดเหมือนมนุษย์ ดังนั้นคำถามที่ว่า
หุ่นยนต์สามารถคิดได้เหมือนมนุษย์ คำตอบคือ ไม่
ทั้งสองคิดเหมือนมนุษย์ไหม?
แล้วจะทำอย่างไรให้ หุ่นยนต์ สามารถนึกคิดเหมือนมนุษย์
ก็คงต้องย้อนกับไปถามว่า แล้วการทำงานของสมอง
และกระบวนการคิดของมนุษย์เป็นเช่นไร พูดให้ง่ายสุดก็คือ
"มนุษย์มีสตินึกคิดได้อย่างไร?"
แล้วคุณคิดอย่างไรกับบทความนี้?
1 บันทึก
6
6
1
6
6
โฆษณา
ดาวน์โหลดแอปพลิเคชัน
© 2024 Blockdit
เกี่ยวกับ
ช่วยเหลือ
คำถามที่พบบ่อย
นโยบายการโฆษณาและบูสต์โพสต์
นโยบายความเป็นส่วนตัว
แนวทางการใช้แบรนด์ Blockdit
Blockdit เพื่อธุรกิจ
ไทย