แต่ถ้าย้อนกลับไปประเด็นแรกเริ่มเลย คือ ต้ังแต่แรกของการนิยามท้ัง conscious mind และการเป็นสิ่งมีชีวิต การเป็นมนุษย์ที่สามารถตัดสินใจได้ด้วยตนเอง ในความจริงแล้ว เราจะรู้ได้อย่างไรว่ามนุษย์ทุกคนน้ันมีสำนึกรู้และการมีชีวิตเหมือนกัน นอกจากการที่ เราสามารถรับรู้ตนเองได้ เราไม่สามารถผ่าสมองของคนอื่นเพื่อทราบการมีตัวตนของจิตใจ หรือ mind แม้กระท่ังสิ่งมีชีวิตชนิดอื่น หรือกระท่ัง AI และหุ่นยนต์ในที่นี้ เราจะรู้ได้อย่างไรว่า การทำงานของปัญญาประดิษฐ์เหล่านี้เป็นแค่การทำงานตามโปรแกรมที่โค้ดเอาไว้? บางที AI อาจจะมีสำนึกรู้ที่แตกต่างกันจากเราในช่วงที่ไม่สามารถตรวจสอบได้ก็ได้? หรือความเข้าใจ ความรู้สึกทางจริยธรรมของมนุษย์อาจจะไม่เหมือนของ AI?
การเป็นเช่นนี้มีความสำคัญและสามารถส่งผลต่อการพิจารณาว่า AI ควรทำอะไรได้ บ้าง AI ควรและสามารถโกหกได้หรือไม่? ถ้าทำงานผิดพลาดข้ึนมาจะเป็นความผิดของใคร? คนสร้างหรือตัว AI เอง? AI มีความซื่อสัตย์หรือการทรยศไหม? คำถามเหล่านี้ไม่ได้มีคำตอบที่แท้จริงในเชิงปรัชญา แต่สิ่งที่เห็นได้อย่างเด่นชัด คือ การเติบโตและพัฒนาการของความคิด และความรู้สึก โดย AI อาศัยข้อมูลจากการฝึกโดยมนุษย์เพื่อปฏิบัติภารกิจบางอย่างโดยเฉพาะ
แต่ในภาพรวมของมนุษย์ มนุษย์มีพื้นฐานของสิ่งเหล่านี้ต้ังแต่เกิด หากแต่หลังจากน้ันจะได้ เรียนรู้เพิ่มจากสังคมภายนอก ท้ังนี้ในอีกแง่ การที่เราทาให้ AI รับรู้และแสดงความรู้สึกและมี จริยธรรมน้ัน ตัว AI เองสามารถเรียนรู้สิ่งเหล่านี้ได้โดยแท้จริงหรือไม่? จะถือว่ารู้สึกได้จริง ๆ ไหม? หรือบางทีคุณค่าในด้านความรู้สึกและจริยธรรมอาจจะเป็นเพียงสิ่งหรือความเชื่อที่ มนุษย์กำหนดข้ึนมาเอง แต่การที่ AI จะมี conscious mind และเจตจานงไม่ได้เกี่ยวอะไรในมุมมองของมนุษย์เลย?