25 ต.ค. 2019 เวลา 13:56 • การศึกษา
🤖จะเป็นอย่างไรถ้าเราปล่อยให้ปัญญาประดิษฐ์เป็นคนกำหนดความเป็น-ความตายของมนุษย์ และมันจะเป็นอย่างไร ถ้าสิ่งที่ปัญญาประดิษฐ์วิเคราะห์แล้วว่าเป็นอันตรายต้องการการกำจัด แต่สิ่งนั้นกลับขัดต่อศีลธรรมจรรยา
💣หนังสือแนะนำในลิสท์หนังสือของ Bill Gates ในปี 2019
•••••••••••••••••••••••••••••••••••••••••••
☢️หนังสือ Army of None : Autonomous weapons and the future of war
เขียนโดย Paul Scharre
Scharre เขียนหนังสือเล่มนี้ขึ้นจากการเก็บรวบรวมข้อมูล การสัมภาษณ์ผู้คนมากมายที่ทำงานที่เกี่ยวข้องกับการประดิษฐ์อาวุธปัญญาประดิษฐ์ และคนในแวดวงทหาร โดยตัวเขาก็เคยทำงานเป็นทหารในหน่วยรบพิเศษสหรัฐอเมริกา และยังเคยช่วยร่างนโยบายเกี่ยวกับอาวุธสังหารอัตโนมัติให้อเมริกาอีกด้วย
หนังสือเริ่มเล่าว่า ทุกวันนี้กว่า 30 ประเทศทั่วโลกต่างใช้งบประมาณมหาศาลในการพัฒนาระบบปัญญาประดิษฐ์ให้สามารถคิดเองและปฏิบัติการได้ด้วยตัวเอง เพราะมันประหยัดกว่าการใช้แรงงานมนุษย์ โดยมนุษย์เพียงแค่ควบคุมจากศูนย์กลางเท่านั้น รวมถึงปลอดภัยกว่าในการทำสงคราม เช่น การใช้โดรนมากมายในด้านการทหาร เป็นต้นว่าการเอาสิ่งของไปวางในพื้นที่ที่ไม่ปลอดภัย หรือการสอดแนมที่สามารถทำได้เป็นระยะเวลานานเมื่อเทียบกับการใช้มนุษย์เพราะมนุษย์เรามีข้อจำกัดทางร่างกายที่มากกว่าหุ่นยนต์
ไม่ใช่แค่ในโลกของสงครามหรือกองทัพเท่านั้นที่ได้รับประโยชน์จากปัญญาประดิษฐ์ เพราะทุกวันนี้มนุษย์เรานำเอาเทคโนโลยีปัญญาประดิษฐ์มาใช้ในชีวิตประจำวันเพื่ออำนวยความสะดวกมากมาย เริ่มตั้งแต่ i-robot ที่เราใช้กวาดพื้น ไปจนถึงรถยนต์ไร้คนขับ ปัญญาประดิษฐ์หรือ AI เหล่านั้นล้วนแต่สร้างมาเพื่อความสะดวกสบายของมนุษย์ ด้วยทั้งด้านการใช้งานที่รวดเร็วกว่าการทำงานโดยมนุษย์ ความคุ้มค่าของการใช้งานไปจนถึงความแม่นยำและความน่าเชื่อถือ แต่ปัญญาประดิษฐ์เหล่านั้นล้วนแล้วแต่ถูกสร้างมาแบบง่ายๆ ไม่ได้มีความสามารถในการตัดสินใจอะไรที่เกี่ยวข้องกับความเป็นหรือความตายของมนุษย์เรา
โลกเราทุกวันนี้ยังได้มีการทดลองให้ฝูงโดรนต่อสู้ระหว่างกันโดยควบคุมคำสั่งจากศูนย์กลาง หรือการทดลองการออกคำสั่งให้เรือไร้คนขับจำนวนหนึ่งสามารถขับล้อมเรือต้องสงสัยได้โดยการออกคำสั่งจากศูนย์กลางและปัญญาประดิษฐ์สามารถคิดได้และขับเคลื่อนด้วยตัวเอง ซึ่งสิ่งนี้จะเป็นประโยชน์มากในการป้องกันอันตรายที่จะมาทางน้ำและป้องกันการสูญเสียชีวิตของเหล่าทหารเรือ อย่างเช่นที่ นาวิกโยธินสหรัฐเคยโดยผู้ก่อการร้ายจากอิหร่านจากการใช้เรือเล็กความเร็วสูงมาทำลายเรือรบของกองทัพ
แต่ปัญหาก็คือ เมื่อปัญญาประดิษฐ์เหล่านั้นพบสิ่งที่เป็นอันตรายตามโปรแกรมที่ได้เรียนรู้ไว้ ตลอดจนพัฒนาเพื่อจะหาทางกำจัดอันตรายเหล่านั้นแล้ว มนุษย์เราควรจะอยู่ในส่วนไหนของการตัดสินใจของเหล่าปัญญาประดิษฐ์เหล่านั้น ซึ่งเป็นปัญหาที่ไม่เคยได้รับการตอบ มนุษย์เราควรอยู่ในวงจรการตัดสินใจหรือเราควรจะเป็นเพียงผู้เฝ้ามอง จริงอยู่ที่ในปัจจุบัน การตัดสินใจหลักๆยังเป็นของมนุษย์ที่จะป้อนข้อมูลใส่ปัญญาประดิษฐ์ หรือสามารถแทรกแซงการทำงานของปัญญาประดิษฐ์ได้ตลอดเวลา แต่แผนการณ์ในอนาคตของทางกองทัพก็มีแนวทางที่จะพัฒนาปัญญาประดิษฐ์ให้สามารถตัดสินใจได้ด้วยตัวเอง และมนุษย์เป็นเพียงผู้สังเกตการณ์เท่านั้น
Scharre เองได้เล่าถึงเหตุการณ์ที่เขายังเป็นทหารและกำลังอยู่ในช่วงทำการพรางตัว ขณะนั้นมีเด็กผู้หญิงคนหนึ่งที่มาพร้อมกับฝูงแกะ เด็กคนนั้นเดินมาทางพวกเขา จ้องมองมาที่กลุ่มทหาร Scharre เองสังเกตเห็นว่าในมือของเด็กผู้หญิงมีวิทยุสื่อสารเพื่อแจ้งกลุ่มผู้ก่อการร้ายถึงจุดที่พวกเขาพรางตัวอยู่ ในเหตุการณ์ครั้งนั้น Scharre และเพื่อนทหารตัดสินใจที่จะไม่ทำอันตรายเด็กผู้หญิงคนนั้น แต่ก็เป็นที่น่าคิดว่าในทางกลับกันถ้าเป็นหุ่นยนต์ที่ถูกโปรแกรมมาให้จัดการสิ่งที่เป็นภัย เด็กผู้หญิงคนนั้นก็อาจจะเสียชีวิตไปแล้ว ซึ่งการกำจัดเด็กผู้หญิงคนหนึ่งมันเป็นเรื่องที่ดูจะขัดต่อศีลธรรมเป็นอย่างมาก
ทุกวันนี้ในโลกของเรามีอาวุธสงครามที่ใช้ปัญญาประดิษฐ์บางส่วน มนุษย์ควบคุมบางส่วน ไปจนถึงอาวุธที่มีปัญญาประดิษฐ์เป็นของตัวเองอย่างเช่น The Harpy ของอิสราเอล ที่ทำงานโดยที่มนุษย์ไม่สามารถเเทรกแซงหรือกำหนดเป้าให้ค้นหาเรดาร์ของศัตรูได้ และเมื่อค้นพบเรดาร์ของศัตรูแล้ว The Harpy จะเลือกเองว่าเรดาร์ไหนของศัตรูที่ควรต้องกำจัด ซึ่งต่างจากอาวุธที่ใช้ปัญญาประดิษฐ์เพียงบางส่วนเพราะมนุษย์เราจะยังต้องกำหนดเป้าหมายและอาวุธที่จะใช้ทำลายเรดาร์เหล่านั้น และในปัจจุบัน The Harpy ถูกขายให้กับประเทศมากมายทั้ง ชิลี จีน อินเดีย เกาหลีใต้ และตุรกี นอกจาก The Harpy แล้วก็ยังมีอาวุธปัญญาประดิษฐ์ที่สามารถทำเเบบเดียวกันได้แต่ในน้ำอย่าง Tomahawk Anti-Ship Missile อีกด้วย
โดยที่จริงอาวุธที่มีปัญญาประดิษฐ์เป็นของตัวเองส่วนใหญ่นั้นถูกสร้างขึ้นมามากกว่าทศวรรษ แต่ถ้าพูดถึงด้านการใช้งานอาวุธดังกล่าวยังคงถูกควบคุมและจำกัดความสามารถโดยมนุษย์เป็นหลัก ส่วนอีกแนวโน้มหนึ่งในการสร้างอาวุธในอนาคตคือ คือการสร้างอาวุธที่มนุษย์เราสามารถติดต่อสื่อสารกับระเบิดได้ เพื่ออัพเดทสถานะ และสถานที่อยู่ศัตรู เพื่อเป็นการล๊อคเป้าที่ชัดเจนและแม่นยำขึ้นและทำให้การยิงระเบิดออกไปไม่เปล่าประโยชน์ เพราะการยิงระเบิดออกไปครั้งหนึ่งนั้นมีค่าใช้จ่ายมากกว่าล้านเหรียญดอลลาร์สหรัฐ
โดรนก็เป็นอีกตัวอย่างหนึ่งของเทคโนโลยีปัญญาประดิษฐ์ที่สามารถคิดและตัดสินใจได้เอง โดรนติดอาวุธสามารถสอดแนมศัตรูเพื่อมองหาเป้าหมายที่ต้องกำจัด แต่ถ้าไม่พบโดรนก็จะทำการบินกลับโดยที่ไม่ได้ใช้อาวุธที่ติดตั้งไว้ ซึ่งประหยัดกว่าการใช้อาวุธที่ต้องปล่อยระเบิดออกไปก่อนและระเบิดจะตามหาเป้าหมายเอง ปัจจุบันมีมากกว่า 90 ประเทศที่ใช้โดรนเพื่อการสอดแนม แต่มีเพียงแค่ 16 ประเทศที่เป็นโดรนที่ติดอาวุธ และอีกกว่า 12 ประเทศที่กำลังพัฒนาโดรนเพื่อใช้เป็นเครื่องมือสอดแนมที่ติดอาวุธ
Scharre ได้สัมภาษณ์ผู้คนจำนวนหนึ่งที่ทำงานในเพนตากอนของสหรัฐอเมริกาถึงแนวทางการพัฒนาการนำเอาปัญญาประดิษฐ์มาใช้ในทางการทหาร บทสัมภาษณ์ได้บอกไว้ว่า ปัจจุบันนี้การนำเอาปัญญาประดิษฐ์มาใช้ยังคงเป็นการใช้ควบคุมกับมนุษย์ โดยที่ AI หรือปัญญาประดิษฐ์จะทำงานที่เฉพาะเจาะจงและงานที่ต้องใช้ความรวดเร็วที่มนุษย์ไม่สามารถทำแข่งกับหุ่นยนต์หรือ AI ได้ แต่งานที่ต้องการการมองภาพกว้างหรือทักษะทั่วไปยังคงเป็นการทำงานของมนุษย์อยู่ ส่วนในอนาคตนั้นการที่จะมอบหมายงานให้ AI หรือปัญญาประดิษฐ์มากขึ้นในการตัดสินใจอะไรที่เกี่ยวข้องกับความเป็นความตายนั้น ขึ้นอยู่กับสถานการณ์หรือความจำเป็นในขณะนั้นๆ
หนึ่งในสิ่งที่ดูเป็นอันตรายในการใช้อาวุธปัญญาประดิษฐ์คือ อาวุธปัญญาประดิษฐ์หรือ AI นั้นเมื่อถูกลงโปรแกรมเอาไว้แล้ว แต่ถ้าดันเกิดเหตุการณ์ที่ไม่สอดคล้องกับโปรแกรมที่ลงไว้ อาจจะทำให้อาวุธ AI แสดงผลที่เป็นอันตราย ซึ่งต่างจากมนุษย์ที่เรามีระบบความคิดที่ใช้การตัดสินใจพื้นฐานหรือ Common Sense มาช่วยคิด ยิ่งถ้าเป็นอาวุธ AI แบบ Fully Autonomated หรือ ระบบการตัดสินใจทั้งหมดขึ้นอยู่กับปัญญาประดิษฐ์แล้ว การที่มนุษย์เราจะเข้าไปแทรกแซงระหว่างการตัดสินใจเป็นเรื่องที่เป็นไปไม่ได้เลย การตัดสินใจโดย AI ทั้งหมดอาจจะก่อให้เกิดอันตรายใหญ่หลวง อย่างเช่น กรณีของรถ Tesla Model S ในปี 2016 ที่เกิดอุบัติเหตุรุนแรงถึงแก่ชีวิตขณะใช้โหมดแบบไร้คนขับได้
โดยที่ความกังวลของสหรัฐเกี่ยวกับอาวุธปัญญาประดิษฐ์ก็คือถ้าสหรัฐเองควบคุมปัญญาประดิษฐ์ให้ทำงานควบคู่ไปกับศีลธรรมหรือกฎหมาย แต่ประเทศศัตรูของอเมริกาไม่ได้คิดแบบเดียวกัน รูปแบบการพัฒนา AI ในอาวุธของสหรัฐอเมริกาก็จำเป็นต้องเปลี่ยนไปเช่นเดียวกัน ส่วนที่คนส่วนมากกังวลก็คือ AI จะสามารถพัฒนาตัวเองและสามารถเขียนโค้ดโปรแกรมได้ด้วยตัวเอง ซึ่งก็อาจจะก่อให้เกิดอันตรายแก่มนุษย์ได้ถ้าเกิดวันหนึ่ง AI คิดว่ามนุษย์เองคือศัตรูที่ต้องกำจัด คำถามส่วนนี้ถูกตอบโดยการบอกว่าทุกวันนี้ AI ที่อยู่ในอาวุธถูกตั้งโปรแกรมไว้เพียงแค่พื้นฐานเท่านั้น ทำให้ AI ไม่สามารถเขียนโปรแกรมขึ้นมาใหม่ได้ด้วยตัวเอง
Scharre ยังกล่าวถึงอาวุธปัญญาประดิษฐ์ของอีกหลายประเทศ ทั้งระบบหน่วยลาดตระเวนที่พกปืนกลของเกาหลีใต้ที่ลาดตระเวนอยู่บริเวณรอยต่อของเกาหลีใต้และเกาหลีเหนือ หุ่นยนต์ของรัสเซีย เครื่องยิงจรวดมิสไซส์ของอังกฤษ เป็นต้น ที่ล้วนแล้วแต่เป็นอาวุธที่มีระบบ AI แต่ทุกประเทศก็ได้ออกมาประกาศว่าอาวุธเหล่านั้นล้วนแต่ทำงานคู่กับมนุษย์ทั้งสิ้น ซึ่งในความเป็นจริงนั้นเราก็ทำได้เพียงตั้งคำถามว่า ทุกอย่างที่แต่ละประเทศบอกเรื่องอาวุธปัญญาประดิษฐ์นั้นจริงเท็จแค่ไหน เราไม่มีทางรู้ได้เลยว่า แต่ละประเทศนั้นได้พัฒนาอาวุธปัญญาประดิษฐ์ของตัวเองไปในทิศทางใด
ในหนังสือยังรวมไปถึงการเล่าถึงการเอาปัญญาประดิษฐ์มาใช้ในตลาดการเงิน เพราะระบบอัตโนมัติสามารถทำงานได้เร็วกว่ามนุษย์ในแบบที่มนุษย์ไม่มีทางตามทัน แต่ก็มีที่หลายครั้งปัญญาประดิษฐ์กลับทำให้เกิดปัญหาวิกฤติทางการเงินรุนแรงในตลาดหลักทรัพย์ อย่างเช่นกรณีของบริษัทหลักทรัพย์ที่ชื่อ Knight Capital Group ในวันที่ 31 กรกฎาคม ปี 2012 ที่บริษัทได้ลงระบบการเทรดแบบใหม่โดยใช้ปัญญาประดิษฐ์อัตโนมัติ โดยที่ระบบนี้จะแตกการซื้อขายขนาดใหญ่ออกเป็นการซื้อขายในจำนวนย่อยๆ แต่ปัญหาก็คือ ระบบกลับไม่ได้จดจำว่าได้ซื้อขายไปแล้วจนทำให้เกิดการสั่งงานให้มีการซื้อขายซ้ำๆ เป็นพันครั้งภายในวินาทีเดียว 45 นาทีภายหลังจากสามารถหยุดระบบได้ Knight สูญเสียเงินไปถึง 460ล้านเหรียญและนั่นทำให้บริษัทล้มละลายเลยทีเดียว นอกจากนี้ยังมีอีกหลายเหตุการณ์ในตลาดการลงทุนที่ความผิดพลาดล้วนแต่เกิดมาจากการทำงานของระบบ โดยที่หลังจากเหตุการณ์ต่างๆก็ได้มีการติดตั้งระบบที่ใช้หยุดการซื้อขายหลักทรัพย์ชั่วคราวที่เอาไว้กันปัญหาที่จะเกิดจากการทำงานของระบบอัตโนมัติ แต่ระบบป้องกันดังกล่าวก็มีไว้เพียงเพื่อป้องกันความเสียหายใหญ่หลวงแต่ไม่สามารถป้องกันไม่ให้ระบบเกิดความผิดพลาดได้
ระบบ AI ที่ใช้งานในปัจจุบันนี้นั้นถึงแม้ว่าจะสามารถทำงานที่ซับซ้อนได้รวดเร็วเกินกว่าขีดความสามารถของมนุษย์ แต่ในบางเรื่องที่ต้องใช้ความรู้สึกนึกคิดกลับทำได้ไม่ดี อย่างในตลาดหุ้น AI ทำการซื้อขายได้ไว แต่ก็ไม่สามารถรู้ได้ด้วยตัวเองว่าอาจจะทำให้เกิดความเสียหายกับบริษัท ซึ่งในอนาคตจะมีการนำเอา Artificial general intelligence หรือ AGI มาใช้เพื่อแก้ปัญหาในจุดนี้ โดยที่ระบบจะสั่งการด้านปฏิบัติการให้สามารถมองเห็นภาพรวมของทั้งระบบก่อนลงมือสั่งการจริงได้ แต่ AGI ก็ยังเป็นที่ถกเถียงและยังอยู่ในช่วงการชะลอการสร้าง เพราะถ้า AI สามารถทำทุกอย่างได้เหมือนกันมนุษย์แล้ว นี่ก็อาจจะเป็นจุดจบของมนุษยชาติก็เป็นได้ ซึ่งในหัวข้อนี้ก็มีการเห็นด้วยทั้งจาก Bill Gates และ Elon Musk และก็มีทั้งที่ไม่เห็นด้วยจากบุคลากรที่ทำงานใน NASA เพราะคิดว่า AGI สามารถมีได้โดยไม่ได้ทำลายเผ่าพันธุ์มนุษย์ อย่างในหนังเรื่อง Hers ที่มนุษย์เราสามารถตกหลุมรักหุ่นยนต์สาวได้
Scharre เล่าเรื่องยากๆให้เข้าใจง่าย รวมทั้งบอกข้อดีข้อเสียของการนำเอาอาวุธปัญญาประดิษฐ์มาใช้ตลอดในทุกๆบท ทั้งในการสงครามที่อาจจะเกิดปัญหาจากการใช้อาวุธปัญญาประดิษฐ์ เพราะตัว AI เองในระหว่างสงครามอาจจะไม่สามารถแบ่งแยกศัตรูที่ปลอมตัวเป็นชาวบ้านทั่วไปออกจากชาวบ้านจริงๆที่ไม่ได้มีส่วนรู้เห็นในการทำสงคราม จนอาจจะทำให้มีผู้ที่ไม่ควรต้องเสียชีวิตเพิ่มมากกว่าการสู้รบที่ไม่ใช่อาวุธปัญญาประดิษฐ์ ทั้งหมดมันจึงเป็นเนื้อหาในหนังสือที่บอกเราตลอดว่า เราควรที่จะต้องมาสรุปกันว่า ขอบเขตของการใช้ปัญญาประดิษฐ์ว่าอยู่ที่ตรงไหน และมนุษย์อย่างเราควรที่จะอยู่ตรงไหนในระบบการปฏิบัติการทุกอย่างที่เกี่ยงข้องกับ AI นั่นเอง
#อ่านแล้วมาย่อย
Cr photo : Google
โฆษณา