ทุกวันนี้ในโลกของเรามีอาวุธสงครามที่ใช้ปัญญาประดิษฐ์บางส่วน มนุษย์ควบคุมบางส่วน ไปจนถึงอาวุธที่มีปัญญาประดิษฐ์เป็นของตัวเองอย่างเช่น The Harpy ของอิสราเอล ที่ทำงานโดยที่มนุษย์ไม่สามารถเเทรกแซงหรือกำหนดเป้าให้ค้นหาเรดาร์ของศัตรูได้ และเมื่อค้นพบเรดาร์ของศัตรูแล้ว The Harpy จะเลือกเองว่าเรดาร์ไหนของศัตรูที่ควรต้องกำจัด ซึ่งต่างจากอาวุธที่ใช้ปัญญาประดิษฐ์เพียงบางส่วนเพราะมนุษย์เราจะยังต้องกำหนดเป้าหมายและอาวุธที่จะใช้ทำลายเรดาร์เหล่านั้น และในปัจจุบัน The Harpy ถูกขายให้กับประเทศมากมายทั้ง ชิลี จีน อินเดีย เกาหลีใต้ และตุรกี นอกจาก The Harpy แล้วก็ยังมีอาวุธปัญญาประดิษฐ์ที่สามารถทำเเบบเดียวกันได้แต่ในน้ำอย่าง Tomahawk Anti-Ship Missile อีกด้วย
Scharre ได้สัมภาษณ์ผู้คนจำนวนหนึ่งที่ทำงานในเพนตากอนของสหรัฐอเมริกาถึงแนวทางการพัฒนาการนำเอาปัญญาประดิษฐ์มาใช้ในทางการทหาร บทสัมภาษณ์ได้บอกไว้ว่า ปัจจุบันนี้การนำเอาปัญญาประดิษฐ์มาใช้ยังคงเป็นการใช้ควบคุมกับมนุษย์ โดยที่ AI หรือปัญญาประดิษฐ์จะทำงานที่เฉพาะเจาะจงและงานที่ต้องใช้ความรวดเร็วที่มนุษย์ไม่สามารถทำแข่งกับหุ่นยนต์หรือ AI ได้ แต่งานที่ต้องการการมองภาพกว้างหรือทักษะทั่วไปยังคงเป็นการทำงานของมนุษย์อยู่ ส่วนในอนาคตนั้นการที่จะมอบหมายงานให้ AI หรือปัญญาประดิษฐ์มากขึ้นในการตัดสินใจอะไรที่เกี่ยวข้องกับความเป็นความตายนั้น ขึ้นอยู่กับสถานการณ์หรือความจำเป็นในขณะนั้นๆ
หนึ่งในสิ่งที่ดูเป็นอันตรายในการใช้อาวุธปัญญาประดิษฐ์คือ อาวุธปัญญาประดิษฐ์หรือ AI นั้นเมื่อถูกลงโปรแกรมเอาไว้แล้ว แต่ถ้าดันเกิดเหตุการณ์ที่ไม่สอดคล้องกับโปรแกรมที่ลงไว้ อาจจะทำให้อาวุธ AI แสดงผลที่เป็นอันตราย ซึ่งต่างจากมนุษย์ที่เรามีระบบความคิดที่ใช้การตัดสินใจพื้นฐานหรือ Common Sense มาช่วยคิด ยิ่งถ้าเป็นอาวุธ AI แบบ Fully Autonomated หรือ ระบบการตัดสินใจทั้งหมดขึ้นอยู่กับปัญญาประดิษฐ์แล้ว การที่มนุษย์เราจะเข้าไปแทรกแซงระหว่างการตัดสินใจเป็นเรื่องที่เป็นไปไม่ได้เลย การตัดสินใจโดย AI ทั้งหมดอาจจะก่อให้เกิดอันตรายใหญ่หลวง อย่างเช่น กรณีของรถ Tesla Model S ในปี 2016 ที่เกิดอุบัติเหตุรุนแรงถึงแก่ชีวิตขณะใช้โหมดแบบไร้คนขับได้
โดยที่ความกังวลของสหรัฐเกี่ยวกับอาวุธปัญญาประดิษฐ์ก็คือถ้าสหรัฐเองควบคุมปัญญาประดิษฐ์ให้ทำงานควบคู่ไปกับศีลธรรมหรือกฎหมาย แต่ประเทศศัตรูของอเมริกาไม่ได้คิดแบบเดียวกัน รูปแบบการพัฒนา AI ในอาวุธของสหรัฐอเมริกาก็จำเป็นต้องเปลี่ยนไปเช่นเดียวกัน ส่วนที่คนส่วนมากกังวลก็คือ AI จะสามารถพัฒนาตัวเองและสามารถเขียนโค้ดโปรแกรมได้ด้วยตัวเอง ซึ่งก็อาจจะก่อให้เกิดอันตรายแก่มนุษย์ได้ถ้าเกิดวันหนึ่ง AI คิดว่ามนุษย์เองคือศัตรูที่ต้องกำจัด คำถามส่วนนี้ถูกตอบโดยการบอกว่าทุกวันนี้ AI ที่อยู่ในอาวุธถูกตั้งโปรแกรมไว้เพียงแค่พื้นฐานเท่านั้น ทำให้ AI ไม่สามารถเขียนโปรแกรมขึ้นมาใหม่ได้ด้วยตัวเอง