ความก้าวหน้าอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) นั้นน่าประหลาดใจ แต่ความก้าวหน้าก็มาพร้อมกับความเสี่ยง จากการสำรวจล่าสุดที่จัดทำโดย Stanford University นักวิจัยมากกว่าหนึ่งในสามเชื่อว่า AI อาจนำไปสู่หายนะในระดับที่เทียบได้กับภัยพิบัตินิวเคลียร์ ข้อเท็จจริงที่น่าสลดใจนี้ตอกย้ำความกังวลของหลาย ๆ คนในอุตสาหกรรมเกี่ยวกับอันตรายที่อาจเกิดขึ้นจากเทคโนโลยีที่ก้าวหน้าอย่างรวดเร็วนี้
รายงานดัชนี AI ประจำปี 2023 ซึ่งเผยแพร่โดย Stanford Institute for Human-Centered Artificial Intelligence สำรวจพัฒนาการล่าสุด ความเสี่ยง และโอกาสในด้าน AI รายงานเน้นว่าระบบ AI มีความสามารถที่เหนือจินตนาการเมื่อทศวรรษที่แล้ว ด้วยความสามารถในการตอบคำถามที่ซับซ้อนและสร้างข้อความ รูปภาพ และโค้ด อย่างไรก็ตาม ระบบเหล่านี้ยังมีแนวโน้มที่จะมีอคติ อาจถูกหลอกให้ทำตามเป้าหมายที่ชั่วร้าย และมีความเสี่ยงที่จะเกิด "การชี้นำ" ซึ่งนำเสนอความท้าทายทางจริยธรรมที่ซับซ้อน
รายงานดังกล่าวเกิดขึ้นท่ามกลางความต้องการที่เพิ่มขึ้นสำหรับการควบคุมของ AI หลังจากการโต้เถียงมากมายตั้งแต่การฆ่าตัวตายที่เชื่อมโยงกับแชทบอท ไปจนถึงวิดีโอ Deepfake ของประธานาธิบดียูเครน Volodymyr Zelenskyy ที่ดูเหมือนจะยอมจำนนต่อกองกำลังรัสเซียที่รุกราน
Elon Musk และ Steve Wozniak เป็นหนึ่งในผู้ลงนาม 1,300 คนในจดหมายเปิดผนึกที่เรียกร้องให้หยุดการฝึกอบรมระบบ AI ที่เกินระดับแชทบอทของ Open AI GPT-4 โดยให้เหตุผลว่าระบบ AI ที่ทรงพลังควรได้รับการพัฒนาต่อเมื่อเกิดผลกระทบเชิงบวกและความเสี่ยงที่จัดการได้นั้นได้รับการรับรอง
การสำรวจที่เน้นในรายงานพบว่า 36 เปอร์เซ็นต์ของนักวิจัยเชื่อว่าการตัดสินใจของ AI อาจนำไปสู่เหตุการณ์หายนะ ในขณะที่ 73 เปอร์เซ็นต์เชื่อว่าในไม่ช้าพวกเขาจะนำไปสู่ "การเปลี่ยนแปลงทางสังคมแบบปฏิวัติ" จำนวน "เหตุการณ์และการโต้เถียง" ที่เกี่ยวข้องกับ AI เพิ่มขึ้น 26 เท่าในช่วงทศวรรษที่ผ่านมา ตามรายงาน
ไม่ใช่แค่นักวิจัยเท่านั้นที่ระวัง AI ผลสำรวจล่าสุดของ IPSOS พบว่ามีชาวอเมริกันเพียง 35 เปอร์เซ็นต์เท่านั้นที่เห็นว่าผลิตภัณฑ์และบริการที่ใช้ AI มีประโยชน์มากกว่าข้อเสีย เมื่อเทียบกับ 78 เปอร์เซ็นต์ของผู้ตอบแบบสอบถามชาวจีน 76 เปอร์เซ็นต์ของผู้ตอบแบบสอบถามชาวซาอุดีอาระเบีย และ 71 เปอร์เซ็นต์ของผู้ตอบแบบสอบถามชาวอินเดีย
รัฐบาลเริ่มที่จะสังเกตและเคลื่อนไหวเพื่อควบคุมและควบคุม AI หน่วยงานไซเบอร์สเปซของจีนเพิ่งประกาศร่างข้อบังคับสำหรับเจเนอเรทีฟเอไอ ขณะที่สหภาพยุโรปได้เสนอ "กฎหมายปัญญาประดิษฐ์" เพื่อควบคุมการใช้เอไอที่ยอมรับได้ ในสหรัฐอเมริกา ฝ่ายบริหารของ Biden ได้เปิดตัวการปรึกษาหารือสาธารณะเกี่ยวกับวิธีการตรวจสอบให้แน่ใจว่าระบบ AI นั้นถูกกฎหมาย มีประสิทธิภาพ มีจริยธรรม ปลอดภัย และเชื่อถือได้
เป็นที่ชัดเจนว่าความเสี่ยงที่เกี่ยวข้องกับ AI มีความสำคัญ และเป็นสิ่งสำคัญที่รัฐบาล นักวิจัย และสาธารณชนต้องทำงานร่วมกันเพื่อลดความเสี่ยงเหล่านี้ ในขณะที่เรายังคงผลักดันขอบเขตของสิ่งที่เป็นไปได้ด้วย AI เราต้องทำด้วยความระมัดระวังและจับตามองอันตรายที่อาจเกิดขึ้น