เหตุเกิดเมื่อ Elon Musk CEO ของ Tesla และ Twitter, Steve Wozniak ผู้ร่วมก่อตั้ง Apple และ Andrew Yang ผู้สมัครชิงตำแหน่งประธานาธิบดีในปี 2020 กลายเป็น 1 ในผู้ลงนามกว่า 1,000 คนในจดหมายปิดผนึกที่ระบุว่าหากเราพัฒนาระบบ AI อย่างรวดเร็วต่อไป อาจจะทำให้เกิด "ความเสี่ยงต่อสังคมและมนุษยชาติอย่างลึกซึ้ง"
จดหมายนี้ถูกเผยแพร่โดยองค์กรไม่แสวงหากำไร Future of Life Institute ที่ถูกสนับสนุนโดย Elon Musk และถูกเผยแพร่หลังจาก OpenAI มีการประกาศเปิดตัว GPT-4 เพียง 2 สัปดาห์เท่านั้น
เนื้อความในจดหมายกล่าวว่า เราควรหยุดการพัฒนา AI ที่มีประสิทธิภาพกว่า GPT-4 ไปก่อน และนอกจากนี้ เหล่าผู้เชี่ยวชาญที่พัฒนา AI ก็ควรที่จะใช้ช่วงเวลาที่หยุดพัฒนานี้มาร่วมกันพัฒนาเรื่องความปลอดภัยในการใช้ AI ด้วย
📌 อีกเหตุผลที่ทำให้ Elon Musk แยกออกมาคือการพัฒนา AI ที่ Tesla
เป็นที่รู้กันว่า Tesla นั้นต้องการระบบ AI ขั้นสูงสำหรับระบบขับขี่ด้วยตัวเอง และ OpenAI ก็กลายเป็นคู่แข่งของ Tesla แบบกลายๆ
แต่ปัญหาคือ AI ของ Tesla ไม่ได้มีความฉลาดใกล้เคียงกับ OpenAI เลย และในระหว่างที่เขาพูดถึงปัญหา AI ที่ทำให้เกิดความเสี่ยงกับมนุษยชาติ เขาก็ยังคงเดินหน้าพัฒนาระบบ Tesla Full Self-Driving ต่อไป
เพราะฉะนั้น ปัญหาเรื่องความปลอดภัยกับมวลมนุษยชาติ อาจไม่ใช่เหตุผลหลักที่ทำให้เขาเรียกร้องการหยุดพัฒนา AI
เมื่อเราลองมองมุมกลับ ก็สามารถเดาได้ว่าหากการเรียกร้องของเขาประสบความสำเร็จ ระบบ AI ของ Tesla ก็มีโอกาสตามทัน OpenAI ที่เป็นคู่แข่งได้เช่นกัน
📌 แล้วการหยุดพัฒนา AI เป็นเรื่องที่จำเป็นจริงๆ หรือไม่ ?
หากเราลองไปอ่านในจดหมายปิดผนึก จะเห็นได้ว่าข้อความในจดหมายมีการใช้ภาษาที่มีโทนเสียงไปทาง Dramatic (เร้าอารมณ์ ให้คนอ่านรู้สึกอินตาม) และในสถานการณ์ปัจจุบันก็ยังไม่เข้าใกล้กับการสูญเสียอารยธรรมให้กับ AI อย่างที่เป็นกังวลกัน แต่ก็มีการรายงานจากหลายสื่อว่า “เทคโนโลยี AI ก่อให้เกิดปัญหากับมนุษย์เพียงเล็กน้อย”
นอกจากนี้ OpenAI และห้องปฏิบัติการ AI หลายแห่งก็ยังมีระบบรักษาความปลอดภัยที่ดีเยี่ยม การหยุดพัฒนาระบบชั่วคราว จึงอาจส่งผลเสียมากกว่าดี
อย่างไรก็ตาม ในจดหมายยังมีคำแนะนำที่ดีมากๆ คือให้มีการ “ตรวจสอบจากผู้เชี่ยวชาญอิสระ” ที่เปิดโอกาสให้ใครก็สามารถเข้ามาตรวจสอบความปลอดภัยของระบบ AI นั้นได้ โดยไม่ใช่ภายในทีมงานที่พัฒนา AI เท่านั้น
และสุดท้าย เราจะเห็นได้ว่าบริษัทเทคโนโลยีใหญ่ยักษ์ของโลกอย่าง Google และ Microsoft ก็มีการทุ่มเงินลงทุนหลายพันล้านไปกับพัฒนา AI สำหรับผลิตภัณฑ์ของตัวเอง และบริษัทอื่นๆ ก็ยังคงเดินหน้าพัฒนา AI ต่อไป จึงไม่น่าเป็นไปได้ที่จดหมายฉบับนี้จะส่งผลให้การพัฒนา AI หยุดชะงัก
📌 AI จะยังคงก้าวต่อไป
ด้วยข่าวการลงทุนเงินในการวิจัยและพัฒนา AI สำหรับผลิตภัณฑ์ของตัวเองจากหลายบริษัทยักษ์ใหญ่ ทำให้แนวโน้มของ AI ในอนาคตจะยังคงเดินหน้าต่อไป ไม่ว่าจะมีกระแสต่อต้านก็ตาม
แต่การเพิ่มมาตรการด้านความปลอดภัย เพื่อลดความอันตรายจากระบบ AI ก็เป็นสิ่งที่น่าสนใจเช่นกัน ไม่แน่ว่าหากเหล่านักพัฒนาสามารถสร้างความปลอดภัยในระบบ AI และสามารถทำให้มนุษย์เชื่อมั่นในระบบ AI ได้ เราคงได้เห็นก้าวที่ยิ่งใหญ่ของวงการ AI เลยทีเดียว