10 เม.ย. เวลา 14:16 • วิทยาศาสตร์ & เทคโนโลยี

นักวิจัยศึกษาภัยคุกคาม AI ในการพัฒนาซอฟต์แวร์

นักวิจัยนำโดย Joe Spracklen นักศึกษาปริญญาเอกสาขาวิทยาการคอมพิวเตอร์จาก University of Texas at San Antonio ได้วิเคราะห์ความเสี่ยงด้านความปลอดภัยที่เกี่ยวข้องกับ package hallucinations ซึ่งเป็นปรากฏการณ์ที่โมเดลภาษาขนาดใหญ่ (Large Language Model) หรือ LLM สร้างโค้ดที่เชื่อมโยงไปยังไลบรารีซอฟต์แวร์ของบุคคลที่สามที่ไม่มีอยู่จริง
สิ่งนี้จะทำให้แฮ็กเกอร์สามารถสร้าง package ใหม่ที่มีชื่อเดียวกับ package ที่ hallucinate และแทรกโค้ดที่เป็นอันตรายได้ นักวิจัยพบว่า LLM แบบโอเพนซอร์สมีแนวโน้มที่จะสร้าง package hallucinations มากกว่าโมเดล GPT ถึงสี่เท่า และ JavaScript มีแนวโน้มที่จะเกิด hallucinations มากกว่า Python
อ่านสรุปข่าวไอทีและเรื่องน่าสนใจอื่น ๆ เพิ่มเติมได้ที่ https://sarunblog.intakosum.net/
โฆษณา