- การใช้ API Keys ซ้ำในหลายโปรเจกต์ – องค์กรที่ใช้ API Keys เดียวกันในหลายระบบ อาจเสี่ยงต่อการถูกโจมตีหลายระดับ หากแฮกเกอร์สามารถเข้าถึงหนึ่งระบบ อาจขยายผลในการโจมตีระบบอื่น ๆ ได้
- LLMs อาจซึมซับพฤติกรรมที่ไม่ปลอดภัย – เนื่องจากข้อมูลที่รั่วไหลถูกนำไปใช้ในการฝึก AI ทำให้ โมเดล AI อาจเรียนรู้แนวทางที่ผิด เช่น การฝัง API Keys ไว้ในโค้ด หรือการใช้โทเค็นจำลอง (Placeholder Tokens) โดยไม่ตรวจสอบความปลอดภัย สิ่งนี้อาจทำให้ AI สร้างโค้ดที่มีช่องโหว่โดยไม่รู้ตัว
วิธีป้องกันข้อมูลรั่วไหล และลดความเสี่ยง
- เพื่อป้องกัน API Keys และข้อมูลสำคัญไม่ให้ตกไปอยู่ในมือของแฮกเกอร์ องค์กรและนักพัฒนาควรนำแนวทางป้องกันต่อไปนี้ไปใช้
- ใช้ AI Coding Tools ที่มีมาตรการป้องกัน เช่น GitHub Copilot’s Custom Instructions เพื่อป้องกันไม่ให้ฝัง API Keys ในโค้ดโดยอัตโนมัติ
- เพิ่มระบบตรวจสอบข้อมูลที่รั่วไหลอย่างต่อเนื่อง โดยขยายขอบเขตการตรวจสอบให้ครอบคลุมข้อมูลที่ถูกเก็บไว้ในเว็บไซต์เก่า และข้อมูลที่อาจหลุดไปอยู่ในชุดข้อมูลฝึกของ AI
- ใช้ Constitutional AI เพื่อปรับแต่งโมเดล AI ให้ปฏิบัติตามมาตรฐานความปลอดภัย และลดโอกาสในการสร้างโค้ดที่มีช่องโหว่หรือเปิดเผยข้อมูลสำคัญ
- แยก API Keys ออกจากโค้ด โดยใช้ Environment Variables หรือ Secret Management Systems แทนการฝัง API Keys ลงไปในโค้ดโดยตรง
การรั่วไหลของ API Keys และรหัสผ่านในครั้งนี้ ไม่ใช่แค่เรื่องของ DeepSeek แต่เป็นปัญหาของทั้งอุตสาหกรรมเทคโนโลยี หากไม่มีมาตรการป้องกันที่ดีพอ API Keys และข้อมูลยืนยันตัวตนอาจกลายเป็น “ขุมทรัพย์” ของแฮกเกอร์ ดังนั้นองค์กรและนักพัฒนาต้องปรับตัว เพื่อป้องกันข้อมูลสำคัญไม่ให้เกิดการรั่วไหล และสร้างมาตรฐานความปลอดภัยที่แข็งแกร่งกว่าเดิม