Blockdit Logo
Blockdit Logo (Mobile)
สำรวจ
ลงทุน
คำถาม
เข้าสู่ระบบ
มีบัญชีอยู่แล้ว?
เข้าสู่ระบบ
หรือ
ลงทะเบียน
The Structure
•
ติดตาม
30 ส.ค. 2023 เวลา 11:07 • ข่าว
“ChatBot มีความเสี่ยงทางไซเบอร์”กรรมการรักษาความปลอดภัยไซเบอร์ของอังกฤษ
เตือนว่าแชทบอท AI อาจมีความเสี่ยงทางไซเบอร์
คณะกรรมการการรักษาความมั่นคงปลอดภัยไซเบอร์แห่งชาติ (NSCS) ของอังกฤษเตือนว่า ผู้เชี่ยวชาญด้านไซเบอร์ยังไม่สามารถจัดการกับปัญหาด้านความปลอดภัยที่มากับ ‘ชุดโมเดล AI สำหรับสร้างข้อความภาษา’ หรือ LLM (Large Language Model)
โดยโมเดลดังกล่าวสามารถทำเสียงเลียนแบบและแทนที่มนุษย์ได้ โดยชุดเครื่องมือด้าน AI ที่จะถูกนำมาใช้นี้จะไม่เพียงเข้ามาแทนที่ระบบเสิร์ชเอินจินทั่วไปเท่านั้น แต่ยังรวมถึงงานให้บริการลูกค้าและงานด้านการขายผลิตภัณฑ์ต่างๆ ด้วย
NSCS ระบุว่า LLM อาจมีความเสี่ยง โดยเฉพาะอย่างยิ่งหากโมเดลดังกล่าวถูกนำไปประยุกต์ใช้ภาคธุรกิจต่างๆ
ยกตัวอย่างเช่น หากระบบ AI Chatbot ถูกนำไปใช้กับธนาคาร ก็มีความเสี่ยงว่าระบบดังกล่าวอาจจะถูกหลอกให้ทำธุรกรรมการโอนหรือชำระเงิน ที่ไม่ได้รับการยินยอมจากเจ้าของบัญชี หากว่าแฮคเกอร์เรียนรู้และเข้าใจโครงสร้างคำถามที่ถูกป้อนให้กับระบบอัตโนมัติเหล่านั้น
“หากองค์กรใดคิดจะนำระบบ LLM ไปใช้ ควรจะต้องระวังเป็นพิเศษ เช่นเดียวกับที่พวกเขาต้องระวังตอนที่ใช้สินค้าหรือผลิตภัณฑ์ที่ยังอยู่ในขั้นตอนของการทดสอบเบื้องต้น” NCSC กล่าวโดยชี้ให้เห็นถึงปัญหาของระบบซอฟต์แวร์ที่ยังอยู่ในขั้นตอนการพัฒนา แต่ถูกปล่อยออกมาใช้กันแล้วในปัจจุบัน
ผู้มีอำนาจดูแลด้านความปลอดภัยทางไซเบอร์ทั่วโลก กำลังจับตามองการเข้ามาของระบบ LLM อย่าง ChatGPT ของ OpenAI ที่เริ่มถูกนำไปใช้ในภาคธุรกรรมอย่างกว้างขวาง ไม่ว่าจะเป็นด้านการขายผลิตภัณฑ์หรือการดูแลลูกค้า
ทั้งนี้เจ้าหน้าที่ด้านความปลอดภัยทางไซเบอร์ทั้งในสหรัฐอเมริกาและแคนาดา ต่างระบุตรงกันว่า พวกเขาเคยพบเจอกรณีที่บรรดาแฮคเกอร์และอาชญากรทางไซเบอร์ นำระบบดังกล่าวมาใช้เช่นกัน
#TheStructureNews
#ChatBot #AI #LLM
บันทึก
2
2
โฆษณา
ดาวน์โหลดแอปพลิเคชัน
© 2024 Blockdit
เกี่ยวกับ
ช่วยเหลือ
คำถามที่พบบ่อย
นโยบายการโฆษณาและบูสต์โพสต์
นโยบายความเป็นส่วนตัว
แนวทางการใช้แบรนด์ Blockdit
Blockdit เพื่อธุรกิจ
ไทย