การเข้ามาของ AI ก็เป็นอีกหนึ่งความท้าทายที่น่ากังวลสำหรับบุคลากรด้าน Cybersecurity ซึ่งจากผลสำรวจพบว่ามีเพียง 16% ของบุคลากรทางไซเบอร์เท่านั้นที่รู้และเข้าใจกระบวนการของ AI อย่างแท้จริง
โดยหนึ่งใน AI ที่มีความท้าทายต่อความปลอดภัยทางไซเบอร์ในองค์กรมากที่สุด ที่เข้ามาพลิกโฉมการปฏิบัติการในองค์กรคือ Generative AI ที่ได้เข้ามาอำนวยความสะดวกมากมาย เช่น ช่วยเขียนโค้ดโปรแกรมให้ ซึ่งประหยัดทั้งแรงและเวลาที่มนุษย์ลงมือทำด้วยตัวเอง เป็นต้น โดยปัจจุบันนั้น Generative AI นั้นมีการใช้งานกันอย่างแพร่หลายในทุกองค์กร
หากแต่ว่า Generative AI ก็เปรียบเสมือนดาบสองคม ซึ่งมาพร้อมกับความเสี่ยงจากการที่องค์กรนำ Generative AI เข้ามาใช้งาน ได้แก่
1. ข้อมูลที่ใส่ใน LLM อาจถูกดึงไปโดยไม่ได้รับอนุญาต: ข้อมูลที่ป้อนเข้าสู่ระบบ AI อาจถูกบันทึกและนำไปใช้งานโดยไม่ได้รับอนุญาต หากไม่มีการป้องกันที่เพียงพอก็อาจทำให้เกิดความเสี่ยงด้านการรั่วไหลของข้อมูลสำคัญ
2. ความเสี่ยงจากการรั่วไหลของข้อมูล: ข้อมูลที่ส่งผ่าน AI หากไม่มีมาตรการรักษาความปลอดภัยที่ดีพอ อาจเกิดการรั่วไหลในระหว่างการใช้งานหรือหลังจากการใช้งานนั้น
3. Prompt Injection: การโจมตีโดยใช้คำสั่งหรือชุดคำสั่งที่หลอกลวง AI เพื่อให้สร้างมัลแวร์หรือทำงานที่เป็นอันตรายต่อองค์กร
4. Data Poisoning: การใส่ข้อมูลปลอมลงในระบบ AI เพื่อหลอกให้ AI เรียนรู้จากข้อมูลที่ไม่ถูกต้อง ซึ่งทำให้ผลลัพธ์ของ AI เกิดความผิดพลาดและไม่สามารถเชื่อถือได้
5.Toxic Output: ผลลัพธ์ที่ผิดพลาดจากการที่ AI ถูกป้อนข้อมูลที่ไม่ถูกต้อง (Data Poisoning) ทำให้ AI สร้างข้อมูลที่เป็นอันตรายหรือไม่เหมาะสมออกมา
6. AI Hallucination: การที่ AI สร้างคำตอบที่ไม่สอดคล้องกับความเป็นจริง หรือไม่น่าเชื่อถือ ซึ่งอาจเกิดจากข้อมูลที่ไม่เพียงพอหรือคลุมเครือ ทำให้คำตอบของ AI ผิดพลาด
จากผลสำรวจพบว่ามีเพียง 3 ใน 4 ขององค์กรเท่านั้นที่มีนโยบายการจำกัดการใช้งานฟังก์ชันบางส่วนเพื่อความปลอดภัยเท่านั้น ทาง Gartner จึงได้แนะนำแนวทางการจัดการกับ Generative AI ให้แก่ผู้บริหารด้าน IT ขององค์กร ดังต่อไปนี้
1) องค์กรต้องมีการกำหนดวัตถุประสงค์การใช้งาน โดยสามารถระบุชัดเจนว่า Generative AI จะถูกนำมาใช้ในด้านใดบ้าง โดยควรสร้าง Use Case และบันทึกไว้ในระบบ Inventory หากพบว่ามีการใช้งาน AI เกินขอบเขตที่กำหนดไว้ใน Use Case องค์กรจะสามารถรับมือและแก้ไขปัญหาได้ทันท่วงที
2) องค์กรจะต้องมีการวางนโยบายควบคุมการใช้งานข้อมูลในการ Input / Output โดยมีการกำหนดนโยบายควบคุมการป้อนข้อมูลและผลลัพธ์ที่ได้จาก Generative AI เช่น การตั้งระบบกรองข้อมูลที่ User สามารถเข้าถึง หรือกำหนดการควบคุมการใช้งานของ User อย่างชัดเจน โดยอาจจำกัดหรือบล็อกการเข้าถึงฟังก์ชันบางส่วนเพื่อความปลอดภัย
3) การวางมาตรการป้องกัน โดยกำหนดฟังก์ชันที่ User สามารถใช้งานได้ตามนโยบายขององค์กร (Consume as a Feature) มีระบบการตรวจสอบย้อนกลับ (Traceability) เพื่อให้แน่ใจว่าทุกกระบวนการมีความปลอดภัย อีกทั้งควรมีตัวชี้วัดเพื่อประเมินและพัฒนามาตรการความปลอดภัยให้ดียิ่งขึ้น (Measure Improvement)
จากความท้าทายต่าง ๆ ที่บุคลากรด้านความปลอดภัยทางไซเบอร์ต้องเผชิญ โดยเฉพาะด้าน AI นั้น เราจะมีวิธีในการเรียนรู้ที่จะรับมือพร้อมกับการนำเทคโนโลยีด้าน AI มาทำงานในด้านความปลอดภัยทางไซเบอร์ในฐานะที่เป็นพันธมิตรกันได้อย่างไร
ในวงการ Cybersecurity นั้น AI โดยเฉพาะ Machine Learning (ML) ถูกนำมาใช้งานไม่น้อยกว่า 10 ปีแล้ว ตัวอย่างการนำ AI มาใช้งานที่เห็นได้ชัดเจน อาทิ Adaptive Learning และ Anomaly Detection: ระบบที่ใช้ ML สามารถเรียนรู้และปรับตัวได้ โดยการตรวจจับค่าผิดปกติแบบอัตโนมัติ ช่วยป้องกันภัยคุกคามที่อาจไม่เคยพบเห็นมาก่อน, Natural Language Processing (NLP) กับ Threat Detection: การใช้ NLP เพื่อค้นหาภัยคุกคามผ่านการป้อนคำสั่งด้วยภาษาธรรมชาติ ทำให้การตรวจจับภัยคุกคามง่ายขึ้นโดยไม่จำเป็นต้องเขียนโค้ด
สำหรับ Generative AI ก็มีบทบาทสำคัญในด้าน Cybersecurity โดยเฉพาะใน Threat Intelligence เนื่องจาก Large Language Models (LLMs) ที่เป็นพื้นฐานของ Generative AI ได้เก็บข้อมูลจากแหล่งต่าง ๆ ทั่วโลก จึงกลายเป็นเครื่องมือสำคัญในการหาข่าวกรองด้านภัยคุกคามAI ช่วยลดเวลาและความซับซ้อนในการประมวลผลข้อมูลได้อย่างมีประสิทธิภาพ แต่ยังคงต้องมีมนุษย์คอยตรวจสอบความถูกต้องของคำสั่งและข้อมูลที่ได้จาก AI เพื่อความสมบูรณ์
อีกหนึ่งบทบาทที่ AI ช่วยได้คือ Training and Awareness ในด้าน Cybersecurity โดย Generative AI สามารถแปลงข้อมูลที่ซับซ้อนให้เป็นภาษาที่เข้าใจง่ายขึ้น ซึ่งช่วยให้ผู้เรียนเข้าใจเนื้อหาด้านความปลอดภัยทางไซเบอร์ได้ดีขึ้นและเรียนรู้ได้อย่างมีประสิทธิภาพ
จากตัวอย่างการใช้งานของเทคโนโลยีเพื่อความปลอดภัยทางไซเบอร์ ทั้ง NLP และ Generative AI นั้นได้เปลี่ยนบทบาทการทำงานของมนุษย์ไปโดยสิ้นเชิง นั่นคือ AI จะเข้ามาปฏิบัติงานแทน ส่วนเรากลายเป็นผู้ควบคุมและตรวจสอบความถูกต้อง นั่นคือมนุษย์จำเป็นต้องเข้าใจถึงหลักการทำงานมากกว่าเรียนรู้วิธีการทำงาน เพื่อที่จะสามารถทำงานควบคู่ไปกับ AI ได้
อนาคตที่เป็นไปได้!
ในอนาคตความสัมพันธ์ระหว่างมนุษย์กับเทคโนโลยี AI ในการทำงานจะเปลี่ยนแปลงไปอย่างมาก ข้อมูลที่มีจะถูก AI สังเคราะห์ออกมาเป็นข้อมูลเชิงลึกและให้คำแนะนำ เพื่อตอบโจทย์ในการทำ Incident Investigation รวมถึงการจัดทำรายงานและการนำเสนอ (Report & Presentation) ในภาษาที่เข้าใจได้ง่ายและชัดเจน
อีกทั้ง Generative AI กำลังจะถูกผนวกเข้ามาเป็นส่วนหนึ่งของ Cybersecurity Control ในอนาคตอันใกล้ ทำให้การควบคุมและการจัดการด้านความปลอดภัยมีประสิทธิภาพและยืดหยุ่นมากขึ้น
ด้วยเหตุผลทั้งหมดนี้เทคโนโลยี AI จะทำให้บทบาทของมนุษย์ในงานด้าน Cybersecurity เปลี่ยนจากการเป็นผู้ปฏิบัติงานหน้าจอคอมพิวเตอร์ ไปสู่การเป็นผู้ควบคุมการทำงานของ AI โดยเน้นการตรวจสอบและยืนยันความถูกต้องของผลลัพธ์ที่ AI สร้างขึ้น ทำให้ผู้ใช้งานจำเป็นต้องเข้าใจในหลักการทำงาน ของ AI มากกว่าวิธีการใช้งาน เพื่อตอบสนองการทำงานร่วมกับเทคโนโลยีได้อย่างมีประสิทธิภาพมากยิ่งขึ้นในอนาคต