หรืออัลกอริทึมของการเรียนรู้ของเครื่องได้ ถูกนำมาใช้เพื่ออธิบายโมเดล AI ถึงผลกระทบที่เกิดจาก output และอคติที่คาดว่าจะเกิดขึ้น ช่วยกำหนดลักษณะความแม่นยำ ความเป็นธรรม ความโปร่งใส และ outcome หรือผลสัมฤทธิ์ของโมเดลในการตัดสินใจที่ขับเคลื่อนด้วย AI มีความสำคัญต่อองค์กรในการสร้างความไว้วางใจและความเชื่อมั่นเมื่อนำโมเดลไปใช้ในกระบวนการผลิต นอกจากนี้ AI ที่อธิบายได้ยังช่วยให้องค์กรนำแนวทางที่รับผิดชอบมาใช้กับการพัฒนา AI อีกด้วย
เมื่อ AI มีความก้าวหน้ามากขึ้น มนุษย์ก็ต้องเผชิญกับความท้าทายในการทำความเข้าใจและย้อนกลับไปดูว่าอัลกอริทึมได้ output มาอย่างไร กระบวนการคำนวณภายในขั้นตอนวิธีทั้งหมดกลายเป็นปัญหาที่เรียกว่า “Black Box AI” หรือปัญหากล่องดำของ AI ซึ่งยากต่อการทำความเข้าใจหรือตีความไม่ได้
ถึงจะถูกสร้างขึ้นโดยตรงจากข้อมูลหรือชุดข้อมูล (dataset) แม้แต่วิศวกรข้อมูลหรือนักวิทยาการข้อมูลที่สร้างอัลกอริทึมก็ไม่เข้าใจหรืออธิบายได้ว่าเกิดอะไรขึ้นภายในโมเดลนั้นกันแน่ หรืออัลกอริทึม AI ได้มาซึ่ง output ที่เฉพาะเจาะจงได้อย่างไร
กล่องดำของ AI (Black Box AI) และ AI ที่อธิบายได้ (Explainable AI)
Source: What is Explainable AI (XAI)? URL: https://www.skedler.com/blog/what-is-explainable-ai-xai/
องค์กรจำเป็นต้องเข้าใจกระบวนการตัดสินใจเกี่ยวกับ AI อย่างถ่องแท้ด้วยการติดตามโมเดลและการรับผิดชอบต่อ AI และไม่ควรเชื่อใจ AI อย่างไม่ลืมหูลืมตา บทความนี้นำเสนอ AI ที่อธิบายได้ ที่จะช่วยให้มนุษย์เข้าใจและอธิบายอัลกอริทึมการเรียนรู้ของเครื่อง (Machine Learning) โครงข่ายประสาทเทียม (Neural Networks) และการเรียนรู้เชิงลึก (Deep Learning) ได้
โมเดลการเรียนรู้ของเครื่องถูกมองว่าเป็นBlack Box AI ซึ่งยากต่อการตีความหรือทำความเข้าใจ เช่น เรามองไม่เห็น process ภายในกล่องดำว่ามีขั้นตอนวิธีในการจัดการตัวแปรหรือพารามิเตอร์ที่ถูก input เข้ามาเป็นจำนวนมาก แต่พอถึงขั้นตอนสุดท้ายกลับได้ output ออกมาจากกล่องดำ ดังนั้น การเรียนรู้เชิงลึกจึงถือว่าเป็นโครงข่ายประสาทเทียมที่มนุษย์เข้าใจได้ยากที่สุด เป็นความเสี่ยงที่เกิดขึ้นมายาวนานในการ train โมเดล AI
นอกจากนี้ ประสิทธิภาพของโมเดล AI อาจคลาดเคลื่อนหรือถดถอยลงได้ เนื่องจากข้อมูลการ test แตกต่างจากข้อมูลการ train ซึ่งทำให้จำเป็นอย่างยิ่งที่ธุรกิจจะต้องตรวจสอบและจัดการโมเดลอย่างต่อเนื่องเพื่อส่งเสริมความสามารถในการอธิบายของ AI ขณะเดียวกันก็วัดผลกระทบต่อธุรกิจจากการใช้อัลกอริทึมดังกล่าว
โดย XAI ยังช่วยส่งเสริมความไว้วางใจของผู้ใช้งานระดับ End users ความสามารถในการตรวจสอบโมเดล และการใช้ AI อย่างมีประสิทธิผล นอกจากนี้ยังลดความเสี่ยงด้านการปฏิบัติตามกฎระเบียบ ข้อกฎหมาย การคำนึงถึงความปลอดภัย และชื่อเสียงของ AI ในการผลิตอีกด้วย
XAI ถือเป็นหนึ่งในข้อกำหนดหลักสำหรับการนำ AI ที่มีความรับผิดชอบมาใช้ ซึ่งเป็นระเบียบวิธีสำหรับการนำวิธี AI ไปใช้ในองค์กรจริงในระดับใหญ่โดยต้องมีความบริสุทธิ์ยุติธรรม สามารถอธิบายแบบจำลองได้ และมีความรับผิดชอบต่อสังคม เพื่อช่วยให้นำ AI มาใช้งานได้อย่างมีความรับผิดชอบ องค์กรต่างๆ จำเป็นต้องปลูกฝังหลักจริยธรรมไว้ในแอปพลิเคชันและกระบวนการ AI โดยสร้างระบบ AI บนพื้นฐานของความไว้วางใจและความโปร่งใส
AIที่อธิบายได้ ทำงานอย่างไร
จากบริบทของการเรียนรู้ของเครื่องที่ตีความได้และปัญญาประดิษฐ์ที่อธิบายได้ องค์กรต่างๆ จึงเข้าถึงการตัดสินใจพื้นฐานของเทคโนโลยี AI และมีอำนาจในการปรับเปลี่ยน AI ที่อธิบายได้ ปรับปรุงประสบการณ์ของผู้ใช้ผลิตภัณฑ์หรือบริการได้โดยช่วยให้ผู้ใช้งานหรือผู้บริโภคมั่นใจว่า AI มีการตัดสินใจที่ดีเยี่ยม เมื่อใดระบบ AI ให้ความเชื่อมั่นเพียงพอในการตัดสินใจที่เราไว้วางใจได้ รวมถึงการที่ระบบ AI จะแก้ไขข้อผิดพลาดที่เกิดขึ้นได้อย่างไร
เมื่อวิวัฒนาการของ AI มีความก้าวหน้ามากขึ้น กระบวนการเรียนรู้ของเครื่องยังคงต้องได้รับการทำความเข้าใจและควบคุมเพื่อให้แน่ใจว่า output ของโมเดลถูกต้องแม่นยำ ลองมาดูความแตกต่างระหว่าง AI และ XAI รวมถึงวิธีการและเทคนิคที่ใช้ในการเปลี่ยน AI ให้เป็น XAI และความแตกต่างระหว่างการตีความของ AI และอธิบายกระบวนการ AI ดังนี้
เทคนิค XAI
Source: “Explainable Artificial Intelligence (XAI)”, Dr. Matt Turek, The U.S. Defense Advanced Research Projects Agency (DARPA). URL: https://www.darpa.mil/program/explainable-artificial-intelligence
เปรียบเทียบ AI และ XAI
XAI ใช้เทคนิคและวิธีการเฉพาะเพื่อให้แน่ใจว่าสามารถติดตามและอธิบายการตัดสินใจแต่ละครั้งที่เกิดขึ้นในกระบวนการเรียนรู้ของเครื่องได้ ในทางกลับกัน AI มักจะได้จากอัลกอริทึมการเรียนรู้ของเครื่อง แต่นักพัฒนาระบบ AI ไม่เข้าใจอย่างถ่องแท้ว่าอัลกอริทึมได้ output นั้นมาได้อย่างไร ซึ่งทำให้ยากต่อการตรวจสอบความถูกต้องและนำไปสู่การสูญเสียการควบคุม ความรับผิดชอบ และการตรวจสอบ
A) การทำนายแบบ Random forest ที่กำหนดคุณลักษณะ x1 และ x2 คลาสที่ทำนาย: 1 (dark) หรือ 0 (light)
B) จุดใหญ่แสดงตัวแทนที่สนใจ (instance of interest) และจุดเล็กแสดงข้อมูลที่สุ่มตัวอย่างจากการแจกแจงแบบปกติ
C) กำหนดค่าน้ำหนักที่สูงกว่าให้กับจุดที่อยู่ใกล้กับตัวแทนที่สนใจ C) เครื่องหมายของกริดแสดงการจำแนกประเภทของแบบจำลองที่เรียนรู้ใน local จากตัวอย่างที่มีน้ำหนัก เส้นสีขาวแสดงขอบเขตการตัดสินใจ (P(class=1) = 0.5)
อัลกอริทึม LIME สำหรับข้อมูลแบบตาราง
Source: Interpretable Machine Learning, Christoph Molnar URL: https://christophm.github.io/interpretable-ml-book/lime.html
2) การตรวจสอบย้อนกลับ (Traceability)
การตรวจสอบย้อนกลับเป็นเทคนิคสำคัญอีกประการหนึ่งในการบรรลุผลสำเร็จของ XAI ซึ่งทำได้โดยการจำกัดวิธีการตัดสินใจและกำหนดขอบเขตที่แคบลงสำหรับกฎและคุณลักษณะของ ML ตัวอย่างเทคนิค XAI สำหรับการตรวจสอบย้อนกลับคือ DeepLIFT (Deep Learning Important FeaTures) ซึ่งเปรียบเทียบการทำงานของแต่ละนิวรอนกับนิวรอนอ้างอิง และแสดงความเชื่อมโยงที่ตรวจสอบย้อนกลับได้ระหว่างแต่ละนิวรอนที่ถูกเปิดใช้งาน และยังแสดงความสัมพันธ์ระหว่างนิวรอนทั้งสองด้วย
นี่คือปัจจัยด้านมนุษย์ หลายคนไม่ไว้วางใจ AI แต่เพื่อที่จะทำงานกับ AI ได้อย่างมีประสิทธิภาพ พวกเขาจำเป็นต้องเรียนรู้ที่จะไว้วางใจ AI ซึ่งทำได้โดยให้ความรู้แก่ทีมงานที่ทำงานกับ AI เพื่อให้พวกเขาเข้าใจว่า AI ตัดสินใจอย่างไรและเพราะเหตุใด
ความสามารถในการอธิบายเทียบกับความสามารถในการตีความใน AI
ความสามารถในการตีความคือระดับที่ผู้สังเกตการณ์สามารถเข้าใจสาเหตุของการตัดสินใจได้ โดยมนุษย์สามารถคาดการณ์อัตราความสำเร็จสำหรับผลลัพธ์ของเอาต์พุตของ AI ได้ ในขณะที่ความสามารถในการอธิบายจะก้าวไปอีกขั้นและพิจารณาว่า AI ไปถึงผลลัพธ์ได้อย่างไร
Explainable AI) เกี่ยวข้องกับ Responsible AI อย่างไร
Explainable AI หรือ AI ที่อธิบายได้ และ AI ที่รับผิดชอบ มีวัตถุประสงค์ที่คล้ายคลึงกัน แต่มีแนวทางที่แตกต่างกัน ความแตกต่างหลักๆ ระหว่าง AI ที่อธิบายได้ และ AI ที่รับผิดชอบ ดังต่อไปนี้
- AI ที่อธิบายได้ จะพิจารณาผลลัพธ์ของ AI หลังจากทำการคำนวณ results แล้ว
- AI ที่รับผิดชอบ จะพิจารณา AI ในระหว่างขั้นตอนการวางแผนเพื่อให้อัลกอริทึม AI ที่รับผิดชอบก่อนที่จะทำการคำนวณ results
- AI ที่อธิบายได้ และ AI ที่รับผิดชอบ สามารถทำงานร่วมกันเพื่อสร้าง AI ที่ดีขึ้น
ประโยชน์ของ AI ที่อธิบายได้
ใช้งาน AI ด้วยความน่าเชื่อถือและความมั่นใจ
สร้างความน่าเชื่อถือใน AI ที่ใช้ในกระบวนการผลิต นำโมเดล AI ของไปใช้ในการเพิ่มผลผลิตอย่างรวดเร็ว รับรองความสามารถในการตีความและการอธิบายของโมเดล AI ลดความซับซ้อนของกระบวนการประเมินโมเดลในขณะที่เพิ่มความโปร่งใสและการตรวจสอบย้อนกลับของโมเดล