12 ก.ค. 2021 เวลา 07:00 • วิทยาศาสตร์ & เทคโนโลยี
NIST เสนอให้เน้นย้ำเรื่อง ‘ความหลากหลาย’ ป้องกันอคติของเอไอ
รู้หรือไม่ว่าเอไอก็ลำเอียงเป็น เพราะอคติของเอไอนั้นเกิดจากการที่ผู้ที่คอยสร้างอัลกอริธึมและป้อนข้อมูล Training data ให้เอไอเรียนรู้มักจะเป็นมนุษย์เราซึ่งอาจเกิดอคติในการเลือกสรรข้อมูลโดยไม่รู้ตัว หรืออาจเกิดจากการประมวลผลที่ไม่เข้ากับบริบท เช่น ใช้ข้อมูลของคนแค่บางกลุ่มไปวิเคราะห์แบบเหมารวม หรือใช้ข้อมูลไม่กว้างขวางและหลากหลายพอ
การที่เอไอมีอคติก่อให้เกิดผลเสียตามมามากมายในการประมวลผล เช่น ผลกระทบต่อคนกลุ่มน้อย การเหยียดเชื้อชาติ การเหยียดเพศ เหยียดระดับการศึกษา เป็นต้น โดยเฉพาะอย่างยิ่งสำหรับการใช้ข้อมูลในระบบที่มีการแบ่งแยกในตัวอยู่แล้ว เช่น ใช้เอไอวิเคราะห์คุณสมบัติของผู้สมัครงาน หรืออนุมัติวงเงินกู้ หรือแม้แต่การใช้เอไอในการเลือกบังคับใช้นโยบายต่าง ๆ นอกจากนี้ยังมีงานวิจัยที่แสดงให้เห็นว่าคนส่วนมากไม่เชื่อใจเอไอเท่าไหร่นักอีกด้วย
หน่วยงาน NIST ซึ่งเป็นหน่วยงานที่ดูแลมาตรฐานด้านความปลอดภัยทางเทคโนโลยีของสหรัฐอเมริกาได้นำเสนอวิธีที่จะจัดการกับอคติของเอไอ โดยเสนอว่าการให้ความสำคัญเรื่อง ‘ความหลากหลาย’ นั้นจำเป็นที่สุด ไม่ว่าจะเป็นความหลากหลายทางเชื้อชาติ ภาษา วัฒนธรรม หรือประชากรศาสตร์ เป็นสิ่งสำคัญที่ควรคำนึงถึงเป็นหลักตั้งแต่ช่วงพัฒนาชุดข้อมูล
โดยทีมพัฒนาควรเพิ่มความละเอียดอ่อนในการทำความเข้าใจการเชื่อมโยงของภาษาวัฒนธรรมและความไม่เท่าเทียมหรืออำนาจให้มากขึ้น นอกจากนี้ในช่วงของการพัฒนาควรมีการตรวจสอบอย่างละเอียดโดยใช้วิธีตรวจสอบความยุติธรรมเช่น Counterfactual fairness มาร่วมในการสร้างอัลกอริธึม
การตรวจหาอคติในเอไอเป็นเรื่องละเอียดอ่อน บางครั้งข้อมูลที่คิดว่าปราศจากอคติแล้วก็อาจมีความเอนเอียงเกิดขึ้นได้หากนำไปใช้ในบางบริบท จึงต้องมีการตรวจสอบอยู่เป็นระยะ ๆ ซึ่งหากทำได้จะช่วยให้เอไอเป็นที่ยอมรับในวงกว้างและนำมาพัฒนาโลกได้มากขึ้น
NIST proposes that prioritising 'diversity' can solve AI biases.
Do you know that AI can also have biases? AI biases come from algorithms and data built and selected by human agents. Humans sometimes unconsciously create and input data that isn't diverse enough and doesn't include minorities or fit the context.
AI biases cause discrimination against minorities and in education. It also yields racism and sexism, especially with the models that are already discriminatory like the use of AI in hiring, credit analysing, or policy evaluation. Research also shows that most people are not willing to trust AI.
The National Institute of Standards and Technology (NIST) is the U.S. agency responsible for technological safety proposed that prioritise and emphasise 'diversity' can prevent and solve AI biases. Developers should seriously take diversity in races and cultures into consideration since the dataset creation.
Developers should also improve their understanding of the connection between language and power. The algorithm development processes should also be constantly tackled using the Counterfactual fairness testing method.
บทความโดย: ทีม Sertis
โฆษณา