รู้หรือไม่ว่าเอไอก็ลำเอียงเป็น เพราะอคติของเอไอนั้นเกิดจากการที่ผู้ที่คอยสร้างอัลกอริธึมและป้อนข้อมูล Training data ให้เอไอเรียนรู้มักจะเป็นมนุษย์เราซึ่งอาจเกิดอคติในการเลือกสรรข้อมูลโดยไม่รู้ตัว หรืออาจเกิดจากการประมวลผลที่ไม่เข้ากับบริบท เช่น ใช้ข้อมูลของคนแค่บางกลุ่มไปวิเคราะห์แบบเหมารวม หรือใช้ข้อมูลไม่กว้างขวางและหลากหลายพอ
NIST proposes that prioritising 'diversity' can solve AI biases.
Do you know that AI can also have biases? AI biases come from algorithms and data built and selected by human agents. Humans sometimes unconsciously create and input data that isn't diverse enough and doesn't include minorities or fit the context.
AI biases cause discrimination against minorities and in education. It also yields racism and sexism, especially with the models that are already discriminatory like the use of AI in hiring, credit analysing, or policy evaluation. Research also shows that most people are not willing to trust AI.
The National Institute of Standards and Technology (NIST) is the U.S. agency responsible for technological safety proposed that prioritise and emphasise 'diversity' can prevent and solve AI biases. Developers should seriously take diversity in races and cultures into consideration since the dataset creation.
Developers should also improve their understanding of the connection between language and power. The algorithm development processes should also be constantly tackled using the Counterfactual fairness testing method.