เปิดความเสี่ยงในการใช้เครื่องมือ AI อย่าง ChatGPT, Google Gemini, Apple Intelligence
ผู้บริโภคหลายคนตื่นเต้นกับ AI ที่สามารถสร้างสรรค์ได้โดยใช้เครื่องมือใหม่ ๆ สำหรับเรื่องส่วนตัวหรือธุรกิจทุกประเภท ตั้งแต่ ChatGPT ของ OpenAI จนถึง Google Gemini, Microsoft Copilot และ Apple Intelligence เครื่องมือ AI สำหรับผู้บริโภคเหล่านี้สามารถเข้าถึงได้ง่ายและแพร่หลายอย่างรวดเร็ว ผู้เชี่ยวชาญเตือน “ไม่มีประโยชน์ที่แท้จริงสำหรับผู้บริโภคที่จะอนุญาตให้ AI เรียนรู้จากข้อมูลของพวกเขา และยังมีความเสี่ยงที่ยังคงถูกศึกษาต่อไป”
เกาหลีใต้ 22 พฤษภาคม 2567 - สำนักข่าวซีเอ็นบีซีเผย ความเสี่ยงใหญ่ที่สุดในการใช้ AI เช่น ChatGPT, Google Gemini, Microsoft Copilot, Apple Intelligence ในชีวิตประจำวัน อย่างไรก็ตาม เครื่องมือเหล่านี้มีนโยบายความเป็นส่วนตัวที่แตกต่างกันเกี่ยวกับการใช้ข้อมูลของผู้ใช้และการเก็บรักษา ในหลายกรณี
Jodi Daniels CEO และที่ปรึกษาด้านความเป็นส่วนตัวที่ Red Clover Advisors ซึ่งให้คำปรึกษาแก่บริษัทต่าง ๆ ในเรื่องความเป็นส่วนตัวกล่าวว่า “ไม่มีการยกเลิกการใช้ข้อมูลในทุกเครื่องมือทั้งหมด”
การแพร่หลายของเครื่องมือ AI และการรวมเข้ากับสิ่งที่ผู้บริโภคทำบนคอมพิวเตอร์ส่วนตัวและสมาร์ทโฟน ทำให้คำถามเหล่านี้มีความเกี่ยวข้องมากยิ่งขึ้น ตัวอย่างเช่น ไม่กี่เดือนที่ผ่านมา Microsoft ได้เปิดตัว Surface PC รุ่นแรกที่มีปุ่ม Copilot เฉพาะบนคีย์บอร์ดเพื่อการเข้าถึงแชทบอทอย่างรวดเร็ว
ตามคำสัญญาจากหลายเดือนก่อนหน้านี้ สำหรับส่วนของ Apple เมื่อเดือนที่แล้วได้กล่าวถึงวิสัยทัศน์ของ AI ซึ่งเน้นไปที่โมเดลขนาดเล็กหลายตัวที่ทำงานบนอุปกรณ์และชิปของ Apple ผู้บริหารของบริษัทได้พูดถึงความสำคัญที่บริษัทให้ความสำคัญกับความเป็นส่วนตัว ซึ่งอาจเป็นความท้าทายกับโมเดล AI
นี่คือหลายวิธีที่ผู้บริโภคสามารถปกป้องความเป็นส่วนตัวในยุคใหม่ของ AI ที่สามารถสร้างสรรค์ได้
ถามคำถามเกี่ยวกับความเป็นส่วนตัวที่ AI ต้องสามารถตอบได้
บางคนไว้วางใจในการใส่ข้อมูลที่ละเอียดอ่อนเข้าไปในโมเดล AI ที่สร้างสรรค์ได้ แต่ Andrew Frost Moroz ผู้ก่อตั้ง Aloha Browser ซึ่งเป็นเบราว์เซอร์ที่เน้นความเป็นส่วนตัว แนะนำว่าคุณไม่ควรใส่ข้อมูลที่ละเอียดอ่อนใด ๆ เนื่องจากพวกเขาไม่ทราบจริง ๆ ว่ามันอาจถูกใช้อย่างไรหรืออาจถูกใช้อย่างผิด ๆ ได้อย่างไร
นี่เป็นจริงสำหรับข้อมูลทุกประเภทที่คุณอาจใส่เข้าไป ไม่ว่าจะเป็นข้อมูลส่วนตัวหรือที่เกี่ยวข้องกับงาน หลายบริษัทมีความกังวลอย่างมากเกี่ยวกับพนักงานที่ใช้โมเดล AI เพื่อช่วยในการทำงานของพวกเขา เพราะพนักงานอาจไม่พิจารณาว่าข้อมูลนั้นถูกใช้อย่างไร โดยโมเดลสำหรับการฝึกอบรม หากคุณใส่เอกสารที่เป็นความลับ โมเดล AI จะสามารถเข้าถึงมันได้ ซึ่งอาจเกิดความกังวลต่าง ๆ มากมาย หลายบริษัทจะอนุมัติการใช้เครื่องมือ AI ที่สามารถสร้างสรรค์ได้ที่มีการป้องกันระหว่างข้อมูลที่เป็นเอกลักษณ์กับโมเดลภาษาขนาดใหญ่เท่านั้น
บุคคลทั่วไปก็ควรระมัดระวังและไม่ใช้โมเดล AI สำหรับสิ่งใดที่ไม่เป็นสาธารณะหรือที่คุณไม่ต้องการให้คนอื่นเห็นในทุกกรณี Frost Moroz กล่าว การตระหนักถึงวิธีการใช้ AI ของคุณเป็นสิ่งสำคัญ หากคุณใช้มันเพื่อสรุปบทความจาก Wikipedia นั่นอาจไม่ใช่ปัญหา
แต่หากคุณใช้มันเพื่อสรุปเอกสารทางกฎหมายส่วนบุคคล นั่นเป็นสิ่งที่ไม่ควรทำ หรือสมมติว่าคุณมีภาพของเอกสารและคุณต้องการคัดลอกย่อหน้าใดบรรทัดหนึ่ง คุณสามารถขอให้ AI อ่านข้อความเพื่อที่คุณจะได้คัดลอกได้ การทำเช่นนี้ โมเดล AI จะรู้เนื้อหาของเอกสาร ดังนั้น ผู้บริโภคควรตระหนักถึงความเสี่ยงดังกล่าว
ใช้การยกเลิกที่มีให้โดย OpenAI, Google
เครื่องมือ AI ที่สามารถสร้างสรรค์ได้แต่ละตัวมีนโยบายความเป็นส่วนตัวของตัวเองและอาจมีตัวเลือกในการยกเลิก ตัวอย่างเช่น Gemini อนุญาตให้ผู้ใช้สร้างระยะเวลาเก็บรักษาและลบข้อมูลบางอย่างได้ รวมถึงการควบคุมกิจกรรมอื่น ๆ
ไม่มีประโยชน์ที่แท้จริงสำหรับผู้บริโภคที่จะอนุญาตให้ AI ที่สามารถสร้างสรรค์ได้ฝึกอบรมจากข้อมูลของพวกเขาและยังมีความเสี่ยงที่ยังคงถูกศึกษาต่อไป Jacob Hoffman-Andrews นักเทคโนโลยีอาวุโสที่ Electronic Frontier Foundation ซึ่งเป็นกลุ่มไม่แสวงหาผลกำไรด้านสิทธิ์ดิจิทัลระหว่างประเทศกล่าวว่า
หากข้อมูลส่วนตัวถูกเผยแพร่บนเว็บอย่างไม่เหมาะสม ผู้บริโภคอาจสามารถลบมันออกได้และมันจะหายไปจากเครื่องมือค้นหา แต่การยกเลิกการฝึกอบรมโมเดล AI นั้นเป็นเรื่องที่ซับซ้อนกว่ามาก เขากล่าวว่า อาจมีวิธีการลดการใช้ข้อมูลบางอย่างเมื่อมันเข้าสู่โมเดล AI แต่ไม่สามารถป้องกันได้อย่างสมบูรณ์และวิธีการทำอย่างมีประสิทธิภาพยังเป็นพื้นที่ที่กำลังถูกวิจัยอย่างต่อเนื่อง
เลือกใช้ด้วยเหตุผลที่ดีเท่านั้น
บริษัทต่าง ๆ กำลังรวม AI ที่สามารถสร้างสรรค์ได้เข้ากับเครื่องมือในชีวิตประจำวันของผู้คนทั้งในชีวิตส่วนตัวและการทำงานของพวกเขา ตัวอย่างเช่น Copilot สำหรับ Microsoft 365 ทำงานภายใน Word, Excel และ PowerPoint เพื่อช่วยผู้ใช้ในงานต่าง ๆ เช่น การวิเคราะห์ การสร้างไอเดีย การจัดระเบียบ และอื่นๆ
สำหรับเครื่องมือเหล่านี้ Microsoft กล่าวว่าไม่ได้แชร์ข้อมูลของผู้บริโภคกับบุคคลที่สามโดยไม่ได้รับอนุญาต และไม่ได้ใช้ข้อมูลลูกค้าเพื่อฝึกอบรม Copilot หรือฟีเจอร์ AI ของตนโดยไม่ได้รับความยินยอม
อย่างไรก็ตาม ผู้ใช้สามารถเลือกใช้ได้หากต้องการ โดยการเข้าสู่ Power Platform admin center เลือกการตั้งค่า tenant settings และเปิดการแชร์ข้อมูลสำหรับ Dynamics 365 Copilot และ Power Platform Copilot AI Features จากนั้นเปิดการแชร์ข้อมูลและบันทึก
ข่าวดีคือ ผู้บริโภคที่เลือกใช้กับ Microsoft สามารถถอนความยินยอมของตนได้ทุกเมื่อ ผู้ใช้สามารถทำเช่นนี้ได้โดยไปที่หน้า tenant settings ภายใต้การตั้งค่าใน Power Platform admin center และปิดการแชร์ข้อมูลสำหรับ Dynamics 365 Copilot และ Power Platform Copilot AI Features
กำหนดระยะเวลาการเก็บรักษาสั้นสำหรับ AI ที่สร้างสรรค์ได้สำหรับการค้นหา
ผู้บริโภคอาจไม่คิดมากก่อนที่จะหาข้อมูลโดยใช้ AI โดยใช้มันเหมือนกับที่ใช้เครื่องมือค้นหาเพื่อสร้างข้อมูลและไอเดีย อย่างไรก็ตาม แม้แต่การค้นหาข้อมูลบางประเภทโดยใช้ AI ที่สามารถสร้างสรรค์ได้ก็อาจก่อให้เกิดการล่วงล้ำความเป็นส่วนตัวของบุคคล ดังนั้นจึงมีแนวทางปฏิบัติที่ดีที่สุดเมื่อใช้เครื่องมือเหล่านั้นเพื่อวัตถุประสงค์ดังกล่าว หากเป็นไปได้ ควรกำหนดระยะเวลาการเก็บรักษาสั้นสำหรับเครื่องมือ AI ที่สามารถสร้างสรรค์ได้