15 มิ.ย. เวลา 05:02 • ยานยนต์

เบื้องหลัง ‘รถไร้คนขับ Tesla’ ทำไมชนคน ‘เสียชีวิต’ ทั้งที่กล้องรถก็จับเห็นคน แต่ไม่เลือกเบรก?

‘รถไร้คนขับ’ เทรนด์ร้อนแรงที่มาพร้อมศักยภาพเติบโตมหาศาล แต่เบื้องหลังความก้าวหน้า กลับมีข้อกังวลความปลอดภัยที่น่าตกใจ โดยเฉพาะอุบัติเหตุรถ Tesla ชนคน ‘เสียชีวิต’ สู่ข้อถกเถียงด้านความปลอดภัย การโฆษณาเกินจริง และความเสี่ยงจากระบบเซ็นเซอร์เดียว
เมื่อเทรนด์ “รถยนต์ไร้คนขับ” เติบโตแรง โดยสถาบันวิจัย Grand View Research คาดการณ์ว่า จะมีมูลค่าแตะราว 200,000 ล้านดอลลาร์ภายในปี 2030 ด้วยอัตราเติบโตเฉลี่ยต่อปีแบบทบต้นอยู่ที่ 19.9% ระหว่างปี 2025 ถึง 2030 อีกทั้ง Tesla ก็เตรียมเปิดตัว “โรโบแท็กซี่” ในวันที่ 22 มิถุนายนนี้ด้วย สะท้อนว่า เทรนด์ที่มีแนวโน้มแพร่หลายต่อจาก AI อาจเป็น “รถยนต์ไร้คนขับ”
อย่างไรก็ตาม เหรียญย่อมมี 2 ด้าน ในโอกาสเติบโตจนน่าลงทุน ก็มี “ความเสี่ยงใหญ่” เกิดขึ้น นั่นคือ รถไร้คนขับของ Tesla เคยเกิดอุบัติเหตุ ซึ่งไม่ใช่อุบัติเหตุทั่วไป แต่ร้ายแรงระดับ “ชนคนเสียชีวิต” สะท้อนว่าสิ่งนี้ไม่ได้ปลอดภัย 100% หรือไม่
ย้อนไปเมื่อวันที่ 27 พฤศจิกายน 2023 รถยนต์ Tesla Model Y ที่เปิดระบบ Full Self-Driving (FSD) ได้พุ่งชน “โจห์นา สตอรี” (Johna Story) หญิงชราวัย 71 ปี ด้วยความเร็ว 104 กิโลเมตรต่อชั่วโมง ส่งผลให้เธอเสียชีวิตทันที
ที่น่าตกใจกว่านั้น คือ ในที่เกิดเหตุ โจห์นา สตอรีที่กำลังช่วยเหลือการจราจรบนทางหลวงในรัฐแอริโซนา ได้สวมเสื้อสะท้อนแสงสีส้ม เพื่อช่วยเตือนรถที่กำลังมาถึง
ไม่เพียงเท่านั้น วิดีโอบันทึกจากกล้องในรถ Tesla แสดงให้เห็นว่า Tesla Model Y ของคาร์ล สต็อก ยังคงวิ่งด้วยความเร็ว 104 กิโลเมตรต่อชั่วโมง แม้ว่ารถหลายคันข้างหน้าเริ่มเบรกหรือหยุดนิ่ง แต่รถ Tesla ก็ไม่มีทีท่าจะชะลอลง แต่ยังคงรักษาระดับความเร็วไว้แม้ก่อนถึงจุดเกิดเหตุ และได้ชนยายโจห์นา สตอรีอย่างจัง
1
นับเป็นอุบัติเหตุที่คร่าชีวิตคนเดินเท้า ที่ทราบแน่ชัดว่า “เกี่ยวข้องกับระบบขับขี่ของ Tesla” และนำไปสู่การสอบสวนจากรัฐบาลกลางสหรัฐ โดยเกิดขึ้นในสภาพที่มีแสงแดดจ้าบนทางหลวงระหว่าง Flagstaff และ Phoenix
ตามข้อมูลจาก NHTSA ซึ่งเป็นหน่วยงานบริหารความปลอดภัยบนท้องถนนของสหรัฐ ระบุว่า Tesla ไม่ได้รายงานอุบัติเหตุนี้ในทันที แต่รายงาน “ล่าช้าไป 7 เดือน” หลังเกิดเหตุ
1
หลังจากเหตุการณ์ในรัฐแอริโซนา ยังมีรายงานว่ารถ Tesla ที่ใช้ Full Self-Driving เกิดอุบัติเหตุในสภาพทัศนวิสัยอย่างแสงอาทิตย์จ้า หมอก หรือฝุ่น ในรัฐแคลิฟอร์เนีย เวอร์จิเนีย และโอไฮโอในปี 2024
3
ในปัจจุบัน Tesla ยังคงเดินหน้าทดสอบรถไร้คนขับในเมืองออสติน รัฐเท็กซัสในสหรัฐ ก่อนที่จะมีแผนเปิดตัวบริการ “แท็กซี่ไร้คนขับ” ในวันที่ 22 มิถุนายนนี้ แม้ยังไม่มีคำตอบที่ชัดเจนเรื่องความปลอดภัยจากหน่วยงานรัฐก็ตาม
จากการสืบสวนและความเห็นของเหล่าผู้เชี่ยวชาญต่าง ๆ สามารถสรุปออกมาเป็น “3 สาเหตุใหญ่” ของอุบัติเหตุ Tesla ไว้ดังนี้
📌1. ระบบขับขี่อัตโนมัติ ‘ไม่ปลอดภัย 100%’
แม้ว่าชื่อ “Full Self-Driving” (FSD) ของ Tesla จะฟังดูเหมือนระบบขับขี่อัตโนมัติเต็มรูปแบบ ที่ชวนให้คิดว่ารถจะจัดการให้เราทุกอย่าง แต่ในความเป็นจริง จำเป็นต้องมี “คนควบคุม” อยู่หลังพวงมาลัยตลอดเวลา หรือกล่าวอีกนัยหนึ่งคือ FSD ยังไม่สามารถปล่อยให้รถขับเองได้อย่างแท้จริง ผู้ขับขี่ยังต้องพร้อมเข้าแทรกแซงเสมอ
อีกข้อจำกัดของ FSD คือ ยังไม่สามารถตอบสนองต่อสถานการณ์ฉุกเฉิน หรือทัศนวิสัยต่ำได้อย่างมีประสิทธิภาพ เช่น แสงอาทิตย์ที่จ้าจนกล้องจับภาพไม่ได้ หมอกหนาทึบ หรือฝุ่นละอองในอากาศที่บดบังกล้อง ซึ่งอาจนำไปสู่ความเสี่ยงอุบัติเหตุ หากปล่อยให้รถวิ่งเองอย่างเดียว
📌2. Tesla ใช้แค่ ‘กล้อง’ เป็นเซ็นเซอร์หลักชนิดเดียว
เมื่อเปรียบเทียบรถไร้คนขับระหว่าง “Tesla” กับ “Waymo” ของ Alphabet พบว่า Tesla ใช้เซ็นเซอร์น้อยกว่า Waymo ถึงหนึ่งในสาม โดย Tesla ใช้เพียง “กล้อง” เป็นเซ็นเซอร์หลักเพียงชนิดเดียว ต่างจาก Waymo ที่ใช้เซ็นเซอร์หลายตัว โดยใช้ทั้งกล้อง เรดาร์ และไลดาร์ (การวัดระยะทางและสร้างภาพ 3 มิติด้วยแสงเลเซอร์)
ผู้เชี่ยวชาญระบุว่า การใช้เซ็นเซอร์หลายประเภท จะเพิ่มการตรวจสอบซ้ำและเพิ่ม “ความน่าเชื่อถือกว่า” ในการช่วยตรวจจับสิ่งกีดขวางได้ แม้ในสภาพแสงไม่ดี
ด้วยการที่ Waymo มีเซ็นเซอร์หลายประเภท ทำให้มีต้นทุนเซ็นเซอร์สูงกว่า Tesla ราว 23 เท่า โดยชุดเซ็นเซอร์ของ Tesla Model 3 มีราคาเพียง 400 ดอลลาร์ (13,000 บาท) ในขณะที่ของ Waymo สูงถึง 9,300 ดอลลาร์ (300,000 บาท) ต่อคัน ตามรายงานของ BloombergNEF
1
📌3. การโฆษณา ‘เกินจริง’ ของอีลอน มัสก์?
ที่ผ่านมา อีลอน มัสก์และ Tesla มักสื่อสารผ่านโซเชียลมีเดียเกี่ยวกับระบบขับขี่อัตโนมัติของตัวเองว่า “จิบชาใน Tesla ขณะที่มันขับให้คุณ” หรือ “ด้วยระบบ Full Self-Driving พวงมาลัยของคุณอาจเริ่มเก็บฝุ่นได้” ซึ่งโพสต์เหล่านี้อาจชวนให้ “เข้าใจผิด” ว่า สามารถปล่อยให้ระบบขับได้เองเต็มที่ และปลอดภัย
1
สิ่งที่โฆษณาสื่อสาร กลับแตกต่างจากคู่มือ Tesla เองที่เตือนว่า “ผู้ขับต้องใส่ใจตลอดเวลา” และกล้องอาจ “ไม่ตรวจจับวัตถุที่อาจก่อให้เกิดอันตราย”
ด้าน NHTSA ได้แสดงความกังวลเกี่ยวกับการโพสต์เหล่านี้ พร้อมเน้นย้ำว่า รถยนต์ของ Tesla ไม่ใช่รถขับเคลื่อนอัตโนมัติเต็มรูปแบบ และยังคงต้องการคนขับที่ใส่ใจอยู่ตลอดเวลา
ไบรอันต์ วอล์กเกอร์ สมิธ นักกฎหมายและวิศวกรผู้ให้คำปรึกษาแก่เมือง รัฐ และประเทศต่าง ๆ เกี่ยวกับเทคโนโลยีการขนส่งยุคใหม่เตือนว่า ความพยายามของเทสลาในการผลักดันรถยนต์ไร้คนขับ ‘อาจเกิดขึ้นเร็วเกินไป’
“พวกเขากำลังอ้างว่า ตนเองใกล้จะสามารถทำสิ่งหนึ่งได้ นั่นคือการขับขี่อัตโนมัติอย่างแท้จริง ทั้งที่หลักฐานทั้งหมดชี้ว่า พวกเขายังไม่สามารถทำได้อย่างปลอดภัย” สมิธกล่าว
โฆษณา