4 Min

อย่าไว้ใจ AI ถ้ามนุษย์ยังมี “อคติ” เมื่อตำรวจเมกันจับคนผิด เพราะระบบ AI แยกหน้าคนดำไม่ได้

4 Min
673 Views
13 Jun 2021

Select Paragraph To Read

  • รัฐกับการตรวจจับใบหน้า
  • เมื่อ AI จับคนผิด
  • จะดีกว่าไหม ถ้าระบบยุติธรรมปลอด AI?

ยุคสมัยนี้คือยุคสมัยที่เทคโนโลยีต่างๆ พัฒนาเร็วอย่างน่าตื่นเต้นมาก เรียกได้ว่าถ้าไม่มี COVID-19 มาแย่งซีน ตอนนี้เราก็อาจจะตื่นเต้นกับเทคโนโลยีใหม่ๆ ที่ดาหน้ากันออกมาระดับไม่ทันหายใจ รู้ตัวอีกที เหมือนมีชีวิตอยู่ในหนังไซไฟ

ในบรรดาเทคโนโลยีกลุ่มที่พัฒนาเร็วมากๆ ก็ได้แก่เทคโนโลยีการประมวลผลใบหน้า ซึ่งก็นำไปสู่เทคโนโลยี “เปลี่ยนใบหน้า” สุดล้ำแบบจะเอาหน้าใครไปใส่ในวิดีโอก็ได้อย่าง Deepfake

แต่อีกด้าน เทคโนโลยีกลุ่มเดียวกันที่พื้นๆ อย่างการตรวจจับใบหน้าก็เรียกได้ว่า “พัฒนาไปไกล” ระดับที่ภาครัฐเอาไปใช้แล้ว

รัฐกับการตรวจจับใบหน้า

เราอาจคุ้นเคยกับฉากในหนังไซไฟที่ภาครัฐเอาข้อมูลหน้าอาชญากรจากกล้องวงจรปิดไปเข้าฐานข้อมูลเพื่อหาว่าเป็นใคร เพื่อไปจับกุม

จริงๆ อะไรพวกนี้เพิ่งถูกใช้มาสักพักแล้วในโลกแห่งความจริงของเรา แต่คนก็ต่อต้านกันมากว่า เทคโนโลยีแบบนี้ “เชื่อใจได้” ขนาดนั้นเลยเหรอ

คือรัฐนั้นควรจะมีอำนาจในการจับคนเพียงเพราะ “หลักฐานจากกล้องวงจรปิด” เท่านั้นเองหรือ?

ถ้าภาพมันไม่ชัดล่ะ? ถ้า AI ประมวลผลแล้วไปแมตช์กับคนไม่รู้อิโหน่อิเหน่ล่ะ แบบนี้จะยังไง!?

กล่าวอีกแบบคือ การใช้ AI ตรวจจับใบหน้าน่ะ ส่วนใหญ่ AI จะตรวจตรงอยู่แล้ว แต่ในกระบวนการพัฒนา AI ทั้งหมด เขาก็มีสิ่งที่เรียกว่า “ตรวจว่าถูกทั้งๆ ที่ผิด” (False Positive)  คือเป็นไปได้ เป็นเรื่องปกติ แม้ว่าจะมีอัตราน้อย แต่เกิดขึ้นได้ ไม่ได้ต่างจากผลข้างเคียงของยาหรือวัคซีน คือมันจะไม่เกิดกับคนส่วนใหญ่ แต่มีโอกาสเกิดแน่นอนกับคนส่วนน้อย

ซึ่งพอมาเป็นเรื่องกระบวนการใช้กฎหมาย คำถามคือ ถ้า AI ทำพลาด (ซึ่งต้องมีพลาดบ้างแน่ๆ) จะยังไงต่อ…

เมื่อ AI จับคนผิด

คำถามนี้ไม่ใช่เรื่องในทางทฤษฎีอีกต่อไป หลังจากวันที่ 9 มกราคม 2020 นาย Robert Williams คนดำจากดีทรอยต์ รัฐมิชิแกนขับรถกลับบ้านมากับลูกเมีย เมื่อถึงบ้าน เขาโดนตำรวจจับกุมอย่างรุนแรง ฐานปล้นร้านขายของชำ และต้องไปนอนในห้องขังถึง 30 ชั่วโมง ก่อนตำรวจจะพบว่าจริงๆ แล้วนาย Williams ไม่ได้อยู่ในที่เกิดเหตุ และหลักฐานเดียวของการจับกุมก็คือภาพที่ไม่ชัดจากกล้องวงจรปิด ที่ตัวคนปล้นร้านชำไม่ได้มองกล้องเท่านั้น แต่ตำรวจก็ยังดันทุรังเอาภาพเบลอๆ ที่ว่าให้ AI หาว่าเป็นใคร ซึ่งก็ตรงกับนาย Williams 

นาย Robert Williams กับลูกสาว | Gannett

ทั้งหมดทำให้นาย Williams ฟ้องกรมตำรวจมิชิแกนพร้อมตำรวจที่เกี่ยวข้องฐานใช้เทคโนโลยีตรวจจับใบหน้าโดยมิชอบ และก็แน่นอนว่าเรียกค่าเสียหายด้วย

อะไรแบบนี้อาจไม่มีอะไรเท่าไรถ้าเราไม่เข้าใจบริบทของอเมริกา ซึ่งอย่างแรกเลย การจับกุมคนดำที่ไม่มีความผิด เป็นเรื่อง “การเมือง” แน่ๆ เพราะปกติตำรวจจะจับคนดำรุนแรงมาก บางทีถึงตาย ดังที่ทำให้เกิดขบวนการ #BlackLivesMatter

ดังนั้นแค่จับคนดำในอเมริกาแบบไม่มีความผิดนี่ก็เรื่องใหญ่แล้วในปัจจุบัน ไม่ต้องไปพูดถึงว่าใช้เทคโนโลยีอะไร

ประการที่สอง ตำรวจดีทรอยต์นั้นพยายามใช้เทคโนโลยีตรวจจับใบหน้ามานานแล้ว เรียกได้ว่าตั้งแต่มีการอนุมัติงบในการซื้อซอฟต์แวร์ในปี 2017 จนมาถึงการเริ่มใช้จริงในปี 2019 ก็มีการต่อต้านมาตลอด และจริงๆ นี่เป็นเรื่องใหญ่มากๆ ในอเมริกา ที่นักกิจกรรมทั่วประเทศต่อต้านมายาวนาน

และกรณีของนาย Robert Williams ก็เป็นข้อพิสูจน์ “ความผิดพลาดของเทคโนโลยี” ได้อย่างเหมาะเหม็ง และเป็น “หลักฐาน” เลยว่าเทคโนโลยีนี้อาจไม่เหมาะในการใช้ “จับโจร” หรือให้ตรงคือก็ไม่ควรใช้เดี่ยวๆ โดยปราศจากเทคนิคการสืบสวนตามปกติ

เคสนี้ เกิดจากตำรวจมีความมั่นใจเกินไปจากหลักฐานชิ้นเดียวคือภาพอันไม่ชัดจากกล้องวงจรปิด จนนำไปสู่การจับกุม โดยที่ตำรวจไม่เช็คหลักฐานแวดล้อม หรือไม่เช็คด้วยซ้ำว่าคนที่จับไปนั้นอยู่ที่ไหนในเวลาเกิดเหตุ ทั้งๆ ที่เวลาเกิดเหตุกับเวลาจับกุมห่างกันเกือบ 3 เดือน

ตรงนี้เราจะเห็นได้เลยว่าการใช้ AI “จับคนร้าย” นั้นไม่ใช่เครื่องมือมหัศจรรย์อะไรเลย แต่มันใช้ตอบสนองความมักง่ายของตำรวจมากกว่า

และในเคสนี้ตำรวจก็ “มักง่าย” พอที่จะไปจับคนทั้งๆ ที่หลักฐานมีแค่นั้น

จะดีกว่าไหม ถ้าระบบยุติธรรมปลอด AI?

บางคนอาจถามว่า แบบนี้ก็จับคนร้ายไม่ได้สิ?

คำตอบคือ “ใช่ครับ” เคสปล้นถ้าไม่รุนแรงนี่ปกติมากที่จะจับคนร้ายไม่ได้ เพราะตำรวจจะไม่ทุ่มทรัพยากรเท่าไร และตามหลักทั่วไป ตำรวจก็ไม่ควรจะไปจับคนสุ่มๆ ดังที่นาย Williams โดนจับ

หรือพูดง่ายๆ ถ้าตำรวจไม่มั่นใจจริงๆ ก็ไม่ควรจะไป “จับกุม” ใครทั้งนั้น เพราะหลักทั่วไปคือปล่อยให้คนผิดลอยนวลยังดีกว่าจับคนบริสุทธิ์มาลงโทษ หรือพื้นฐานกว่านั้นเลย ในสังคมที่ยึดหลักเสรีภาพ รัฐจะต้องมีการยับยั้งชั่งใจในการจับกุมคนมาก เพราะนั่นคือการลดทอนเสรีภาพของประชาชน

คือพูดง่ายๆ การมี AI มาช่วยงานตำรวจก็ไม่ควรจะทำให้ตำรวจย่ามใจและมักง่ายจับคนตามที่ AI บอก และเคสนี้ก็คงจะเป็น “เคสตัวอย่าง” ที่ดีที่จะทำให้ระบบยุติธรรมในโลกมีความยับยั้งชั่งใจในการเอาเทคโนโลยีพวกนี้มาใช้

สุดท้าย เอาจริงๆ ในอเมริกา มันก็มีการพูดกันมานานแล้วว่าการใช้ AI มาช่วยในระบบยุติธรรมจะเป็นโทษกับคนดำมากๆ เพราะเอาแค่ระบบตรวจจับใบหน้านั้นก็มีชื่อที่ฉาวโฉ่มากๆ ว่าตรวจจับใบหน้าคนดำได้ไม่แม่นยำเลย หรือการพยายามจะพัฒนา AI ในการคาดเดาว่าใครจะเป็นอาชญากรโดยการใช้ข้อมูลต่างๆ (อันนี้มีการพยายามทำจริงๆ นะครับ) มันก็มีลักษณะที่จะเต็มใบด้วยอคติมากๆ เพราะ “ชุดข้อมูล” ปัจจุบันที่เอามาใช้พัฒนา AI ก็คือข้อมูลของคนที่อยู่ในคุกอเมริกา ซึ่งส่วนใหญ่เป็นคนดำ เพราะตำรวจอเมริกันมีแนวโน้มจะจับคนดำมากกว่าคนเชื้อชาติอื่นๆ

และนี่ก็คือปัญหาจริงๆ ของ AI เพราะถึงเราจะพัฒนาอัลกอริธึ่มดีแค่ไหน แต่ถ้าชุดข้อมูลต่างๆ ที่เอาไปใช้พัฒนา AI ยัง “มีอคติ” อยู่แต่แรก เราก็ไม่มีทางจะได้ AI ที่ทำงานได้ “ยุติธรรม”

และนั่นก็หมายความว่า ระบบยุติธรรมหรืออะไรก็ตามที่ต้องการจะลด “อคติ” ในกระบวนการลงให้มากๆ ก็ควรจะออกห่างๆ จาก AI ก่อน อย่างน้อยๆ ก็ในตอนนี้

อ้างอิง