5 Min

ยูเอ็นชี้กรณี “หุ่นยนต์ล่าคน” เกิดขึ้นแล้ว คำถามคือหุ่นยนต์จะ “ติดคุก” ไหม?

5 Min
1607 Views
04 Jun 2021

หลายคนที่ตามข่าวเทคโนโลยีต่างตกใจกับรายงานของสหประชาชาติที่ว่าโลกนี้มีเคสของ “หุ่นยนต์ออกล่าคน” โดยไม่ต้องรับคำสั่งใดๆ จากมนุษย์แล้ว

ซึ่งเหตุเกิดขึ้นที่ลิเบียในปี 2019 โดยหุ่นยนต์ที่ว่าคือ ‘โดรน’ และมันออกไล่ยิงคนแบบ “อัตโนมัติ”

โดรนรุ่น Kargu-2 ที่ก่อเหตุที่ซีเรีย

โดรนรุ่น Kargu-2 ที่ก่อเหตุที่ซีเรีย | Popular Mechanics

เรื่องทำนองนี้อาจฟังดูน่าตื่นเต้นสำหรับคนไม่คุ้นเคย แต่สำหรับคนที่ตามเรื่องพวกนี้ จะรู้ว่าตั้งแต่ปี 2013 ทาง Human Right Watch เริ่มแคมเปญเพื่อจะแบน “หุ่นสังหาร” แต่ตอนนั้นล้ำไป คนไม่เก็ต

ทาง “ผู้ผลิต” อย่างสมาคมวิศวกรนานาชาติก็เถียงกันตั้งแต่ปี 2015 ว่าควรจะมีข้อห้ามอะไรไหมเกี่ยวกับการสร้าง “หุ่นยนต์” ที่จะใช้ในสงครามหรือหุ่นยนต์ที่มีความสามารถในการฆ่าคนได้

และในปี 2017 ถ้าใครพอจำได้ Elon Musk เจ้าเก่าและนักวิทยาศาสตร์จำนวนมากก็เคยเขียนจดหมายเปิดผนึกว่าประชาคมโลกควรจะแบน “หุ่นยนต์สังหาร” ทันที

ช่องว่างของกติกาและที่มาของหุ่นสังหาร

ตัดภาพมาปัจจุบัน ยังไม่มีกฎหมายระหว่างประเทศใด หรือระเบียบจริยธรรมใดๆ ขององค์กรใดๆ ถูกสร้างขึ้นเพื่อป้องกันไม่ให้ใครสร้าง “หุ่นยนต์สังหาร” ทั้งนั้น แม้ว่าจริงๆ จะมีการสร้าง “กติกา” มาเกือบ 10 ปีแล้ว แต่ก็ยังห่างไกลความเป็นจริงมาก

ดังนั้น จงอย่าแปลกใจว่า จะมีเคสของ “หุ่นยนต์สังหาร” เกิดขึ้นจริงๆ และมันจะมีอีกแน่ๆ

ตรงนี้คนทั่วๆ ไปอาจถามว่าในเมื่อมันมี “อันตราย” ขนาดนี้ทำไมไม่แบน?

คำตอบที่สั้นและง่ายที่สุดคือ ในโลกนี้ ไม่มีใครมีอำนาจจะแบน เพราะการจะแบนอะไรพวกนี้ ต้องการข้อตกลงระหว่างประเทศที่นานาชาติยินยอมให้สัตยาบันร่วมกัน ซึ่งปกติมันก็ต้องใช้เวลา และแก้กันไปมาหลายปีกว่าจะยอมรับร่วมกันหมด

ปัญหาคือในเคสของ “หุ่นยนต์สังหาร” ตอนนี้คนยังตกลงกันไม่ได้เลยว่าอะไรคือ “หลักการ” ที่จะใช้ร่วมกัน บางคนคิดว่าหุ่นยนต์ควรจะถูกใช้ในสงครามได้ แต่หุ่นยนต์ไม่ควรจะมีความสามารถในการตัดสินใจว่าจะทำร้ายมนุษย์หรือไม่ นี่อาจฟังดูเข้าท่า แต่ในความเป็นจริง กติกาแบบนี้จะเวิร์กก็ต่อเมื่อทุกคนยอมเล่นตามกติกาเดียวกัน ปัญหาคือทุกชาติก็ระแวงเสมอว่าชาติอื่นๆ จะ “แอบพัฒนาหุ่นยนต์สังหาร” ดังนั้นชาติตัวเองก็ต้องพัฒนาเอาไว้เพื่อจะสู้กับ “หุ่นยนต์สังหาร” ของชาติอื่น

นี่เป็นเหตุผลด้านความมั่นคงแท้ๆ แต่ก็สมเหตุสมผล ดังนั้นสถานการณ์เลยเหมือนตอนที่ชาติต่างๆ สะสมอาวุธนิวเคลียร์กัน และมันก็คล้ายๆ ทำให้เรากลับไปยุคสงครามเย็นอีก

ความฉลาดและอันตรายของเอไอ

ตรงนี้ เราอาจมองว่าปัญหาเป็นเรื่องของ “การบังคับใช้หลักการ” ที่เป็นไปไม่ได้ถ้าประชาคมโลกไม่เห็นไปทางเดียวกันหมด แต่ปัญหาที่มากกว่านั้นก็คือ ในทางปฏิบัติแล้ว มันพูดไม่ได้ง่ายๆ เช่นกันว่า อะไรคือ “หลักการ” โดยเฉพาะในยุคที่ AI มัน “ฉลาด” และ “คิดอะไรที่ซับซ้อน” ได้มากๆ

เช่น ในความเป็นจริง คนอาจไม่ได้สั่งให้ AI หรือ “หุ่นยนต์ที่ติดตั้ง AI” “ฆ่าคน” ด้วยซ้ำ แต่อาจสั่งแค่ว่า “เผาโกดังเอาไว้ อย่าให้ใครเข้า” หรือ “ทำอะไรก็ได้ ให้โลกร้อนน้อยลง” แต่ในความเป็นจริง หุ่นยนต์ตัวแรกก็อาจจะฆ่าโจรที่บุกเข้าปล้นโกดังโดยบังเอิญก็ได้ ส่วนหุ่นยนต์ตัวหลังก็อาจมองว่าการที่จะลดโลกร้อนคือการกำจัดมนุษย์ให้หายไปครึ่งโลก และไล่ฆ่าคน

อะไรพวกนี้เหมือนหลุดมาจากหนังไซไฟ แต่มันเป็นอะไรที่เกิดขึ้นได้ไม่ยากเลยในกระบวนการพัฒนา AI ถ้าเราได้ติดตามว่าตอนนี้ AI “ฉลาด” ขนาดไหน

ถามว่า แบบนี้เราจะ “ห้าม” ไม่ให้หุ่นยนต์ไปไม่ฆ่าคนไม่ได้เหรอ?

คำตอบง่ายๆ เลยคือ ขนาดรถยนต์อัตโนมัติ ยังชนคนตายได้เลย ดังนั้นประสาอะไรกับ AI ที่ทำงานซับซ้อนขึ้นเรื่อยๆ จนมนุษย์ตามไม่ทันแล้ว (ซึ่งก็ควรจะเป็นแบบนั้น เพราะอะไรที่มนุษย์มีปัญญาคิด เขาก็ไม่ต้องสร้าง AI มาคิดแทน)

ซึ่งประเด็นคือ ถึงเราจะห้ามไม่ให้ AI ฆ่าคน แต่เมื่อเราใช้งานมันซับซ้อนขึ้น มันก็ยิ่งอาจทำในสิ่งที่จะทำให้คนตายทางตรงหรือทางอ้อม

หากเอไอฆ่าคน ใครคือผู้รับผิดชอบ?

ทีนี้มันก็เลยนำมาสู่ปัญหาทางกฎหมายว่า เวลาหุ่นยนต์ติด AI หรือ “หุ่นยนต์” ทำการ “ฆ่าคน” ใครต้องรับผิดชอบล่ะ?

จะเป็นโปรแกรมเมอร์จำนวนมากที่ช่วยกันเขียนอัลกอริทึมให้ AI ตอนแรก? จะเป็นพวกนักวิทยาศาสตร์ข้อมูลที่เอาข้อมูลมาป้อนให้ AI เรียนรู้เพื่อสร้างระบบการเรียนรู้ของเครื่องจักรที่เฉพาะเพื่อทำงานบางอย่าง? หรือจะเป็นบริษัทที่ซื้อหรือเอา AI ดังกล่าวติดตั้งเข้ากับหุ่นยนต์เพื่อเป็นสินค้าขาย? หรือจะเป็นคนที่ซื้อหุ่นยนต์มาใช้?

นี่ไม่ใช่คำตอบที่ตอบได้ง่าย หรือกระทั่งตอบได้ด้วยซ้ำในกรอบกฎหมายปัจจุบันที่ระบบกฎหมายอาญานั้นออกมาใช้กับมนุษย์ ซึ่งประเด็นมันจะโยงกลับมาว่าความผิดทางอาญาจะมากน้อยอยู่ที่ “เจตนา” (เช่น การวางแผนฆ่าคนเป็นอย่างดี กับการขับรถโดยประมาทชนคนตาย ผลลัพธ์คือมีคนตายเหมือนกัน แต่ “เจตนา” นี่คนละโลกเลย)

ปัญหาคือ เราไม่สามารถจะถามคำถามเดียวกันกับ AI ได้ พูดง่ายๆ คือการถามว่า “รถยนต์อัตโนมัติมี “เจตนา” จะชนคนหรือไม่?”

นี่เป็นคำถามที่ตลกด้วยซ้ำ เพราะมันไม่ได้มี “เจตนา” อยู่แล้ว และจะไปบอกว่าบริษัทที่ขายรถยนต์แบบนี้มีเจตนาฆ่าคนก็ไม่ใช่ เพราะมันก็ไม่ต่างจากบริษัทยาที่ผลิตยามาเป็นล้านเม็ด แต่อาจมีคนกินแล้วตายไป 100 คนด้วยผลที่บริษัทคาดไม่ได้ แบบนั้นจะบอกว่าคนผลิตยาหรือบริษัทยาเป็น “ฆาตกร” หรือ?

แต่ประเด็นคือ “ความผิดพลาด” พวกนี้ อาจนำมาสู่การกำกับดูแลให้บริษัทต้องมี “มาตรการความปลอดภัย” เพิ่ม และวิธีจัดการเกี่ยวกับ “ความปลอดภัยของผลิตภัณฑ์” พวกหุ่นยนต์หรือ AI ที่มีศักยภาพจะฆ่าคนได้ ก็คงจะไม่ต่างกันกับยาที่อาจทำคนตายโดยบังเอิญ ดังนั้นคงไม่มีใครติดคุกในกรณีของ AI ฆ่าคนในแบบนี้ เต็มที่ก็คือบริษัทจะโดนครอบครัวของผู้เสียหายฟ้องเอาผิดทางแพ่ง แต่ไม่มีใครต้องรับผิดทางอาญาและติดคุก

แต่เคสที่ว่า มันคือเคสแบบสินค้าผู้บริโภคทั่วไปที่ไม่ควรจะฆ่าคน มันเป็นคนละเรื่องกับ “อาวุธสงคราม” ที่ติด AI เพราะของพวกนี้ ถูกสร้างขึ้นมาฆ่าคน

และกรณีพวกนี้ ก็กลับไปลูปเดิมที่เล่า คือตราบที่ประชาคมโลกไม่สามารถตัดสินใจร่วมกันว่าจะแบนหุ่นสังหารได้แบบที่เคยแบนอาวุธเคมี อาวุธชีวะ และอาวุธนิวเคลียร์ในอดีต การพัฒนา “อาวุธที่คิดได้” หรือ “หุ่นสังหาร” ก็ยังจะดำเนินต่อไป

และนี่ก็ไม่ใช่เรื่องเล่นๆ เพราะหลายๆ ประเทศก็ประกาศแล้วว่า จะแทนที่ทหารมหาศาลในกองทัพด้วย “หุ่นยนต์” ในไม่กี่ปีข้างหน้า ซึ่งสมาชิกใหม่ของกองทัพบางส่วนก็น่าจะเป็น “หุ่นสังหาร” นี่แหละ

แต่มองในแง่ดีที่สุด AI ก็อาจ “ฉลาด” กว่า “ทหาร” ก็ได้ และนี่ก็เป็นข้อโต้แย้งของฝั่งที่สนับสนุนให้ใช้ AI ในสงครามจริงๆ มาแต่แรก เพราะพวกเขาเชื่อว่าท้ายที่สุด AI ยังไงก็จะพัฒนาทำภารกิจทางการทหารได้ดีกว่าทหาร

หรือพูดง่ายๆ คือ เขาเชื่อว่ายังไงก็มีคนตายในภารกิจทางการทหาร แต่การใช้ AI หรือหุ่นยนต์อาจทำให้คนที่ตายมีปริมาณน้อยลงกว่าเดิมได้

อ้างอิง

  • Popular Mechanics. For the First Time, Drones Autonomously Attacked Humans. This Is a Turning Point. https://bit.ly/3wVl7Hx
  • Insider. A rogue killer drone ‘hunted down’ a human target without being instructed to, UN report says. https://bit.ly/2Ro2ddq
  • Human Right Watch. Stopping Killer Robots: Country Positions on Banning Fully Autonomous Weapons and Retaining Human Control. https://bit.ly/3fNkWbC
  • The Guardian. Elon Musk leads 116 experts calling for outright ban of killer robots. https://bit.ly/3z5cNXU
  • IEEE Spectrum. We Should Not Ban ‘Killer Robots,’ and Here’ s Why. https://bit.ly/3vUKo4O
  • IEEE Spectrum. Can a Robot Be Arrested? Hold a Patent? Pay Income Taxes? https://bit.ly/3cdlCF2