ปัจจุบันประเด็น ‘จริยธรรมของ AI’ เป็นเรื่องที่พูดถึงกันมากขึ้น ด้วยเหตุผลง่ายๆ ว่าทุกวันนี้เราต้องเจอ AI ตลอด เพราะมันมีหน้าที่ตั้งแต่เลือกเรื่องราวให้เราดูบนบัญชีโซเชียลมีเดีย หรือจะเป็นการที่มันเริ่มถูกเอาไปใช้ในการประหัตประหารในสงครามแล้ว
แต่เรื่องพวกนี้ก็ยากจะทำให้คน ‘รู้สึก’ ถึงมิติความอ่อนไหวด้านจริยธรรมของการสร้าง AI
และกรณีที่เราอยากจะยกมาก็คือกรณีที่จะทำให้ ‘รู้สึก’ มากกว่าว่าเราอาจต้องคุยกันเรื่อง ‘จริยธรรม’
เรื่องมีอยู่ว่า หลายคนคงเคยได้ยินโครงการ OpenAI ใช่ไหมครับ (ก็โครงการ AI ที่อีลอน มัสก์ สนับสนุนน่ะแหละ) คือเขาพัฒนาโมเดล AI มาหลายตัว ทำได้หลายอย่างแล้ว และก็เปิดให้คนเอาไปใช้และพัฒนาได้ต่ออย่างเสรี ซึ่งการเอา AI ไปใช้ได้ง่ายๆ แบบหนึ่งเลยคือสร้าง ‘แชทบอท’ (Chatbot) หรือบอทที่จะพูดคุยโต้ตอบได้ โดยเราสามารถป้อนข้อมูลตัวอย่างให้มัน ‘เลียนแบบ’ ตัวตนใครก็ได้ (ถ้าเรามีข้อมูลการแชทกับใครเยอะๆ เราก็จะส่งให้มัน ‘จำลองตัวตน’ ได้)
ทีนี้มันมีชายชาวแคนาดาคนหนึ่งชื่อ โจชัว บาร์โบ (Joshua Barbeau) ที่คู่หมั้นตายด้วยโรคตับตั้งแต่เขาอายุ 26 ปี ซึ่งผ่านไป 8 ปีเขาก็ยังทำใจไม่ได้ สุดท้ายเขาเลยเอาข้อมูลของแฟนผู้ล่วงลับของเขาไปใส่ในแชทบอท เพื่อให้ได้คุยกับแฟนสาวของเขาอีกครั้ง โดยเรื่องนี้ถูกนำมาเล่าในพอดแคสต์ของ San Francisco Chronicle ในช่วงเดือนกรกฎาคม 2021
อาจมีคนทำแบบนี้ก่อนโจชัว แค่เคสนี้ดังมากๆ และทำให้คนเริ่มตั้งคำถามว่าในทางจริยธรรมเราควรไหมที่จะเอา ‘คนตาย’ มาทำแชทบอท?
ที่พูดถึง ‘ในทางจริยธรรม’ ก็เพราะว่า ในทางเทคนิคมันทำง่ายมาก และจริงๆ พวกโซเชียลมีเดียทั้งหลายก็มีข้อมูลเราในมือพอที่จะสร้างแชทบอทได้ตลอดเวลาถ้าจะทำ
ทีนี้มันมีคำถามอะไรบ้าง? คำถามพื้นฐานเลยที่อาจต้องถามก็คือ ‘คนตาย’ ต้องอนุญาตก่อนไหมที่ตัวเองจะถูกเอาไปทำแชทบอท? มันก็จะมีคนพยายามเคลมว่าการทำแบบนี้คือการ ‘ละเมิดตัวตน’ ถ้าไม่ได้รับอนุญาต แต่ในความเป็นจริง โดยทั่วไปแม้แต่กฎหมายหมิ่นประมาททั่วโลก มันก็ไม่ครอบคลุมถึงคนตาย หรือพูดง่ายๆ ไม่ว่านักสิทธิจะอ้าง ‘ศักดิ์ศรีความเป็นมนุษย์’ แค่ไหน แต่สิทธิมนุษยชนของคุณทั้งหลาย ก็จะจบไปพร้อมกับชีวิตของคุณ
ซึ่งนี่ก็คือเรื่องที่ซับซ้อน ถ้าจะให้พูดง่ายๆ ก็คือการทำแชทบอทมันไม่ ‘ผิดกฎหมาย’ แน่ๆ ในตอนนี้ เพราะหลักทั่วไปสิทธิต่างๆ ตั้งแต่ศักดิ์ศรีความเป็นมนุษย์ยันความเป็นส่วนตัว ในมาตรฐานปัจจุบันมันจะสิ้นสุดทันทีถ้าเราตาย ดังนั้นเมื่อเราตาย ข้อมูลส่วนตัวทั้งหมดของเราจะเป็นอิสระ ใครจะเอาไปใช้ทำอะไรก็ได้ รวมไปจนถึงการสร้างแชทบอท ดังนั้นใครก็ตามที่ตายไป ก็จะถูกจับไปทำแชทบอทได้ทันที
ถ้าจะคิดต่อจริงๆ มันก็เป็นไปได้เช่นกันที่เราจะเอาข้อมูลของบุคคลในประวัติศาสตร์ดังๆ มาสร้างแชทบอทของคนตาย ไม่ว่าจะเป็น โสเครตีส, นโปเลียน, คาร์ล มาร์กซ์ หรือกระทั่ง ฮิตเลอร์
พอพูดแบบนี้เราก็จะเริ่มเห็น ‘ความสนุก’ ที่สามารถทำได้ ซึ่งพอเป็น ‘บุคคลสำคัญ’ เราจะไม่รู้สึกว่ามันเป็นการ ‘ละเมิด’ เหมือนการจับญาติใครก็ไม่รู้มาทำแชทบอท
ประเด็นพวกนี้ซับซ้อนมากและไม่มีกฎหมายรองรับ บอกได้เลยว่าคุยกันเป็นสิบๆ ปีก็ไม่จบ ถึงคุยจบสิ่งที่จะบังคับใช้เทคโนโลยีพวกนี้ได้ก็มีแต่สนธิสัญญาระหว่างประเทศที่ชาติส่วนใหญ่ของโลกยอมให้สัตยาบัน
แต่เอาง่ายๆ อย่างเราก็คงไม่ต้องเถียงกันมากว่า AI ควรจะฆ่าคนหรือไม่? เพราะคนทั่วๆ ไปก็คงตอบว่าไม่ทั้งนั้น
แต่ในความเป็นจริง ทุกวันนี้สหประชาชาติยังตกลงกันไม่สำเร็จเลยว่าเราจะต้องมีข้อตกลงไหมว่า AI ที่พัฒนามาจะไม่ฆ่าคน? คือมันตกลงในรายละเอียดไม่ได้ เพราะแต่ละชาติก็อยากจะพัฒนาอาวุธ AI ของตัวเองทั้งนั้น ก็เลยเกี่ยงกันไปมาหาข้อตกลงไม่ได้ แต่สุดท้ายก็มีหลายชาติที่พัฒนาอาวุธพวกนี้ออกมาเรียบร้อยแล้ว
ดังนั้นเราไม่ต้องหวังว่านานาชาติจะตกลงกันได้ว่าการสร้างแชทบอทจากคนตายจะเป็นเรื่องผิดหรือถูกหรอก เพราะเรื่องที่คนแทบไม่ต้องเถียงกัน มันยังกลายเป็นข้อตกลงระดับนานาชาติไม่ได้เลย แล้วเรื่องที่คนยังต้องเถียงกันอีกยาวมันจะเหลือเหรอ?
เรียกว่าถกเถียงกันในทางจริยธรรมสนุกๆ น่ะได้ แต่ความเป็นจริงก็คือ ไม่น่าจะมีอะไรในโลกนี้หยุดยั้งการจับเอาคนตายมาทำแชทบอทได้
และนั่นก็หมายความว่าสักวันตัวคุณเองก็อาจถูกจับมาทำแชทบอทก็ได้ ไม่ว่าคุณจะชอบหรือไม่ก็ตาม
อ้างอิง
- The Conversation. Deadbots can speak for you after your death. Is that ethical? https://bit.ly/3LLb26Z
- San Francisco Chronicle. Listen: Artificial intelligence helped him grieve his late fiancee. https://bit.ly/3ac58Pf