ทุกวันนี้เทคโนโลยี Generative AI ถูกเอามาใช้มากมายในระดับแพร่หลายจนคนก็เริ่มกังวลว่ามันจะไปแย่งงานคน แต่จริงๆ ก็ยังมีเรื่องที่ ‘น่ากังวล’ (ที่คนไม่กังวลกัน) มากกว่า มันคือเรื่องที่ว่าตอนนี้นักวิจัยเริ่มพบว่า Generative AI นั้นสามารถ ‘ตอบคำถามที่ไม่ควรจะตอบ’ ได้ และคำถามพวกนั้นก็มีหลากหลาย เช่นคำถามที่ละเมิดความเป็นส่วนตัว หรือกระทั่งคำถามถึงวิธีทำสิ่งที่ผิดกฎหมายอย่างอาวุธเคมี และอาวุธชีวภาพซึ่งเป็นสิ่งที่ผิดกฎหมายมาตั้งแต่มนุษยชาติเห็นความเลวร้ายของมันเมื่อร้อยกว่าปีก่อน
หลังสงครามโลกครั้งที่ 1 อาวุธกลุ่มนี้ก็ถือว่าเป็นอาวุธที่ใช้แล้วผิดสนธิสัญญาระดับโลก มันจึงไม่ถูกใช้ทำสงคราม และถูกห้ามทำการพัฒนาอย่างเปิดเผยโดยเด็ดขาด นี่เลยเป็นเหตุผลว่าทำไมอาวุธพวกนี้ไม่เคยปรากฏในสงครามครั้งใหญ่ๆ เลย
สิ่งที่ทำให้อาวุธกลุ่มนี้เป็นเรื่องต้องห้ามเพราะว่ามัน ‘ไม่มีมนุษยธรรม’ มากๆ แต่ในแง่หนึ่งมันพัฒนาได้ไม่ยาก อย่างไรก็ดี ในกรณีของ ChatGPT ตอนแรกมีคนไปลองของโดยให้มันสอนทำวัตถุระเบิดและสอนทำอาวุธชีวภาพ และมันก็ดันสอนให้ด้วยว่าทำยังไง
แน่นอนว่าตอนนี้ทางผู้ให้บริการ ChatGPT ก็พยายามจะ ‘บล็อกคำถาม’ เหล่านี้เรียบร้อย แต่ประเด็นคือ ตัว ChatGPT มันมีศักยภาพในการตอบคำถามเหล่านี้แต่แรกอยู่แล้ว และคนที่ ‘หัวใส’ ในทางที่ไม่ดีก็ฉลาดพอก็จะทำการ ‘Jailbreak’ ให้มันตอบคำถามพวกนี้ได้อยู่ดี
สถานการณ์แบบนี้ทำให้หลายคนหวาดกลัวมาก เพราะนี่หมายความว่าในทางทฤษฎี มนุษย์ทุกคนที่มีอินเทอร์เน็ตนั้นสามารถเข้าถึงความรู้ในการผลิตอาวุธร้ายแรงได้อย่างอิสระนั่นเอง
นักวิจัยจึงพยายามเรียกร้องไปยังคนพัฒนา AI ว่าไม่ควรจะใส่พวกความรู้เกี่ยวกับการสร้างอาวุธหรือเรื่องผิดกฎหมายเข้าไป แต่นั่นก็เป็นแค่ในทางทฤษฎี เพราะในความเป็นจริง คนพัฒนาก็ไม่รู้ด้วยซ้ำว่าข้อมูลอะไรบ้างที่ถูกเอามาพัฒนา AI เพราะ AI ตัวใหญ่ๆ นั้นได้รับการป้อนข้อมูลจาก ‘บอต’ ที่ไปตามล่าหาข้อมูลทั่วอินเทอร์เน็ตมาทั้งนั้น
ดังนั้นข้อเท็จจริงคือ ตัวผู้พัฒนาเอง ก็ไม่รู้ว่าตัวเองได้พัฒนา AI ที่มีศักยภาพจะทำอะไรบ้างขึ้นมา และนี่เลยทำให้การบอกให้ผู้พัฒนาห้าม AI เรียนรู้ ‘บางเรื่อง’ ตั้งแต่แรกมันเป็นสิ่งที่เป็นไปไม่ได้ในทางปฏิบัติ ยังไม่ต้องนับว่า เอาจริงๆ ถ้า AI มันฉลาดพอ มันมีความรู้เคมีและชีวะ มันก็สามารถคิดอาวุธเคมีและชีวะขึ้นมาเองได้ โดยไม่ต้องเรียนรู้อาวุธที่มนุษย์เคยสร้างมาแล้วอยู่ดี
แต่มากไปกว่านั้น เราก็ต้องไม่ลืมอีกว่า ณ ตอนนี้มี AI หลายตัวมาก และมีการแจกฟรี AI ให้คนไปพัฒนาต่อยอดเต็มไปหมด และนี่ยิ่งหมายความว่าเราไม่มีทางจะคุมพัฒนาการ AI ให้เป็นแบบใดแบบหนึ่งได้ เพราะมันถูกพัฒนาอย่างหลากหลายจากทั่วโลก
ดังนั้น ในระยะยาว เราไม่มีทางห้ามคนผลิต AI ที่จะสอนคนทำระเบิดหรือทำอาวุธชีวภาพได้แน่ๆ
แต่ถามว่าต้องกลัวไหม คำตอบนี้ก็ไม่ได้จะหาคำตอบง่ายๆ เพราะ ‘ความรู้’ พวกนี้มีในอินเทอร์เน็ตอยู่แล้ว บางทีมันก็เหมือนการพยายามแบน ‘หนังสือโป๊’ หรือ ‘เว็บโป๊’ ที่สุดท้าย คนก็จะอาจหาทางเข้าถึงสิ่งเหล่านี้ได้อยู่ดีถ้าคิดจะหาจริงๆ เช่นเดียวกับผู้ก่อการร้ายที่อาจจะเอาความรู้พวกนี้มาใช้จริง แต่ถึงอย่างนั้นสำหรับคนกลุ่มนี้ ก็สามารถเข้าถึงความรู้พวกนี้ได้อยู่แล้วโดยไม่ต้องมี AI
ดังนั้นหากเด็กมัธยมซนๆ คนหนึ่งไปถามวิธีการทำอาวุธชีวภาพกับ ChatGPT ก็ไม่ได้แปลว่า เด็กจะไปทำอาวุธจริงๆ เสมอไป ควบคู่ไปกับการพัฒนาระบบ AI คนที่มีส่วนเกี่ยวข้องทุกคนก็ควรที่จะให้การเรียนรู้กับเด็กๆ ถึงโทษภัยของการทำร้ายเพื่อนมนุษย์ไปพร้อมกัน เพราะเทคโนโลยีจำเป็นต้องเดินหน้าคู่ขนานไปกับสำนึกรับผิดชอบและความดีงามในการอยู่ร่วมกัน
อ้างอิง
- Vox. How AI could spark the next pandemic. https://bit.ly/3CYPfai