ณ กลางปี 2023 ข่าวเทคโนโลยีแบบหนึ่งที่เราจะได้ยินบ่อยๆ คือผู้บริหารบริษัทเทคโนโลยี หรือผู้เชี่ยวชาญสักคนด้าน AI ออกมาบอกว่า AI กำลังพัฒนาอย่างรวดเร็ว และมันอาจจะ ‘ครองโลก’ ‘ทำลายล้างมนุษย์’ ถ้าไม่มีการกำกับดูแลหรือตรวจสอบ พูดง่ายๆ คือคนพวกนี้โวยวายว่ามัน ‘วิกฤต’ แล้ว ซึ่งนี่เป็นสิ่งที่คนทั่วไปที่ไม่ตามเรื่อง AI ก็ยังได้ยินเพราะคนออกมาพูดแบบนี้เป็นสิบคนแล้ว และน่าจะมีเพิ่มขึ้นอีก
อย่างไรก็ดี ก็มีนักวิจัยด้าน AI วิจารณ์ว่านี่คือความคิดที่เลอะเทอะและแฝงผลประโยชน์ทางธุรกิจชัดๆ และถ้าสาธารณชนดันไป ‘บ้าจี้’ ตาม ‘นักขายวิกฤต’ พวกนี้ก็ไม่น่าจะดีแน่ๆ เพราะโดยพื้นฐานแล้ว เทคโนโลยี AI ในปัจจุบันแบบที่เห็นๆ กันยังไม่ใกล้เคียง AI อัจฉริยะเหนือมนุษย์ ที่จะสามารถเรียกได้ว่า Artificial General Intelligence และสิ่งที่นักวิจัยหรือคนที่มีความรู้ด้านนี้เห็นตรงกันก็คือการวาดภาพในความคิดว่า AI จะไปถึงตรงนั้นยังเป็นแค่การ ‘คาดเดาอนาคต’ ที่อาจจะไม่เกิดใน 10 ปีนี้ด้วย แต่หลายคนก็พยายาม ‘ขายความกลัว’ ราวกับว่าถ้าไม่มีใครหยุดพัฒนาการของ AI ในปีหน้ามนุษยชาติอาจจะมี Skynet เป็นของตัวเองแบบในหนัง Terminator
และนี่ก็ยังไม่ต้องนับว่าการที่ AI ‘ฉลาด’ ก็ไม่ได้หมายความว่ามันจะ ‘มีอำนาจ’ เท่ากับระดับสติปัญญาที่มันมีเพราะความรู้ไม่ใช่อำนาจแบบที่ใครว่ากัน ไม่เช่นนั้นเอาจริงๆ นักวิทยาศาสตร์สติเฟื่องทั้งหลายคงครองโลกหรือร่ำรวยสุดๆ กันไปหมดแล้ว แต่เรื่องพวกนี้มีให้เห็นในหนัง และคนจำนวนไม่น้อยก็กำลังพยายามทำให้สาธารณชนเชื่อว่าภาพของวันสิ้นโลกด้วยน้ำมือ AI จากในหนังพวกนี้คือสิ่งที่กำลังจะเกิดขึ้น
นักวิจัยคนหนึ่งที่พูดถึงเรื่องนี้ก็คือ ไมเคิล ทิโมธี เบนเนตต์ (Michael Timothy Bennett) จาก School of Computing มหาวิทยาลัยแห่งชาติออสเตรเลีย ที่เผยแพร่บทความลงใน The Conversation ช่วงต้นเดือนมิถุนายน 2023 โดยเขาให้สังเกตว่าคนที่ออกมาเตือนเรื่องวิกฤต AI พวกนี้ ล้วนเป็นคนที่มีสายสัมพันธ์กับพวกบริษัทเทคโนโลยียักษ์ใหญ่ทั้งนั้น ไม่มีใครที่อยู่บริษัท Startup ด้าน AI ขนาดเล็กจะออกมาพูดแบบนี้
และ ‘ข้อเท็จจริง’ คือคำตอบของทุกอย่าง โดยเขาอ้างอิงรายงานภายในของ Google ที่เคยหลุดมา มีข้อมูลบ่งชี้ว่า AI จะถูกพัฒนาอย่างรวดเร็ว แต่สุดท้ายผู้ชนะจะไม่ใช่ AI ของ Google หรือ OpenAI แต่จะเป็น AI แบบ ‘แจกฟรี’ ให้คนไปพัฒนาต่อยอดไปได้เรื่อยๆ หรือที่เรียกว่าเป็น AI แบบ Open Source
สภาพแบบนี้ทำให้พวกบริษัทเล็กๆ สามารถเข้าถึงเทคโนโลยี AI และสามารถพัฒนาอย่างต่อเนื่องจนอาจจะถึงขั้น ‘ล้มยักษ์’ ไม่ว่าจะเป็น Google, OpenAI หรือกระทั่ง Facebook ได้ทั้งหมด เพราะถ้าเทคโนโลยีเป็นของประชาชนในวงกว้าง ก็ไม่มีบริษัทใดที่จะยึดครองแพลตฟอร์มซึ่งทุกคนเข้ามาใช้ และไม่อาจกุมอำนาจในการหากินแบบผูกขาด แต่บริษัทพวกนี้ก็ไม่ได้ต้องการให้เกิดภาวะแบบนี้ขึ้น เพราะถ้าเกิดจริง บริษัทใหญ่ๆ ก็จะ ‘เสียอำนาจผูกขาด’ ก็เลยเริ่มระดมคนมา ‘ปลุกความกลัว’ ใน AI และพร้อมกันนั้นก็ให้ผู้บริหารไปบอกกับรัฐบาลว่ารัฐบาลต้อง ‘กำกับดูแล AI’ ดังที่ แซม อัลต์แมน (Sam Altman) ผู้เป็น CEO ของ OpenAI ไปพูดกับทางสภาคองเกรสในสหรัฐอเมริกา
นี่เป็นเรื่องที่แปลกมากในประวัติศาสตร์ธุรกิจสหรัฐฯ เพราะในอดีตแทบจะไม่มีธุรกิจอะไรเรียกร้องให้รัฐมาแทรกแซงหรือออกกฎระเบียบ และมีแต่จะส่งคนไปล็อบบีให้รัฐไม่ออกกฎหมายมาคุม หรือส่งคนไปเกลี้ยกล่อมรัฐบาลว่าอุตสาหกรรมสามารถกำกับดูแลตัวเองได้ โดยรัฐไม่ต้องมายุ่ง และความประหลาดนี้ทำให้ Startup ด้าน AI รายเล็กๆ ที่เป็น ‘คู่แข่ง’ อ่านเกมออกทันทีว่าอะไรกำลังจะเกิดขึ้น
การที่บริษัทเทคโนโลยีใหญ่ๆ เรียกร้องว่าบริษัทใดๆ ที่จะทำกิจการด้าน AI ต้องมี ‘ใบอนุญาต’ ในทางธุรกิจก็ค่อนข้างชัดเจนว่ามันจะมีผลในทาง ‘กีดกัน’ ผู้เข้าแข่งขันรายเล็กออกไป เพราะเรื่องพวกนี้ในทางปฏิบัติจริงไม่ใช่ว่าใครก็ขอใบอนุญาตได้ และการจะดำเนินการให้ใบอนุญาตผ่านจริงๆ ต้องใช้เงินมากมาย หรือกระทั่งเส้นสายอะไรเต็มไปหมด ทำให้มีคนมองว่าการเรียกร้องให้รัฐ ‘ให้อำนาจผูกขาดเทคโนโลยี’ กับพวกบริษัทใหญ่ๆ นี่แหละที่เป็นการพยายามจะออกระเบียบมาเพื่อขัดขา ‘รายย่อย’ (ซึ่งเอาจริงๆ เราอยู่เมืองไทย เราน่าจะได้ยินเรื่องการออกกฎหมายเอื้อทุนผูกขาดมากกว่าในอเมริกาเสียอีก เราเข้าใจไม่ยากหรอก)
การ ‘ขายความกลัว’ ทั้งหมดจึงถูกมองว่าเป็นความพยายามจะสร้างความชอบธรรมให้เกิดกฎระเบียบที่ไม่เป็นคุณกับผู้ประกอบกิจการ AI รายเล็ก เพราะถ้า AI คือ ‘ของอันตราย’ รัฐมักจะต้องให้ผู้ประกอบการที่มีมาตรฐานความปลอดภัยสูงเท่านั้นที่จะประกอบกิจการได้ และในทางปฏิบัติก็จะทำให้นักพัฒนา AI รายเล็กๆ ที่ไม่มีงบด้านความปลอดภัยต้องออกจากตลาดไปหมด
แน่นอนว่ามันจะฟังดู ‘สมเหตุสมผล’ ถ้าเรา ‘เชื่อ’ ว่า AI เป็นอันตรายในระดับที่ถ้าไม่คุมมันจะล้างมนุษยชาติ แต่ถ้าดูจากฐานความเป็นจริงในปัจจุบัน AI ยังไม่ได้อันตรายอะไรขนาดนั้น บทความของนักวิจัยนี้จึงบอกให้เราทำความเข้าใจกับการขายความกลัว และตั้งคำถามว่า ‘ใครได้ประโยชน์จากความกลัวนี้’ กันบ้าง
อ้างอิง
- The Conversation. No, AI probably won’t kill us all – and there’s more to this fear campaign than meets the eye. https://tinyurl.com/988athre