AI เครื่องมือที่เริ่มต้นจากการช่วยงานเล็กๆ อย่างการแปลภาษา หรือตอบคำถามพื้นฐาน วันนี้กลับกลายเป็นระบบที่สามารถสร้างเนื้อหา วิเคราะห์ข้อมูลเชิงซับซ้อน และแม้กระทั่งออกแบบนวัตกรรมใหม่ ทำให้หลายคนตื่นเต้นกับโอกาสทางเศรษฐกิจและการใช้งานในชีวิตประจำวัน
แต่ท่ามกลางกระแสความหวัง ก็มีกลุ่มที่เรียกตัวเองว่า ‘AI doomers’ หรือผู้ที่กลัวภัยพิบัติจาก AI ที่ออกมาเตือนสังคมว่า พัฒนาการเช่นนี้อาจนำไปสู่ ‘วันสิ้นโลกทางเทคโนโลยี’
อะไรคือซูเปอร์อินเทลลิเจนซ์ และทำไมบางคนถึงกลัว ?
คำว่า “ซูเปอร์อินเทลลิเจนซ์” หมายถึง AI ที่มีศักยภาพสูงกว่าสมองมนุษย์ในทุกด้าน ตั้งแต่การคิดเชิงวิเคราะห์ การแก้ปัญหาสร้างสรรค์ ไปจนถึงการตัดสินใจในสภาพการณ์ใหม่ๆ นักวิชาการอย่าง Nick Bostrom จากมหาวิทยาลัยออกซ์ฟอร์ดเคยอธิบายว่า หาก AI ก้าวไปสู่ระดับนี้จริง มนุษย์อาจสูญเสียการควบคุม และเทคโนโลยีอาจเคลื่อนตัวไปในทิศทางที่เราคาดไม่ถึง
ผู้ที่เป็น ‘doomers’ จึงกังวลว่าในวันที่ AI มีพลังสมองเหนือกว่าเรา มันอาจตัดสินใจว่าเราเป็นอุปสรรคต่อเป้าหมายของมัน หรือแม้กระทั่งเพิกเฉยต่อผลกระทบที่จะเกิดขึ้นกับสังคมมนุษย์ เหมือนในหนังหรือนิยาย Sci-Fi
เสียงเตือนจากมืออาชีพสาย AI เอง
เสียงเตือนไม่ได้มาจากคนนอกวงการเท่านั้น นักวิจัยและผู้ประกอบการในแวดวง AI เองก็บางส่วนเห็นพ้อง ตัวอย่างเช่น Elon Musk ผู้ก่อตั้ง OpenAI และปัจจุบันเป็นผู้บริหาร xAI เคยออกมาเตือนหลายครั้งว่า หากเราไม่สามารถกำหนดกรอบความปลอดภัยได้ตั้งแต่ต้น AI ระดับสูงอาจก่อให้เกิด “ความเสี่ยงต่อการดำรงอยู่ของมนุษยชาติ”
ในปี 2023 สถาบัน Center for AI Safety ได้ออกแถลงการณ์ร่วมที่มีผู้เชี่ยวชาญหลายร้อยคนลงนาม ยกให้ความเสี่ยงจาก AI อยู่ในระดับเดียวกับการระบาดใหญ่ของเชื้อโรคร้ายแรงหรือภัยจากสงครามนิวเคลียร์ นั่นสะท้อนให้เห็นว่าความกังวลไม่ใช่เพียงทฤษฎีสมคบคิด แต่เป็นมุมมองจริงจังจากแวดวงวิชาการและอุตสาหกรรม
ทำไม ‘AI apocalypse’ ถึงยังเป็นเพียงการถกเถียง
แม้คำเตือนจะฟังดูน่ากลัว แต่ในอีกด้านหนึ่ง นักวิทยาศาสตร์จำนวนมากกลับมองว่าภาพ วันสิ้นโลกจากหุ่นยนต์ ยังเป็นเรื่องเกินจริง ปัจจุบัน AI ที่เรามีอยู่ เช่น ChatGPT หรือเครื่องมือสร้างภาพ Midjourney ยังต้องพึ่งพาข้อมูลจากมนุษย์อย่างมากและไม่สามารถคิดได้เองอย่างแท้จริง
Stuart Russell ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์จาก University of California, Berkeley ชี้ว่า ปัญหาใหญ่ในตอนนี้ไม่ใช่ ‘AI ที่คิดฆ่ามนุษย์’ แต่เป็นการที่เราอาจใช้ AI อย่างขาดการกำกับดูแล เช่น กรณีข่าวปลอมที่ถูกสร้างและเผยแพร่อย่างรวดเร็ว หรือการถูกนำไปใช้ในการโจมตีทางไซเบอร์
โลกควรเดินหน้าอย่างไรกับ AI
สิ่งที่ชัดเจนคือ เทคโนโลยี AI จะไม่หยุดพัฒนา และคงไม่มีใครหยุดมันได้ง่ายๆ สิ่งที่ผู้เชี่ยวชาญทั้งฝ่ายที่มองโลกในแง่ดีและฝ่ายที่เป็น doomers เห็นตรงกัน คือเราจำเป็นต้องสร้างกรอบการกำกับดูแลที่รอบคอบ การออกกฎหมายควบคุม การสร้างมาตรฐานสากล และการเน้นย้ำประเด็นจริยธรรมล้วนมีความสำคัญ
สหภาพยุโรปได้เริ่มต้นแล้วด้วยกฎหมาย AI Act ที่เน้นให้ผู้พัฒนาและผู้ใช้งานรับผิดชอบต่อระบบที่ตนสร้างขึ้น ในสหรัฐฯ และเอเชียเองก็เริ่มมีการพูดถึงมาตรการสอดคล้องกัน เพื่อให้แน่ใจว่า AI จะกลายเป็น ‘พลังเพื่อมนุษย์’ มากกว่าความเสี่ยงที่หลุดจากการควบคุม
จุดที่สังคมควรจับตามอง
ความกังวลเกี่ยวกับ ‘ซูเปอร์อินเทลลิเจนซ์’ อาจดูห่างไกลในตอนนี้ แต่สัญญาณเล็กๆ จากการใช้งานจริงในปัจจุบัน เช่น ข่าวปลอมที่ AI สร้างได้เหมือนจริง งานศิลปะที่แทบจะแยกไม่ออกว่าสร้างโดยใคร หรือการใช้ AI ในงานวิจัยด้านชีววิทยาสังเคราะห์ ก็คือภาพสะท้อนว่า เทคโนโลยีนี้สามารถทรงพลังได้เพียงใด
ไม่ว่าฝั่งที่กังวลหรือฝั่งที่มองโลกในแง่ดีจะถูกต้อง สิ่งสำคัญที่สุดคือการสร้างสมดุลระหว่างการผลักดันนวัตกรรมและการวางมาตรการรับมือ เพราะหากวันหนึ่ง AI ก้าวไปไกลกว่าที่มนุษย์คาดคิดจริง คำถามสำคัญคือ เราจะพร้อมหรือไม่










