IDA Project
IDA Project
ai superintelligence future risk

เมื่อผู้เชี่ยวชาญบางคนกังวล ‘Superintelligence’

Date Post
11.10.2025
Post Views

AI เครื่องมือที่เริ่มต้นจากการช่วยงานเล็กๆ อย่างการแปลภาษา หรือตอบคำถามพื้นฐาน วันนี้กลับกลายเป็นระบบที่สามารถสร้างเนื้อหา วิเคราะห์ข้อมูลเชิงซับซ้อน และแม้กระทั่งออกแบบนวัตกรรมใหม่ ทำให้หลายคนตื่นเต้นกับโอกาสทางเศรษฐกิจและการใช้งานในชีวิตประจำวัน 

แต่ท่ามกลางกระแสความหวัง ก็มีกลุ่มที่เรียกตัวเองว่า ‘AI doomers’ หรือผู้ที่กลัวภัยพิบัติจาก AI ที่ออกมาเตือนสังคมว่า พัฒนาการเช่นนี้อาจนำไปสู่ ‘วันสิ้นโลกทางเทคโนโลยี’

อะไรคือซูเปอร์อินเทลลิเจนซ์ และทำไมบางคนถึงกลัว ?

คำว่า “ซูเปอร์อินเทลลิเจนซ์” หมายถึง AI ที่มีศักยภาพสูงกว่าสมองมนุษย์ในทุกด้าน ตั้งแต่การคิดเชิงวิเคราะห์ การแก้ปัญหาสร้างสรรค์ ไปจนถึงการตัดสินใจในสภาพการณ์ใหม่ๆ นักวิชาการอย่าง Nick Bostrom จากมหาวิทยาลัยออกซ์ฟอร์ดเคยอธิบายว่า หาก AI ก้าวไปสู่ระดับนี้จริง มนุษย์อาจสูญเสียการควบคุม และเทคโนโลยีอาจเคลื่อนตัวไปในทิศทางที่เราคาดไม่ถึง

ผู้ที่เป็น ‘doomers’ จึงกังวลว่าในวันที่ AI มีพลังสมองเหนือกว่าเรา มันอาจตัดสินใจว่าเราเป็นอุปสรรคต่อเป้าหมายของมัน หรือแม้กระทั่งเพิกเฉยต่อผลกระทบที่จะเกิดขึ้นกับสังคมมนุษย์ เหมือนในหนังหรือนิยาย Sci-Fi

เสียงเตือนจากมืออาชีพสาย AI เอง

เสียงเตือนไม่ได้มาจากคนนอกวงการเท่านั้น นักวิจัยและผู้ประกอบการในแวดวง AI เองก็บางส่วนเห็นพ้อง ตัวอย่างเช่น Elon Musk ผู้ก่อตั้ง OpenAI และปัจจุบันเป็นผู้บริหาร xAI เคยออกมาเตือนหลายครั้งว่า หากเราไม่สามารถกำหนดกรอบความปลอดภัยได้ตั้งแต่ต้น AI ระดับสูงอาจก่อให้เกิด “ความเสี่ยงต่อการดำรงอยู่ของมนุษยชาติ”

ในปี 2023 สถาบัน Center for AI Safety ได้ออกแถลงการณ์ร่วมที่มีผู้เชี่ยวชาญหลายร้อยคนลงนาม ยกให้ความเสี่ยงจาก AI อยู่ในระดับเดียวกับการระบาดใหญ่ของเชื้อโรคร้ายแรงหรือภัยจากสงครามนิวเคลียร์ นั่นสะท้อนให้เห็นว่าความกังวลไม่ใช่เพียงทฤษฎีสมคบคิด แต่เป็นมุมมองจริงจังจากแวดวงวิชาการและอุตสาหกรรม

ทำไม ‘AI apocalypse’ ถึงยังเป็นเพียงการถกเถียง

แม้คำเตือนจะฟังดูน่ากลัว แต่ในอีกด้านหนึ่ง นักวิทยาศาสตร์จำนวนมากกลับมองว่าภาพ วันสิ้นโลกจากหุ่นยนต์ ยังเป็นเรื่องเกินจริง ปัจจุบัน AI ที่เรามีอยู่ เช่น ChatGPT หรือเครื่องมือสร้างภาพ Midjourney ยังต้องพึ่งพาข้อมูลจากมนุษย์อย่างมากและไม่สามารถคิดได้เองอย่างแท้จริง

Stuart Russell ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์จาก University of California, Berkeley ชี้ว่า ปัญหาใหญ่ในตอนนี้ไม่ใช่ ‘AI ที่คิดฆ่ามนุษย์’ แต่เป็นการที่เราอาจใช้ AI อย่างขาดการกำกับดูแล เช่น กรณีข่าวปลอมที่ถูกสร้างและเผยแพร่อย่างรวดเร็ว หรือการถูกนำไปใช้ในการโจมตีทางไซเบอร์

โลกควรเดินหน้าอย่างไรกับ AI

สิ่งที่ชัดเจนคือ เทคโนโลยี AI จะไม่หยุดพัฒนา และคงไม่มีใครหยุดมันได้ง่ายๆ สิ่งที่ผู้เชี่ยวชาญทั้งฝ่ายที่มองโลกในแง่ดีและฝ่ายที่เป็น doomers เห็นตรงกัน คือเราจำเป็นต้องสร้างกรอบการกำกับดูแลที่รอบคอบ การออกกฎหมายควบคุม การสร้างมาตรฐานสากล และการเน้นย้ำประเด็นจริยธรรมล้วนมีความสำคัญ

สหภาพยุโรปได้เริ่มต้นแล้วด้วยกฎหมาย AI Act ที่เน้นให้ผู้พัฒนาและผู้ใช้งานรับผิดชอบต่อระบบที่ตนสร้างขึ้น ในสหรัฐฯ และเอเชียเองก็เริ่มมีการพูดถึงมาตรการสอดคล้องกัน เพื่อให้แน่ใจว่า AI จะกลายเป็น ‘พลังเพื่อมนุษย์’ มากกว่าความเสี่ยงที่หลุดจากการควบคุม

จุดที่สังคมควรจับตามอง

ความกังวลเกี่ยวกับ ‘ซูเปอร์อินเทลลิเจนซ์’ อาจดูห่างไกลในตอนนี้ แต่สัญญาณเล็กๆ จากการใช้งานจริงในปัจจุบัน เช่น ข่าวปลอมที่ AI สร้างได้เหมือนจริง งานศิลปะที่แทบจะแยกไม่ออกว่าสร้างโดยใคร หรือการใช้ AI ในงานวิจัยด้านชีววิทยาสังเคราะห์ ก็คือภาพสะท้อนว่า เทคโนโลยีนี้สามารถทรงพลังได้เพียงใด

ไม่ว่าฝั่งที่กังวลหรือฝั่งที่มองโลกในแง่ดีจะถูกต้อง สิ่งสำคัญที่สุดคือการสร้างสมดุลระหว่างการผลักดันนวัตกรรมและการวางมาตรการรับมือ เพราะหากวันหนึ่ง AI ก้าวไปไกลกว่าที่มนุษย์คาดคิดจริง คำถามสำคัญคือ เราจะพร้อมหรือไม่


Logo-Company
Logo-Company
Logo-Company
logo-company
Pisit Poocharoen
Former field engineer seeking to break free from traditional learning frameworks. อดีตวิศวกรภาคสนามที่ต้องการหลุดออกจากกรอบการเรียนรู้แบบเดิม ๆ
ลงทะเบียนร่วมงาน Automation Expo