โลกไซเบอร์กำลังก้าวเข้าสู่จุดเปลี่ยนครั้งสำคัญ เมื่อรายงานล่าสุดจาก Google Threat Intelligence Group (GTIG) ออกมายืนยันว่า นี่คือ ครั้งแรกของโลกที่พบกลุ่มอาชญากรไซเบอร์ใช้ปัญญาประดิษฐ์ (AI) ในการค้นหาและเขียนโค้ดเพื่อโจมตีช่องโหว่แบบ Zero-Day ได้สำเร็จ
เรื่องนี้ไม่ได้เป็นเพียงแค่บทความทางทฤษฎีหรือการทดลองในห้องแล็บอีกต่อไป แต่กลุ่มอาชญากรได้นำมาเตรียมพร้อมสำหรับการโจมตีระดับขนานใหญ่ (Mass Exploitation) ในโลกความเป็นจริง! เกิดอะไรขึ้นบ้าง? เราสรุปประเด็นสำคัญจากการอัปเดตล่าสุดมาให้แล้วครับ
เป้าหมายคืออะไร?
แฮกเกอร์พุ่งเป้าไปที่ระบบยืนยันตัวตนสองขั้นตอน (2FA) ของเครื่องมือบริหารจัดการระบบเครือข่ายแบบโอเพนซอร์ส (Open-source) ชื่อดังที่ใช้งานผ่านเว็บไซต์ โชคดีที่ทาง Google ตรวจพบและได้ทำงานร่วมกับผู้พัฒนาซอฟต์แวร์เพื่อออกแพตช์แก้ไข หยุดยั้งแผนการโจมตีนี้ได้ทันเวลาก่อนที่จะเกิดความเสียหายในวงกว้าง
รู้ได้อย่างไรว่า AI เป็นคนเขียนโค้ดโจมตีนี้?
แม้จะยังไม่สามารถระบุได้ว่าใช้ AI โมเดลใด แต่ Google มั่นใจว่าไม่ใช่ Gemini ของตนเอง ทีมวิจัยพบหลักฐานชิ้นสำคัญที่มัดตัวว่าสคริปต์ภาษา Python ที่ใช้เจาะระบบนี้ไม่ได้มาจากฝีมือมนุษย์ร้อยเปอร์เซ็นต์ โดยมีจุดสังเกตดังนี้
- โค้ดดูเป็นตำราเรียนมากเกินไป รูปแบบการเขียนโค้ดมีความเป็นระเบียบ เป็นโครงสร้างตามแบบฉบับที่พบได้ในข้อมูลสำหรับฝึกฝนโมเดลภาษาขนาดใหญ่ (LLMs) เช่น การเขียนเมนูช่วยเหลือที่ละเอียด และการใช้คลาสสี ANSI ที่สะอาดตา
- ใส่คำอธิบายโค้ด (Docstrings) ที่ละเอียดเกินจำเป็น ซึ่งต่างจากวิสัยแฮกเกอร์ทั่วไปที่มักจะซ่อนเร้นการทำงานของตนเอง
- สร้างคะแนนความเสี่ยงปลอม (Hallucinated CVSS) โค้ดดังกล่าวมีอาการภาพหลอน โดย AI ได้จินตนาการคะแนนความรุนแรงของช่องโหว่ขึ้นมาใส่ไว้ในโค้ดเองอย่างแนบเนียน
ทำไมเครื่องมือสแกนไวรัสทั่วไปถึงตรวจไม่พบ?
ความน่ากลัวคือ ช่องโหว่นี้ไม่ใช่ข้อผิดพลาดทางเทคนิคพื้นฐานแบบข้อมูลล้น (Memory Corruption) หรือการกรองข้อมูลนำเข้าที่ไม่ถูกต้อง ซึ่งโปรแกรมสแกนความปลอดภัยทั่วไปจะจับได้ แต่เป็นความบกพร่องที่เรียกว่า High-Level Semantic Logic Flaw (ช่องโหว่เชิงตรรกะระดับสูง) โมเดล AI ขั้นสูง (Frontier LLMs) มีความสามารถในการอ่านและตีความ “เจตนา” ของนักพัฒนาโปรแกรม ทำให้มันสามารถสแกนเจอจุดอ่อนของการตั้งค่า “สมมติฐานที่ไว้ใจได้” (Hardcoded exceptions) ที่ซ่อนอยู่ลึกๆ และหาความย้อนแย้งของตรรกะจนสร้างวิธีเจาะทะลุกำแพง 2FA ได้ในที่สุด
ภัยคุกคามระดับชาติ จีนและเกาหลีเหนือเริ่มขยับตัว
รายงานยังระบุด้วยว่า ไม่ใช่แค่อาชญากรไซเบอร์ทั่วไป แต่กลุ่มแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐบาลก็กำลังเร่งใช้เทคโนโลยี AI เพื่อหาช่องโหว่เช่นกัน
- กลุ่ม APT45 (เกาหลีเหนือ) มีการรัวส่งคำสั่ง (Prompts) แบบซ้ำๆ นับพันครั้งให้ AI ช่วยวิเคราะห์และทดสอบช่องโหว่ (CVEs) เพื่อสร้างคลังแสงอาวุธไซเบอร์อย่างเป็นระบบ ซึ่งหากใช้มนุษย์ทำจะแทบเป็นไปไม่ได้เลย
- กลุ่ม UNC2814 (จีน) พยายามหลอก AI ให้สวมบทบาทเป็น “ผู้เชี่ยวชาญด้านความปลอดภัยขั้นสูง” เพื่อหลบเลี่ยงระบบป้องกัน (Persona-driven Jailbreaking) และให้ AI ช่วยหาช่องโหว่ในอุปกรณ์เครือข่ายต่างๆ เช่น เฟิร์มแวร์ของ TP-Link รวมถึงมีการใช้คลังข้อมูลช่องโหว่เก่ากว่า 85,000 รายการมาช่วยเทรน AI ให้คิดวิเคราะห์เหมือนแฮกเกอร์มือฉมังอีกด้วย
เหตุการณ์นี้กำลังบอกเราว่า ถึงเวลาที่องค์กรต้องปรับตัวรับมือสงครามไซเบอร์ยุค AI เพราะนี่เรียกได้ว่าเป็นสัญญาณเตือนภัยระดับแดงที่ทักษะขั้นสูงในการเขียนโค้ดโจมตีไม่ได้เป็นข้อจำกัดของแฮกเกอร์ เพราะ AI สามารถทำหน้าที่วิจัยและเขียนโค้ดแทนได้ ระบบ 2FA ที่วงการคริปโตและแพลตฟอร์มการเงินเคยเชื่อมั่นว่าปลอดภัย อาจกำลังเผชิญกับข้อจำกัดในการรับมือภัยคุกคามรูปแบบใหม่
องค์กรต่าง ๆ จึงต้องเร่งอัปเดตระบบ ติดตามแพตช์ความปลอดภัยอย่างสม่ำเสมอ และในอนาคตอันใกล้ ฝั่งผู้ป้องกันเองก็จำเป็นต้องยกระดับไปใช้ AI-driven Defense หรือระบบอัตโนมัติในการตรวจจับความผิดปกติ เพื่อรับมือกับ AI ของฝั่งผู้โจมตีให้ทันท่วงที
ที่มาข้อมูล : Google Cloud , CSO







