ระบบจัดเก็บแนวตั้ง Kardex Remstar จาก Store Master
ระบบจัดเก็บแนวตั้ง Kardex Remstar จาก Store Master
AI สร้าง Zero-Day Exploit เจาะ 2FA สำเร็จครั้งแรกของโลก

Google ยืนยัน พบ AI สร้าง Zero-Day Exploit เจาะทะลุ 2FA

Date Post
13.05.2026
Post Views

โลกไซเบอร์กำลังก้าวเข้าสู่จุดเปลี่ยนครั้งสำคัญ เมื่อรายงานล่าสุดจาก Google Threat Intelligence Group (GTIG) ออกมายืนยันว่า นี่คือ ครั้งแรกของโลกที่พบกลุ่มอาชญากรไซเบอร์ใช้ปัญญาประดิษฐ์ (AI) ในการค้นหาและเขียนโค้ดเพื่อโจมตีช่องโหว่แบบ Zero-Day ได้สำเร็จ

เรื่องนี้ไม่ได้เป็นเพียงแค่บทความทางทฤษฎีหรือการทดลองในห้องแล็บอีกต่อไป แต่กลุ่มอาชญากรได้นำมาเตรียมพร้อมสำหรับการโจมตีระดับขนานใหญ่ (Mass Exploitation) ในโลกความเป็นจริง! เกิดอะไรขึ้นบ้าง? เราสรุปประเด็นสำคัญจากการอัปเดตล่าสุดมาให้แล้วครับ

เป้าหมายคืออะไร?

แฮกเกอร์พุ่งเป้าไปที่ระบบยืนยันตัวตนสองขั้นตอน (2FA) ของเครื่องมือบริหารจัดการระบบเครือข่ายแบบโอเพนซอร์ส (Open-source) ชื่อดังที่ใช้งานผ่านเว็บไซต์ โชคดีที่ทาง Google ตรวจพบและได้ทำงานร่วมกับผู้พัฒนาซอฟต์แวร์เพื่อออกแพตช์แก้ไข หยุดยั้งแผนการโจมตีนี้ได้ทันเวลาก่อนที่จะเกิดความเสียหายในวงกว้าง

รู้ได้อย่างไรว่า AI เป็นคนเขียนโค้ดโจมตีนี้? 

แม้จะยังไม่สามารถระบุได้ว่าใช้ AI โมเดลใด แต่ Google มั่นใจว่าไม่ใช่ Gemini ของตนเอง ทีมวิจัยพบหลักฐานชิ้นสำคัญที่มัดตัวว่าสคริปต์ภาษา Python ที่ใช้เจาะระบบนี้ไม่ได้มาจากฝีมือมนุษย์ร้อยเปอร์เซ็นต์ โดยมีจุดสังเกตดังนี้

  • โค้ดดูเป็นตำราเรียนมากเกินไป รูปแบบการเขียนโค้ดมีความเป็นระเบียบ เป็นโครงสร้างตามแบบฉบับที่พบได้ในข้อมูลสำหรับฝึกฝนโมเดลภาษาขนาดใหญ่ (LLMs) เช่น การเขียนเมนูช่วยเหลือที่ละเอียด และการใช้คลาสสี ANSI ที่สะอาดตา
  • ใส่คำอธิบายโค้ด (Docstrings) ที่ละเอียดเกินจำเป็น ซึ่งต่างจากวิสัยแฮกเกอร์ทั่วไปที่มักจะซ่อนเร้นการทำงานของตนเอง
  • สร้างคะแนนความเสี่ยงปลอม (Hallucinated CVSS) โค้ดดังกล่าวมีอาการภาพหลอน โดย AI ได้จินตนาการคะแนนความรุนแรงของช่องโหว่ขึ้นมาใส่ไว้ในโค้ดเองอย่างแนบเนียน

ทำไมเครื่องมือสแกนไวรัสทั่วไปถึงตรวจไม่พบ? 

ความน่ากลัวคือ ช่องโหว่นี้ไม่ใช่ข้อผิดพลาดทางเทคนิคพื้นฐานแบบข้อมูลล้น (Memory Corruption) หรือการกรองข้อมูลนำเข้าที่ไม่ถูกต้อง ซึ่งโปรแกรมสแกนความปลอดภัยทั่วไปจะจับได้ แต่เป็นความบกพร่องที่เรียกว่า High-Level Semantic Logic Flaw (ช่องโหว่เชิงตรรกะระดับสูง) โมเดล AI ขั้นสูง (Frontier LLMs) มีความสามารถในการอ่านและตีความ “เจตนา” ของนักพัฒนาโปรแกรม ทำให้มันสามารถสแกนเจอจุดอ่อนของการตั้งค่า “สมมติฐานที่ไว้ใจได้” (Hardcoded exceptions) ที่ซ่อนอยู่ลึกๆ และหาความย้อนแย้งของตรรกะจนสร้างวิธีเจาะทะลุกำแพง 2FA ได้ในที่สุด

ภัยคุกคามระดับชาติ จีนและเกาหลีเหนือเริ่มขยับตัว 

รายงานยังระบุด้วยว่า ไม่ใช่แค่อาชญากรไซเบอร์ทั่วไป แต่กลุ่มแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐบาลก็กำลังเร่งใช้เทคโนโลยี AI เพื่อหาช่องโหว่เช่นกัน

  • กลุ่ม APT45 (เกาหลีเหนือ) มีการรัวส่งคำสั่ง (Prompts) แบบซ้ำๆ นับพันครั้งให้ AI ช่วยวิเคราะห์และทดสอบช่องโหว่ (CVEs) เพื่อสร้างคลังแสงอาวุธไซเบอร์อย่างเป็นระบบ ซึ่งหากใช้มนุษย์ทำจะแทบเป็นไปไม่ได้เลย
  • กลุ่ม UNC2814 (จีน) พยายามหลอก AI ให้สวมบทบาทเป็น “ผู้เชี่ยวชาญด้านความปลอดภัยขั้นสูง” เพื่อหลบเลี่ยงระบบป้องกัน (Persona-driven Jailbreaking) และให้ AI ช่วยหาช่องโหว่ในอุปกรณ์เครือข่ายต่างๆ เช่น เฟิร์มแวร์ของ TP-Link รวมถึงมีการใช้คลังข้อมูลช่องโหว่เก่ากว่า 85,000 รายการมาช่วยเทรน AI ให้คิดวิเคราะห์เหมือนแฮกเกอร์มือฉมังอีกด้วย

เหตุการณ์นี้กำลังบอกเราว่า ถึงเวลาที่องค์กรต้องปรับตัวรับมือสงครามไซเบอร์ยุค AI เพราะนี่เรียกได้ว่าเป็นสัญญาณเตือนภัยระดับแดงที่ทักษะขั้นสูงในการเขียนโค้ดโจมตีไม่ได้เป็นข้อจำกัดของแฮกเกอร์ เพราะ AI สามารถทำหน้าที่วิจัยและเขียนโค้ดแทนได้ ระบบ 2FA ที่วงการคริปโตและแพลตฟอร์มการเงินเคยเชื่อมั่นว่าปลอดภัย อาจกำลังเผชิญกับข้อจำกัดในการรับมือภัยคุกคามรูปแบบใหม่

องค์กรต่าง ๆ จึงต้องเร่งอัปเดตระบบ ติดตามแพตช์ความปลอดภัยอย่างสม่ำเสมอ และในอนาคตอันใกล้ ฝั่งผู้ป้องกันเองก็จำเป็นต้องยกระดับไปใช้ AI-driven Defense หรือระบบอัตโนมัติในการตรวจจับความผิดปกติ เพื่อรับมือกับ AI ของฝั่งผู้โจมตีให้ทันท่วงที


ที่มาข้อมูล : Google Cloud , CSO

Logo-Company
Logo-Company
Logo-Company