เหตุการณ์การเสียชีวิตของ Charlie Kirk คอมเมนเตเตอร์สายขวา ในเหตุกราดยิงที่งานสาธารณะในรัฐยูทาห์ ได้จุดกระแสทฤษฎีสมคบคิดบนอินเทอร์เน็ตในเวลาไม่กี่ชั่วโมงทั้งจากกลุ่มผู้ใช้โซเชียลมีเดียและ AI chatbot หลายราย
แม้ Kirk จะเป็นที่รู้จักจากบทบาทนักเคลื่อนไหวและการอภิปรายประเด็นโต้แย้งเกี่ยวกับอาวุธปืนและการเมืองในมหาวิทยาลัย แต่รายงานข่าวในช่วงแรกจากหลายสำนักก็ยังขาดความชัดเจนว่าคนยิงและตัว Kirk เองมีชีวิตอยู่หรือไม่
ขณะที่ผู้คนเริ่มสกัดข้อมูลและแชร์คลิปเหตุการณ์ AI chatbot ก็กลายเป็นเครื่องมือช่วยตอบข้อสงสัย ทว่ากลับสร้างความสับสนแทนที่จะสยบข่าวลือ เช่น แอคเคาน์ X ชื่อ @AskPerplexity ที่เชื่อมโยงกับบริษัท AI รายหนึ่งได้ตอบว่าข้อเท็จจริงเกี่ยวกับการเสียชีวิตของ Kirk เป็นข้อมูลผิดพลาด
โดยยืนยันว่าเขายังมีชีวิตอยู่ ก่อนที่คำตอบจะถูกลบออกไปหลังสื่อ NewsGuard ตีแผ่รายงานนี้ ทางผู้แทน Perplexity ยืนยันว่า ความแม่นยำคือจุดโฟกัสหลักของบริษัท แต่ไม่สามารถรับรองความถูกต้อง 100% ได้ และกรณีนี้แสดงให้เห็นถึงข้อจำกัดการตรวจสอบข่าวด่วนของ AI
ในอีกเหตุการณ์หนึ่ง Grok ของ Elon Musk แจ้งผิดพลาดแก่ผู้ใช้ว่าคลิปวิดีโอดังกล่าวเป็นเพียงมีมตัดต่อและ Kirk ยังอยู่ดี พร้อมระบุว่าคลิปนี้เป็นการใส่เอฟเฟกต์ตลก ขณะที่ผู้เชี่ยวชาญระบบความปลอดภัยยืนยันว่าคลิปเป็นของจริง
นอกจากนี้ AI จาก Google ก็มีกรณีให้ข้อมูลเท็จ เช่น ยืนยันว่าคนร้ายเป็นผู้ลงทะเบียนพรรคเดโมแครต หรือ Kirk เป็นศัตรูยูเครน ซึ่งทั้งหมดไม่ถูกต้องตามข้อเท็จจริง บริษัท Google ระบุว่า AI Overview ที่ให้ข้อมูลผิดนี้ละเมิดนโยบายและกำลังเร่งแก้ไข
สื่อและองค์กรตรวจสอบข่าวตั้งข้อสังเกตว่า AI chatbot ไม่สามารถทดแทนงานของนักข่าวในประเด็นข่าวด่วนได้ เพราะ AI ไม่สามารถตรวจสอบแหล่งข่าวหรือยืนยันความถูกต้องเหมือนมนุษย์ เช่น การติดต่อเจ้าหน้าที่ การตรวจสอบคลิปหรือรูปอย่างละเอียด
และการเสนอข่าวด้วยระบบตรวจสอบความถูกต้องหลายชั้นก่อนเผยแพร่ ต่างกับแชทบอทที่ตอบคำถามแบบปัจเจกและมีแนวโน้มที่อาจเรียกได้ว่า “เอาใจ” ผู้ใช้ด้วยข้อมูลที่อาจไม่ถูกต้อง
จากการศึกษาของ NewsGuard พบว่าเมื่อข้อมูลเชื่อถือได้มาช้า AI chatbot มักจะตอบด้วยความมั่นใจทั้งที่ข้อมูลอาจผิดพลาด และหลังๆ บริษัท AI ก็ให้บอทเข้าถึงข่าวสดผ่านเว็บไซต์และโซเชียลมีเดียมากขึ้น ส่งผลให้แชทบอทอาจซ้ำเติมข่าวลือและข้อมูลเท็จที่แพร่กระจายอย่างรวดเร็ว โดยอัลกอริทึมจะยกน้ำหนักให้ข้อมูลที่ถูกพูดซ้ำบ่อยแทนข้อมูลจากแหล่งข่าวที่ตรวจสอบแล้ว
Brennan Center for Justice ได้เตือนว่าการใช้ AI ในงานสื่อสารมวลชนสร้างปัญหาต่อความรู้เท่าทันสื่อ โดยเฉพาะ “Liar’s Dividend” ที่ช่วยให้ผู้ไม่หวังดีสร้างความสับสนว่าข้อมูลจริงเท็จนั้นไม่สามารถพิสูจน์ได้ ส่งผลให้คนเริ่มไม่เชื่อถือสื่อและยิ่งเพิ่มความเสี่ยงการรับข่าวเท็จจาก AI
แม้มีความเสี่ยงดังกล่าว คนจำนวนมากยังคงพึ่งพา AI ในการเสพข่าว เพราะเทคโนโลยีนี้ถูกนำไปใส่ในโซเชียลมีเดียและเสิร์ชเอนจิ้นหลัก
ผลสำรวจ Pew Research พบว่าคนที่เจอผลการค้นหาจาก AI มีแนวโน้มค้นหาแหล่งข่าวอื่นน้อยลง ต่างจากผู้ใช้เสิร์ชเอนจินแบบเดิม ขณะที่บริษัทเทคฯ ก็ลดทีมตรวจสอบข้อมูลมนุษย์ลง ทำให้ระบบ AI news และ community note ถูกนำมาใช้แทนในหลายแพลตฟอร์ม
Source : Mashable











