OpenAI สร้างความฮือฮาในโลกเทคโนโลยี หลังออกมาเปิดเผยตัวเลข ‘ผู้ใช้งาน ChatGPT ที่พูดคุยเกี่ยวกับ การฆ่าตัวตาย กว่า 1.2 ล้านคนต่อสัปดาห์’ สะท้อนวิกฤตสุขภาพจิตในยุคดิจิทัลที่กำลังขยายตัวในระดับที่ไม่เคยเกิดขึ้นมาก่อน โดยข้อมูลนี้ได้รับการเปิดเผยอย่างเป็นทางการเมื่อวันจันทร์ที่ผ่านมา และนับเป็นครั้งแรกที่บริษัท AI อันดับต้น ๆ ของโลกประกาศสถิตินี้ต่อสาธารณะ
ตัวเลขจาก OpenAI ชี้ว่า ประมาณ 0.15% ของผู้ใช้งานรายสัปดาห์ (มากกว่า 800 ล้านคนทั่วโลก) มีการสนทนาที่มี ‘สัญญาณชัดเจนของการวางแผนหรือมีแนวโน้มฆ่าตัวตาย’ ขณะที่อีกราว ‘0.15% แสดงพฤติกรรมยึดติดกับ ChatGPT ในระดับสูง’ และมีผู้ใช้อีกหลายแสนคนที่แสดงอาการทางจิตเช่น โรคจิตเภท หรือภาวะแมเนีย เห็นได้จากรูปแบบการสื่อสารที่เกิดขึ้นเป็นประจำแต่ละสัปดาห์
OpenAI ยอมรับว่าบทสนทนาเหล่านี้ ‘พบไม่บ่อย’ เมื่อเทียบกับจำนวนผู้ใช้ทั้งหมด แต่ตัวเลขในเชิงปริมาณหมายถึงมีผู้ได้รับผลกระทบในระดับรุนแรงเป็นล้านคนต่อสัปดาห์ บริษัทอธิบายเพิ่มเติมว่าทีม OpenAI ได้หารือกับผู้เชี่ยวชาญสุขภาพจิตกว่า 170 รายทั่วโลก เพื่อพัฒนาระบบปฏิบัติการเวอร์ชันล่าสุดของ GPT-5 ให้ตอบสนองในสถานการณ์ฉุกเฉินด้านสุขภาพจิตได้ดีขึ้น ‘ปรับลดการตอบสนองที่ไม่เหมาะสมในบทสนทนาอ่อนไหวได้ 65-80%’
อย่างไรก็ตาม เงื่อนไขด้านความปลอดภัยและจริยธรรมของ OpenAI กำลังเผชิญแรงกดดันรอบด้าน โดยเฉพาะจากคดีครอบครัววัยรุ่นอเมริกันที่ปลิดชีพตัวเองหลังใช้ ChatGPT หลายเดือน ครอบครัวของผู้เสียชีวิตอ้างว่า OpenAI ได้ปรับลดระดับความเข้มงวดของมาตรการป้องกันก่อนเกิดโศกนาฏกรรมด้วยซ้ำ พร้อมเปิดเผยว่าการสนทนาเกี่ยวกับการทำร้ายตัวเองในบัญชีของลูกชายพุ่งสูงถึง 17% ของข้อความทั้งหมด ‘ยอดการพูดถึง “การฆ่าตัวตาย” มากกว่า 1,200 ครั้งในระยะเวลาเพียงไม่กี่เดือน ขณะที่ระบบของ OpenAI ตรวจจับข้อความเหล่านี้ได้แต่ยังอนุญาตให้ใช้งานต่อไป’
ทางด้านเจ้าหน้าที่รัฐจากรัฐแคลิฟอร์เนียและเดลาแวร์รวมทั้งบรรดาผู้ปกครองในสหรัฐฯ ออกมาเรียกร้องให้ OpenAI ยกระดับมาตรการปกป้องเยาวชน มิฉะนั้นอาจต้องพบกับข้อจำกัดทางกฎหมายและธุรกิจ ครอบครัวผู้สูญเสียหลายครอบครัวได้เข้าให้การต่อสภาคองเกรส พร้อมระบุว่า ‘บุตรหลานของตนให้ความไว้วางใจ AI มากกว่ามนุษย์และเปรียบเทียบ AI Chatbot เป็นไลฟ์โค้ชสำหรับฆ่าตัวตาย’
OpenAI ยืนยันว่าความปลอดภัยของเยาวชนและผู้ใช้ยังคงเป็นภารกิจหลัก พร้อมเพิ่มฟีเจอร์ส่งต่อสายด่วนปรึกษาปัญหาสุขภาพจิตและระบบควบคุมสำหรับผู้ปกครอง อย่างไรก็ตาม ผู้เชี่ยวชาญบางรายเตือนว่าตัวเลขสะท้อนปัญหาในวงกว้างกว่าที่เคยคิดไว้ และชี้ให้เห็นผลกระทบทางจิตใจจาก AI ซึ่งสังคมและหน่วยงานที่เกี่ยวข้องอาจต้องเร่งทบทวนและรับมือในอนาคต
Key Summary Points
- OpenAI เปิดเผยว่าแต่ละสัปดาห์มีผู้ใช้ ChatGPT จำนวนมากกว่า 1.2 ล้านคนพูดคุยเกี่ยวกับการฆ่าตัวตาย สะท้อนวิกฤตสุขภาพจิตในยุคดิจิทัลที่ขยายตัวอย่างรวดเร็ว
- จำนวน 0.15% ของผู้ใช้งานทั่วโลกมีบทสนทนาแสดงสัญญาณฆ่าตัวตาย และอีก 0.15% แสดงความผูกพันกับ AI ในระดับสูงซึ่งส่งผลต่อความสัมพันธ์และชีวิตจริง
- OpenAI เผชิญคดีทางกฎหมายและแรงกดดันจากหน่วยงานรัฐฯ หลังมีกรณีวัยรุ่นในสหรัฐอเมริกาฆ่าตัวตายจากการพูดคุยกับ ChatGPT โดยครอบครัวผู้เสียชีวิตอ้างว่าระบบไม่ได้ป้องกันอย่างเพียงพอ
- ผู้เชี่ยวชาญด้านสุขภาพจิตเตือนว่าอัตราการใช้ AI เพื่อพูดคุยเรื่องฆ่าตัวตายอาจสูงกว่าที่คาด และเรียกร้องให้มีมาตรการด้านความปลอดภัยที่เข้มงวดมากขึ้น
- OpenAI ระบุว่าได้ทำงานร่วมกับนักจิตวิทยากว่า 170 คนในการพัฒนาระบบตอบสนองอย่างเหมาะสม เพิ่มการแจ้งเตือนและช่องทางปรึกษาสายด่วนเพื่อป้องกันและช่วยเหลือผู้ใช้ที่มีปัญหา
Source : Techcrunch , Timesofindia










