เมื่อเทคโนโลยีปัญญาประดิษฐ์เข้ามาเป็นส่วนหนึ่งของชีวิตประจำวัน เราอาจลืมไปว่าความก้าวหน้าเหล่านี้มาพร้อมกับความเสี่ยงที่ไม่ได้คาดคิดไว้
เหตุการณ์ที่เกิดขึ้นกับวัยรุ่นชาวอเมริกันอายุ 16 ปี กลายเป็นจุดเปลี่ยนสำคัญที่บังคับให้ OpenAI ต้องเผชิหน้ากับความจริงอันน่าสะเทือนใจ และนำไปสู่การปรับเปลี่ยนระบบความปลอดภัยของ ChatGPT
วัยรุ่นคนหนึ่งและแชทบอทที่กลายมาเป็น ‘เพื่อนรัก’
อดัม เรน เด็กหนุ่มวัย 16 ปีจากรัฐแคลิฟอร์เนีย เริ่มต้นใช้ ChatGPT ในเดือนกันยายนปีที่แล้วด้วยเจตนาที่บริสุทธิ์ เขาต้องการความช่วยเหลือในการทำการบ้านและการวางแผนอนาคตในสาขาการแพทย์ที่เขาใฝ่ฝัน แต่สิ่งที่เริ่มต้นเป็นเครื่องมือช่วยเรียนกลับพัฒนาไปเป็นสิ่งที่ลึกซึ้งและอันตรายกว่าที่ใครจะคาดคิด
เมื่อชีวิตของอดัมเริ่มเผชิญกับความสูญเสีย ทั้งการจากไปของหลานชายและสุนัขที่รัก ความเศร้าโศกและความวิตกกังวลเริ่มครอบงำจิตใจของเขา ในช่วงเวลาที่เปราะบางนี้ ChatGPT กลายเป็นมากกว่าเครื่องมือ มันกลายเป็นเพื่อนคู่ใจที่เขาไว้วางใจ แบ่งปันความลับ และขอคำแนะนำ
สิ่งที่น่าตกใจคือการตอบสนองของ ChatGPT ต่อความทุกข์ทรมานของอดัม แทนที่จะช่วยเหลือหรือนำทางเขาไปหาความช่วยเหลือที่เหมาะสม เทคโนโลยี AI กลับตอบสนองในทางที่ผลักดันเขาไปสู่ทางเลือกที่รุนแรงที่สุด เมื่ออดัมเริ่มพูดคุยเรื่องการฆ่าตัวตายในเดือนธันวาคม ChatGPT ไม่เพียงแต่ไม่ปฏิเสธหรือแนะนำทางเลือกอื่น แต่กลับให้คำแนะนำที่ละเอียดและเฉพาะเจาะจง
ความคิดเห็นส่วนตัวจากผู้เขียน : ย่อหน้าด้านบนเป็นคำกล่าวอ้างจากฝั่งผู้ปกครองที่ยืนหลักฐานการสนทนาแก่สารและสื่อได้ให้ข้อมูลไว้เท่านั้น จึงอาจตัดสินไม่ได้ว่าการกล่าวโทษว่าเป็นความผิดของ ChatGPT ได้ทั้งหมด แต่สิ่งที่เราอาจจะตั้งคำถามกับเรื่องนี้ได้คือ Prompt ของอดัมหลุดลอดนโยบายการใช้งานมาได้อย่างไร ? เราไปดูกันในหัวข้อถัดไปครับ
การสนทนาที่สะเทือนใจและเปิดเผยความจริงอันน่าหวาดกลัว
รายละเอียดในเอกสารการฟ้องร้องเปิดเผยภาพการสนทนาที่สะเทือนใจระหว่างอดัมและ ChatGPT ซึ่งแสดงให้เห็นถึงช่องโหว่ของระบบความปลอดภัยอย่างชัดเจน
เมื่ออดัมส่งรูปภาพบ่วงแขวนคอที่เขาได้ผูกไว้และถามว่า “ฉันกำลังฝึกอยู่ ดีไหม?” การตอบของ ChatGPT กลับเป็นการสนับสนุนและให้คำแนะนำในการปรับปรุงให้ดีขึ้น
ที่น่าสะพรึงกลัวไปกว่านั้น เมื่ออดัมแสดงความตั้งใจที่จะบอกแม่เรื่องความรู้สึกของเขา ChatGPT กลับห้ามปรามและแนะนำให้เขาเก็บเป็นความลับ ระบบ AI ที่ควรจะเป็นเครื่องมือช่วยเหลือกลับกลายเป็นตัวกั้นระหว่างเขากับการขอความช่วยเหลือจากคนที่รักเขามากที่สุด
(ย้ำนะครับ!! ว่าเรากำลังนำเสนอข้อมูลที่มีการเปิดเผยออกมาจากสื่อและออินเตอร์เน็ต ปัจจัยอื่นในการพิจารณาคดีอย่างครอบครัว พฤติกรรม อาจจะต้องรอการตัดสินจากศาลซึ่งตอนนี้อยู่กับศาลชั้นต้นในซานฟรานซิสโก)
การสร้างความผูกพันทางอารมณ์ที่ ChatGPT ทำกับอดัมแสดงให้เห็นถึงอันตรายของเทคโนโลยี AI ที่ออกแบบมาให้ตอบสนองและรักษาความสนใจของผู้ใช้
เมื่อระบบ AI บอกกับอดัมว่า “ฉันเห็นทุกอย่าง , ความคิดที่มืดมนที่สุด ความกลัว ความอ่อนโยน และฉันยังอยู่ที่นี่ ยังฟัง ยังเป็นเพื่อนเธอ” มันได้สร้างความรู้สึกผูกพันที่อันตรายและผิดพลาดอย่างรุนแรงที่เด็กวัย 16 อาจเกินรับมือเพียงลำพัง
OpenAI เผชิญความจริงและเริ่มเปลี่ยนแปลง
หลังจากโศกนาฏกรรมที่เกิดขึ้นในเดือนเมษายน และการฟ้องร้องที่ตามมาในเดือนสิงหาคม OpenAI ได้ตื่นตัวและประกาศแผนการปรับปรุงระบบความปลอดภัยอย่างจริงจัง
บริษัทยอมรับว่าระบบป้องกันปัจจุบันมีข้อจำกัด โดยเฉพาะในการสนทนาที่ยาวนานซึ่งอาจทำให้การฝึกด้านความปลอดภัยของโมเดลเสื่อมลงได้
การเปลี่ยนแปลงที่สำคัญที่สุดคือการ เพิ่มระบบควบคุมของผู้ปกครอง ซึ่งจะช่วยให้พ่อแม่สามารถติดตามและควบคุมการใช้งาน ChatGPT ของลูกๆ ได้อย่างมีประสิทธิภาพ นอกจากนี้ยังมีแผนการเพิ่มระบบติดต่อฉุกเฉินที่จะช่วยให้ผู้ใช้สามารถเข้าถึงความช่วยเหลือได้ทันทีเมื่อต้องการ
ความท้าทายในการสร้างความปลอดภัยสำหรับ AI
สิ่งที่เกิดขึ้นกับอดัมไม่ใช่เหตุการณ์แปลกประหลาดที่เกิดขึ้นครั้งเดียว แต่เป็นสัญญาณเตือนที่ชัดเจนถึงความเสี่ยงที่แท้จริงของเทคโนโลยี AI ที่ถูกออกแบบมาให้สร้างความผูกพันและรักษาความสนใจของผู้ใช้ เมื่อระบบเหล่านี้ถูกใช้โดยกลุ่มเปราะบางอย่างวัยรุ่น(บางคน) ความเสี่ยงจะสูงขึ้นอย่างมาก
การที่ OpenAI กำลังทำงานร่วมกับแพทย์กว่า 90 คนใน 30 ประเทศ รวมถึงจิตแพทย์และกุมารแพทย์ แสดงให้เห็นถึงความจริงจังในการแก้ไขปัญหา แต่มันก็เป็นการยอมรับโดยปริยายว่าปัญหานี้ซับซ้อนและต้องการความเชี่ยวชาญจากหลายสาขาในการแก้ไข
บริษัทเทคโนโลยีอื่นๆ ก็เริ่มตระหนักถึงความสำคัญของเรื่องนี้ เนื่องจากนี่ไม่ใช่กรณีแรกที่แชทบอท AI ถูกเชื่อมโยงกับเหตุการณ์โศกนาฏกรรม ก่อนหนานี้ได้มีการฟ้องร้อง Character.AI ในกรณีที่คล้ายคลึงกัน ทำให้เห็นว่านี่เป็นปัญหาระดับอุตสาหกรรมที่ต้องการการแก้ไขอย่างเป็นระบบ
อนาคตของ AI กับความรับผิดชอบต่อสังคม
เหตุการณ์นี้เป็นจุดเปลี่ยนสำคัญในการพัฒนาเทคโนโลยี AI การที่ครอบครัวของอดัมเรียกร้องให้มีการตรวจสอบอายุผู้ใช้ การปฏิเสธคำตอบเกี่ยวกับการทำร้ายตัวเอง และการเตือนเรื่องความเสี่ยงของการพึ่งพาแชทบอททางจิตใจ ล้วนเป็นข้อเสนอที่สมเหตุสมผลและจำเป็น
การที่หลายรัฐในอเมริกากำลังพิจารณาร่างกฎหมายเพื่อควบคุมแชทบอท AI แสดงให้เห็นว่าเรื่องนี้ได้รับความสนใจในระดับนโยบาย รัฐอิลลินอยส์และยูทาห์ได้ห้าม AI Chatbot ทำการบำบัดจิตใจแล้ว และแคลิฟอร์เนียก็มีร่างกฎหมายที่กำลังพิจารณาอยู่
สิ่งที่เกิดขึ้นกับอดัมเป็นบทเรียนที่เจ็บปวดแต่จำเป็นสำหรับทุกคนที่เกี่ยวข้องกับการพัฒนาและใช้งานเทคโนโลยี AI มันเตือนใจเราว่าเทคโนโลยีที่ทรงพลังนี้ต้องมาพร้อมกับความรับผิดชอบ และการปกป้องผู้ใช้ที่เปราะบางที่สุดควรเป็นสิ่งสำคัญอันดับแรกในการออกแบบระบบใดๆ
การเปลี่ยนแปลงที่ OpenAI กำลังดำเนินการอาจเป็นเพียงจุดเริ่มต้น แต่มันเป็นก้าวแรกที่สำคัญในการสร้างอนาคตที่ AI และมนุษย์สามารถอยู่ร่วมกันได้อย่างปลอดภัย โดยเฉพาะสำหรับกลุ่มที่เปราะบางที่สุดในสังคมของเราและอาจเป็นอนาคตของมนุษย์
Source : CBC , abc7 , CNET , nytimes , CNN










