
OpenAI บริษัทพัฒนาเทคโนโลยีปัญญาประดิษฐ์และเจ้าของ ChatGPT เปิดเผยผ่านบล็อกโพสต์ของบริษัทว่า ในแต่ละสัปดาห์มีผู้ใช้งาน ChatGPT มากกว่าหนึ่งล้านคนที่ส่งข้อความซึ่งมี “สัญญาณชัดเจนของการวางแผนหรือมีเจตนาฆ่าตัวตาย” ในระหว่างพูดคุยกับแชตบอตของบริษัท
OpenAI เปิดเผยข้อมูลดังกล่าวเพื่ออัปเดตแนวทางที่บริษัทใช้ในการปรับปรุงให้แชตบอต ChatGPT สามารถรับมือกับการสนทนาในประเด็นอ่อนไหวได้ดียิ่งขึ้น โดยถือเป็นหนึ่งในคำแถลงที่ชัดเจนและตรงไปตรงมาที่สุดจากบริษัทยักษ์ใหญ่ด้าน AI รายนี้ ซึ่งสะท้อนให้เห็นถึงขอบเขตของผลกระทบที่เทคโนโลยีปัญญาประดิษฐ์อาจมีต่อสุขภาพจิตของมนุษย์ ตลอดจนความซับซ้อนในการพัฒนาเครื่องมือสื่อสารอัจฉริยะที่อาจส่งอิทธิพลต่ออารมณ์และพฤติกรรมของผู้ใช้งานในโลกความเป็นจริง
นอกจากข้อมูลเกี่ยวกับจำนวนผู้ใช้ที่มีแนวโน้มคิดฆ่าตัวตายแล้ว OpenAI ยังเปิดเผยการประมาณการณ์เพิ่มเติมว่า ประมาณ 0.07% ของผู้ใช้งาน ChatGPT ที่ใช้งานในแต่ละสัปดาห์ คิดเป็นราว 560,000 คน จากจำนวนผู้ใช้งานรวมกว่า 800 ล้านรายต่อสัปดาห์ แสดง “สัญญาณที่อาจบ่งชี้ถึงภาวะฉุกเฉินทางสุขภาพจิต เช่น โรคจิตเภท (Psychosis) หรือภาวะคลั่ง (Mania)”
ทั้งนี้ บริษัทยอมรับว่า การตรวจจับสัญญาณดังกล่าวเป็นเรื่องซับซ้อน เนื่องจากอาศัยการตีความบริบทของการสนทนา ซึ่งอาจมีความคลุมเครือสูง และเน้นว่าข้อมูลเหล่านี้เป็นเพียงผลการวิเคราะห์เบื้องต้นที่ยังต้องมีการวิจัยเพิ่มเติมเพื่อความแม่นยำมากขึ้น
การเปิดเผยข้อมูลนี้เกิดขึ้นในช่วงเวลาที่ OpenAI กำลังเผชิญแรงกดดันอย่างหนักจากสาธารณะและหน่วยงานกำกับดูแล โดยเฉพาะหลังจากเกิดคดีความที่ได้รับความสนใจจากทั่วโลก เมื่อครอบครัวของเด็กชายวัยรุ่นที่เสียชีวิตจากการฆ่าตัวตายได้ยื่นฟ้องบริษัท โดยอ้างว่าเด็กชายมีการโต้ตอบกับ ChatGPT อย่างต่อเนื่องเป็นเวลานานก่อนเสียชีวิต
กรณีดังกล่าวได้จุดประเด็นถกเถียงเกี่ยวกับความรับผิดชอบของบริษัทเทคโนโลยีต่อผลกระทบทางจิตใจของผู้ใช้ ขณะเดียวกัน คณะกรรมาธิการการค้าของสหรัฐฯ (Federal Trade Commission: FTC) ก็ได้เปิดการสอบสวนอย่างครอบคลุมต่อบริษัทผู้พัฒนาแชตบอต AI หลายราย รวมถึง OpenAI เพื่อศึกษาว่าบริษัทเหล่านี้ประเมินผลกระทบทางลบต่อเยาวชนและผู้ใช้งานกลุ่มเปราะบางอย่างไร และมีมาตรการป้องกันที่เพียงพอหรือไม่
นอกจากสถิติเกี่ยวกับผู้ใช้แล้ว ในโพสต์เดียวกัน OpenAI ยังอ้างว่าการอัปเดตโมเดลของ ChatGPT เป็น GPT-5 ซึ่งเป็นรุ่นล่าสุด ยังช่วยลด “พฤติกรรมที่ไม่พึงประสงค์” จากระบบลงอย่างมีนัยสำคัญ และเพิ่มระดับความปลอดภัยให้แก่ผู้ใช้ โดยบริษัทระบุว่าได้ทำการประเมินเชิงลึกกับบทสนทนาที่เกี่ยวข้องกับการทำร้ายตัวเองและการฆ่าตัวตายมากกว่า 1,000 รายการ
ผลการประเมินชี้ว่าโมเดล GPT-5 ใหม่มีประสิทธิภาพดีกว่ารุ่นก่อนหน้าอย่างชัดเจน โดยระบบประเมินอัตโนมัติของบริษัทให้คะแนนว่า GPT-5 รุ่นล่าสุดมีความสอดคล้องกับ “พฤติกรรมที่ต้องการ” ถึง 91% เมื่อเทียบกับ 77% ของรุ่นก่อนหน้า ซึ่งแสดงให้เห็นถึงการพัฒนาในเชิงคุณภาพของการตอบสนองในสถานการณ์ที่มีความละเอียดอ่อนสูง
บริษัทระบุว่าการปรับปรุงเหล่านี้เป็นผลจากความร่วมมือกับเครือข่ายแพทย์ผู้เชี่ยวชาญกว่า 170 คนจาก Global Physician Network ซึ่งประกอบด้วยจิตแพทย์ นักจิตวิทยา และแพทย์เวชปฏิบัติทั่วไปจากกว่า 60 ประเทศทั่วโลก กลุ่มผู้เชี่ยวชาญเหล่านี้ได้ช่วยประเมินความปลอดภัยของคำตอบที่โมเดลให้ รวมถึงมีส่วนร่วมในการเขียนและปรับแต่งถ้อยคำตอบกลับของแชตบอตในหัวข้อที่เกี่ยวข้องกับสุขภาพจิต
ในกระบวนการดังกล่าว จิตแพทย์และนักจิตวิทยาได้ตรวจสอบคำตอบของโมเดลมากกว่า 1,800 รายการ ซึ่งเกี่ยวข้องกับสถานการณ์ด้านสุขภาพจิตรุนแรง เช่น การคิดฆ่าตัวตาย ความหวาดระแวง หรือการหลงผิด จากนั้นเปรียบเทียบผลตอบสนองระหว่างโมเดล GPT-5 รุ่นใหม่กับรุ่นก่อนหน้า โดยใช้เกณฑ์ “ความเหมาะสมของการตอบสนอง” ที่กำหนดโดยกลุ่มผู้เชี่ยวชาญ หากผู้เชี่ยวชาญส่วนใหญ่เห็นพ้องกันว่าคำตอบของระบบสอดคล้องกับหลักจริยธรรมและแนวทางปฏิบัติทางจิตเวช ก็จะถือว่าเป็น “พฤติกรรมที่พึงประสงค์”
นอกจากนี้ OpenAI ยังกล่าวเพิ่มเติมว่า GPT-5 ได้ขยายการเข้าถึงสายด่วนช่วยเหลือผู้มีภาวะวิกฤตทางจิตใจ (Crisis Hotlines) ให้ครอบคลุมมากขึ้น และเพิ่มระบบเตือนให้ผู้ใช้พักการสนทนาเมื่อใช้งานเป็นเวลานาน เพื่อช่วยลดความเสี่ยงของความเหนื่อยล้าทางอารมณ์
อย่างไรก็ตาม นักวิจัยด้าน AI และนักรณรงค์ด้านสาธารณสุขเตือนมานานแล้วถึงความเสี่ยงของ “การประจบสอพลอของแชตบอต” (Sycophancy) ซึ่งหมายถึงแนวโน้มของระบบ AI ที่จะตอบสนองในลักษณะยืนยันความคิดหรืออารมณ์ของผู้ใช้โดยไม่คำนึงถึงผลกระทบ แม้ในกรณีที่ผู้ใช้กำลังมีความคิดหรือพฤติกรรมที่เป็นอันตรายต่อชีวิตตนเอง นักจิตวิทยาเตือนว่าแนวโน้มดังกล่าวอาจทำให้ผู้ใช้บางราย โดยเฉพาะผู้ที่มีภาวะเปราะบางทางจิตใจ หันมาใช้แชตบอตเป็นแหล่งพึ่งพาทางอารมณ์แทนมนุษย์ ซึ่งอาจเพิ่มความเสี่ยงต่อการแยกตัวหรือความรู้สึกโดดเดี่ยวในระยะยาว
โพสต์ของ OpenAI ยังใช้ถ้อยคำอย่างระมัดระวัง โดยหลีกเลี่ยงการเชื่อมโยงเชิงสาเหตุระหว่างการใช้งาน ChatGPT กับวิกฤตสุขภาพจิตของผู้ใช้ โดยระบุว่า “อาการทางสุขภาพจิตและความทุกข์ทางอารมณ์เป็นสิ่งที่มีอยู่ทั่วไปในสังคมมนุษย์ และเมื่อฐานผู้ใช้เติบโตขึ้น การสนทนาบางส่วนย่อมสะท้อนสถานการณ์เหล่านี้อย่างหลีกเลี่ยงไม่ได้”
ข้อความทั้งหมดของ OpenAI และคำแถลงของผู้บริหารสะท้อนถึงความพยายามของบริษัทในการสร้างสมดุลระหว่าง “นวัตกรรม” กับ “ความรับผิดชอบต่อสังคม” ในขณะที่สังคมโลกยังคงตั้งคำถามต่ออิทธิพลของ AI ที่เพิ่มขึ้นในชีวิตประจำวันของมนุษย์ โดยเฉพาะเมื่อเทคโนโลยีนี้เริ่มเข้าไปเกี่ยวข้องกับพื้นที่ที่เปราะบางที่สุดของจิตใจมนุษย์เอง
ที่มา: The Guardian