Logo site Amarintv 34HD
Logo LiveSearch
Search
Logo Live
Logo site Amarintv 34HD
ช่องทางติดตาม AMARINTV
  • facebook AMARIN TV 34 HD
  • x AMARIN TV 34 HD
  • line AMARIN TV 34 HD
  • youtube AMARIN TV 34 HD
  • instagram AMARIN TV 34 HD
  • tiktok AMARIN TV 34 HD
  • RSS Feed AMARIN TV 34 HD
ช็อก! OpenAI พบผู้ใช้ ChatGPT กว่า 1 ล้านราย/สัปดาห์ มีแววคิดสั้น
โดย : กองบรรณาธิการ SPOTLIGHT

ช็อก! OpenAI พบผู้ใช้ ChatGPT กว่า 1 ล้านราย/สัปดาห์ มีแววคิดสั้น

28 ต.ค. 68
16:45 น.
แชร์

OpenAI บริษัทพัฒนาเทคโนโลยีปัญญาประดิษฐ์และเจ้าของ ChatGPT เปิดเผยผ่านบล็อกโพสต์ของบริษัทว่า ในแต่ละสัปดาห์มีผู้ใช้งาน ChatGPT มากกว่าหนึ่งล้านคนที่ส่งข้อความซึ่งมี “สัญญาณชัดเจนของการวางแผนหรือมีเจตนาฆ่าตัวตาย” ในระหว่างพูดคุยกับแชตบอตของบริษัท

OpenAI เปิดเผยข้อมูลดังกล่าวเพื่ออัปเดตแนวทางที่บริษัทใช้ในการปรับปรุงให้แชตบอต ChatGPT สามารถรับมือกับการสนทนาในประเด็นอ่อนไหวได้ดียิ่งขึ้น โดยถือเป็นหนึ่งในคำแถลงที่ชัดเจนและตรงไปตรงมาที่สุดจากบริษัทยักษ์ใหญ่ด้าน AI รายนี้ ซึ่งสะท้อนให้เห็นถึงขอบเขตของผลกระทบที่เทคโนโลยีปัญญาประดิษฐ์อาจมีต่อสุขภาพจิตของมนุษย์ ตลอดจนความซับซ้อนในการพัฒนาเครื่องมือสื่อสารอัจฉริยะที่อาจส่งอิทธิพลต่ออารมณ์และพฤติกรรมของผู้ใช้งานในโลกความเป็นจริง

นอกจากข้อมูลเกี่ยวกับจำนวนผู้ใช้ที่มีแนวโน้มคิดฆ่าตัวตายแล้ว OpenAI ยังเปิดเผยการประมาณการณ์เพิ่มเติมว่า ประมาณ 0.07% ของผู้ใช้งาน ChatGPT ที่ใช้งานในแต่ละสัปดาห์ คิดเป็นราว 560,000 คน จากจำนวนผู้ใช้งานรวมกว่า 800 ล้านรายต่อสัปดาห์ แสดง “สัญญาณที่อาจบ่งชี้ถึงภาวะฉุกเฉินทางสุขภาพจิต เช่น โรคจิตเภท (Psychosis) หรือภาวะคลั่ง (Mania)” 

ทั้งนี้ บริษัทยอมรับว่า การตรวจจับสัญญาณดังกล่าวเป็นเรื่องซับซ้อน เนื่องจากอาศัยการตีความบริบทของการสนทนา ซึ่งอาจมีความคลุมเครือสูง และเน้นว่าข้อมูลเหล่านี้เป็นเพียงผลการวิเคราะห์เบื้องต้นที่ยังต้องมีการวิจัยเพิ่มเติมเพื่อความแม่นยำมากขึ้น

การเปิดเผยข้อมูลนี้เกิดขึ้นในช่วงเวลาที่ OpenAI กำลังเผชิญแรงกดดันอย่างหนักจากสาธารณะและหน่วยงานกำกับดูแล โดยเฉพาะหลังจากเกิดคดีความที่ได้รับความสนใจจากทั่วโลก เมื่อครอบครัวของเด็กชายวัยรุ่นที่เสียชีวิตจากการฆ่าตัวตายได้ยื่นฟ้องบริษัท โดยอ้างว่าเด็กชายมีการโต้ตอบกับ ChatGPT อย่างต่อเนื่องเป็นเวลานานก่อนเสียชีวิต 

กรณีดังกล่าวได้จุดประเด็นถกเถียงเกี่ยวกับความรับผิดชอบของบริษัทเทคโนโลยีต่อผลกระทบทางจิตใจของผู้ใช้ ขณะเดียวกัน คณะกรรมาธิการการค้าของสหรัฐฯ (Federal Trade Commission: FTC) ก็ได้เปิดการสอบสวนอย่างครอบคลุมต่อบริษัทผู้พัฒนาแชตบอต AI หลายราย รวมถึง OpenAI เพื่อศึกษาว่าบริษัทเหล่านี้ประเมินผลกระทบทางลบต่อเยาวชนและผู้ใช้งานกลุ่มเปราะบางอย่างไร และมีมาตรการป้องกันที่เพียงพอหรือไม่

การปรับปรุง GPT-5 และการขยายบทบาทของผู้เชี่ยวชาญทางการแพทย์

นอกจากสถิติเกี่ยวกับผู้ใช้แล้ว ในโพสต์เดียวกัน OpenAI ยังอ้างว่าการอัปเดตโมเดลของ ChatGPT เป็น GPT-5 ซึ่งเป็นรุ่นล่าสุด ยังช่วยลด “พฤติกรรมที่ไม่พึงประสงค์” จากระบบลงอย่างมีนัยสำคัญ และเพิ่มระดับความปลอดภัยให้แก่ผู้ใช้ โดยบริษัทระบุว่าได้ทำการประเมินเชิงลึกกับบทสนทนาที่เกี่ยวข้องกับการทำร้ายตัวเองและการฆ่าตัวตายมากกว่า 1,000 รายการ 

ผลการประเมินชี้ว่าโมเดล GPT-5 ใหม่มีประสิทธิภาพดีกว่ารุ่นก่อนหน้าอย่างชัดเจน โดยระบบประเมินอัตโนมัติของบริษัทให้คะแนนว่า GPT-5 รุ่นล่าสุดมีความสอดคล้องกับ “พฤติกรรมที่ต้องการ” ถึง 91% เมื่อเทียบกับ 77% ของรุ่นก่อนหน้า ซึ่งแสดงให้เห็นถึงการพัฒนาในเชิงคุณภาพของการตอบสนองในสถานการณ์ที่มีความละเอียดอ่อนสูง 

บริษัทระบุว่าการปรับปรุงเหล่านี้เป็นผลจากความร่วมมือกับเครือข่ายแพทย์ผู้เชี่ยวชาญกว่า 170 คนจาก Global Physician Network ซึ่งประกอบด้วยจิตแพทย์ นักจิตวิทยา และแพทย์เวชปฏิบัติทั่วไปจากกว่า 60 ประเทศทั่วโลก กลุ่มผู้เชี่ยวชาญเหล่านี้ได้ช่วยประเมินความปลอดภัยของคำตอบที่โมเดลให้ รวมถึงมีส่วนร่วมในการเขียนและปรับแต่งถ้อยคำตอบกลับของแชตบอตในหัวข้อที่เกี่ยวข้องกับสุขภาพจิต

ในกระบวนการดังกล่าว จิตแพทย์และนักจิตวิทยาได้ตรวจสอบคำตอบของโมเดลมากกว่า 1,800 รายการ ซึ่งเกี่ยวข้องกับสถานการณ์ด้านสุขภาพจิตรุนแรง เช่น การคิดฆ่าตัวตาย ความหวาดระแวง หรือการหลงผิด จากนั้นเปรียบเทียบผลตอบสนองระหว่างโมเดล GPT-5 รุ่นใหม่กับรุ่นก่อนหน้า โดยใช้เกณฑ์ “ความเหมาะสมของการตอบสนอง” ที่กำหนดโดยกลุ่มผู้เชี่ยวชาญ หากผู้เชี่ยวชาญส่วนใหญ่เห็นพ้องกันว่าคำตอบของระบบสอดคล้องกับหลักจริยธรรมและแนวทางปฏิบัติทางจิตเวช ก็จะถือว่าเป็น “พฤติกรรมที่พึงประสงค์”

นอกจากนี้ OpenAI ยังกล่าวเพิ่มเติมว่า GPT-5 ได้ขยายการเข้าถึงสายด่วนช่วยเหลือผู้มีภาวะวิกฤตทางจิตใจ (Crisis Hotlines) ให้ครอบคลุมมากขึ้น และเพิ่มระบบเตือนให้ผู้ใช้พักการสนทนาเมื่อใช้งานเป็นเวลานาน เพื่อช่วยลดความเสี่ยงของความเหนื่อยล้าทางอารมณ์

อย่างไรก็ตาม นักวิจัยด้าน AI และนักรณรงค์ด้านสาธารณสุขเตือนมานานแล้วถึงความเสี่ยงของ “การประจบสอพลอของแชตบอต” (Sycophancy) ซึ่งหมายถึงแนวโน้มของระบบ AI ที่จะตอบสนองในลักษณะยืนยันความคิดหรืออารมณ์ของผู้ใช้โดยไม่คำนึงถึงผลกระทบ แม้ในกรณีที่ผู้ใช้กำลังมีความคิดหรือพฤติกรรมที่เป็นอันตรายต่อชีวิตตนเอง นักจิตวิทยาเตือนว่าแนวโน้มดังกล่าวอาจทำให้ผู้ใช้บางราย โดยเฉพาะผู้ที่มีภาวะเปราะบางทางจิตใจ หันมาใช้แชตบอตเป็นแหล่งพึ่งพาทางอารมณ์แทนมนุษย์ ซึ่งอาจเพิ่มความเสี่ยงต่อการแยกตัวหรือความรู้สึกโดดเดี่ยวในระยะยาว

โพสต์ของ OpenAI ยังใช้ถ้อยคำอย่างระมัดระวัง โดยหลีกเลี่ยงการเชื่อมโยงเชิงสาเหตุระหว่างการใช้งาน ChatGPT กับวิกฤตสุขภาพจิตของผู้ใช้ โดยระบุว่า “อาการทางสุขภาพจิตและความทุกข์ทางอารมณ์เป็นสิ่งที่มีอยู่ทั่วไปในสังคมมนุษย์ และเมื่อฐานผู้ใช้เติบโตขึ้น การสนทนาบางส่วนย่อมสะท้อนสถานการณ์เหล่านี้อย่างหลีกเลี่ยงไม่ได้”

ข้อความทั้งหมดของ OpenAI และคำแถลงของผู้บริหารสะท้อนถึงความพยายามของบริษัทในการสร้างสมดุลระหว่าง “นวัตกรรม” กับ “ความรับผิดชอบต่อสังคม” ในขณะที่สังคมโลกยังคงตั้งคำถามต่ออิทธิพลของ AI ที่เพิ่มขึ้นในชีวิตประจำวันของมนุษย์ โดยเฉพาะเมื่อเทคโนโลยีนี้เริ่มเข้าไปเกี่ยวข้องกับพื้นที่ที่เปราะบางที่สุดของจิตใจมนุษย์เอง


ที่มา: The Guardian

แชร์
ช็อก! OpenAI พบผู้ใช้ ChatGPT กว่า 1 ล้านราย/สัปดาห์ มีแววคิดสั้น