Logo site Amarintv 34HD
Logo LiveSearch
Search
Logo Live
Logo site Amarintv 34HD
ช่องทางติดตาม AMARINTV
  • facebook AMARIN TV 34 HD
  • x AMARIN TV 34 HD
  • line AMARIN TV 34 HD
  • youtube AMARIN TV 34 HD
  • instagram AMARIN TV 34 HD
  • tiktok AMARIN TV 34 HD
  • RSS Feed AMARIN TV 34 HD
เชื่อ AI ได้แค่ไหน? สูตรน้ำยาทำความสะอาดเกือบคร่าชีวิต

เชื่อ AI ได้แค่ไหน? สูตรน้ำยาทำความสะอาดเกือบคร่าชีวิต

4 ก.ค. 68
17:28 น.
แชร์

เราอาจเผลอมอง AI เป็นผู้ช่วยที่รู้ทุกอย่าง แต่ในความเป็นจริง มันเพียงแค่นำมาจากข้อมูลมหาศาลโดยไม่รู้ว่าผลลัพธ์จะเกิดอะไรขึ้นในโลกความจริง เหมือนคำแนะนำของ “ChatGPT” ที่เกือบก่อให้เกิดโศกนาฏกรรมจากสูตรน้ำยาทำความสะอาด

 

สูตรน้ำยาทำความสะอาดอันตราย

 

เหตุการณ์นี้กลายเป็นกระแสบนเว็บไซต์ชื่อดังได้จุดประเด็นให้ผู้ใช้งานต้องกลับมาทบทวนถึงความน่าเชื่อถือของ AI เมื่อผู้ใช้รายหนึ่งได้ขอคำแนะนำจาก “ChatGPT” ในการทำความสะอาดถัง โดยคำตอบที่ได้รับคือให้ใช้ “น้ำร้อน น้ำยาล้างจาน น้ำส้มสายชูครึ่งถ้วย และผสมสารฟอกขาวลงไปเล็กน้อย”

 

ฟังดูเหมือนเป็นคำแนะนำทั่วๆ ไป แต่นั่นคือ “สูตรอันตรายถึงชีวิต” เพราะการผสม “น้ำส้มสายชู” กับ “น้ำยาฟอกขาว” จะทำให้เกิด “ก๊าซคลอรีน” ซึ่งเป็นสารพิษรุนแรง หากสูดดมเข้าไปอาจทำให้แสบตา แสบจมูก การหายใจติดขัด ทำลายระบบทางเดินหายใจอย่างรุนแรง และร้ายแรงที่สุดคืออาจถึงแก่ชีวิตได้

 

คำเตือนจากมนุษย์ที่ AI ไม่รู้

 

โชคดีที่ผู้ใช้รายนี้มีความรู้เบื้องต้น จึงรีบท้วงกลับไปยัง “ChatGPT” ซึ่งได้ตอบกลับทันทีว่า "ขอบคุณที่บอกฉัน ห้ามผสมสารฟอกขาวกับน้ำส้มสายชูโดยเด็ดขาด มันจะสร้างก๊าซคลอรีนซึ่งอันตรายมาก ฉันจะแก้ไขข้อมูลนี้ในทันที"

 

เรื่องราวนี้กลายเป็นไวรัลและสร้างเสียงหัวเราะปนความหวาดเสียวในโลกออนไลน์ แต่ในขณะเดียวกันก็เป็นเครื่องเตือนใจถึงอันตรายที่อาจเกิดขึ้นได้จริง โดยมีคนเปรียบเปรยด้วยว่า “มันให้ความรู้สึกเหมือนสงครามเคมี” หรือ “การได้รับพิษจากก๊าซคลอรีนไม่ใช่สิ่งที่เราต้องการ” และ “ขอเก็บเรื่องนี้ไว้เป็นความผิดพลาดระดับมหากาพย์”

 

แม้ว่าจะฟังดูเหมือนเรื่องขำขัน แต่ความจริงแล้วมันอาจกลายเป็นเรื่องร้ายแรงได้ หากมีใครนำคำแนะนำนี้ไปปฏิบัติจริงและเกิดอันตรายขึ้น ผลลัพธ์จะเป็นอย่างไร?

 

ไม่ใช่เหตุการณ์แรกที่ AI พลาด

 

ก่อนหน้านี้มีกรณีที่คนถาม “ChatGPT” เรื่อง “การฉีดฟิลเลอร์บนใบหน้า” ขณะที่มีผลการศึกษาวิจัยระบุว่าการใช้ ChatGPT เพื่อวินิจฉัยปัญหาด้วยตนเองอาจนำไปสู่คำตอบที่ผิดพลาด ซึ่งอาจทำให้คุณเลือกแนวทางการรักษาทางการแพทย์ที่ผิดได้

 

นอกจากนี้มหาวิทยาลัยวอเตอร์ลู (University of Waterloo) ในรัฐออนแทรีโอ ประเทศแคนาดา ได้เผยผลการวิจัยที่พบว่า “ChatGPT” ให้คำตอบที่ผิดพลาดถึงสองในสามของเวลาที่ตอบคำถามทางการแพทย์

 

AI ฉลาดแต่ยังผิดพลาดได้

สาเหตุมาจากสิ่งที่เรียกว่า “Hallucination” คือ การที่ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้อง ไม่เป็นความจริงหรือไม่สมเหตุสมผล อาการของ AI เกิดขึ้นได้เพราะเรียนรู้จากข้อมูลจำนวนมหาศาลบนอินเทอร์เน็ต แต่ไม่ได้เข้าใจโลกแบบที่มนุษย์เข้าใจ

 

เหตุการณ์นี้จึงเป็นบทเรียนสำคัญที่เตือนใจว่า แม้ AI จะมีศักยภาพมหาศาล แต่ผู้ใช้จำเป็นต้องมีวิจารณญาณและไตร่ตรองข้อมูลที่ได้รับจาก AI เสมอ โดยเฉพาะอย่างยิ่งในเรื่องที่เกี่ยวข้องกับสุขภาพและความปลอดภัย เพื่อป้องกันไม่ให้กลายเป็นโศกนาฏกรรมในชีวิตจริง

 

ที่มา : https://futurism.com/chatgpt-bleach-vinegar

Advertisement

แชร์
เชื่อ AI ได้แค่ไหน? สูตรน้ำยาทำความสะอาดเกือบคร่าชีวิต