Logo site Amarintv 34HD
Logo LiveSearch
Search
Logo Live
Logo site Amarintv 34HD
ช่องทางติดตาม AMARINTV
  • facebook AMARIN TV 34 HD
  • x AMARIN TV 34 HD
  • line AMARIN TV 34 HD
  • youtube AMARIN TV 34 HD
  • instagram AMARIN TV 34 HD
  • tiktok AMARIN TV 34 HD
  • RSS Feed AMARIN TV 34 HD
ใช้ AI อย่างไรให้เท่าทัน ไม่เป็นภัยต่อใจ ใช้พัฒนาชีวิตได้อย่างยั่งยืน
โดย : กองบรรณาธิการ SPOTLIGHT

ใช้ AI อย่างไรให้เท่าทัน ไม่เป็นภัยต่อใจ ใช้พัฒนาชีวิตได้อย่างยั่งยืน

29 ก.ย. 68
13:01 น.
แชร์

ในช่วงไม่กี่ปีที่ผ่านมา “ปัญญาประดิษฐ์” หรือ AI ไม่ได้เป็นเพียงแค่เทคโนโลยีเสริมในชีวิตประจำวันอีกต่อไป แต่ได้กลายเป็นผู้ช่วยอัจฉริยะที่หลายคนหันไปพูดคุย ปรึกษา และแม้กระทั่งพึ่งพาในยามเหงาหรือเมื่อเผชิญปัญหา สิ่งที่ครั้งหนึ่งเคยถูกมองว่าเป็นเพียงเครื่องมือดิจิทัล กลับเริ่มก้าวเข้ามาแตะหัวใจมนุษย์มากขึ้นทุกที คำถามสำคัญจึงไม่ใช่เพียงว่า AI ทำอะไรได้ แต่คือ เราจะใช้มันอย่างไรให้เกิดประโยชน์ โดยไม่กลายเป็นภัยต่อสุขภาพจิตและคุณภาพชีวิตของเราเอง

บนเวทีเสวนาหัวข้อ “THE NEXT DISASTER: SURVIVING WITH HUMAN-AI ADAPTATION” ในงาน Sustainability Expo 2025 (SX2025) วันที่ 28 กันยายน 2568 ผู้เชี่ยวชาญจากสามแวดวงที่แตกต่างกัน ได้ร่วมกันเปิดมุมมองใหม่ในการอยู่ร่วมกับ AI อย่างยั่งยืน

ดร.อภิวดี ปิยธรรมรงค์ ผู้อำนวยการฝ่ายส่งเสริมอุตสาหกรรม และประสานเครือข่าย สถาบันข้อมูลขนาดใหญ่ (องค์การมหาชน) นำเสนอภาพและข้อคิดเห็นจากแวดวงวิทยาศาสตร์ คุณดุจดาว วัฒนปกรณ์ Empathetic Communication and Founder Empathy sauce and SOULSMITH แบ่งปันมุมมองจากโลกของการสื่อสารเชิงเข้าใจและสุขภาพใจ ขณะที่ คุณสกลกรย์ สระกวี ผู้ก่อตั้ง และประธานบริษัท บิทคับ แคปปิตอล กรุ๊ป โฮลดิ้งส์ จำกัด และกรรมการบริษัท บิทคับ ออนไลน์ จำกัด ถ่ายทอดแนวคิดและประสบการณ์ตรงจากการนำ AI มาใช้จริงในธุรกิจเทคโนโลยี

คำถามใหญ่ที่เวทีนี้ชวนคิดคือ มนุษย์จะก้าวทัน ปรับตัว และใช้ AI เพื่อเสริมพลังชีวิตได้อย่างไร โดยไม่ปล่อยให้เทคโนโลยีกลายเป็น “ภัยพิบัติใหม่” ที่ย้อนมาทำร้ายตัวเราเอง

AI แทรกซึมใจคน แต่เป็นที่พึ่งทางจิตได้จริงหรือ?

ปัจจุบัน AI แทรกซึมอยู่ในชีวิตประจำวันลึกกว่าที่หลายคนคาดคิด ไม่เพียงแค่ถูกใช้เพื่อทำงาน เรียนหนังสือ หรือค้นหาคำตอบได้รวดเร็วกว่าการใช้เครื่องมือค้นหาแบบดั้งเดิมเท่านั้น แต่ยังกลายเป็นพื้นที่ให้ผู้คนเข้ามาสนทนาเพื่อคลายความเหงา ปรึกษาปัญหาชีวิต รวมถึงเรื่องสุขภาพจิต จนหลายคนใช้เวลาสื่อสารกับระบบอัจฉริยะเหล่านี้มากกว่าการพูดคุยกับมนุษย์จริง สถานการณ์ดังกล่าวนำไปสู่ “การรุกล้ำทางอารมณ์” (Emotional Breach) ที่ AI สามารถแตะถึงจิตใจและอาจชี้นำมนุษย์ไปในทิศทางที่ไม่ถูกต้อง จึงเกิดคำถามสำคัญขึ้นว่า AI มีอารมณ์ ความรู้สึก หรือจิตใจเช่นเดียวกับมนุษย์หรือไม่

สำหรับประเด็นนี้ คุณสกลกรย์อธิบายว่า ปัจจุบัน AI ยังไม่ใช่ AGI จึงไม่มี “จิตใจ” และ “ความไตร่ตรองผลลัพธ์” การทำงานยังคงเป็นการตอบตามรูปแบบที่เรียนรู้มา โดยไม่ได้คิดต่อว่าผู้ใช้ควรได้รับคำตอบแบบอ่อนโยนหรือระมัดระวังเช่นที่มนุษย์ทำได้ สิ่งที่ผู้ใช้รับรู้ว่าเป็น “จิตใจ” ของ AI แท้จริงแล้วเป็นผลลัพธ์จากการฝึกสอนและข้อมูลที่ใช้สร้างโมเดลมากกว่า เพราะ AI ยังไม่มีสำนึกตระหนักรู้เหมือนมนุษย์จริงๆ 

อย่างไรก็ตาม AI อาจสะท้อนความคิดและมุมมองของมนุษย์ รวมถึงอคติ (bias) ที่มีอยู่ในผู้สอนหรือในข้อมูลได้เต็มที่ โดยยกตัวอย่างว่า หากผู้สอนมีอคติทางเพศหรือสังคม โมเดลก็อาจตอบสนองในทางเดียวกัน ซึ่งทำให้ AI มีแนวโน้มจะ “ล็อก” ความคิดและพฤติกรรมของผู้ใช้ให้อยู่ในกรอบเดิม แทนที่จะเป็นตัวช่วยให้ปรับตัวสู่อนาคตใหม่  นอกจากนี้ AI มักมีแนวโน้มตอบสนองเชิงยกยอ และเมื่อระบบจำรสนิยมของผู้ใช้แล้วตอบซ้ำในแนวเดียวกัน ก็เกิดเป็นห้องสะท้อนเสียง (echo chamber) ที่ตอกย้ำความเชื่อเดิมให้แข็งแรงขึ้นไปอีก จนอาจกลายเป็นขยายรอยแบ่งทางสังคมโดยไม่รู้ตัว

ในด้านการทำงาน คุณสกลกรย์กล่าวถึงการใช้ AI ในบริษัท Bitkub ที่นำมาช่วยเขียนโค้ดแทนการเริ่มจากศูนย์ ทำให้ทีมงานเปลี่ยนบทบาทไปเป็นผู้กำกับทิศทางและคุณภาพของงานมากกว่าการทำเองทั้งหมด แนวคิด “ความยั่งยืน” จึงไม่ใช่การปกป้องโลกจากมนุษย์แบบเดิม แต่คือการปรับตัวให้อยู่ร่วมกับโลกที่ AI เป็นองค์ประกอบสำคัญ สำหรับประเทศไทย แม้จะถนัดใช้มากกว่าการสร้างตั้งแต่ต้น แต่ด้วยโครงสร้างพื้นฐานอย่างอินเทอร์เน็ตที่ครอบคลุมและราคามือถือที่เข้าถึงได้ ทำให้มีโอกาสสร้างสรรค์สิ่งใหม่ด้วย AI จริงจัง โดยเฉพาะหากสอนให้เด็กตั้งคำถามมากกว่าท่องจำ ก็จะได้การเรียนรู้ที่มุ่งสู่อนาคตแทนการยึดติดอดีต

ด้านดร.อภิวดีเปรียบเทียบสถานะของ AI ในปัจจุบันกับยุคเริ่มต้นของไฟฟ้า เพราะแม้เจตนาของผู้สร้างคือการพัฒนา AI เพื่อยกระดับคุณภาพชีวิตและมอบประโยชน์มหาศาลในระยะยาว แต่หากยังไม่มีกฎเกณฑ์หรือมาตรการควบคุมที่ครอบคลุมเพื่อลดผลเสีย ก็อาจเกิดเหตุไม่คาดคิดขึ้นได้ เหมือนช่วงแรกที่ไฟฟ้าเริ่มถูกใช้งานซึ่งมักเกิดเหตุเพลิงไหม้บ่อยครั้งเพราะมนุษย์ยังไม่เข้าใจธรรมชาติของไฟฟ้าอย่างถ่องแท้

ด้วยเหตุนี้ ดร. อภิวดีจึงเน้นย้ำถึงความจำเป็นของกลไกกำกับดูแล ตั้งแต่การใช้งานในชีวิตประจำวันอย่างปลอดภัย ไปจนถึงการรับมือกับประเด็นใหญ่ เช่น การทำให้ระบบโอเพนซอร์สปลอดภัยและเป็นประโยชน์ต่อสังคม อีกทั้งยังชี้ว่าผู้ใช้ต้องมีความรู้ความเข้าใจที่รอบด้านก่อนนำ AI มาใช้ ไม่ว่าจะเป็นเรื่องขนาดและข้อมูลที่ใช้สร้างโมเดล ประเด็นจริยธรรมและลิขสิทธิ์ ตลอดจนจุดแข็งและข้อจำกัด เพราะแต่ละโมเดลมีศักยภาพและระดับความฉลาดแตกต่างกันตามคุณภาพของข้อมูลและกระบวนการพัฒนา

ภัยของ AI เมื่อความสะดวกกลายเป็นกับดักอคติ ภัยลวง และการพึ่งพิงทางใจ

สำหรับอันตรายของการใช้ AI ในปัจจุบัน คุณสกลกรย์ชี้ว่า หนึ่งในภัยของ AI ที่ร้ายแรงที่สุดในยุคนี้คือ deepfake และอาชญากรรมออนไลน์ วิดีโอที่ครั้งหนึ่งเคยเป็นหลักฐานที่เชื่อถือได้ วันนี้กลับไม่สามารถใช้ยืนยันความจริงได้อีก เพราะเทคโนโลยีการสร้างภาพและเสียงปลอมทำได้แนบเนียนจนแทบแยกไม่ออก หากโมเดลทรงพลังถูกปล่อยแบบโอเพนซอร์สโดยไร้รั้วคุ้มกัน ยิ่งเพิ่มโอกาสที่ผู้ไม่หวังดีจะนำไปใช้สร้างอันตรายโดยไร้การควบคุม

เพื่อแก้ไขและป้องกันปัญหาดังกล่าว คุณสกลกรย์จึงเสนอให้แพลตฟอร์มรับผิดชอบเชิงระบบ ผ่านมาตรการยืนยันตัวตนของมนุษย์จริง ตั้งแต่แนวคิดการสแกนม่านตา ระบบ “แบดจ์ยืนยันตัวตน” ไปจนถึงการตรวจสอบก่อนโพสต์หรือก่อนแชต เพื่อสร้างความมั่นใจว่าผู้ใช้กำลังคุยกับมนุษย์ไม่ใช่บอท มาตรการเหล่านี้จะช่วยสกัดการปั่นกระทู้ การปั่นคอมเมนต์ และการหลอกลวงที่กำลังจะกลายเป็นอัตโนมัติทั้งระบบ

ในมิติของสุขภาพใจ คุณดุจดาวอธิบายว่าความเสี่ยงต่อสุขภาพจิตของผู้ใช้ AI ได้เกิดขึ้นแล้ว เพราะ AI เริ่มแตะความรู้สึกมนุษย์ผ่านถ้อยคำที่ให้กำลังใจ เช่น ประโยคที่ปลอบโยนให้ผู้ใช้รู้สึกว่าได้รับความเข้าใจ แต่ความอันตรายอยู่ที่การพึ่งพิงสิ่งที่ไม่ได้ออกแบบมาเพื่อดูแลจิตใจ และยังไม่ไวต่อสัญญาณเสี่ยง หากผู้ใช้ค่อยๆ หันไปคุยกับ AI แทนการสื่อสารกับคนใกล้ชิด ปัญหาชีวิตอาจถูกฝากไว้กับสิ่งที่ไม่มีตัวตนจริง คุณดุจดาวเน้นว่าต้องใช้การคิดเชิงวิพากษ์เป็นเครื่องมือ แม้จะได้รับคำพูดที่ทำให้รู้สึกดีเพียงใดก็ตาม ก็ต้องตั้งข้อสงสัยเสมอ เพราะ AI ถูกฝึกจากข้อมูลในอดีตและมีลักษณะโน้มเอียงไปทาง “เยินยอ”

เมื่อถูกถามถึงกลุ่มที่เปราะบางที่สุด คุณดุจดาวตอบว่า คือผู้ที่ไม่มีระบบสนับสนุนในชีวิตจริง เช่น เด็กที่ใช้งานลำพังโดยไม่มีผู้ปกครองกำกับดูแล ผู้สูงอายุที่อยู่คนเดียว หรือผู้ใหญ่ที่ตัดสินใจเรื่องธุรกิจหรือครอบครัวด้วยข้อมูลจาก AI เพียงแหล่งเดียว ทั้งหมดนี้เสี่ยงต่อการ “เชื่อร้อยเปอร์เซ็นต์” และพลาดได้ง่าย โดยเฉพาะเมื่อสแกมเมอร์สามารถเข้าถึงทุกคน คุณดุจดาวยังยกกรณีในรัฐแคลิฟอร์เนียที่ผู้ใช้อายุน้อยถาม AI เกี่ยวกับชีวิตและการจบชีวิตตัวเอง และได้รับข้อมูลไปปฏิบัติจริง เหตุการณ์สะเทือนใจนี้ตอกย้ำว่าระบบยังไม่ถูกออกแบบมาเพื่อตรวจจับคำถามเสี่ยง ทั้งที่ในความจริงหากพบคีย์เวิร์ดลักษณะดังกล่าว ควรดักจับและส่งข้อมูลช่วยเหลือโดยอัตโนมัติ ซึ่งยังเป็นโจทย์ใหญ่ที่ต้องเร่งแก้ไข

ด้านวิชาการ ดร.อภิวดีเสริมด้วยตัวอย่างจากยุคแรกของ ChatGPT ในปี 2566 ที่แม้เพียงถามว่า “อภิวดีคือใคร” คำตอบที่ได้ก็ผิดเพี้ยน ความท้าทายนี้นำไปสู่การสร้าง guardrails ในการพัฒนา AI ทั้งระบบ “ขาเข้า” เพื่อกันคำขอที่ผิดกฎหมายหรือเสี่ยงอันตราย เช่น การขอคำแนะนำในการจบชีวิตตัวเอง และ “ขาออก” เพื่อกันคำตอบที่อาจสร้างความเสียหาย 

ทั้งนี้ ดร.อภิวดี มองว่าแม้จะมีระบบเหล่านี้ก็ยังไม่สามารถป้องกันได้ทุกกรณี  ดร.อภิวดีจึงชี้ว่า ในอนาคตผู้พัฒนาและน่วยงานที่เกี่ยวข้องจำเป็นต้องเดินหน้าแบบบูรณาการทั้งสามด้าน คือ ภาครัฐต้องออกกติกา ผู้พัฒนาต้องสร้างรั้วป้องกัน และผู้ใช้ต้องมี AI และ Digital Literacy ต้องรู้เท่าทัน AI ไม่เชื่อข้อมูลโดยไม่ตรวจสอบความถูกต้อง หรือ fact-check ก่อน

อยู่กับ AI อย่างยั่งยืน เมื่อเทคโนโลยีไม่อาจแทนที่ “ใจมนุษย์”

สำหรับการใช้ชีวิตกับ AI อย่างยั่งยืนและไม่ทำร้ายสุขภาพใจและคุณภาพชีวิต คุณดุจดาวอธิบายว่า จุดเริ่มต้นสำคัญคือการรู้ว่ากำลังใช้ AI ไปเพื่ออะไร และต้องมีการตรวจสอบหลายชั้นก่อนฝากใจหรือการตัดสินใจไว้กับระบบอัจฉริยะ หากแม้แต่การพึ่งพามนุษย์ยังต้องมีการประเมินความปลอดภัย การฝากชีวิตไว้กับเทคโนโลยียิ่งต้องระวังยิ่งกว่า คุณดุจดาวเล่าว่ามีผู้รับบริการบำบัดที่เลือกคุยกับ AI ติดต่อกันนานถึงสองเดือนเต็ม ก่อนจะหันมาพบผู้เชี่ยวชาญจริง เหตุการณ์นี้สะท้อนว่ามนุษย์ต้องการการซัพพอร์ตทางใจอย่างต่อเนื่องทุกวัน และเป็นสัญญาณว่าสังคมกำลังเรียกร้องการเห็นอกเห็นใจมากขึ้น

คุณดุจดาวจึงชี้ว่าสังคมอาจมีส่วนป้องกันปัญหานี้ได้ด้วยความใส่ใจเล็กๆ น้อยๆ ในชีวิตประจำวัน เช่น การสบตา การยิ้ม หรือการพยักหน้า เพราะพฤติกรรมแบบนี้ล้วนมีพลังช่วยเยียวยา และสามารถถ่วงดุลไม่ให้การพึ่งพา AI เกินพอดี เราไม่จำเป็นต้องรอผู้เชี่ยวชาญเสมอไป เพราะทุกคนต่างมีศักยภาพที่จะส่งต่อการดูแลกันได้

ด้าน ดร.อภิวดีเสริมว่าความยั่งยืนในการใช้ AI จะเกิดขึ้นไม่ได้เลยหากผู้ใช้ขาดทักษะ AI/Digital Literacy และ Critical Thinking เธอเน้นว่าทุกคนควรเข้าใจกระบวนการสร้างโมเดล ตั้งแต่แหล่งที่มาของข้อมูล คุณภาพและข้อจำกัด จริยธรรมที่เกี่ยวข้อง ไปจนถึงขนาดโมเดล เพื่อให้สามารถเลือกใช้ได้อย่างเหมาะสม คำตอบที่ได้จาก AI จึงควรถูกมองเป็น “อีกหนึ่งความเห็น” ที่ต้องตรวจสอบกับแหล่งข้อมูลที่น่าเชื่อถือเสมอ 

ดร.อภิวดียกตัวอย่างจากประสบการณ์ในฐานะอาจารย์มหาวิทยาลัยว่า ช่วงแรกนักศึกษามัก copy-paste คำตอบจาก AI โดยไม่อ่านหรือวิเคราะห์ ดร.อภิวดีจึงย้ำว่า “การเรียนรู้ตลอดชีวิต” คือหัวใจสำคัญ เพราะโมเดลและฟีเจอร์ใหม่ๆ ถูกปล่อยออกมาอย่างต่อเนื่อง การตามให้ทันเป็นเสมือนเกราะคุ้มกันที่ช่วยให้ทั้งบุคคลและสังคมใช้ AI ได้อย่างปลอดภัย

ด้านคุณสกลกรย์มองภาพอนาคตของงานว่า มนุษย์ไม่ควรหยุดอยู่ที่การเป็นเพียง “ผู้ใช้” แต่ต้องก้าวไปสู่การเป็น “หัวหน้าทีมของ AI” ที่สามารถบริหารเอเจนต์หลายสิบหรือหลายร้อยตัวพร้อมกันได้ เขาเน้นว่าทักษะที่จะชี้ชะตาอนาคตคือ “การตั้งคำถาม” เพราะโลกที่ AI มีบทบาทสูง ต้องการคำถามที่ดีและลึกซึ้งมากกว่าคำตอบที่ท่องจำ โดยคุณสกลกรย์ยกตัวอย่างจาก Bitkub ที่มุ่งสร้างคนรุ่นใหม่ให้เป็น “ซีเนียร์ที่สุดของ AI” แม้ในตำแหน่งจูเนียร์ เพื่อให้สามารถบริหาร AI agents ได้จริง และนำพาองค์กรเข้าสู่การเปลี่ยนผ่านแบบ AI transformation อย่างแท้จริง

นอกจากนี้ คุณสกลกรย์ยังอธิบายว่า AI กลายเป็น “ทางออกใหม่” สำหรับหลายคนที่ไม่เคยมีช่องทางเข้าถึงคำปรึกษามาก่อน เนื่องจากในอดีตการหาที่ปรึกษาหรือผู้เชี่ยวชาญมีค่าใช้จ่ายสูง แต่ปัจจุบัน AI อยู่ในสมาร์ตโฟนและแพลตฟอร์มต่างๆ โดยเฉพาะอุปกรณ์รุ่นใหม่ที่มีระบบฝังมา ทำให้ทุกคนเข้าถึงได้ง่ายขึ้นและให้คำตอบในระดับที่น่าพอใจ แม้จะไม่ใช่ที่สุด แต่ก็ช่วยแก้ปัญหาของคนทั่วไปได้มาก อย่างไรก็ตาม คุณสกลกรย์เตือนว่าผู้ใช้ไม่ควรเชื่อ AI ร้อยเปอร์เซ็นต์ เพราะคำตอบอาจเปลี่ยนไปตามบริบทหรือเกิด “hallucination” ที่ให้ข้อมูลผิดเพี้ยนได้ ดังนั้นอย่างน้อยต้องมีคำว่า “เอ๊ะ” อยู่เสมอ และควรถามซ้ำหรือเปรียบเทียบกับแหล่งอื่นเพื่อยืนยันความถูกต้อง 

ทั้งหมดนี้นำไปสู่ข้อสรุปร่วมว่า AI ไม่ควรถูกมองว่าเป็น “ผู้ชี้ชะตา” ของชีวิต แต่ควรเป็น “ผู้ช่วยที่ตรวจสอบได้” หากเราสามารถยกระดับความรู้ดิจิทัล ใช้การคิดเชิงวิพากษ์ มีกลไกกำกับดูแลที่รับผิดชอบ และไม่ละเลยความสัมพันธ์ระหว่างมนุษย์กับมนุษย์ เราจะสามารถใช้ AI อย่างเท่าทัน และเปลี่ยนมันให้เป็นเครื่องมือที่ช่วยพัฒนาชีวิตและสังคมได้อย่างยั่งยืนจริง


แชร์
ใช้ AI อย่างไรให้เท่าทัน ไม่เป็นภัยต่อใจ ใช้พัฒนาชีวิตได้อย่างยั่งยืน