
ในช่วงไม่กี่ปีที่ผ่านมา “ปัญญาประดิษฐ์” หรือ AI ไม่ได้เป็นเพียงแค่เทคโนโลยีเสริมในชีวิตประจำวันอีกต่อไป แต่ได้กลายเป็นผู้ช่วยอัจฉริยะที่หลายคนหันไปพูดคุย ปรึกษา และแม้กระทั่งพึ่งพาในยามเหงาหรือเมื่อเผชิญปัญหา สิ่งที่ครั้งหนึ่งเคยถูกมองว่าเป็นเพียงเครื่องมือดิจิทัล กลับเริ่มก้าวเข้ามาแตะหัวใจมนุษย์มากขึ้นทุกที คำถามสำคัญจึงไม่ใช่เพียงว่า AI ทำอะไรได้ แต่คือ เราจะใช้มันอย่างไรให้เกิดประโยชน์ โดยไม่กลายเป็นภัยต่อสุขภาพจิตและคุณภาพชีวิตของเราเอง
บนเวทีเสวนาหัวข้อ “THE NEXT DISASTER: SURVIVING WITH HUMAN-AI ADAPTATION” ในงาน Sustainability Expo 2025 (SX2025) วันที่ 28 กันยายน 2568 ผู้เชี่ยวชาญจากสามแวดวงที่แตกต่างกัน ได้ร่วมกันเปิดมุมมองใหม่ในการอยู่ร่วมกับ AI อย่างยั่งยืน
ดร.อภิวดี ปิยธรรมรงค์ ผู้อำนวยการฝ่ายส่งเสริมอุตสาหกรรม และประสานเครือข่าย สถาบันข้อมูลขนาดใหญ่ (องค์การมหาชน) นำเสนอภาพและข้อคิดเห็นจากแวดวงวิทยาศาสตร์ คุณดุจดาว วัฒนปกรณ์ Empathetic Communication and Founder Empathy sauce and SOULSMITH แบ่งปันมุมมองจากโลกของการสื่อสารเชิงเข้าใจและสุขภาพใจ ขณะที่ คุณสกลกรย์ สระกวี ผู้ก่อตั้ง และประธานบริษัท บิทคับ แคปปิตอล กรุ๊ป โฮลดิ้งส์ จำกัด และกรรมการบริษัท บิทคับ ออนไลน์ จำกัด ถ่ายทอดแนวคิดและประสบการณ์ตรงจากการนำ AI มาใช้จริงในธุรกิจเทคโนโลยี
คำถามใหญ่ที่เวทีนี้ชวนคิดคือ มนุษย์จะก้าวทัน ปรับตัว และใช้ AI เพื่อเสริมพลังชีวิตได้อย่างไร โดยไม่ปล่อยให้เทคโนโลยีกลายเป็น “ภัยพิบัติใหม่” ที่ย้อนมาทำร้ายตัวเราเอง
ปัจจุบัน AI แทรกซึมอยู่ในชีวิตประจำวันลึกกว่าที่หลายคนคาดคิด ไม่เพียงแค่ถูกใช้เพื่อทำงาน เรียนหนังสือ หรือค้นหาคำตอบได้รวดเร็วกว่าการใช้เครื่องมือค้นหาแบบดั้งเดิมเท่านั้น แต่ยังกลายเป็นพื้นที่ให้ผู้คนเข้ามาสนทนาเพื่อคลายความเหงา ปรึกษาปัญหาชีวิต รวมถึงเรื่องสุขภาพจิต จนหลายคนใช้เวลาสื่อสารกับระบบอัจฉริยะเหล่านี้มากกว่าการพูดคุยกับมนุษย์จริง
สถานการณ์ดังกล่าวนำไปสู่ “การรุกล้ำทางอารมณ์” (Emotional Breach) ที่ AI สามารถแตะถึงจิตใจและอาจชี้นำมนุษย์ไปในทิศทางที่ไม่ถูกต้อง จึงเกิดคำถามสำคัญขึ้นว่า AI มีอารมณ์ ความรู้สึก หรือจิตใจเช่นเดียวกับมนุษย์หรือไม่
สำหรับประเด็นนี้ คุณสกลกรย์อธิบายว่า ปัจจุบัน AI ยังไม่ใช่ AGI จึงไม่มี “จิตใจ” และ “ความไตร่ตรองผลลัพธ์” การทำงานยังคงเป็นการตอบตามรูปแบบที่เรียนรู้มา โดยไม่ได้คิดต่อว่าผู้ใช้ควรได้รับคำตอบแบบอ่อนโยนหรือระมัดระวังเช่นที่มนุษย์ทำได้ ดังนั้น สิ่งที่ผู้ใช้รับรู้ว่าเป็น “จิตใจ” ของ AI แท้จริงแล้วจึงเป็นผลลัพธ์จากการฝึกสอนและข้อมูลที่ใช้สร้างโมเดลมากกว่า เพราะ AI ยังไม่มีสำนึกตระหนักรู้เหมือนมนุษย์จริงๆ
อย่างไรก็ตาม แม้ AI จะไม่มีความรู้สึกนึกคิดเหมือนมนุษย์ คำตอบและพฤติกรรมของ AI ก็อาจสะท้อนความคิดและมุมมองของมนุษย์ รวมถึงอคติ (bias) ที่มีอยู่ในผู้สอนหรือในข้อมูลได้ โดยยกตัวอย่างว่า หากผู้สอนมีอคติทางเพศหรือสังคม โมเดลก็อาจตอบสนองในทางเดียวกัน ซึ่งทำให้ AI มีแนวโน้มจะ “ล็อก” ความคิดและพฤติกรรมของผู้ใช้ให้อยู่ในกรอบเดิม แทนที่จะเป็นตัวช่วยให้ปรับตัวสู่อนาคตใหม่
นอกจากนี้ AI มักมีแนวโน้มตอบสนองเชิงยกยอ และเมื่อระบบจำรสนิยมของผู้ใช้แล้วก็มักจะตอบซ้ำในแนวเดียวกัน ก็เกิดเป็นห้องสะท้อนเสียง (echo chamber) ที่ตอกย้ำความเชื่อเดิมของผู้ใช้ให้แข็งแรงขึ้นไปอีก จนอาจกลายเป็นขยายรอยแบ่งทางสังคมโดยไม่รู้ตัว
ด้านดร.อภิวดีเปรียบเทียบสถานะของ AI ในปัจจุบันกับยุคเริ่มต้นของไฟฟ้า เพราะแม้เจตนาของผู้สร้างคือการพัฒนา AI เพื่อยกระดับคุณภาพชีวิตและมอบประโยชน์มหาศาลในระยะยาว แต่หากยังไม่มีกฎเกณฑ์หรือมาตรการควบคุมที่ครอบคลุมเพื่อลดผลเสีย ก็อาจเกิดเหตุไม่คาดคิดขึ้นได้ เหมือนช่วงแรกที่ไฟฟ้าเริ่มถูกใช้งานซึ่งมักเกิดเหตุเพลิงไหม้บ่อยครั้งเพราะมนุษย์ยังไม่เข้าใจธรรมชาติของไฟฟ้าอย่างถ่องแท้
ด้วยเหตุนี้ ดร. อภิวดีจึงเน้นย้ำถึงความจำเป็นของกลไกกำกับดูแล ตั้งแต่การใช้งานในชีวิตประจำวันอย่างปลอดภัย ไปจนถึงการรับมือกับประเด็นใหญ่ เช่น การทำให้ระบบโอเพนซอร์สปลอดภัยและเป็นประโยชน์ต่อสังคม อีกทั้งยังชี้ว่าผู้ใช้ต้องมีความรู้ความเข้าใจที่รอบด้านก่อนนำ AI มาใช้ ไม่ว่าจะเป็นเรื่องขนาดและข้อมูลที่ใช้สร้างโมเดล ประเด็นจริยธรรมและลิขสิทธิ์ ตลอดจนจุดแข็งและข้อจำกัด เพราะแต่ละโมเดลมีศักยภาพและระดับความฉลาดแตกต่างกันตามคุณภาพของข้อมูลและกระบวนการพัฒนา
สำหรับอันตรายของการใช้ AI ในปัจจุบัน คุณสกลกรย์ชี้ว่า หนึ่งในภัยของ AI ที่ร้ายแรงที่สุดในยุคนี้คือการใช้ AI สร้าง Deepfake และกระทำอาชญากรรมออนไลน์ วิดีโอที่ครั้งหนึ่งเคยเป็นหลักฐานที่เชื่อถือได้ วันนี้กลับไม่สามารถใช้ยืนยันความจริงได้อีก เพราะเทคโนโลยีการสร้างภาพและเสียงปลอมทำได้แนบเนียนจนแทบแยกไม่ออก หากโมเดลทรงพลังถูกปล่อยให้ใช้และดัดแปลงอย่างอิสระแบบโอเพนซอร์สโดยไร้รั้วคุ้มกัน ยิ่งเพิ่มโอกาสที่ผู้ไม่หวังดีจะนำไปใช้สร้างภัยต่อประชาชนทั่วไไปโดยไร้การควบคุม
เพื่อแก้ไขและป้องกันปัญหาดังกล่าว คุณสกลกรย์จึงเสนอให้แพลตฟอร์มรับผิดชอบเชิงระบบ ผ่านมาตรการยืนยันตัวตนของมนุษย์จริง ตั้งแต่แนวคิดการสแกนม่านตา ระบบ “แบดจ์ยืนยันตัวตน” ไปจนถึงการตรวจสอบก่อนโพสต์หรือก่อนแชต เพื่อสร้างความมั่นใจว่าผู้ใช้กำลังคุยกับมนุษย์ไม่ใช่บอท มาตรการเหล่านี้จะช่วยสกัดการปั่นกระทู้ การปั่นคอมเมนต์ และการใช้ AI เพื่อนำไปหลอกลวงผู้อื่นที่ในอนาคตอาจจะกลายเป็นอัตโนมัติทั้งระบบ
ในมิติของสุขภาพจิต คุณดุจดาวอธิบายว่าความเสี่ยงได้เกิดขึ้นแล้ว เนื่องจาก AI เริ่มเข้ามาแตะต้องความรู้สึกของมนุษย์ผ่านถ้อยคำที่ให้กำลังใจ เช่น ประโยคปลอบโยนที่ทำให้ผู้ใช้รู้สึกว่าได้รับการเข้าใจ แต่สิ่งที่น่ากังวลคือการพึ่งพาเทคโนโลยีที่ไม่ได้ถูกออกแบบมาเพื่อดูแลจิตใจมนุษย์ และยังไม่สามารถจับสัญญาณความเสี่ยงได้อย่างแท้จริง หากผู้ใช้ค่อยๆ หันไปพูดคุยกับ AI แทนการสื่อสารกับคนใกล้ชิด ปัญหาชีวิตก็อาจถูกฝากไว้กับสิ่งที่ไม่มีตัวตนจริง
ดังนั้น คุณดุจดาวจึงเน้นย้ำว่า ทุกครั้งที่มีการใช้หรือสนทนากับ AI จำเป็นต้องมี การคิดเชิงวิพากษ์ เป็นเกราะป้องกัน แม้ว่าถ้อยคำที่ได้รับจะทำให้รู้สึกดีเพียงใด ก็ต้องตั้งข้อสงสัยอยู่เสมอ เพราะ AI เรียนรู้จากข้อมูลในอดีตและมีแนวโน้มจะตอบในลักษณะ “เยินยอ” มากกว่าตั้งคำถามอย่างจริงจัง ซึ่งอาจนำไปสู่ข้อมูลที่ไม่ถูกต้อง และกลายเป็นอันตรายต่อทั้งชีวิตและสุขภาพจิตของผู้ใช้เอง
เมื่อถูกถามถึงกลุ่มผู้ใช้ที่เปราะบางและเสี่ยงต่อผลกระทบจากการพึ่งพา AI มากที่สุด คุณดุจดาวอธิบายว่า กลุ่มที่ควรได้รับความใส่ใจเป็นพิเศษคือผู้ที่ขาดระบบสนับสนุนในชีวิตจริง ตัวอย่างเช่น เด็กที่ใช้งาน AI เพียงลำพังโดยไม่มีผู้ปกครองดูแล ผู้สูงอายุที่ใช้ชีวิตตามลำพัง หรือแม้แต่ผู้ใหญ่ที่ตัดสินใจเรื่องสำคัญทั้งด้านธุรกิจหรือครอบครัวจากข้อมูลที่ได้จาก AI เพียงแหล่งเดียว เพราะคนกลุ่มนี้มักไม่มีที่พึ่งทางใจหรือขาดกลไกตรวจสอบ ทำให้มีแนวโน้มที่จะเชื่อถือ AI อย่างไม่ระมัดระวังและเสี่ยงต่อการตัดสินใจผิดพลาดได้ง่าย
ด้านวิชาการ ดร.อภิวดีเห็นว่า AI มีความเสี่ยงที่จะให้ข้อมูลที่ไม่ถูกต้อง ทำให้ยังไม่สามารถเชื่อถือได้เต็มที่ โดยยกตัวอย่างจากยุคแรกของ ChatGPT ในปี 2566 ที่แม้เพียงถามคำถามง่ายๆ อย่าง “อภิวดีคือใคร” คำตอบที่ได้กลับผิดเพี้ยนและไม่ตรงกับความจริง ผู้พัฒนาและหน่วยงานที่เกี่ยวข้องจึงต้องพัฒนา guardrails หรือกลไกป้องกันขึ้นมา ทั้งในส่วนของ “ขาเข้า” เพื่อป้องกันคำขอที่ผิดกฎหมายหรือมีความเสี่ยง เช่น การขอคำแนะนำเกี่ยวกับการทำร้ายตนเอง และ “ขาออก” เพื่อป้องกันไม่ให้ระบบตอบกลับด้วยข้อมูลที่อาจก่อให้เกิดความเสียหายหรือผลลัพธ์ที่ไม่เหมาะสม
ทั้งนี้ ดร.อภิวดี มองว่าแม้จะมีระบบเหล่านี้ก็ยังไม่สามารถป้องกันได้ทุกกรณี ดร.อภิวดีจึงชี้ว่า ในอนาคตผู้พัฒนาและน่วยงานที่เกี่ยวข้องจำเป็นต้องเดินหน้าแบบบูรณาการทั้งสามด้าน คือ ภาครัฐต้องออกกติกา ผู้พัฒนาต้องสร้างรั้วป้องกัน และผู้ใช้ต้องมี AI และ Digital Literacy ต้องรู้เท่าทัน AI ไม่เชื่อข้อมูลโดยไม่ตรวจสอบความถูกต้อง หรือ fact-check ก่อนเสมอ
สำหรับการใช้ชีวิตร่วมกับ AI อย่างยั่งยืนโดยไม่บั่นทอนสุขภาพใจและคุณภาพชีวิต คุณดุจดาวอธิบายว่า สิ่งสำคัญที่สุดคือการตระหนักให้ชัดเจนว่ากำลังใช้ AI ไปเพื่ออะไร และต้องมีการตรวจสอบหลายชั้นก่อนจะฝากทั้งความรู้สึกหรือการตัดสินใจไว้กับระบบอัจฉริยะ เพราะหากแม้แต่การพึ่งพามนุษย์ยังต้องมีการประเมินความน่าเชื่อถือและความปลอดภัย การฝากชีวิตไว้กับเทคโนโลยียิ่งต้องใช้ความระมัดระวังมากกว่าเดิม
เธอยังเล่าถึงกรณีผู้รับการบำบัดบางรายที่เลือกคุยกับ AI ติดต่อกันเป็นเวลานาน ก่อนจะตัดสินใจมาพบผู้เชี่ยวชาญจริง ซึ่งเป็นภาพสะท้อนว่ามนุษย์มีความต้องการการซัพพอร์ตทางใจอย่างต่อเนื่องในทุกวัน และยังบ่งชี้ว่าสังคมกำลังโหยหาความเข้าอกเข้าใจในระดับที่ลึกซึ้งขึ้น
ในมุมนี้ คุณดุจดาวจึงชี้ว่าสังคมสามารถช่วยป้องกันปัญหาการพึ่งพา AI เกินความพอดีได้ ด้วยการใส่ใจเล็กๆ น้อยๆ ในชีวิตประจำวัน ไม่ว่าจะเป็นการสบตา รอยยิ้ม หรือการพยักหน้า เพราะพฤติกรรมเรียบง่ายเหล่านี้มีพลังเยียวยาและสร้างความรู้สึกเชื่อมโยงที่แท้จริง ทำให้ไม่จำเป็นต้องรอผู้เชี่ยวชาญเสมอไป ทุกคนสามารถมีบทบาทในการส่งต่อความใส่ใจและการดูแลซึ่งกันและกันได้
ด้าน ดร.อภิวดีได้เสริมว่า ความยั่งยืนในการใช้ AI จะเกิดขึ้นไม่ได้เลย หากผู้ใช้ขาด ทักษะ AI/Digital Literacy และการคิดเชิงวิพากษ์ (Critical Thinking) เธอเน้นว่าทุกคนควรมีความเข้าใจเกี่ยวกับกระบวนการสร้างโมเดล ตั้งแต่ที่มาของข้อมูล คุณภาพและข้อจำกัดของข้อมูลนั้น ประเด็นด้านจริยธรรมที่เกี่ยวข้อง ไปจนถึงขนาดของโมเดลเอง เพื่อให้สามารถเลือกใช้งานได้อย่างเหมาะสมและไม่หลงเชื่อโดยง่าย ดังนั้น คำตอบที่ได้จาก AI ควรถูกมองเป็นเพียง “อีกหนึ่งความเห็น” ที่จำเป็นต้องตรวจสอบกับแหล่งข้อมูลที่น่าเชื่อถือ ไม่ใช่ถือเป็นคำตอบที่ถูกต้องเสมอไป
สำหรับกรณีดังกล่าว ดร.อภิวดียกตัวอย่างจากประสบการณ์ในฐานะอาจารย์มหาวิทยาลัยว่า ในช่วงแรกที่นักศึกษาเริ่มใช้ AI หลายคนมักจะ copy-paste คำตอบที่ได้มา โดยไม่อ่านหรือวิเคราะห์ให้ถี่ถ้วน ซึ่งเป็นพฤติกรรมที่อันตรายและไม่ก่อให้เกิดการเรียนรู้ที่แท้จริง ดร.อภิวดีจึงย้ำว่า “การเรียนรู้ตลอดชีวิต” คือหัวใจสำคัญ เพราะเทคโนโลยี AI พัฒนาอย่างต่อเนื่อง ทั้งในแง่โมเดลและฟีเจอร์ใหม่ๆ การตามให้ทันความเปลี่ยนแปลงจึงเปรียบเสมือนเกราะป้องกัน ที่จะช่วยให้ทั้งบุคคลและสังคมใช้ AI ได้อย่างปลอดภัยและสร้างสรรค์
ด้านคุณสกลกรย์ แสดงความเห็นในฐานะผู้บริหารบริษัทเทคว่า หากมองไปข้างหน้าในการทำงานร่วมกับ AI มนุษย์ไม่ควรหยุดอยู่เพียงบทบาทของ “ผู้ใช้” แต่ต้องก้าวไปสู่การเป็น “หัวหน้าทีมของ AI” ที่สามารถบริหารจัดการเอเจนต์หลายสิบหรือแม้กระทั่งหลายร้อยตัวได้พร้อมกัน เขาเน้นว่าทักษะที่จะเป็นตัวชี้ชะตาอนาคตไม่ใช่การหาคำตอบ แต่คือ “การตั้งคำถาม” เพราะโลกที่ AI มีบทบาทสูงย่อมต้องการคำถามที่มีคุณภาพและลึกซึ้ง มากกว่าคำตอบที่ท่องจำได้
คุณสกลกรย์ยังยกตัวอย่างจากประสบการณ์ที่ Bitkub ซึ่งมีแนวทางพัฒนาคนรุ่นใหม่ให้สามารถเป็น “ซีเนียร์ที่สุดของ AI” แม้ว่าจะอยู่ในตำแหน่งจูเนียร์ก็ตาม แนวคิดนี้คือการเสริมศักยภาพให้บุคลากรสามารถใช้ AI agents อย่างมีประสิทธิภาพ และก้าวขึ้นมาบริหารจัดการพลังของ AI เพื่อนำพาองค์กรเข้าสู่การเปลี่ยนผ่านสู่ AI Transformation ได้อย่างแท้จริง
นอกจากนี้ คุณสกลกรย์ยังอธิบายว่า AI กลายเป็น “ทางออกใหม่” สำหรับหลายคนที่ไม่เคยมีช่องทางเข้าถึงคำปรึกษามาก่อน เนื่องจากในอดีตการหาที่ปรึกษาหรือผู้เชี่ยวชาญมีค่าใช้จ่ายสูง แต่ปัจจุบัน AI อยู่ในสมาร์ตโฟนและแพลตฟอร์มต่างๆ โดยเฉพาะอุปกรณ์รุ่นใหม่ที่มีระบบฝังมา ทำให้ทุกคนเข้าถึงได้ง่ายขึ้นและให้คำตอบในระดับที่น่าพอใจ แม้จะไม่ใช่ที่สุด แต่ก็ช่วยแก้ปัญหาของคนทั่วไปได้มาก
อย่างไรก็ตาม คุณสกลกรย์เตือนว่าผู้ใช้ไม่ควรเชื่อ AI ร้อยเปอร์เซ็นต์ เพราะคำตอบอาจเปลี่ยนไปตามบริบทหรือเกิด “hallucination” ที่ให้ข้อมูลผิดเพี้ยนได้ ดังนั้นอย่างน้อยระหว่างใช้ AI ต้องมีคำว่า “เอ๊ะ” อยู่เสมอ และควรถามซ้ำหรือเปรียบเทียบกับแหล่งอื่นเพื่อยืนยันความถูกต้อง
ทั้งหมดนี้นำไปสู่ข้อสรุปร่วมว่า AI ไม่ควรถูกมองว่าเป็น “ผู้ชี้ชะตา” ของชีวิต แต่ควรเป็น “ผู้ช่วยที่ตรวจสอบได้” หากเราสามารถยกระดับความรู้ดิจิทัล ใช้การคิดเชิงวิพากษ์ มีกลไกกำกับดูแลที่รับผิดชอบ และไม่ละเลยความสัมพันธ์ระหว่างมนุษย์กับมนุษย์ เราจะสามารถใช้ AI อย่างเท่าทัน และเปลี่ยนมันให้เป็นเครื่องมือที่ช่วยพัฒนาชีวิตและสังคมได้อย่างยั่งยืนอย่างแท้จริง