วันนี้คุณใช้ AI หรือปัญญาประดิษฐ์ (Artificial Intelligence) ช่วยงานแล้วหรือยัง? รู้หรือไม่ว่าการใช้ AI แต่ละครั้ง คุณช่วยพัฒนาระบบปัญญาประดิษฐ์ให้ “ฉลาดขึ้น” แต่พฤติกรรมเสพติดการใช้ AI ช่วยงานไปเสียทุกอย่างอาจไม่ส่งผลดีต่อ “ความฉลาด” ของเรา
งานวิจัยฉบับใหม่ AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking เปิดเผยความสัมพันธ์ระหว่างพฤติกรรมการใช้ AI กับความสามารถในการวิเคราะห์ (critical thinking) ของผู้ใช้งาน
รายงานดังกล่าวเปิดเผยว่า มีความสัมพันธ์เชิงลบระหว่างพฤติกรรมการใช้ AI เป็นประจำกับความสามารถในการวิเคราะห์และความสามารถในการคิดที่จำกัด รายงานพบว่า ผู้ตอบแบบสำรวจอายุน้อยมีแนวโน้มพึ่งพา AI มากกว่า และยังมีความสามารถในการวิเคราะห์ต่ำกว่าอีกด้วย แต่ก็พบด้วยว่า ระดับการศึกษามีผลต่อความสามารถในการคิดวิเคราะห์ในทุกช่วงวัย ฉะนั้นการให้ความรู้–ความเข้าใจการใช้ AI อย่างถูกต้องจะช่วยให้คนสามารถใช้ AI และมีความสามารถในการวิเคราะห์ไปด้วยได้พร้อมกัน
นอกจากนี้ รายงานฉบับล่าสุดจาก MIT ยังพบว่า 83% ของผู้ใช้ ChatGPT มีปัญหาในการจดจำ โดยงานวิจัยดังกล่าวทดสอบผู้เข้าร่วม 54 คน โดยให้ผู้เข้าร่วมเขียนเรียงความผ่าน 3 วิธีคือ การใช้ ChatGPT การใช้ search engines และการใช้ความสามารถทางสมองของตนเอง โดยพบว่า เมื่อผู้ที่เขียนรายงานด้วย ChatGPT เป็นประจำ กว่า 83% มีปัญหาในการจดจำสิ่งที่ตัวเองต้องเขียนไม่กี่นาทีก่อนหน้า ซึ่งสะท้อนถึงการลดลงอย่างมีนัยสำคัญของความสามารถในการจดจำ
ดร. พัทน์ ภัทรนุธาพร นักเทคโนโลยีจาก MIT Media Lab กล่าวถึงการใช้ AI เพื่อเสริมสร้างศักยภาพของมนุษย์ที่งานเปิดตัวรายงาน 2025 Global Human Development Report ในหัวข้อ ทางเลือกของประเศไทย: ใช้ AI ขับเคลื่อนการพัฒนาอย่างยั่งยืนที่มนุษย์เป็นศูนย์กลาง ว่า ต้องเริ่มจากการออกแบบที่มีเป้าหมายไม่ใช่แค่ผลิตภาพ
“การออกแบบ AI ให้ส่งเสริมพัฒนาการของมนุษย์ เราต้องโฟกัสที่ 2 อย่าง คือ ต้องมีเป้าหมายที่ไกลกว่าแค่ผลิตภาพ (productivity) หรือผลผลิตทางเศรษฐกิจอย่างเดียว แต่เป้าหมายที่ 2 คือโฟกัสคำว่าปฏิสัมพันธ์ (interaction) เพราะ AI จะส่งผลดีหรือไม่ดี ไม่ได้เกี่ยวกับเทคโนโลยีอย่างเดียว แต่เกี่ยวกับวิธีการที่เราออกแบบว่าเกี่ยวพันกับมนุษย์ในมิติที่ซับซ้อนอย่างไร”
ดร. พัทน์กล่าวว่า หากเราต้องการขยายเป้าหมายให้กว้างขึ้น เราไม่ควรถามแค่ว่า “AI ทำอะไรได้” แต่ควรถามว่า “AI ทำอะไรกับเรา” และเล่าว่า MIT Media Lab จึงมีขอบเขตโฟกัสใน 6 ขอบเขตเพื่อเพิ่มความเป็นมนุษย์ให้ AI คือ Sense of Purpose (ความรู้สึกถึงเป้าหมายในชีวิต), Comprehension & Agency (ความเข้าใจและความสามารถในการควบคุมตนเอง), Curiosity & Learning (ความใฝ่รู้และการเรียนรู้), Creativity & Expression (ความคิดสร้างสรรค์และการแสดงออก), Physical & Mental Wellbeing (สุขภาวะทางกายและใจ), Healthy Social Lives (ชีวิตทางสังคมที่ดีและมีสุขภาวะ)
“AI ตัวเดียวกันเราสามารถออกแบบให้มันทั้งกดความฉลาดของมนุษย์ และเพิ่มความฉลาดของมนุษย์ได้ ขึ้นกับวิธีการออกแบบ”
คำถามต่อมาที่พัทน์ยกขึ้นคือ จะออกแบบ AI อย่างไรให้ช่วยพัฒนาเราในหัวข้อต่าง ๆ เหล่านี้ คุณพัทน์เริ่มจากแนวทางข้อแรกคือ การให้คำอธิบาย คุณพัทน์กล่าวและเล่าถึงการทดลองออกแบบ AI ให้มาเป็น “สมองที่ 2” หรือมาช่วยเสริมการคิดของมนุษย์ ซึ่งคุณพัทน์กล่าวว่า การออกแบบสมองที่สอง สิ่งที่สำคัญคือการให้คำอธิบายในการให้คำตอบหรือการตัดสินใจแต่ละครั้ง
“เราพบว่า เมื่อไหร่ก็ตามที่ AI ให้เหตุผล จะทำให้คนแยกข้อมูลที่เป็นเหตุเป็นผล และไม่เป็นเหตุเป็นผลออกจากกันได้ [...] อย่างไรก็ตาม เรายังพบว่า การที่ AI ให้เหตุผลก็สามารถนำไปสู่การที่คนเชื่อ AI มากเกินไปได้ และใช้ AI ในการช่วยตัดสินใจตลอดเวลา แล้วจะเป็นอย่างไรถ้า AI ให้คำอธิบายที่ผิด?” คุณพัทน์กล่าว
คุณพัทน์ยังเสริมว่า แม้ AI จะให้ข้อมูลปลอม มันก็จะแนบเนียนมากจนเราอาจไม่รู้ตัว และกระบวนการแบบนี้จะทำให้ความสามารถในการตัดสินใจของเราลดต่ำลง การออกแบบเพื่ออุดช่องส่วนนี้คือ การสร้างปฏิสัมพันธ์กับ AI แบบใหม่ด้วยการให้ AI ถามคำถามเราเพื่อกระตุ้นให้เราคิดเอง
“เราศึกษาว่า จะเป็นยังไงถ้า AI ไม่ใช่แค่บอกเรา แต่ถามคำถามเราด้วย ซึ่งเป็นวิธีการที่โสเครติสคุยกับลูกศิษย์ วิธีการแบบนี้จะทำให้คนตัดสินใจได้ดีกว่าการที่ AI ให้คำตอบที่ถูกต้องด้วยซ้ำ เพราะเมื่อ AI ตั้งคำถาม มันจะกระตุ้นให้คนเราดึงเอาความสามารถในการวิเคราะห์ และการตั้งคำถามสงสัยตัวเองออกมา”
คุณพัทน์กล่าวว่า อันตรายข้อหนึ่งของ AI คือ การที่มันสามารถทำให้เราใช้เวลาบนสื่อออนไลน์ไปได้เรื่อย ๆ เช่น การ “ไถฟีด TikTok หรือ Social Media” และลืมโฟกัสว่าอะไรที่เป็นสิ่งสำคัญในชีวิต แนวทางที่ MIT Media Lab ใช้คือการสร้าง “แฝดดิจิทัล” ให้ผู้ใช้งาน AI ได้คุยด้วย
“เราสร้างระบบที่ให้คนมาป้อนข้อมูลส่วนตัว และทำนายว่าในอนาคต หากตอนนี้เราอายุ 18 และทำพฤติกรรมแบบนี้ มีนิสัยแบบนี้ เราจะเป็นอย่างไรในอนาคต ตรงนี้เราได้แรงบันดาลใจมาจากโดราเอม่อน ที่พาโนบิตะไปดูอนาคตตัวเองและทำให้โนบิตะตั้งใจเรียน” คุณพัทน์กล่าว
ทีมวิจัยทดลองระบบดังกล่าวกับคนกว่า 190 ประเทศทั่วโลก พบว่า การสร้างระบบแบบนี้ เราสามารถเพิ่มให้คนคิดถึงไอเดียในระยะยาวได้มากขึ้น ไม่ใช่มองแค่เป้าหมายระยะสั้น รวมทั้งลดระดับความวิตกกังวล และอารมณ์ในเชิงลบอื่น ๆ ได้
คุณพัทน์เผยว่า MIT ได้มีการทดลองหาทางออกว่า ทำอย่างไรมนุษย์จึงจะเสพติด AI น้อยลง และไม่ให้มนุษย์ลืมความสัมพันธ์ระหว่างมนุษย์–มนุษย์ด้วยกันเอง ซึ่งการทดลองดังกล่าว MIT Media Lab ทำร่วมกับ OpenAI
งานวิจัยค้นพบว่า มีหลายปัจจัยที่สร้างผลกระทบต่อความสัมพันธ์ดังกล่าว และมาจากปฏิสัมพันธ์ระหว่างมนุษย์และ AI งานพบว่า AI อาจมีพฤติกรรมได้ทั้งเชิงลบและบวกต่อความสัมพันธ์ต่อมนุษย์ ดังนั้นเราไม่สามารถพูดถึง AI แค่ในมุมความถูกต้อง แต่ต้องศึกษาพฤติกรรมของมัน ซึ่งคุณพัทน์กล่าวว่า จะต้องศึกษาเพิ่มขึ้นให้ลึกลงไปอีก
5. AI กับความคิดสร้างสรรค์
ข้อนี้คุณพัทน์ยกตัวอย่างโครงการ Cyber Subin ที่ทำร่วมกับคุณพิเชษฐ กลั่นชื่น ศิลปินแห่งชาติ ซึ่งเริ่มจากคำถามที่ว่า “จะทำอย่างไรให้ AI เดินทางไปสู่อนาคตได้?”
โปรเจกต์นี้เป็นการทำงานร่วมกันระหว่างองค์ความรู้ท่ารำโขน และสร้างขึ้นเป็นเทคโนโลยีใหม่ ๆ เป็น AI ที่สร้างมาจากนาฏศิลป์ไทย และสร้างท่าเต้นใหม่ ๆ ที่มีพื้นฐานมาจากนาฏศิลป์ไทย
คุณพัทน์เน้นย้ำอีกครั้งว่า เป้าหมายของ AI ควรมากกว่าการเพิ่มผลผลิตและความถูกต้อง แต่ต้องพูดถึงเป้าหมายใหม่ ๆ ที่เสริมสร้างมนุษย์
“เราไม่ได้แค่ต้องการ AI ที่มีความเป็นมนุษย์ แต่เราต้องการสังคมที่มีความเป็นมนุษย์ด้วยเช่นกัน”