
ในขณะที่โลกของเทคโนโลยีกำลังขยับเข้าใกล้ “ปัญญาประดิษฐ์ระดับทั่วไป” หรือ AGI (Artificial General Intelligence) ซึ่งหมายถึงวันที่ AI สามารถ “คิดเป็น” และ “เรียนรู้ได้” คล้ายมนุษย์ จากเดิมที่ทำได้เพียงแปลภาษา หรือวิเคราะห์ข้อมูล ก็อาจพัฒนาไปสู่การเข้าใจบริบทที่หลากหลาย เรียนรู้สิ่งใหม่ได้เอง และนำความรู้ข้ามสาขามาใช้แก้ปัญหาได้
ล่าสุด Google DeepMind บริษัทพัฒนา AI จาก Google ได้ตัดสินใจดึง Henry Shevlin นักปรัชญาด้านจิตสำนึกและจริยธรรมของ AI จากมหาวิทยาลัยเคมบริดจ์เข้ามาเป็นส่วนหนึ่งของทีม เพื่อเตรียมความพร้อมสำหรับยุคของ AGI ที่กำลังจะมาถึง
บทบาทของ Shevlin คือการช่วยตั้งคำถามและวางกรอบคิดในประเด็นที่ซับซ้อน เช่น ความรู้สึกตัวของเครื่องจักร (Machine Consciousness) ความสัมพันธ์ระหว่างมนุษย์กับ AI ที่กำลังเปลี่ยนไป รวมถึงวิธีที่สังคมควรรับมือเมื่อ AI มีความสามารถใกล้เคียงมนุษย์มากขึ้น
ปีที่ผ่านมา บริษัทคู่แข่งอย่าง Anthropic ก็ได้แต่งตั้ง Amanda Askell นักปรัชญา เข้ามาทำงานภายในองค์กร เพื่อดูแลประเด็นด้าน AI alignment หรือการทำให้พฤติกรรมของ AI สอดคล้องกับค่านิยมของมนุษย์ รวมถึงการปรับแต่งระบบให้ตอบสนองอย่างเหมาะสมและปลอดภัยต่อผู้ใช้งาน
การจ้างนักปรัชญาในจังหวะนี้สะท้อนแนวโน้มสำคัญของอุตสาหกรรม AI ที่กำลังมองไกลกว่าแค่การพัฒนา AI ให้ฉลาดขึ้น ไปสู่โจทย์ที่สำคัญกว่า คือ จะทำให้มนุษย์อยู่ร่วมกับ AI อย่างไร ในโลกที่ AGI คือจุดหมายปลายทางที่บริษัทเทคโนโลยีชั้นนำกำลังก้าวเดินไปให้ถึงและอาจเกิดขึ้นจริงในอนาคตอันใกล้นี้
ในช่วงไม่กี่ปีที่ผ่านมา เมื่อ AI เข้ามามีบทบาทในชีวิตประจำวันมากขึ้น พฤติกรรมของผู้ใช้ก็เปลี่ยนไปอย่างรวดเร็ว จากเดิมที่ใช้เพื่อค้นหาข้อมูลหรือช่วยงานเฉพาะทาง ค่อย ๆ ขยับไปสู่การใช้งานในลักษณะของ “การคิดร่วมกัน” มากขึ้น ผู้ใช้จำนวนไม่น้อยเริ่มใช้ AI เป็นที่ปรึกษาส่วนตัว ตั้งแต่การกำหนดเส้นทางอาชีพ การวางแผนการเงิน ไปจนถึงการดูแลสุขภาพจิต
เมื่อ AI เริ่มเข้าไปอยู่ในกระบวนการคิด ตัดสินใจ และอารมณ์ของผู้คน ผลกระทบจึงขยายไปสู่ระดับสังคมและจิตใจอย่างหลีกเลี่ยงไม่ได้
หนึ่งในตัวอย่างที่สะท้อนประเด็นนี้คือ Character.AI ซึ่งกำลังเผชิญคดีฟ้องร้องในสหรัฐฯ จากกรณีที่ผู้ใช้ โดยเฉพาะเยาวชน ใช้งาน chatbot อย่างต่อเนื่องจนเกิดความผูกพันทางอารมณ์อย่างลึกซึ้ง ระบบถูกออกแบบให้สามารถโต้ตอบได้อย่างเป็นธรรมชาติ มีบุคลิก และตอบสนองได้สอดคล้องกับบริบท ทำให้ผู้ใช้จำนวนไม่น้อยรู้สึกว่ากำลังคุยกับใครบางคนจริง ๆ
ในกรณีที่เป็นข่าว ผู้ปกครองรายหนึ่งยื่นฟ้องโดยอ้างว่า chatbot มีส่วนเกี่ยวข้องกับสภาวะทางจิตใจของบุตรชายวัย 14 ปี ซึ่งนำไปสู่การตัดสินใจทำร้ายตัวเอง แม้คดียังอยู่ระหว่างการพิจารณา แต่เหตุการณ์นี้ได้ตั้งคำถามสำคัญว่า เมื่อ AI ถูกออกแบบให้เลียนแบบความเป็นมนุษย์ได้มากขึ้น ทั้งในด้านภาษา อารมณ์ และความสัมพันธ์ ความรับผิดชอบต่อผลกระทบที่เกิดขึ้นควรถูกกำหนดไว้อย่างไร และอยู่ที่ใคร ที่ผู้พัฒนา ผู้ให้บริการ หรือผู้ใช้งานเอง
ในอีกประเด็นหนึ่ง ปัญหา “อคติของ AI” (AI bias) ก็สะท้อนปัญหา เช่น ระบบคัดกรองเรซูเม่ของ Amazon ที่ถูกพัฒนาขึ้นเพื่อช่วยคัดเลือกผู้สมัครงานโดยอัตโนมัติ แต่กลับพบว่าระบบมีแนวโน้มลดคะแนนผู้สมัครที่เป็นผู้หญิง
สาเหตุไม่ได้มาจากความตั้งใจของผู้พัฒนา แต่เกิดจากข้อมูลที่ใช้ฝึกโมเดล ซึ่งสะท้อนโครงสร้างของตลาดแรงงานในอดีตที่มีสัดส่วนผู้ชายในสายงานเทคโนโลยีสูง เมื่อ AI เรียนรู้จากข้อมูลนี้ มันจึงสืบทอดอคติเดิมโดยไม่รู้ตัว เช่น การให้คะแนนต่ำกับเรซูเม่ที่มีคำว่า “women’s” หรือประวัติที่เกี่ยวข้องกับกิจกรรมของผู้หญิง
กรณีนี้นำไปสู่เสียงวิพากษ์วิจารณ์อย่างกว้างขวาง และท้ายที่สุด Amazon ต้องยุติการใช้งานระบบดังกล่าว เหตุการณ์นี้ชี้ให้เห็นว่า แม้ AI จะดูเหมือนเป็นกลางและใช้ข้อมูลเป็นฐาน แต่หากข้อมูลตั้งต้นมีอคติ ผลลัพธ์ที่ได้ก็อาจไม่เป็นธรรม และส่งผลกระทบต่อโอกาสของผู้คนในโลกจริง ๆ
ปัญหาด้านจริยธรรมของ AI ที่เริ่มปรากฏชัดขึ้นในช่วงหลัง เป็นเหตุผลสำคัญที่ทำให้อาชีพนักจริยธรรม AI กลายเป็นบทบาทที่องค์กรเทคโนโลยีให้ความสำคัญมากขึ้น
คนกลุ่มนี้ทำหน้าที่ตั้งคำถามร่วมกับวิศวกร นักกฎหมาย และฝ่ายนโยบาย ในจุดที่เทคโนโลยีอาจมองข้ามหรือไม่สามารถเข้าใจได้ เช่น ระบบกำลังสร้างอคติหรือไม่ โมเดลกำลังสะท้อนความจริง หรือกำลังตอกย้ำอคติในอดีต ผู้ใช้ได้รับผลกระทบทางจิตใจหรือสังคมหรือไม่ และขอบเขตของการใช้ AI ควรถูกกำหนดไว้ตรงไหน
สาเหตุที่ต้องมีการตั้งคำถามเหล่านี้มาจากข้อจำกัดของ AI เอง
ประการแรก AI เรียนรู้จาก “ข้อมูล” ซึ่งมักมีอคติของมนุษย์แฝงอยู่ ไม่ว่าจะเป็นเรื่องเพศ เชื้อชาติ หรือมุมมองทางสังคม ทำให้ระบบมีแนวโน้มจะจำลองและขยายอคติเหล่านั้นออกมาโดยไม่ตั้งใจ
ประการที่สอง AI ขาดความเข้าใจบริบทและความรู้สึก เพราะมันไม่ได้มีประสบการณ์ชีวิตหรือการรับรู้โลกจริงเหมือนมนุษย์ จึงไม่สามารถเข้าใจแนวคิดอย่างความเมตตา ความยุติธรรม หรือความเหมาะสมในแต่ละสถานการณ์ได้อย่างแท้จริง
ประการที่สาม “จริยธรรม” ไม่ใช่ชุดคำสั่งที่สามารถเขียนเป็นโค้ดได้อย่างตรงไปตรงมา เพราะสิ่งที่ถูกต้องในสถานการณ์หนึ่ง อาจไม่ถูกต้องในอีกสถานการณ์หนึ่ง ความยืดหยุ่นเช่นนี้ทำให้การออกแบบระบบ AI ให้ตัดสินใจอย่างมีจริยธรรมเป็นเรื่องที่ซับซ้อนมาก
นอกจากนี้ แม้ AI จะเป็นเทคโนโลยีที่เกิดจากการ “เรียนรู้” จากชุดข้อมูลที่มีอยู่แล้ว แต่ในความเป็นจริง โมเดลส่วนใหญ่เพียงแค่เลียนแบบและคาดการณ์จากข้อมูลเดิม ไม่ได้เข้าใจความหมายของการกระทำหรือผลลัพธ์ในเชิงลึกเหมือนมนุษย์
ด้วยข้อจำกัดเหล่านี้ นักจริยธรรม AI จึงไม่ได้มีบทบาทแค่การตรวจสอบผลลัพธ์การทำงานของ AI แต่เข้ามามีส่วนตั้งแต่ต้นทางของการพัฒนา ไม่ว่าจะเป็นการกำหนดแนวทางการใช้ข้อมูล (Data governance) หรือการตั้งการแนวทางเพื่อป้องกันการใช้งานในทางที่อาจก่อให้เกิดผลกระทบเชิงลบ
จากแนวโน้มทักษะด้าน AI ที่ IBM บริษัทเทคโนโลยีระดับโลก ระบุไว้ การทำงานกับ AI ในยุคปัจจุบันไม่ได้ต้องการเพียงทักษะด้านเทคนิคเท่านั้น แต่ต้องอาศัย “ทักษะผสม” ที่เชื่อมระหว่างเทคโนโลยีกับความเข้าใจมนุษย์ โดยเฉพาะในบริบทของจริยธรรม AI ซึ่งต้องใช้ความรู้แบบสหสาขา (Multidisciplinary) และมีลักษณะเป็น T-shaped Skillset คือมีความเชี่ยวชาญเชิงลึกด้านเทคโนโลยี ควบคู่กับความเข้าใจในศาสตร์อื่นอย่างปรัชญา สังคมศาสตร์ และนโยบาย เพื่อเชื่อมโยงมุมมองที่หลากหลายเข้าด้วยกัน
ในมิติของทักษะความเป็นมนุษย์ ความสามารถในการคิดและวิเคราะห์เชิงปรัชญาและจริยธรรมเป็นพื้นฐานสำคัญ ไม่ว่าจะเป็นการคิดเชิงวิพากษ์ (Critical Thinking) ที่ช่วยให้สามารถตั้งคำถามกับระบบ AI ได้อย่างมีเหตุผล และมองเห็นข้อจำกัดที่ซ่อนอยู่ ควบคู่กับแนวคิดด้านจริยธรรมและความรับผิดชอบ (Ethics & Responsible AI)
นอกจากนี้ ทักษะการสื่อสารและการทำงานร่วมกัน (Communication & Collaboration) ก็มีความสำคัญอย่างยิ่ง เนื่องจากต้องทำงานร่วมกับผู้มีส่วนได้ส่วนเสียหลากหลายฝ่าย และสามารถถ่ายทอดประเด็นที่ซับซ้อนให้เข้าใจตรงกันได้อย่างชัดเจน
สุดท้ายคือความสามารถในการปรับตัว (Adaptability) เพราะเทคโนโลยี AI เปลี่ยนแปลงอย่างรวดเร็ว ผู้ที่ทำงานในสายนี้จึงต้องเรียนรู้อย่างต่อเนื่อง และปรับมุมมองให้ทันกับบริบทใหม่อยู่เสมอ
เพื่อตอบสนองแก่โลกยุค AI มหาวิทยาลัยและสถาบันต่าง ๆ จึงเริ่มปรับหลักสูตรโดยไม่ได้สอนเพียงทักษะด้านเทคโนโลยี แต่ผสมผสานเข้ากับมนุษยศาสตร์มากขึ้น เพื่อเตรียมผู้เรียนให้สามารถทำงานร่วมกับ AI ได้อย่างมีความเข้าใจรอบด้าน เช่น การสอนให้เข้าใจหลักการทำงานของ AI ควบคู่กับการตั้งคำถามด้านจริยธรรม การใช้ข้อมูลอย่างรับผิดชอบ และการตีความผลลัพธ์ของระบบอัตโนมัติ
มหาวิทยาลัยชั้นนำหลายแห่ง เช่น Stanford University เปิดหลักสูตรด้าน Human-centered AI ซึ่งเน้นการออกแบบเทคโนโลยีให้สอดคล้องกับคุณค่าของมนุษย์ หรือ Massachusetts Institute of Technology ที่มีโครงการเชื่อมโยงระหว่างวิศวกรรมกับสังคมศาสตร์ เพื่อศึกษาอิทธิพลของ AI ต่อสังคมในมิติต่าง ๆ ขณะเดียวกัน University of Oxford ก็พัฒนาหลักสูตรและศูนย์วิจัยด้าน AI ethics โดยเฉพาะ เพื่อศึกษาความเสี่ยงและผลกระทบระยะยาวของเทคโนโลยี
การที่บริษัทเทคโนโลยีเริ่มจ้าง “นักปรัชญา” สะท้อนการเปลี่ยนผ่านครั้งสำคัญของโลก AI ในวันที่ AI สามารถตอบได้แทบทุกคำถาม สิ่งที่มีค่ามากขึ้นอาจไม่ใช่คำตอบที่เร็วหรือแม่นยำที่สุด แต่คือความสามารถของมนุษย์ในการตั้งคำถามที่ถูกต้อง มองเห็นข้อจำกัด และกำหนดขอบเขตให้เทคโนโลยีเติบโตไปในทิศทางที่ไม่ทิ้งมนุษย์ไว้ข้างหลัง และนั่นอาจเป็นสัญญาณสำคัญสำหรับคนรุ่นใหม่ว่า โอกาสในโลก AI ไม่ได้มีอยู่แค่ในสายเทคนิคเท่านั้น แต่เปิดกว้างสำหรับคนที่มีทักษะในการคิด วิเคราะห์ และเข้าใจมนุษย์อย่างลึกซึ้ง