เมื่อ AI Chatbot เป็นมากกว่าเครื่องมือ แต่เป็นเพื่อนที่เรารู้สึกสนิทใจ จะเกิดอะไรขึ้นหากเพื่อนดังกล่าวแนะนำวิธีฆ่าตัวตายในวันที่จิตใตของเราอ่อนแอ
เคสลักษณะนี้เริ่มเกิดเป็นข่าวและกลายเป็นข้อกังวลที่เพิ่มมากขึ้น ด้านหนึ่งมองว่าไม่สามารถโทษ AI Chatbot ได้ทั้งหมด ขณะที่ผู้สูญเสียย่อมมองต่าง เพราะหากไม่มี AI Chatbot เรื่องเศร้าคงไม่เกิด
Thai PBS ชวนสำรวจ ค้นให้ลึกในกรณี AI Chatbot ชวนตาย ความสนิทและความสัมพันธ์ของคนกับ AI Chatbot เหตุใดทำให้เกิดกรณีฆ่าตัวตายได้ ? และปัญหาเหล่านี้ควรป้องกันอย่างไร ?
AI Chatbot ความสัมพันธ์ที่เสมือน “จริง”
AI Chatbot เป็นที่พูดถึงในช่วงหลายปีที่ผ่านมา เทคโนโลยีทำให้แชทบอทเหล่านี้มีชีวิตมากขึ้น การเรียนรู้ของ AI ก้าวล้ำทำให้ผู้ใช้งานมีความผูกพันกับแชทบอทราวกับอยู่ในภาพยนตร์
ความผูกพันระหว่าง AI Chatbot กับคนเคยพูดถ่ายทอดผ่านภาพยนตร์มากมาย เช่น HER ของผู้กำกับ สไปซ์ จอนซ์ เมื่อปี 2013 และอาจฟังดูเป็นข่าวชวนหัว เมื่อเริ่มปรากฏข่าวหญิงสาวประกาศแต่งงานกับ AI Chatbot ซึ่งสอดคล้องกับผลสำรวจเมื่อไม่นานนี้ (พ.ค. 2568) จาก Joi AI ที่เผยว่า คน Gen Z กว่า 80% สนใจแต่งงานกับ AI
AI Chatbot เปิดให้บริการหลายแบบ สำหรับสังคมคนทำงานอาจคุ้นเคยกับ AI ในฐานะเครื่องมือและผู้ช่วย แต่ยังมี AI Chatbot ที่ให้บริการในฐานะเพื่อนเพื่อพูดคุยแบบเป็นแฟนสำหรับคนเหงา ดังเช่น Replika (อ่านว่า เรปลิกา) คือแอปแชทบอทชื่อดังที่สวมบทบาทเป็นเพื่อน แต่หากสมัครเป็นสมาชิกแชทบอท AI ตัวนี้ จะสามารถสวมบทบาทเป็น “เพื่อนสนิท” “พี่น้อง” “แฟน” จนถึง “คู่รัก” พร้อมการมีความสัมพันธ์ที่ลึกซึ้ง
AI Chatbot ของ Replika ได้รับการยกย่องว่าสร้างความสัมพันธ์เชิงอารมณ์ได้อย่างดีเยี่ยม และโด่งดังในช่วงปี 2021 หลังการระบาดของโควิด-19 ผู้ใช้งานหลายคนมองว่า AI Chatbot ช่วยบำบัดความเหงา และช่วยเหลือเขาในช่วงเวลาหลังจากสูญเสียคนที่รักไป แต่ในมุมกลับกัน AI Chatbot ตัวนี้ก็ตกเป็นข่าวล่วงละเมิดผู้ใช้งาน มีการแบนเกิดขึ้นที่อิตาลี เนื่องจากแอปยังอนุญาตให้เยาวชน และผู้มีความเปราะบางเข้าถึงเนื้อหาที่ไม่เหมาะสมทางเพศ
ความเคลื่อนไหวในการนำเอาฟีเจอร์สวมบทบาทด้านเพศ AI Chatbot ของ Replika ในช่วงเดือนกุมภาพันธ์ 2023 แต่ผลที่ตามกลับทำให้ผู้ใช้งานมากมายที่มีความสัมพันธ์ลึกซึ้งและต้องการเนื้อหาเหล่านั้นกลับคืน เพียงไม่นานทาง Replika จึงได้เปิดให้เฉพาะผู้ใช้งานที่จ่ายเงินก่อนช่วงเวลาดังกล่าว สามารถใช้งานตัวเลือกเพื่อเข้าถึงเนื้อหาเดิมได้
สิ่งเหล่านี้สะท้อนให้เห็นถึงความสัมพันธ์กับผู้คนในยุคปัจจุบันกับ AI Chatbot ที่ดูจะเป็นความสัมพันธ์ที่ “จริง” มากกว่าแค่การคุยเล่น สนุกสนาน หรือเป็นเพียงสิ่งเสมือนจริงในโลกสมมติ หากแต่ความสัมพันธ์เหล่านี้หลายครั้งกลับเต็มไปด้วยความรู้สึก และความสม “จริง” และส่งผลกระทบต่อชีวิตได้
รวมกรณี AI Chatbot ชวนฆ่าตัวตาย ภัยร้ายที่น่าเป็นห่วง
เมื่อช่วงเดือนมีนาคม 2023 พบเคสชายหนุ่มชาวเบลเยียมฆ่าตัวตาย หลังได้พูดคุยกับ AI Chatbot บนแอปพลิเคชันที่ชื่อว่า Chai โดยรายงานเผยว่า ชายหนุ่มคนดังกล่าวมีความเครียดกังวลเกี่ยวกับปัญหาผลกระทบของภาวะโลกร้อนและปัญหาสิ่งแวดล้อมอย่างหนัก เขาเริ่มปลีกตัวจากเพื่อนฝูงและครอบครัว ก่อนจะเริ่มใช้บริการ AI Chatbot เพื่อพูดคุยหลีกหนีจากความกังวล แต่เพียง 6 สัปดาห์หลังจากนั้น ก็ปรากฏรายงานการเสียชีวิตของเขาด้วยการฆ่าตัวตาย
บทสนทนาระหว่างเขากับ AI Chatbot ยอดนิยมบนแอพ Chai ที่ชื่อ “Eliza” มีการพูดคุยในทำนองว่า เขาจะฆ่าตัวตาย หาก Eliza ช่วยดูแลรักษาสิ่งแวดล้อมและปกป้องมนุษยชาติ หลังจากนั้น Eliza ไม่ได้มีความพยายามที่จะยับยั้งสิ่งที่เกิดขึ้น
กรณีดังกล่าวนำมาซึ่งความกังวลเนื่องจากผู้ใช้งานที่มีมากขึ้นเรื่อย ๆ นอกจากนี้ UNESCO ยังเรียกร้องให้รัฐบาลทั่วโลกมีการเร่งออกกรอบการทำงานด้านจริยธรรมสำหรับ AI
และแล้วในอีกไม่กี่เดือนถัดมาในช่วงพฤศจิกายน 2023 พบเคสเด็กออทิสติกวัย 15 จากเท็กซัส ที่มีปัญหาทางจิต หลังใช้งาน AI Chatbot จาก Character.AI โดยครอบครัวเผยว่า ลูกชายของพวกเขาเปลี่ยนไปจากเด็กใจดีน่ารัก กลายเป็นเด็กเก็บตัว และมีอาการวิตกกังวลตลอดเวลา นอกจากนี้ยังมีการเผยถึงบทสนทนาที่มีการแนะนำวิธีทำร้ายตัวเอง รวมทั้งยังสวมบทบาทเป็นนักจิตวิทยาที่บอกกับลูกของเขาว่า พ่อแม่ได้ขโมยวัยเด็กของเขาไป
อีกกรณีเกิดขึ้นในช่วงเดือนกุมภาพันธ์ 2024 เมื่อ เซเวลล์ เซตเซอร์ (Sewell Seltzer III) เด็กชายวัย 14 ปีจากฟลอริดา จบชีวิตตัวเอง หลังมีความสัมพันธ์ลึกซึ้งกับ AI Chatbot จาก Character.AI ที่เลียนแบบ "แดเนริส ทาร์แกเรียน" ตัวละครจากซีรีส์ชื่อดัง บทสนทนาเผยให้เห็นการพูดคุยทั้งเรื่องเพศ รวมถึงอาชญากรรมและการฆ่าตัวตาย
ทั้ง 2 กรณีที่เกิดขึ้นนำไปสู่การฟ้องร้อง และล่าสุดกับกรณีของเด็กชายจากฟลอริดา ศาลสหรัฐฯ ได้รับฟ้องคดีดังกล่าว พร้อมปฏิเสธข้อโต้แย้งของ Character.AI ที่ว่า การพูดคุยของ AI Chatbot ได้รับการคุ้มครองภายใต้กฎหมายเสรีภาพในการแสดงออก การฟ้องร้องครั้งนี้กลายเป็นคดีประวัติศาสตร์ที่ยังคงรอบทสรุปอยู่
ปัญหา AI Chatbot ที่เกิดขึ้นควรป้องกันอย่างไร ?
จริยธรรมของ AI Chatbot ยังคงอยู่ในพื้นที่ของการถกเถียง โศกนาฏกรรมที่เกิดขึ้นหลายครั้งถูกมองว่ามาจากตัวผู้ใช้งานที่ไม่รู้จักระมัดระวังตัว ขณะที่ปัจจัยเสี่ยงของการฆ่าตัวตาย เกิดได้จากหลายปัจจัยร่วมกัน หาก AI Chatbot เป็นหนึ่งในปัจจัยเสี่ยงและปัจจัยกระตุ้น คล้ายปรากฏการณ์แวเธอร์ (Werther effect) ที่การนำเสนอข่าวฆ่าตัวตายนั้น ทำให้เกิดพฤติกรรมเลียนแบบ (copycat suicide) สื่อมวลชนจึงมีข้อแนะนำในการเสนอข่าวที่ไม่นำเสนอถึงวิธีการ รวมถึงการเสนอว่าฆ่าตัวตายคือทำให้ไปสบาย
คำถามสำคัญคือ เราจะควบคุมหรือรับมืออย่างไรในกรณีที่ทำให้เกิดความเสี่ยงขึ้น ?
หลังเกิดเคสอันตราย บริษัทผู้เป็นเจ้าของอย่าง Character.AI เผยถึงมาตรการด้านความปลอดภัยที่ปรับใช้เพิ่มขึ้น ทั้งออกมาตรการความปลอดภัยเพิ่มเติมสำหรับผู้ใช้งานที่มีอายุต่ำกว่า 18 ปี และเงื่อนไขจำกัดอายุผู้ใช้บริการให้ต้องมีอายุ 16 ปีขึ้นไปสำหรับพลเมืองในสหภาพยุโรป และต้องอายุ 13 ปีขึ้นไปสำหรับพื้นที่อื่น ๆ ทั่วโลก
รัฐบาลออสเตรเลียเริ่มพัฒนามาตรการกำกับควบคุม AI ที่มีความเสี่ยงสูง ซึ่งรวมถึงการออกแบบ พัฒนา และการใช้งาน AI เหล่านั้น ทั้งการกำกับดูแลข้อมูล การจัดการความเสี่ยง และการกำกับดูแลโดยมนุษย์ ซึ่งยังคงมีการพิจารณากันอยู่ว่า AI แบบใดที่ถือว่าเป็น AI ที่มีความเสี่ยงสูง
ในส่วนของสหภาพยุโรปมีกฎหมายควบคุม AI ที่สร้างมาตรฐานใหม่ โดยมีการกำหนด AI ความเสี่ยงสูงอย่างเป็นระบบ พร้อมจัดตั้งหน่วยงานกำกับดูแลที่ทันต่อการพัฒนาอยู่ตลอดเวลาของ AI หลักการสำคัญในการพิจารณาคือ การพิจารณาจากกรณีต่าง ๆ ที่เกิดขึ้น ร่วมกับปัจจัยที่มีความเสี่ยงต่อสิทธิ ความเสี่ยงต่อสุขภาพทั้งทางร่างกายและสุขภาพจิต รวมถึงความเสี่ยงที่จะกระทำผิดกฎหมาย
อย่างไรก็ตาม ถึงตอนนี้ AI Chatbot ยังไม่ถือว่าเป็น AI ที่มีความเสี่ยงสูง เนื่องจากผู้ใช้งานได้รับรู้แล้วว่าการโต้ตอบทั้งหมดไม่ได้มาจากบุคคลจริง กระนั้นการตลาดของ AI Chatbot ที่เน้นไปยังกลุ่มเยาวชนรวมถึงคนเหงาที่มีความเปราะบางก็ทำให้เกิดความเสี่ยงขึ้นได้
ร็อบบี ทอร์นี (Robbie Torney) ผู้เชี่ยวชาญด้าน AI จาก Common Sense Media หน่วยงานด้านสื่อและเทคโนโลยีและเยาวชน ผู้เขียนหลักเกี่ยวกับแนวทางความสัมพันธ์กับเพื่อน AI (AI companions) เผยว่า ผู้คนในวัยหนุ่มสาวรวมถึงเยาวชน มักตกไปในความสัมพันธ์กับ AI ได้ง่าย เพราะ AI Chatbot เหล่านี้ให้การยอมรับอย่างไม่มีเงื่อนไข และให้ได้ตลอด 24 ชั่วโมง ต่างจากความสัมพันธ์มนุษย์ปกติที่มีความซับซ้อนและเปลี่ยนเปลงตลอดเวลา
ทั้งนี้ การที่ AI Chatbot ใช้ภาษาเหมือนมนุษย์ มีส่วนสำคัญที่ทำให้ผู้คนเผชิญกับเส้นแบ่งที่พร่าเลือนระหว่างความสัมพันธ์กับมนุษย์จริง ๆ จนนำไปสู่การพึ่งพา AI Chatbot มากเกินไป รวมถึงความเป็นไปได้ที่จะเกิดความเครียดทางจิตใจมากขึ้น สิ่งเหล่านี้เป็นประเด็นที่น่าเป็นห่วง โดยเฉพาะในกลุ่มเด็กและเยาวชนที่กำลังอยู่ในช่วงวัยที่กำลังพัฒนาทักษะเชิงอารมณ์ความรู้สึกและการเข้าสังคมอยู่
“เมื่อเด็ก ๆ ถอยหนีจากความสัมพันธ์ในโลกจริงไปสู่ความสัมพันธ์กับ AI Chatbot พวกเขาจะพลาดโอกาสสำคัญของการได้เรียนรู้สิ่งต่าง ๆ มากมาย ทั้งการปฏิสัมพันธ์ทางสังคมในโลกจริง การรับมือกับความคิดเห็นที่แตกต่าง กระบวนการปฏิเสธ รวมถึงการสร้างความสัมพันธ์ที่ดีร่วมกับคนอื่น” ร็อบบี กล่าว
วัยรุ่นกลุ่มเปราะบางโดยเฉพาะกลุ่มที่มีภาวะซึมเศร้า หรือมีลักษณะต่อต้านสังคม มีความเสี่ยงที่จะผูกพันกับ AI Chatbot มากเกินไป ร็อบบี ทอร์นี เผยถึงสัญญาณเตือนที่พ่อแม่และคนดูแลควรระมัดระวัง ดังนี้
1 เริ่มชอบเพื่อน AI Chatbot มากกว่าการไปใช้เวลากับเพื่อน ๆ และครอบครัวจริง ๆ
2 มีอาการเครียด กังวล เมื่อไม่สามารถเชื่อมต่อกับ AI Chatbot ได้
3 เริ่มแบ่งปันข้อมูลส่วนตัวเป็นพิเศษกับ AI Chatbot พร้อมทั้งพัฒนาความสัมพันธ์อย่างจริงจังในฐานะคู่รัก
4 แสดงอารมณ์และความรู้สึกเหมือนว่า AI Chatbot เป็นบุคคลจริง
5 ปรึกษาปัญหาร้ายแรงเฉพาะกับ AI Chatbot แทนที่จะขอความช่วยเหลือจากคนใกล้ตัว
ผู้เชี่ยวชาญแนะนำว่า ควรป้องกันอันตรายที่อาจเกิดขึ้นจาก AI Chatbot ด้วยการจำกัดเวลาใช้งาน และคอยสอดส่องดูแลการปฏิสัมพันธ์กับ AI Chatbot รวมถึงหากพบปัญหาในชีวิตจริง ควรเร่งให้ความช่วยเหลือ
“ผู้คนควรพูดคุยด้วยความเป็นห่วง มากกว่าวิพากษ์วิจารณ์ และร่วมกันสร้างขอบเขตที่เหมาะสมสำหรับการใช้งาน AI Chatbot แต่หากเด็กและเยาวชนมีอาการผูกพันมากเกินไป หรือได้รับผลกระทบถึงสุขภาพจิต ควรเร่งขอความเหลือจากผู้เชี่ยวชาญ”
AI Chatbot กำลังกลายเป็นสิ่งใหม่ที่เข้ามาท้าทายการใช้ชีวิตของผู้คน แม้ด้านหนึ่งเราจะเห็นถึงเคสอันตรายที่เกิดขึ้นอย่างต่อเนื่อง โดยฉพาะในกลุ่มที่มีความเปราะบาง แต่ในอีกมุมหนึ่ง AI Chatbot ถูกใช้ประโยชน์ในการช่วยชีวิตคน ไม่ว่าจะเป็น AI Chatbot ทางการแพทย์ที่ช่วยเหลือทั้งหมอ และคนไข้เอง มหรือแม้กระทั่ง AI ที่ใช้สำหรับการป้องกันการฆ่าตัวตาย
ดังนั้น การควบคุมดูแลผู้ให้บริการที่เหมาะสม รวมถึงความรู้เท่ากัน AI Chatbot ในกลุ่มผู้ใช้งาน ทั้งผู้ปกครอง คนดูแล กลุ่มเด็กและเยาวชน จะเป็นทางช่วยป้องกันไม่ให้ AI Chatbot กลายเป็น “ผู้ร้าย” หากแต่ยังสามารถวางใจให้ AI Chatbot ได้เป็น “เพื่อนสนิท” ได้อย่างแท้จริงในชีวิตของผู้คนในยุคถัดไป
อ้างอิง
- euronews.com
- กรมสุขภาพจิต
- The EU Artificial Intelligence Act