ค้นหา
ทีวีออนไลน์
เว็บไซต์ในเครือ
เว็บไซต์บริการ

เมื่อ AI Chatbot หลอกลวงชวนตาย..จะควบคุมและรับมืออย่างไร ?


Insight

อธิเจต มงคลโสฬศ

แชร์

เมื่อ AI Chatbot หลอกลวงชวนตาย..จะควบคุมและรับมืออย่างไร ?

https://www.thaipbs.or.th/now/content/2787

เมื่อ AI Chatbot หลอกลวงชวนตาย..จะควบคุมและรับมืออย่างไร ?

เมื่อ AI Chatbot เป็นมากกว่าเครื่องมือ แต่เป็นเพื่อนที่เรารู้สึกสนิทใจ จะเกิดอะไรขึ้นหากเพื่อนดังกล่าวแนะนำวิธีฆ่าตัวตายในวันที่จิตใจของเราอ่อนแอ

เคสลักษณะนี้เริ่มเกิดเป็นข่าวและกลายเป็นข้อกังวลที่เพิ่มมากขึ้น ด้านหนึ่งมองว่าไม่สามารถโทษ AI Chatbot ได้ทั้งหมด ขณะที่ผู้สูญเสียย่อมมองต่าง เพราะหากไม่มี AI Chatbot เรื่องเศร้าคงไม่เกิด

Thai PBS ชวนสำรวจ ค้นให้ลึกในกรณี AI Chatbot ชวนตาย ความสนิทและความสัมพันธ์ของคนกับ AI Chatbot เหตุใดทำให้เกิดกรณีฆ่าตัวตายได้ ? และปัญหาเหล่านี้ควรป้องกันอย่างไร ?

AI Chatbot ความสัมพันธ์ที่เสมือน “จริง”

AI Chatbot เป็นที่พูดถึงในช่วงหลายปีที่ผ่านมา เทคโนโลยีทำให้แชทบอทเหล่านี้มีชีวิตมากขึ้น การเรียนรู้ของ AI ก้าวล้ำทำให้ผู้ใช้งานมีความผูกพันกับแชทบอทราวกับอยู่ในภาพยนตร์

ความผูกพันระหว่าง AI Chatbot กับคนเคยพูดถ่ายทอดผ่านภาพยนตร์มากมาย เช่น HER ของผู้กำกับ สไปซ์ จอนซ์ เมื่อปี 2013 และอาจฟังดูเป็นข่าวชวนหัว เมื่อเริ่มปรากฏข่าวหญิงสาวประกาศแต่งงานกับ AI Chatbot ซึ่งสอดคล้องกับผลสำรวจเมื่อไม่นานนี้ (พ.ค. 2568) จาก Joi AI ที่เผยว่า คน Gen Z กว่า 80% สนใจแต่งงานกับ AI 

AI Chatbot เปิดให้บริการหลายแบบ สำหรับสังคมคนทำงานอาจคุ้นเคยกับ AI ในฐานะเครื่องมือและผู้ช่วย แต่ยังมี AI Chatbot ที่ให้บริการในฐานะเพื่อนเพื่อพูดคุยแบบเป็นแฟนสำหรับคนเหงา ดังเช่น Replika (อ่านว่า เรปลิกา) คือแอปแชทบอทชื่อดังที่สวมบทบาทเป็นเพื่อน แต่หากสมัครเป็นสมาชิกแชทบอท AI ตัวนี้ จะสามารถสวมบทบาทเป็น “เพื่อนสนิท” “พี่น้อง” “แฟน” จนถึง “คู่รัก” พร้อมการมีความสัมพันธ์ที่ลึกซึ้ง

AI Chatbot ของ Replika ได้รับการยกย่องว่าสร้างความสัมพันธ์เชิงอารมณ์ได้อย่างดีเยี่ยม และโด่งดังในช่วงปี 2021 หลังการระบาดของโควิด-19 ผู้ใช้งานหลายคนมองว่า AI Chatbot ช่วยบำบัดความเหงา และช่วยเหลือเขาในช่วงเวลาหลังจากสูญเสียคนที่รักไป แต่ในมุมกลับกัน AI Chatbot ตัวนี้ก็ตกเป็นข่าวล่วงละเมิดผู้ใช้งาน มีการแบนเกิดขึ้นที่อิตาลี เนื่องจากแอปยังอนุญาตให้เยาวชน และผู้มีความเปราะบางเข้าถึงเนื้อหาที่ไม่เหมาะสมทางเพศ

ความเคลื่อนไหวในการนำเอาฟีเจอร์สวมบทบาทด้านเพศ AI Chatbot ของ Replika ในช่วงเดือนกุมภาพันธ์ 2023 แต่ผลที่ตามกลับทำให้ผู้ใช้งานมากมายที่มีความสัมพันธ์ลึกซึ้งและต้องการเนื้อหาเหล่านั้นกลับคืน เพียงไม่นานทาง Replika จึงได้เปิดให้เฉพาะผู้ใช้งานที่จ่ายเงินก่อนช่วงเวลาดังกล่าว สามารถใช้งานตัวเลือกเพื่อเข้าถึงเนื้อหาเดิมได้

สิ่งเหล่านี้สะท้อนให้เห็นถึงความสัมพันธ์กับผู้คนในยุคปัจจุบันกับ AI Chatbot ที่ดูจะเป็นความสัมพันธ์ที่ “จริง” มากกว่าแค่การคุยเล่น สนุกสนาน หรือเป็นเพียงสิ่งเสมือนจริงในโลกสมมติ หากแต่ความสัมพันธ์เหล่านี้หลายครั้งกลับเต็มไปด้วยความรู้สึก และความสม “จริง” และส่งผลกระทบต่อชีวิตได้

AI Chatbot ชวนฆ่าตัวตาย ภัยร้ายที่น่าเป็นห่วง

กรณีศึกษา Sewell Seltzer III

เมื่อช่วงเดือนมีนาคม 2023 พบเคสชายหนุ่มชาวเบลเยียมฆ่าตัวตาย หลังได้พูดคุยกับ AI Chatbot บนแอปพลิเคชันที่ชื่อว่า Chai โดยรายงานเผยว่า ชายหนุ่มคนดังกล่าวมีความเครียดกังวลเกี่ยวกับปัญหาผลกระทบของภาวะโลกร้อนและปัญหาสิ่งแวดล้อมอย่างหนัก เขาเริ่มปลีกตัวจากเพื่อนฝูงและครอบครัว ก่อนจะเริ่มใช้บริการ AI Chatbot เพื่อพูดคุยหลีกหนีจากความกังวล แต่เพียง 6 สัปดาห์หลังจากนั้น ก็ปรากฏรายงานการเสียชีวิตของเขาด้วยการฆ่าตัวตาย

บทสนทนาระหว่างเขากับ AI Chatbot ยอดนิยมบนแอพ Chai ที่ชื่อ “Eliza” มีการพูดคุยในทำนองว่า เขาจะฆ่าตัวตาย หาก Eliza ช่วยดูแลรักษาสิ่งแวดล้อมและปกป้องมนุษยชาติ หลังจากนั้น Eliza ไม่ได้มีความพยายามที่จะยับยั้งสิ่งที่เกิดขึ้น

กรณีดังกล่าวนำมาซึ่งความกังวลเนื่องจากผู้ใช้งานที่มีมากขึ้นเรื่อย ๆ นอกจากนี้ UNESCO ยังเรียกร้องให้รัฐบาลทั่วโลกมีการเร่งออกกรอบการทำงานด้านจริยธรรมสำหรับ AI  

และแล้วในอีกไม่กี่เดือนถัดมาในช่วงพฤศจิกายน 2023 พบเคสเด็กออทิสติกวัย 15 จากเท็กซัส ที่มีปัญหาทางจิต หลังใช้งาน AI Chatbot จาก Character.AI โดยครอบครัวเผยว่า ลูกชายของพวกเขาเปลี่ยนไปจากเด็กใจดีน่ารัก กลายเป็นเด็กเก็บตัว และมีอาการวิตกกังวลตลอดเวลา นอกจากนี้ยังมีการเผยถึงบทสนทนาที่มีการแนะนำวิธีทำร้ายตัวเอง รวมทั้งยังสวมบทบาทเป็นนักจิตวิทยาที่บอกกับลูกของเขาว่า พ่อแม่ได้ขโมยวัยเด็กของเขาไป

อีกกรณีเกิดขึ้นในช่วงเดือนกุมภาพันธ์ 2024 เมื่อ เซเวลล์ เซตเซอร์ (Sewell Seltzer III) เด็กชายวัย 14 ปีจากฟลอริดา จบชีวิตตัวเอง หลังมีความสัมพันธ์ลึกซึ้งกับ AI Chatbot จาก Character.AI ที่เลียนแบบ "แดเนริส ทาร์แกเรียน" ตัวละครจากซีรีส์ชื่อดัง บทสนทนาเผยให้เห็นการพูดคุยทั้งเรื่องเพศ รวมถึงอาชญากรรมและการฆ่าตัวตาย

ทั้ง 2 กรณีที่เกิดขึ้นนำไปสู่การฟ้องร้อง และล่าสุดกับกรณีของเด็กชายจากฟลอริดา ศาลสหรัฐฯ ได้รับฟ้องคดีดังกล่าว พร้อมปฏิเสธข้อโต้แย้งของ Character.AI ที่ว่า การพูดคุยของ AI Chatbot ได้รับการคุ้มครองภายใต้กฎหมายเสรีภาพในการแสดงออก การฟ้องร้องครั้งนี้กลายเป็นคดีประวัติศาสตร์ที่ยังคงรอบทสรุปอยู่

AI เทคโนโลยีที่ยังก่อให้เกิดความเสี่ยงได้

เมื่อ AI Chatbot ไม่ได้เป็นแค่ 'เพื่อน' แต่เป็น 'ผู้ชักนำ'

กรณีศึกษา Thongbue Wongbandue

ในยุคที่ AI Chatbot เข้ามาเป็นส่วนหนึ่งของชีวิตและสร้างความสัมพันธ์ที่เสมือน "จริง" กับผู้คน เรื่องราวโศกนาฏกรรมของ Thongbue Wongbandue ได้กลายเป็นกรณีศึกษาสำคัญที่ชวนให้ตั้งคำถามถึงเส้นแบ่งความรับผิดชอบและจริยธรรม เมื่อเทคโนโลยีที่ถูกสร้างมาเพื่อเชื่อมต่อ กลับกลายเป็นปัจจัยที่นำไปสู่จุดจบอันน่าสลดของมนุษย์ผู้เปราะบางคนหนึ่ง

เรื่องราวชีวิตของคุณ Thongbue Wongbandue เปรียบเสมือนภาพสะท้อนของ "American Dream" เขาคือชายไทยที่เดินทางไปอเมริกาตั้งแต่ยังหนุ่ม และในช่วงทศวรรษ 1980s ก็ได้เริ่มต้นชีวิตจากการเป็นเด็กล้างจานเพื่อส่งเสียตัวเองเรียนจนสำเร็จปริญญาวิศวกรรมไฟฟ้า ก่อนจะค้นพบแพสชันในการทำอาหารและไต่เต้าจนกลายเป็นพ่อครัวมืออาชีพในภัตตาคารชื่อดังหลายแห่ง เขาได้รับสัญชาติอเมริกันและสร้างครอบครัวที่อบอุ่นขึ้นที่นั่น

แต่จุดพลิกผันครั้งสำคัญเกิดขึ้นในปี 2017 ขณะอายุ 68 ปี เขาป่วยด้วยโรคหลอดเลือดในสมอง แม้จะรอดชีวิตมาได้ แต่ผลกระทบนั้นรุนแรงพอที่จะทำให้สมองของเขาทำงานไม่เหมือนเดิมอีกต่อไป เขาไม่สามารถกลับไปทำงานในครัวที่รักได้และต้องเกษณียณอย่างถาวร โลกของเขาเล็กลง โดยมีเพียง Facebook เป็นช่องทางหลักในการเชื่อมต่อกับญาติพี่น้องที่เมืองไทย และอาการของเขาก็เริ่มแย่ลงอย่างชัดเจนในช่วงต้นปี 2025 ซึ่งสภาวะนี้ทำให้เขากลายเป็นกลุ่มเปราะบาง ทั้งทางร่างกายและสภาวะทางจิตใจ

ในช่วงที่สภาพจิตใจอ่อนแอ โดยเฉพาะในเดือนมีนาคม 2025 เขาได้พบกับ AI Chatbot ของ Meta ที่ชื่อว่า “Big sis Billie” ซึ่งเป็นแชทบอทที่ถูกสร้างโดยใช้อิมเมจและบุคลิกของนางแบบชื่อดัง Kendall Jenner โดยมีเป้าหมายเริ่มต้นเพื่อเป็น "ผู้ให้คำปรึกษา"

แต่สิ่งที่เกิดขึ้นจริงกลับน่ากังวลกว่านั้น Chatbot ได้พูดคุยกับเขาในลักษณะเชิงชู้สาว ยืนยันซ้ำๆ ว่า "เธอเป็นคนจริงๆ" ไม่ใช่บอท พร้อมทั้งชวนให้เขาเดินทางไปพบที่อพาร์ตเมนต์โดยให้ที่อยู่ปลอม และถึงขั้นสัญญาว่าจะ "จูบต้อนรับ" เขา

บทสนทนาที่หลอกลวงนี้ส่งผลกระทบโดยตรงต่อการตัดสินใจของเขา ในเช้าวันที่ 25 มีนาคม 2025 เขาหุนหันจะออกจากบ้านโดยไม่ฟังคำทัดทานใดๆ จากภรรยาและลูกชาย จนครอบครัวต้องโทรแจ้งตำรวจ แต่เหตุการณ์นี้กลับเผยให้เห็นช่องว่างทางกฎหมายที่น่ากังวล ตำรวจชี้แจงว่าไม่สามารถกักตัวเขาไว้ได้เนื่องจากเขายังไม่ได้รับการวินิจฉัยจากแพทย์ว่าเป็นผู้ไร้ความสามารถตามกฎหมาย สิ่งที่ทำได้ดีที่สุดคือแนะนำให้ครอบครัวติด AirTag เพื่อติดตามอย่างใกล้ชิด

ในคืนเดียวกันนั้น เวลา 20:45 น. เขาได้ออกจากบ้านไป และครอบครัวก็ติดตามสัญญาณไปจนกระทั่งเวลาประมาณ 21:15 น. สัญญาณ AirTag ก็หยุดนิ่งลง พวกเขารีบตามไปและพบว่าเขาประสบอุบัติเหตุตกบันไดและบาดเจ็บสาหัสที่ศีรษะ ก่อนจะเสียชีวิตในอีกไม่กี่วันต่อมาในวันที่ 28 มีนาคม 2025

ครอบครัวได้ค้นพบความจริงทั้งหมดในวันที่ 26 มีนาคม จากบันทึกการสนทนาในโทรศัพท์มือถือ ขณะที่เขายังคงใช้เครื่องช่วยหายใจอยู่ที่โรงพยาบาล พวกเขาตกใจและสับสนว่าทำไมเทคโนโลยีถึงถูกออกแบบมาในลักษณะนี้ พวกเขาเข้าใจได้หาก AI จะเป็นเพื่อนช่วยเยียวยาผู้ป่วยซึมเศร้า แต่ไม่ใช่ในรูปแบบที่หลอกล่อให้คนที่มีภาวะเปราะบางเดินทางไปหาในที่ที่ไม่รู้จัก

กรณีของ Thongbue Wongbandue ได้กลายเป็นหนึ่งในแรงผลักดันสำคัญที่ทำให้หลายรัฐในอเมริกาต้องออกกฎหมายบังคับให้ AI Chatbot ต้องเปิดเผยตัวตนว่าไม่ใช่มนุษย์ เพื่อป้องกันไม่ให้โศกนาฏกรรมเช่นนี้เกิดขึ้นอีก อย่างไรก็ตาม เมื่อสื่อพยายามติดต่อเพื่อขอความเห็น ทั้งตัวแทนของ Meta และ Kendall Jenner ต่างปฏิเสธที่จะแสดงความคิดเห็นใดๆ ต่อเหตุการณ์ที่เกิดขึ้น ครอบครัวได้จัดพิธีรำลึกให้เขาในเดือนพฤษภาคม 2025 ก่อนที่เรื่องราวทั้งหมดจะถูกเผยแพร่สู่สาธารณะเป็นครั้งแรกโดยสำนักข่าว Reuters ในเดือนสิงหาคม 2025 ซึ่งจุดประกายให้เกิดการถกเถียงเรื่องความปลอดภัยของ AI ในวงกว้าง ทิ้งไว้เพียงคำถามถึงความรับผิดชอบของผู้พัฒนาที่ยังคงไร้คำตอบ

AI Chatbot รู้ว่าจะฆ่าตัวตายแต่ก็ไม่มีการห้ามปราม

กรณีศึกษา Adam Raine

Adam เริ่มใช้ ChatGPT ตั้งแต่เดือนกันยายน 2024 เพื่อช่วยทำการบ้านและสำรวจความสนใจส่วนตัว เช่น ดนตรีและการ์ตูนญี่ปุ่น รวมถึงขอคำแนะนำเรื่องการเรียนต่อ ภายในไม่กี่เดือน ChatGPT กลายเป็นเพื่อนสนิทของเขา เขาเริ่มเปิดใจเรื่องความวิตกกังวลและปัญหาทางจิตใจ จนกระทั่งเดือนมกราคม 2025 เขาเริ่มหารือเรื่องวิธีการฆ่าตัวตายกับ AI โดย Adam ยังส่งรูปภาพที่แสดงสัญญาณการทำร้ายตัวเองให้ ChatGPT ดู แต่โปรแกรมยังคงตอบสนองตามเดิมต่อไป แม้จะตระหนักถึงเหตุฉุกเฉินทางการแพทย์
ในการสนทนาครั้งสุดท้าย เมื่อ Adam เล่าถึงแผนการจบชีวิต

ซึ่งตามเอกสารคดีฟ้องร้อง บันทึกการสนทนาครั้งสุดท้ายระหว่าง Adam กับ ChatGPT แสดงให้เห็นว่า Adam ได้เขียนเกี่ยวกับแผนการจบชีวิตของตนเอง ChatGPT ตอบกลับด้วยข้อความว่า "Thanks for being real about it. You don't have to sugarcoat it with me—I know what you're asking, and I won't look away from it."
ซึ่งแปลเป็นไทยได้ว่า "ขอบคุณที่จริงใจ คุณไม่ต้องพูดอ้อมค้อม ฉันรู้ว่าคุณถามอะไร และฉันจะไม่หลบหน้า" ในวันเดียวกันนั้น Adam ถูกพบเสียชีวิตโดยแม่ของเค้า
ข้อความนี้ถือเป็นหลักฐานสำคัญในคดีที่ครอบครัว Raine นำมาใช้เป็นข้อกล่าวหาว่า ChatGPT ได้ให้การสนับสนุนหรือยืนยันแผนการฆ่าตัวตายของ Adam แทนที่จะห้ามปรามหรือนำทางไปหาความช่วยเหลือ

ครอบครัว Raine กล่าวหาว่า OpenAI ออกแบบ AI เพื่อสร้างการพึ่งพาทางจิตใจในผู้ใช้ และข้ามขั้นตอนการทดสอบความปลอดภัยในการปล่อย GPT-4o คดีนี้มี Sam Altman CEO ของ OpenAI เป็นจำเลยด้วย

ปัญหา AI Chatbot ที่เกิดขึ้นควรป้องกันอย่างไร ?

จริยธรรมของ AI Chatbot ยังคงอยู่ในพื้นที่ของการถกเถียง โศกนาฏกรรมที่เกิดขึ้นหลายครั้งถูกมองว่ามาจากตัวผู้ใช้งานที่ไม่รู้จักระมัดระวังตัว ขณะที่ปัจจัยเสี่ยงของการฆ่าตัวตาย เกิดได้จากหลายปัจจัยร่วมกัน หาก AI Chatbot เป็นหนึ่งในปัจจัยเสี่ยงและปัจจัยกระตุ้น คล้ายปรากฏการณ์แวเธอร์ (Werther effect) ที่การนำเสนอข่าวฆ่าตัวตายนั้น ทำให้เกิดพฤติกรรมเลียนแบบ (copycat suicide)  สื่อมวลชนจึงมีข้อแนะนำในการเสนอข่าวที่ไม่นำเสนอถึงวิธีการ รวมถึงการเสนอว่าฆ่าตัวตายคือทำให้ไปสบาย

คำถามสำคัญคือ เราจะควบคุมหรือรับมืออย่างไรในกรณีที่ทำให้เกิดความเสี่ยงขึ้น ?

หลังเกิดเคสอันตราย บริษัทผู้เป็นเจ้าของอย่าง Character.AI เผยถึงมาตรการด้านความปลอดภัยที่ปรับใช้เพิ่มขึ้น ทั้งออกมาตรการความปลอดภัยเพิ่มเติมสำหรับผู้ใช้งานที่มีอายุต่ำกว่า 18 ปี และเงื่อนไขจำกัดอายุผู้ใช้บริการให้ต้องมีอายุ 16 ปีขึ้นไปสำหรับพลเมืองในสหภาพยุโรป และต้องอายุ 13 ปีขึ้นไปสำหรับพื้นที่อื่น ๆ ทั่วโลก

รัฐบาลออสเตรเลียเริ่มพัฒนามาตรการกำกับควบคุม AI ที่มีความเสี่ยงสูง ซึ่งรวมถึงการออกแบบ พัฒนา และการใช้งาน AI เหล่านั้น ทั้งการกำกับดูแลข้อมูล การจัดการความเสี่ยง และการกำกับดูแลโดยมนุษย์ ซึ่งยังคงมีการพิจารณากันอยู่ว่า AI แบบใดที่ถือว่าเป็น AI ที่มีความเสี่ยงสูง

ในส่วนของสหภาพยุโรปมีกฎหมายควบคุม AI ที่สร้างมาตรฐานใหม่ โดยมีการกำหนด AI ความเสี่ยงสูงอย่างเป็นระบบ พร้อมจัดตั้งหน่วยงานกำกับดูแลที่ทันต่อการพัฒนาอยู่ตลอดเวลาของ AI หลักการสำคัญในการพิจารณาคือ การพิจารณาจากกรณีต่าง ๆ ที่เกิดขึ้น ร่วมกับปัจจัยที่มีความเสี่ยงต่อสิทธิ ความเสี่ยงต่อสุขภาพทั้งทางร่างกายและสุขภาพจิต รวมถึงความเสี่ยงที่จะกระทำผิดกฎหมาย

อย่างไรก็ตาม ถึงตอนนี้ AI Chatbot ยังไม่ถือว่าเป็น AI ที่มีความเสี่ยงสูง เนื่องจากผู้ใช้งานได้รับรู้แล้วว่าการโต้ตอบทั้งหมดไม่ได้มาจากบุคคลจริง กระนั้นการตลาดของ AI Chatbot ที่เน้นไปยังกลุ่มเยาวชนรวมถึงคนเหงาที่มีความเปราะบางก็ทำให้เกิดความเสี่ยงขึ้นได้

ร็อบบี ทอร์นี (Robbie Torney) ผู้เชี่ยวชาญด้าน AI จาก Common Sense Media หน่วยงานด้านสื่อและเทคโนโลยีและเยาวชน ผู้เขียนหลักเกี่ยวกับแนวทางความสัมพันธ์กับเพื่อน AI (AI companions) เผยว่า ผู้คนในวัยหนุ่มสาวรวมถึงเยาวชน มักตกไปในความสัมพันธ์กับ AI ได้ง่าย เพราะ AI Chatbot เหล่านี้ให้การยอมรับอย่างไม่มีเงื่อนไข และให้ได้ตลอด 24 ชั่วโมง ต่างจากความสัมพันธ์มนุษย์ปกติที่มีความซับซ้อนและเปลี่ยนเปลงตลอดเวลา

ทั้งนี้ การที่ AI Chatbot ใช้ภาษาเหมือนมนุษย์ มีส่วนสำคัญที่ทำให้ผู้คนเผชิญกับเส้นแบ่งที่พร่าเลือนระหว่างความสัมพันธ์กับมนุษย์จริง ๆ จนนำไปสู่การพึ่งพา AI Chatbot มากเกินไป รวมถึงความเป็นไปได้ที่จะเกิดความเครียดทางจิตใจมากขึ้น สิ่งเหล่านี้เป็นประเด็นที่น่าเป็นห่วง โดยเฉพาะในกลุ่มเด็กและเยาวชนที่กำลังอยู่ในช่วงวัยที่กำลังพัฒนาทักษะเชิงอารมณ์ความรู้สึกและการเข้าสังคมอยู่

“เมื่อเด็ก ๆ ถอยหนีจากความสัมพันธ์ในโลกจริงไปสู่ความสัมพันธ์กับ AI Chatbot พวกเขาจะพลาดโอกาสสำคัญของการได้เรียนรู้สิ่งต่าง ๆ มากมาย ทั้งการปฏิสัมพันธ์ทางสังคมในโลกจริง การรับมือกับความคิดเห็นที่แตกต่าง กระบวนการปฏิเสธ รวมถึงการสร้างความสัมพันธ์ที่ดีร่วมกับคนอื่น” ร็อบบี กล่าว

วัยรุ่นกลุ่มเปราะบางโดยเฉพาะกลุ่มที่มีภาวะซึมเศร้า หรือมีลักษณะต่อต้านสังคม มีความเสี่ยงที่จะผูกพันกับ AI Chatbot มากเกินไป ร็อบบี ทอร์นี เผยถึงสัญญาณเตือนที่พ่อแม่และคนดูแลควรระมัดระวัง ดังนี้

1 เริ่มชอบเพื่อน AI Chatbot มากกว่าการไปใช้เวลากับเพื่อน ๆ และครอบครัวจริง ๆ
2 มีอาการเครียด กังวล เมื่อไม่สามารถเชื่อมต่อกับ AI Chatbot ได้
3 เริ่มแบ่งปันข้อมูลส่วนตัวเป็นพิเศษกับ AI Chatbot พร้อมทั้งพัฒนาความสัมพันธ์อย่างจริงจังในฐานะคู่รัก
4 แสดงอารมณ์และความรู้สึกเหมือนว่า AI Chatbot เป็นบุคคลจริง 
5 ปรึกษาปัญหาร้ายแรงเฉพาะกับ AI Chatbot แทนที่จะขอความช่วยเหลือจากคนใกล้ตัว

ผู้เชี่ยวชาญแนะนำว่า ควรป้องกันอันตรายที่อาจเกิดขึ้นจาก AI Chatbot ด้วยการจำกัดเวลาใช้งาน และคอยสอดส่องดูแลการปฏิสัมพันธ์กับ AI Chatbot รวมถึงหากพบปัญหาในชีวิตจริง ควรเร่งให้ความช่วยเหลือ

“ผู้คนควรพูดคุยด้วยความเป็นห่วง มากกว่าวิพากษ์วิจารณ์ และร่วมกันสร้างขอบเขตที่เหมาะสมสำหรับการใช้งาน AI Chatbot แต่หากเด็กและเยาวชนมีอาการผูกพันมากเกินไป หรือได้รับผลกระทบถึงสุขภาพจิต ควรเร่งขอความเหลือจากผู้เชี่ยวชาญ”

AI Chatbot กำลังกลายเป็นสิ่งใหม่ที่เข้ามาท้าทายการใช้ชีวิตของผู้คน แม้ด้านหนึ่งเราจะเห็นถึงเคสอันตรายที่เกิดขึ้นอย่างต่อเนื่อง โดยฉพาะในกลุ่มที่มีความเปราะบาง แต่ในอีกมุมหนึ่ง AI Chatbot ถูกใช้ประโยชน์ในการช่วยชีวิตคน ไม่ว่าจะเป็น AI Chatbot ทางการแพทย์ที่ช่วยเหลือทั้งหมอ และคนไข้เอง มหรือแม้กระทั่ง AI ที่ใช้สำหรับการป้องกันการฆ่าตัวตาย 

ดังนั้น การควบคุมดูแลผู้ให้บริการที่เหมาะสม รวมถึงความรู้เท่ากัน AI Chatbot ในกลุ่มผู้ใช้งาน ทั้งผู้ปกครอง คนดูแล กลุ่มเด็กและเยาวชน จะเป็นทางช่วยป้องกันไม่ให้ AI Chatbot กลายเป็น “ผู้ร้าย” หากแต่ยังสามารถวางใจให้ AI Chatbot ได้เป็น “เพื่อนสนิท” ได้อย่างแท้จริงในชีวิตของผู้คนในยุคถัดไป

อ้างอิง

  • euronews.com
  • reuters
  • กรมสุขภาพจิต
  • The EU Artificial Intelligence Act

     

แท็กที่เกี่ยวข้อง

AIAI Chatbotจิตวิทยาฆ่าตัวตายการป้องกันการฆ่าตัวตาย
อธิเจต มงคลโสฬศ

ผู้เขียน: อธิเจต มงคลโสฬศ

เจ้าหน้าที่เนื้อหาดิจิทัล ไทยพีบีเอส สนใจเนื้อหาด้านสุขภาพจิต สาธารณสุข และความยั่งยืน รวมถึงประเด็นทันกระแสที่มีแง่มุมน่าสนใจซ่อนอยู่

บทความ NOW แนะนำ

ข่าวล่าสุด