ต่อมาในปี 2020 สังคมต้องเผชิญกับคดี “Nth Room” ที่มีการแชร์คลิปแอบถ่ายและภาพอนาจารของผู้หญิง ในห้องแชตที่มีสมาชิกราวแสนคน รวมถึงการใช้ Deepfake สร้างภาพลามกโดยนำใบหน้าของเหยื่อมาประกอบกับร่างกายโป๊เปลือยโดยไม่ได้รับการยินยอม
จนถึงปี 2025 ปรากฏการณ์นี้ยังไม่หายไปไหน แต่กลับขยายตัวมากขึ้นตามการเติบโตของเทคโนโลยี AI เราไม่ได้เห็นเพียงการใช้ Deepfake เพื่อสร้างข่าวปลอม เช่น การปลอมผู้ประกาศข่าวขายยาลดน้ำหนัก ชักชวนลงทุนเข้าเว็บไซต์พนันออนไลน์ หรือสร้างมีมล้อเลียนบุคคลสาธารณะเท่านั้น แต่ยังเห็นการนำใบหน้าของไอดอล ศิลปิน และคนดังมาสร้างสื่อในเชิงอนาจารอย่างโจ่งแจ้ง
[แฟ้มภาพ] วันที่ 9 มิ.ย. 2018 – กรุงโซล กลุ่มผู้หญิงเกาหลีใต้ออกมาชุมนุมประท้วงต่อต้านการถ่ายแอบถ่ายวิดีโอเชิงอนาจารตามที่สาธารณะ การชุมนุมดังกล่าวได้สร้างสถิติใหม่ กลายเป็นการประท้วงของผู้หญิงครั้งใหญ่ที่สุดในประวัติศาสตร์เกาหลีใต้ ซึ่งได้รับแรงกระเพื่อมจากกระแส #MeToo ทั่วโลก (ภาพโดย Jung Hawon / AFP)
ไอดอลหญิง = วัตถุทางเพศ?
“ชุดนอนผ้าลูกไม้ลายดอก โปร่งบาง เรือนร่างโป๊เปลือย ที่เคลื่อนไหวอยู่บนเตียง”
ใบหน้าของไอดอลหญิงชื่อดังหลายคน ถูกมัดรวมเป็นคลิปวิดีโอ 5 วินาที 10 วินาที บนแพลตฟอร์ม Instagram หลายบัญชีด้วยกัน
บางบัญชีสร้างคลิปโดยใช้ใบหน้าของไอดอลหญิงมาตัดต่อเข้ากับท่าทางยั่วยุ เช่น การแลบลิ้นในลักษณะที่สื่อไปถึงการกระทำทางเพศ (For Oral Sex) ซึ่งสะท้อนการใช้เทคโนโลยีในเชิงล่วงละเมิดอย่างชัดเจน ที่น่ากังวลยิ่งกว่านั้นคือ ในบางกรณี ใบหน้าที่ถูกนำมาใช้กลับเป็นของไอดอลที่เพิ่งผ่านพ้นช่วงบรรลุนิติภาวะไม่นาน แต่กลับถูกทำให้กลายเป็นวัตถุทางเพศบนแพลตฟอร์มเหล่านี้
ตัวอย่างเนื้อหาที่ใช้เทคโนโลยี AI-Deepfake โดยนำหน้าของไอดอลหญิงมาสร้างในเชิงอนาจารในแพลตฟอร์ม Instagram
ตัวอย่างเนื้อหาที่ใช้เทคโนโลยี AI-Deepfake โดยนำหน้าของไอดอลหญิงมาสร้างในเชิงอนาจารในแพลตฟอร์ม Instagram
ผู้กระทำผิดอายุน้อยสุด 10 ปี และเหยื่อกว่า 90% เป็น “ผู้หญิง”
ตามรายงานของสื่อเกาหลีใต้ เมื่อวันที่ 17 เม.ย. 68 ระบุว่า ตำรวจดำเนินการปราบปรามอาชญากรรมทางเพศ (Deepfake) ใน 7 เดือน จับกุมผู้ต้องหาได้ 963 คน ในจำนวนนี้เป็นเยาวชน (อายุ 10-14 ปี) จำนวน 72 คน แบ่งตามอายุ ดังนี้
- วัยรุ่น 669 คน รวมเยาวชน 72 คน
- อายุ 20 ปี 228 คน
- อายุ 30 ปี 51 คน
- อายุ 40 ปี 11 คน
- อายุ 50 ปีขึ้นไป 4 คน
และหนึ่งในจำนวนผู้ที่ถูกจับกุม มีส่วนเกี่ยวข้องในการเปิดห้องแชต Telegram เผยแพร่สื่ออนาจารโดยไม่ได้รับความยินยอมตั้งแต่ ส.ค. 66 – มี.ค. 67 โดยผลิตและเผยแพร่คลิปวิดีโอปลอมเกี่ยวกับคนดังประมาณ 1,100 คลิป
และจากรายงาน 2024 Digital Sex Crime Victim Support Report โดยศูนย์สนับสนุนเหยื่ออาชญากรรมทางเพศดิจิทัลกลาง (DSC) กระทรวงความเท่าเทียมทางเพศและครอบครัว ระบุว่า เหยื่ออาชญากรรมทางเพศดิจิทัลส่วนใหญ่เป็นผู้หญิง และอยู่ในช่วงวัยรุ่นถึงวัย 20 ปี โดยผู้หญิงมีแนวโน้มรายงานเหตุละเมิดมากที่สุด และเหยื่อผู้หญิงได้รับอันตรายจากการเผยแพร่สื่อผิดกฎหมายมากกว่าผู้ชาย ประมาณ 5 เท่า (มี 2,414 คดี หรือ 83.5% เทียบกับผู้ชาย 476 คดี หรือ 16.5%) ส่วนเหยื่อ Deepfake กว่า 96.6% เป็นผู้หญิง
กฎหมายเกาหลี แค่ดู Deepfake อาชญกรรมทางเพศ ก็ถือว่ามีความผิด
เกาหลีใต้มีกฎหมายปกป้องเหยื่ออาชญากรรมทางเพศโดยใช้ Deepfake โดยผ่านร่างแก้ไขเพิ่มเติม 3 ฉบับเมื่อปีที่แล้ว ใน 1. พระราชบัญญัติคดีพิเศษเกี่ยวกับการลงโทษอาชญากรรมทางเพศ (พระราชบัญญัติการลงโทษความรุนแรงทางเพศ) 2. พระราชบัญญัติคุ้มครองเด็กและเยาวชนจากการล่วงละเมิดทางเพศ (พระราชบัญญัติคุ้มครองเยาวชน) และ 3. พระราชบัญญัติป้องกันความรุนแรงทางเพศและคุ้มครองเหยื่อ (พระราชบัญญัติป้องกันความรุนแรงทางเพศ)
แม้แต่การดูวิดีโออาชญากรรมทางเพศแบบ Deepfake ก็ยังมีโทษได้ ตามรายงานของ BBC Korea ระบุว่า “การครอบครอง ซื้อ เก็บ หรือชมสื่อทางเพศแบบ Deepfake มีโทษจำคุกสูงสุด 3 ปี หรือปรับสูงสุด 30 ล้านวอน” (คิดเป็นราว ๆ 677,000 บาท)
ซึ่งก่อนหน้านี้ กฎหมายกำหนดให้ต้องพิสูจน์ “เจตนาของผู้เผยแพร่” เพื่อเอาผิดผู้สร้างวิดีโอ Deepfake แต่ในการแก้ไข พ.ร.บ. ครั้งล่าสุด ได้มีการตัดถ้อยคำส่วนนี้ออก ทำให้สามารถดำเนินคดีและลงโทษได้ โดยไม่ต้องพิจารณาว่าผู้กระทำมีเจตนาเผยแพร่หรือไม่ และกรณี การครอบครอง ซื้อ เก็บ หรือชมสื่อ Deepfake ที่ผิดกฎหมาย ต้องมีเจตนารู้ว่ามีเนื้อหาที่ชมนั้นผิดกฎหมายจึงจะมีความผิด อย่างไรก็ตาม มีเสียงคัดค้านว่าข้อกำหนดนี้อาจเปิดช่องให้ผู้กระทำอ้างว่า “ไม่รู้” เพื่อหลีกเลี่ยงโทษได้ ทำให้ในที่สุดที่ประชุมสภาได้ตัดถ้อยคำดังกล่าวออกจากร่าง ทำให้เป็นที่มาของการเพียงแค่ดูอาชญากรรมทางเพศ Deepfake ก็สามารถรับโทษได้เช่นกัน
ในส่วนพระราชบัญญัติคุ้มครองเด็กและเยาวชนเพิ่มโทษสำหรับการข่มขู่และบังคับขู่เข็ญโดยใช้สื่อลามกอนาจารเด็กและวัยรุ่น ก่อนหน้านี้ การข่มขู่คุกคามมีโทษจำคุกไม่เกิน 1 ปี และการบังคับขู่เข็ญไม่เกิน 3 ปี ปัจจุบันโทษจำคุกเพิ่มขึ้นเป็นสูงสุด 3 ปี สำหรับการข่มขู่คุกคาม และสูงสุด 5 ปี สำหรับการบังคับขู่เข็ญ
พระราชบัญญัติป้องกันความรุนแรงทางเพศ มาตรา 3 ได้เพิ่มเติมบทบัญญัติใหม่เรื่อง “การสนับสนุนการลบภาพหรือวิดีโอที่ผิดกฎหมาย และการฟื้นฟูเหยื่อ” โดยกำหนดให้เป็นความรับผิดชอบของรัฐโดยตรง พร้อมขยายอำนาจจากเดิมที่อยู่ในความดูแลของรัฐขยายไปให้รวมถึงรัฐบาลท้องถิ่น
ข้อกังวลหลักคือ “ช่องว่างทางกฎหมาย” ที่ทำให้ตำรวจยังไม่มีอำนาจสั่งลบหรือบล็อกสื่อละเมิด เช่น ภาพหรือวิดีโอ Deepfake และสื่อล่วงละเมิดทางเพศเด็ก ได้โดยตรง แม้พบเนื้อหาที่ผิดกฎหมาย ตำรวจยังต้องยื่นเรื่องผ่านคณะกรรมการพิจารณาและกำกับการสื่อสาร (Broadcasting and Communications Commission) ก่อนจึงจะดำเนินการลบได้ ส่งผลให้การตอบสนองล่าช้าและไม่ทันต่อการแพร่กระจาย รวมถึงร่างกฎหมาย “มาตรการฉุกเฉิน” ที่เสนอให้ตำรวจมีอำนาจลบและบล็อกเนื้อหาโดยตรงเพื่อช่วยเหลือเหยื่ออย่างเร่งด่วน ยังไม่ผ่านการพิจารณาในชั้นกรรมาธิการเช่นกัน
[แฟ้มภาพ] วันที่ 30 ส.ค. 2024 ภาพการประท้วงต่อต้านสื่ออนาจารแบบ Deepfake ในกรุงโซล หลังจากมีรายงานข่าวว่ามีการแชร์ภาพลามกของเยาวชนในห้องแชต Telegram (ภาพโดย Anthony WALLACE / AFP)
ซึ่งก่อนหน้านี้ เคยมีกรณีลักษณะดังกล่าวเกิดขึ้นกับไอดอลหลายคน ทำให้ค่าย HYBE ได้ร่วมมือกับ สำนักงานตำรวจภูมิภาค ดำเนินการจับกุมผู้ต้องสงสัย 8 ราย ฐานผลิตและเผยแพร่คลิป Deepfake ที่นำใบหน้าไอดอลในสังกัดไปใช้โดยไม่ได้รับอนุญาต เมื่อวันที่ 11 เม.ย 2025
กฎหมายไทยควบคุมการใช้ AI Deepfake ได้แค่ไหน ?
หากกลับมาดูบริบทกฎหมายของประเทศไทยจะพบว่า ณ ปัจจุบันกฎหมายที่ครอบคลุมเอาผิดการใช้ AI ในทางที่ผิด ได้แก่ พ.ร.บ.คุ้มครองข้อมูลส่วนบุคคล (PDPA), กฎหมายอาญา (หมิ่นประมาท), พ.ร.บ.คอมพิวเตอร์ และกฎหมายแพ่งและพาณิชย์
ทัศไนย ไชยแขวง อดีตอุปนายกฝ่ายต่างประเทศ สภาทนายความ กล่าวว่า ตามกฎหมายการใช้เทคโนโลยีเหล่านี้ อาจเข้าข่ายความผิดตามกฎหมาย หากกรณี ใช้ “หน้าตัวเอง” ดัดแปลงด้วยเทคโนโลยี AI เช่น ถ่ายเล่น ทำคลิปตลก หรือใช้ในการทดลอง ไม่ถือว่าผิดกฎหมาย เพราะเป็นสิทธิในภาพของตนเอง แต่อาจจะเป็นความผิดได้ถ้าหาก
- เผยแพร่ในลักษณะลามกอนาจาร ก็อาจจะผิดตามประมวลกฎหมายอาญา มาตรา 287 ผู้ใดผลิตหรือเผยแพร่สื่อลามกอนาจาร ต้องระวางโทษจำคุกไม่เกิน 3 ปี หรือปรับไม่เกิน 60,000 บาท หรือทั้งจำทั้งปรับ
- ใช้ในทางหลอกลวงหรือโฆษณาเท็จ ตาม พ.ร.บ.คอมพิวเตอร์ มาตรา 14 (1) ห้ามนำข้อมูลอันเป็นเท็จเข้าสู่ระบบคอมพิวเตอร์จนผู้อื่นเสียหาย
- เก็บภาพใบหน้าไปใช้ในทางการค้า หรือโดยไม่ได้รับอนุญาต ซึ่งอาจละเมิด พ.ร.บ.คุ้มครองข้อมูลส่วนบุคคล (PDPA)
สรุปใช้หน้าตัวเอง ไม่ผิดกฎหมาย หากไม่ลามก ไม่หลอกลวง และไม่ละเมิดความเป็นส่วนตัวของผู้อื่น
กรณีที่ใช้ “หน้าคนอื่น” หากนำใบหน้าของบุคคลอื่นมาทำ Face off โดยไม่ได้รับอนุญาต ถือว่าผิดกฎหมายหลายฉบับ เพราะ ใบหน้าเป็นข้อมูลส่วนบุคคลโดยตรง
ตามพระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล (PDPA)
- พ.ร.บ.คุ้มครองข้อมูลส่วนบุคคล (PDPA) มาตรา 4 กำหนดว่า “ข้อมูลส่วนบุคคล” คือข้อมูลที่สามารถระบุตัวบุคคลได้ เช่น ภาพใบหน้า
- มาตรา 19 ห้ามเก็บรวบรวม ใช้ หรือเปิดเผยข้อมูลส่วนบุคคลโดยไม่ได้รับความยินยอม
- มาตรา 72 หากเปิดเผยข้อมูลให้ผู้อื่นเสียหาย เสื่อมเสียชื่อเสียง หรือได้รับความอับอาย มีโทษจำคุกไม่เกิน 6 เดือน หรือปรับไม่เกิน 500,000 บาท หรือทั้งจำทั้งปรับ
- มาตรา 83 หากเป็นการใช้ข้อมูลโดยมิชอบ ปรับทางปกครองสูงสุด 5,000,000 บาท
นอกจากนี้รวมไปถึง ประมวลกฎหมายอาญา มาตรา 326–328 (หมิ่นประมาท) ถ้าตัดต่อภาพให้ผู้อื่นดูเสื่อมเสีย ถูกดูหมิ่น หรือเป็นที่เกลียดชังในสังคม โทษจำคุกไม่เกิน 2 ปี หรือปรับไม่เกิน 200,000 บาท
ประมวลกฎหมายอาญา มาตรา 287 (สื่อลามกอนาจาร) ผลิตหรือเผยแพร่ภาพ วิดีโอ หรือสื่ออนาจาร จำคุกไม่เกิน 3 ปี หรือปรับไม่เกิน 60,000 บาท
ประมวลกฎหมายอาญา มาตรา 287/1 (สื่อลามกเด็ก) หากภาพที่สร้างเป็นของเด็ก จำคุก 1–10 ปี หรือปรับ 20,000–200,000 บาท หรือทั้งจำทั้งปรับ
พ.ร.บ.คอมพิวเตอร์ พ.ศ. 2550 มาตรา 16 ผู้ใดนำเข้าภาพของผู้อื่นที่ถูกตัดต่อ ดัดแปลง หรือสร้างขึ้น โดยทำให้เข้าใจว่าเป็นภาพลามกของบุคคลนั้น จำคุกไม่เกิน 3 ปี หรือปรับไม่เกิน 200,000 บาท หรือทั้งจำทั้งปรับ
ประมวลกฎหมายแพ่งและพาณิชย์ มาตรา 420 ความรับผิดทางละเมิด แต่ถูกฟ้องร้องเรียกค่าเสียหาย จากการกระทำนั้นได้
“เทคโนโลยี Face off ไม่ใช่เรื่องผิด หากใช้เพื่อความบันเทิงหรือสร้างสรรค์ แต่เมื่อใดที่นำไปใช้แล้วก่อให้เกิดการละเมิดสิทธิ์ของผู้อื่น ไม่ว่าจะในเชิงลามก หลอกลวง หรือดูหมิ่น ถือว่าผิดกฎหมาย ดังนั้นการใช้เทคโนโลยีต้องมาพร้อม ความรับผิดชอบ และการเคารพสิทธิส่วนบุคคล” ทัศไนย ไชยแขวง อดีตอุปนายกฝ่ายต่างประเทศ สภาทนายความ
[แฟ้มภาพ] วันที่ 30 ส.ค. 2024 ภาพการประท้วงต่อต้านสื่ออนาจารแบบ Deepfake ในกรุงโซล หลังจากมีรายงานข่าวว่ามีการแชร์ภาพลามกของเยาวชนในห้องแชต Telegram (ภาพโดย Anthony WALLACE / AFP)
นโยบายของ Meta ในการจัดการเรื่อง Deepfake ในทางอนาจารเป็นอย่างไร?
เราพบเนื้อหาที่นำ Deepfake มาดัดแปลงใบหน้าผู้อื่นในทางเสียหายไม่ใช่ในที่ลับอย่างที่เคย แต่เกิดในที่แจ้งอย่างแพลตฟอร์ม Instagram
หากเราย้อนกลับไปดูนโยบายที่เป็นนโยบายคุ้มครองความปลอดภัยของผู้ใช้งาน จะว่า มีข้อกำหนด Enforcing Against Manipulated Media ที่ว่าด้วยการนำภาพบุคคลไปสร้างเนื้อหาโป๊เปลือยโดยไม่ได้รับความยินยอม โดยเฉพาะการใช้แอปฯ “nudify” ซึ่งใช้ปัญญาประดิษฐ์ (AI) สร้างภาพโป๊ปลอมของบุคคลอื่น ซึ่ง Meta มีกฎห้ามเผยแพร่หรือโปรโมตภาพและบริการลักษณะนี้ ปัจจุบัน Meta จะลบโฆษณา เพจ Facebook และบัญชี Instagram ที่เกี่ยวข้อง รวมถึงบล็อกลิงก์เว็บไซต์ และจำกัดคำค้นอย่าง “nudify”, “undress” และ “delete clothing” เพื่อป้องกันการเข้าถึงเนื้อหาดังกล่าว
อย่างไรก็ตาม ยังไม่พบข้อมูลยืนยันอย่างเป็นทางการว่าการจำกัดคำเหล่านี้ครอบคลุมทุกภาษา เช่น ภาษาไทยหรือภาษาเกาหลีด้วยหรือไม่ แต่ในรายงานระบุเพียงว่า แม้ไม่มีเนื้อหาภาพโป๊แบบตรง ๆ แต่ระบบตรวจจับคำ วลี และอีโมจิที่เกี่ยวข้องกับเนื้อหาทางเพศได้
นอกจากนี้ ในข้อกำหนดระบุว่า บริษัทสนับสนุนเครื่องมือและกฎหมายที่ช่วยป้องกันการละเมิดภาพลักษณะลามกโดยไม่ยินยอม (intimate image abuse) เช่น StopNCII.org, NCMEC’s Take It Down และผลักดันกฎหมายสหรัฐฯ “TAKE IT DOWN Act” เพื่อให้เหยื่อสามารถแจ้งลบภาพปลอมได้ทั่วอินเทอร์เน็ต พร้อมทั้งส่งเสริมให้ผู้ปกครองควบคุมการดาวน์โหลดแอปฯ ของเยาวชน เพื่อป้องกันการเข้าถึงแอปฯ nudify หรือเนื้อหาละเมิดสิทธิในลักษณะนี้
สำหรับเนื้อหาที่สร้างด้วย AI Meta : จะติดป้ายกำกับ “Made with AI” ให้กับภาพ เสียง หรือวิดีโอที่ใช้เทคโนโลยีดังกล่าว หรือแสดงให้เห็นว่าบุคคลพูดหรือทำสิ่งที่ไม่ได้เกิดขึ้นจริง โดย Meta จะไม่ลบเนื้อหาเหล่านี้ เว้นแต่ละเมิดมาตรฐานชุมชนอื่น เช่น การยุยงความรุนแรงหรือเผยแพร่ข้อมูลเท็จ
เนื้อหาที่ดี ต้องไม่ละเมิดสิทธิฯ ผู้อื่น
แม้ปัจจุบันเราจะเห็นความคืบหน้าทั้งในด้านร่างกฎหมายและนโยบายของแพลตฟอร์มที่เริ่มให้ความสำคัญกับการป้องกันเนื้อหาละเมิดสิทธิ เช่น ภาพหรือวิดีโอที่สร้างขึ้นด้วยเทคโนโลยี AI โดยไม่ได้รับความยินยอม แต่สิ่งสำคัญคือการมีส่วนร่วมของผู้ใช้งานทุกคนในการกดรายงานและไม่ส่งต่อเนื้อหาลักษณะนี้ เพราะวันหนึ่งผู้ตกเป็นเหยื่ออาจเป็นเรา หรือคนใกล้ตัว พี่สาว หรือน้องสาวของใครหลาย ๆ คน และแม้ตามสถิติผู้ที่ตกเป็นเหยื่อส่วนใหญ่จะเป็นผู้หญิง แต่อาชญากรรมทางเพศออนไลน์เช่นนี้อาจเกิดขึ้นกับคนทุกเพศในอนาคต
เราจึงควรเฝ้าติดตามและผลักดันให้เกิดการบังคับใช้กฎหมายและนโยบายที่มีประสิทธิภาพมากขึ้น พร้อมร่วมกันสร้างสภาพแวดล้อมดิจิทัลที่ปลอดภัย และใช้เทคโนโลยี AI ในทางสร้างสรรค์ เพื่อให้โลกออนไลน์เป็นพื้นที่ที่เคารพศักดิ์ศรีและสิทธิของทุกคนอย่างแท้จริง
ที่มา :










