EN

แชร์

Copied!

“มาลี โสเจียตา” โฆษกกลาโหมกัมพูชา พูดภาษาไทย ตัดพ้อ รพ.ชายแดนไม่รักษาทหารกัมพูชา แท้จริงสร้างจาก AI

2 ส.ค. 6814:12 น.
หมวดหมู่#ข่าวปลอม
“มาลี โสเจียตา” โฆษกกลาโหมกัมพูชา พูดภาษาไทย ตัดพ้อ รพ.ชายแดนไม่รักษาทหารกัมพูชา แท้จริงสร้างจาก AI

คลิปโฆษกกลาโหมกัมพูชาพูดภาษาไทย ตัดพ้อเสียใจที่โรงพยาบาลไทยไม่รับรักษาทหารกัมพูชา ตรวจสอบแล้วพบว่าสร้างจาก AI-Deepfake

จากการตรวจสอบของ Thai PBS Verify พบว่าข่าวดังกล่าวเป็นข่าวปลอม มีลักษณะบิดเบือนข้อมูลเพื่อสร้างความเข้าใจผิด โดยมีการนำภาพและเสียงของพลโทหญิง มาลี โสเจียตา โฆษกกระทรวงกลาโหมกัมพูชา มาดัดแปลงร่วมกับข้อความ เป็นภาษาไทย เพื่อกล่าวอ้างว่าโฆษกกัมพูชา แสดงความเสียใจต่อกรณีที่ประเทศไทยปฏิเสธให้การรักษาทางการแพทย์แก่ทหารกัมพูชา

Thai PBS Verify พบแหล่งที่มาข่าวปลอมจาก: Facebok

Thai PBS Verify ตรวจสอบพบการนำเทคโนโลยี AI Deepfake และเลียนเสียงมาสร้างคอนเทนต์บิดเบือนอ้าง พลโทหญิง มาลี โสเจียตา โฆษกกลาโหมกัมพูชากล่าวเป็นภาษาไทยว่า เสียใจที่ประเทศไทยไม่ให้ แสดงความเสียใจต่อกรณีที่ประเทศไทยไม่ให้ความช่วยเหลือดังกล่าว  

บัญชีผู้ใช้แอปพลิเคชัน X การโพสต์คลิปวิดีโอ พลโทหญิง มาลี โสเจียตา โฆษกกลาโหมกัมพูชา ระบุว่า 

“อิหยังวะ….สุวรรณมาลี มึงด่าไทยทุกวัน  วันนี้มีงอน เสียมไม่มีน้ำใจ ไม่รับทหารกัมพูชาบาดเจ็บมารักษาที่ไทย” 

ซึ่งมียอดผู้เช้าชม 1.5 ล้านครั้ง รีโพสต์ 1,000 ครั้ง แสดงความรู้สึก 7,500 ครั้ง  และแสดงความคิดเห็นกว่า 1,100 ข้อความ นอกจากนี้ยังมีช่องทางอื่นที่มีการโพสต์คลิปดังกล่าวเช่น ผู้ใช้บัญชี X รายหนึ่ง และช่องยูทูป 

ตรวจสอบแล้ว: บิดเบือนจาก Deepfake

เมื่อทำการตรวจสอบคลิปดังกล่าว ผ่านเครื่องมือตรวจสอบวิดีโอ deepware.ai พบว่าเสียงในคลิปใช้เทคโนโลยี AI ในการบิดเบือนข้อเท็จจริงระหว่างภาพ เสียงและเนื้อหา

ผลการตรวจสอบคลิปวิดีโอดังกล่าวพบว่า เข้าข่ายการใช้โมเดล AI-Deepfake ดังนี้

  • เข้าข่ายการใช้โมเดล Deepware ในระดับ 65%
  • เข้าข่ายการใช้โมเดล Seferbekov ในระดับ 51%
  • เข้าข่ายการใช้โมเดล Ensemble ในระดับ 58%

รมว.ยืนยันไทยให้ความช่วยเหลือด้านการแพทย์ตามหลักสิทธิมนุษยชน

ด้าน สมศักดิ์ เทพสุทิน รมว.สาธารณสุข ชี้แจงกรณีมีข่าวว่าโรงพยาบาลของไทยในพื้นที่จังหวัดชายแดนไทย-กัมพูชา ปฏิเสธการรักษาทหารกัมพูชา ว่า ไม่มีข้อเท็จจริง ยังคงมีการรักษาคนไข้ชาวกัมพูชาอยู่ ไม่มีการไล่ให้ออกจากโรงพยาบาล และดูแลตามหลักสิทธิมนุษยชน

ส่วนกรณีการให้หยุดปฏิบัติหน้าที่คือ กรณีที่ชาวกัมพูชามาทำงานในโรงพยาบาล หรือบุคคลที่ทำหน้าที่ล่ามแปลภาษาไทยกับกัมพูชา ให้หยุดปฏิบัติหน้าที่ชั่วคราว เหตุเพราะมีโดรน มาบินอยู่บริเวณโรงพยาบาล จึงต้องมีการป้องกันและระมัดระวัง และยอมรับว่า ป้องกันเรื่องการเป็นสายลับ และรอผลการเจรจาสองประเทศในวันที่ 4 ส.ค.นี้ ที่ต้องฟังกระทรวงกลาโหมเป็นหลัก

 

กระบวนการตรวจสอบ

ใช้เครื่องมือตรวจสอบวิดีโอ จากเว็บไซต์ deepware.ai : พบว่าเข้าข่ายการใช้โมเดล Deepfake แปลงภาพเสียงในคลิปบิดเบือนข้อเท็จจริง พบความผิดปกติการเคลื่อนไหวของท่าทาง รูปปากขณะกำลังพูด ที่ไม่เป็นธรรมชาติ

ผลกระทบจากการรับข้อมูลลักษณะนี้

  1. กระทบความสัมพันธ์ระหว่างประเทศและเพิ่มความรุนแรงของความขัดแย้ง
    ข่าวปลอมที่กล่าวอ้างว่าประเทศไทยไม่ช่วยเหลือด้านการแพทย์ต่อทหารกัมพูชา อาจสร้างความเข้าใจผิดในวงกว้าง และบั่นทอนความเชื่อมั่นระหว่างประชาชนสองประเทศ รวมถึงส่งผลต่อความร่วมมือระหว่างรัฐบาลในประเด็นชายแดนหรือมนุษยธรรม

  2. ปลุกปั่นความเกลียดชังและความขัดแย้ง
    คลิป Deepfake ที่ทำให้เข้าใจผิดว่าเจ้าหน้าที่ระดับสูงของประเทศเพื่อนบ้านตำหนิไทย อาจกระตุ้นให้เกิดความคิดเห็นเกลียดชัง และความเกลียดชังออนไลน์ ซึ่งนำไปสู่ความขัดแย้งในสังคมและความรุนแรงของสถานการณ์ความขัดแย้งมากขึ้น

  3. บิดเบือนข้อเท็จจริง สร้างความเข้าใจผิดในสาธารณะ
    ผู้รับข้อมูลโดยไม่ตรวจสอบอาจเข้าใจผิดในบทบาทของหน่วยงานภาครัฐของไทย รวมถึงสงสัยในจริยธรรมของบุคลากรการแพทย์โดยไม่เป็นธรรม

ข้อแนะนำเมื่อได้ข้อมูลเท็จนี้ ?

  1. อย่าด่วนแชร์ต่อ
    หากยังไม่ได้ตรวจสอบจากแหล่งข้อมูลที่เชื่อถือได้ เช่น หน่วยงานรัฐ อย่าแชร์เพื่อป้องกันการขยายข้อมูลเท็จ
  2. พิจารณาเนื้อหาที่ฟังดูผิดธรรมชาติ
    หากคลิปวิดีโอดูไม่เป็นธรรมชาติ เช่น การพูดคล้ายพากย์, ปากไม่ตรงกับเสียง, ภาษาที่ไม่สอดคล้องกับบุคลิก ลองตั้งข้อสงสัยไว้ก่อนว่าอาจเป็น Deepfake
  3. ายงานไปยังแพลตฟอร์มหรือหน่วยงานที่เกี่ยวข้อง
    กดรายงานคลิปใน X, Facebook หรือแจ้งหน่วยงานที่ทำหน้าที่ตรวจสอบข่าวปลอม เพื่อให้หยุดการแพร่กระจายข้อมูลเท็จ
  4. ส่งเสริมการรู้เท่าทันสื่อ  
  5. แบ่งปันความรู้กับคนใกล้ตัว โดยเฉพาะผู้สูงอายุ หรือผู้ที่อาจไม่คุ้นเคยกับเทคโนโลยี ว่า AI สามารถปลอมแปลงเสียงและภาพได้อย่างแนบเนียน และต้องมีการตรวจสอบเสมอ
  6. สังเกตวิดีโอที่สร้างจาก AI-Deepfake ดังนี้
  • สังเกตการขยับริมฝีปาก ไม่ sync กับคำพูด
  • สังเกตการเคลื่อนไหวจะไม่ smooth เพราะมีการตัดต่อวิดีโอ
  • สังเกตท่าทางเคลื่อนไหวจะซ้ำ ๆ เหมือนวนลูป
  • สังเกตการใช้สำเนียงของเสียงบรรยายในคลิป