แชร์

Copied!

คลิปอ้าง Thai PBS รายงานข่าว “เพชรา” ป่วย แท้จริงสร้างจาก AI

30 เม.ย. 6810:27 น.
วิทยาศาสตร์และเทคโนโลยี#ข่าวปลอม
คลิปอ้าง Thai PBS รายงานข่าว “เพชรา” ป่วย แท้จริงสร้างจาก AI

Thai PBS Verify ตรวจสอบพบคลิปปลอม ใช้โปรแกรม AI ต่อตัดโดยใช้หน้าและเสียงผู้ประกาศข่าวขณะนั่งรายงานข่าวทางช่อง Thai PBS ในคลิปอ้างถึง เพชรา เชาวราษฎร์ นักแสดงและศิลปินแห่งชาติ ว่าถูกนำตัวเข้ารักษาในโรงพยาบาลอย่างเร่งด่วน และได้รับความช่วยเหลือจาก นายแพทย์สันต์ ใจยอดศิลป์ โดยในคลิปตัดต่อได้อ้างถึง การใช้ยา แต่ไม่ได้ระบุว่าเป็นยาชนิดใด

“หากใช้ยาตัวนี้จะช่วยให้อาการเจ็บปวดข้อดีขึ้น ภายใน 1 สัปดาห์”

นี่คือคำพูดของช่วงหนึ่งในคลิปสั้นทางเฟซบุ๊ก โดยบุคคลในคลิปคือ สันต์ ใจยอดศิลป์ นายแพทย์ชื่อดัง แต่แท้จริงไม่ได้พูดโดยนายแพทย์สันต์ แม้ว่าใบหน้าและเสียงคล้ายคลึงกับนายแพทย์คนดังกล่าว 

 

คลิปวิดีโอที่เผยแพร่ผ่านทางเพจเฟซบุ๊ก ที่ถูกสร้างโดย AI มีความยาวประมาณ 3 นาที มีลักษณะเนื้อหาที่ถูกบิดเบือน ใช้โลโก้สถานีโทรทัศน์ Thai PBS และแอบอ้างบุคคลมีชื่อเสียง 3 คน โดยใช้วิดีโอและเสียงของ พิมพิมล ปัญญานะ ผู้ประกาศข่าวของสถานีโทรทัศน์ Thai PBS รายงานข่าวที่พาดพิงถึง เพชรา เชาวราษฎร์ นักแสดงและศิลปินแห่งชาติ ว่าป่วยเป็นโรคหมอนรองกระดูกทับเส้นประสาทและมีโอกาสสูญเสียขาทั้งสองข้าง จนอาจจะไม่สามารถเคลื่อนไหวได้ในอนาคต นอกจากนี้ในคลิปยังนำวิดีโอและเสียงของ นายแพทย์สันต์ ใจยอดศิลป์ อดีตแพทย์ผ่าตัดหัวใจ ที่พูดถึงการรักษาอาการของเพชรา โดยในคลิปตัดต่อได้อ้างถึง การใช้ยา แต่ไม่ได้ระบุว่าเป็นยาชนิดใด 

 

จากการตรวจสอบความโปร่งใสของเพจเฟซบุ๊กที่ทำการเผยแพร่คลิปดังกล่าว พบว่าประเทศต้นทางของผู้ดูแลเพจตั้งอยู่ ประเทศเวียดนาม

 

 

นอกจากนี้เมื่อเราใช้เครื่องมือ AI-Generated Content Detection จากเว็บไซต์ hivemoderation พบว่า ในวิดีโอใช้พื้นฐานเป็นหน้าและเสียงของบุคคลดังกล่าว ใช้ AI กำหนดให้ใบหน้าและปากขยับเป็นประโยคที่สร้างขึ้นมาใหม่ ซึ่งเป็นน้ำเสียงและภาพที่มีอยู่จริงบนโลกอินเตอร์เน็ต นำมาประกอบบิดเบือนเนื้อหาให้ปากตรงกับเสียง ซึ่งมีเนื้อหาที่เปลี่ยนไปอย่างสิ้นเชิง

ตั้งแต่วินาทีที่ 0.02 เป็นต้นไป ผลลัพธ์คือ 75.3% สร้างโดย AI หรือ deepfake

 

ตั้งแต่วินาทีที่ 0.39 เป็นต้นไป ผลลัพธ์คือ 99.6% สร้างโดย AI หรือ deepfake

 

นาทีที่ 1.45 เป็นต้นไป ผลลัพธ์ ดังนี้

  • ภาพรวมทั้งหมด 98.7%  สร้างโดย AI หรือ deepfake
  • เสียง 90% สร้างจาก AI

โดยคลิปจริงที่ถูกนำมาใช้คือ คลิปสัมภาษณ์เพชรา เชาวราษฎร์ ในรายการคุณพระช่วย (ลิงก์บันทึก)

 

ภาพเปรียบเทียบคลิปที่นำไปแอบอ้าง (ซ้าย) และคลิปจริง (ขวา)  มีจุดสังเกตคือ โคมไฟด้านหลังที่ชี้ว่าเป็นสถานที่เดียวกัน

 

นาทีที่ 2.26 เป็นต้นไป ผลลัพธ์ ดังนี้

  • ภาพรวมทั้งหมด 99.7% สร้างโดย AI หรือ deepfake
  • เสียง 53% สร้างจาก AI

โดยคลิปจริง มาจากรายการยูทูปช่อง WELLNESS WE CARE ซึ่งไม่ได้มีเนื้อหาที่เกี่ยวข้องหรืออยู่ในคลิปที่เพจข้างต้นที่ถูกนำมาตัดต่ออย่างไร (ลิงก์บันทึก)

 

 

ภาพเปรียบเทียบคลิปที่นำไปแอบอ้าง (ซ้าย) และคลิปจริง (ขวา) มีจุดสังเกตคือ เสื้อและกรอบรูปด้านหลัง ชี้ว่าเป็นคลิปเดียวกัน

Thai PBS Verify ได้สอบถามไปยัง พิมพิมล ปัญญานะ ผู้ประกาศข่าวสถานีโทรทัศน์ Thai PBS ยืนยันว่าไม่เคยรายงานข่าวในลักษณะตามคลิปดังกล่าว และทั้งหมดเป็นการตัดต่อ

“รู้สึกว่าเราคือผู้เสียหาย เพราะไม่รู้ว่าจะมีคนที่รู้จักเรา อาจจะเข้าใจผิดและมีโลโก้ช่องชัดเจนมาก คล้ายกับออกอากาศจริง อาจทำให้คนเข้าใจผิด โดนหลอกลวงได้ แม้พอจะจับผิดได้ หรือดูไม่เนียน แต่เชื่อว่าอาจจะมีที่เนียนกว่านี้ และน่ากลัวมากกว่านี้”

เบื้องต้นไม่ได้เกิดความเสียหาย จึงไม่รู้ว่าจะต้องร้องเรียนและจัดการอย่างไร แต่ถ้าเป็นเชิงพาณิชย์เพื่อการขายของหรือแนบไฟล์อันตราย หากคนกดเข้าไปดู ก็นึกไม่ออกว่าจะจัดการอย่างไร แล้วสมัยนี้โปรแกรม AI ใช้ง่ายต่อการปลอมแปลง เพราะไม่ต้องเขียนโค้ด

 

AI ถ้าเอาไปใช้ในเชิงสร้างสรรค์ ถือว่ามีประโยชน์มากมาย แต่ตอนนี้ใครก็สามารถถูกเอาไปปลอมแปลง หลอกลวงได้ จึงค่อนข้างอันตราย และเห็นด้วยว่าควรเริ่มมีการเอาผิดกับคนที่ทำเรื่องเหล่านี้ เพราะเราไม่สามารถควบคุมได้เลยว่าเนื้อหาเหล่านี้มันจะถูกเอาไปใช้ในลักษณะไหนบ้าง

ในฐานะที่เป็นผู้ประกาศข่าวต้องใช้หน้าและเสียงทำงานออกสู่สาธารณะ มีความกังวลอะไรบ้างไหมในกรณีที่ AI ถูกนำมาใช้ในทางที่ผิด

“ทุกวันนี้ยังพอสังเกต Deepfake ได้ว่าจะมีจุดที่ไม่เนียนอยู่ แต่ถ้าในอนาคตมันเนียนขึ้นมา แล้วจะมีวิธีไหนที่จะมาตรวจสอบหรือรับรองได้ว่าเป็นคลิปปลอม พอเทคโนโลยีมันพัฒนาขึ้นเรื่อย ๆ เราจะรับมือยังไง ยิ่งหากถูกนำไปใช้ทางการเมือง ปลอมเสียงนักการเมือง หรือนำมาตัดเป็นข่าวใส่หน้าเราอ่าน อาจสร้างความเข้าใจผิดและความเสียหายได้”

ข้อสังเกตว่าเป็นการใช้เทคโนโลยี Deepfake

สถาพน พัฒนะคูหา ประธานบริษัท Guardian AI ให้ข้อมูลกับ Thai PBS Verify ว่า คลิปดังกล่าวเป็นการตัดต่อโดยใช้ AI text-to-speech เพื่อแปลงตัวหนังสือเป็นเสียงพูด ให้ปากขยับตรงกับคำที่กำหนด แต่เป็นการทำที่ไม่ละเอียด จึงสามารถจับสังเกตได้ด้วยตาเปล่า 

“ในคำบรรยายคลิป จะเห็นว่านามสกุลของคุณ เพชรา เชาวราษฎร์ ถูกตัดคำเป็น เชา รา สด แล้วก็เอาเสียงรวมคลิปวิดีโอ ไปให้ AI ทำ lip sync ให้ขยับปากตามเสียง แต่รูปปากกับเสียงพูดไม่ตรงกัน และสังเกตได้ว่าผู้ประกาศข่าวจะมีท่าทางซ้ำ ๆ เหมือนเปิดคลิปวนไปเรื่อย ๆ 

“ความน่ากลัวคือ ตอนนี้โมเดล AI ที่ทำพวก text-to-speech, voice clone, lipsync นี้ เวอร์ชันภาษาอังกฤษทำได้ดีมากแล้ว แต่ยังใช้กับภาษาไทยไม่ได้มากนัก พอเวลาถูกนำมาทำเป็นภาษาไทย เลยมีข้อผิดพลาดเยอะทำให้ดูออกได้ง่าย

 

ตัวอย่างคำบรรยายภาพที่เขียนผิด

 

"แต่ในอนาคต ถ้าโมเดลพวกนี้เก่งภาษาไทยมากขึ้น ก็จะแนบเนียนมากกว่านี้ จะจับผิดได้ยากกว่านี้ และขั้นตอนการใช้เครื่องมือ AI เหล่านี้ ทำได้ง่ายมาก ผ่านหน้าเว็บไซต์ต่าง ๆ”

 

กระบวนการตรวจสอบ

  • ใช้เครื่องมือ AI-Generated Content Detection จากเว็บไซต์ hivemoderation

เพื่อตรวจหาทางเทคนิคว่าภาพและเสียงสร้างจากโปรแกรมประเภทไหน หรือสร้างจาก AI หรือไม่

  • ตรวจสอบความโปร่งใสของเพจเฟซบุ๊ก วันที่สร้างเพจ ที่ตั้งผู้จัดการเพจ ประเทศผู้จัดการเพจ ว่าพบความปกติหรือไม่
  • สอบถามข้อยืนยันจากบุคคลที่ถูกแอบอ้างนำข้อมูลส่วนตัวไปใช้ในทาง Deepfake
  • สอบถามนักวิชาการหรือผู้เชี่ยวชาญด้านภาพและวิดีโอเทคโนโลยี AI

 

แนะนำข้อสังเกต ดังนี้

  • สังเกตการขยับริมฝีปาก ไม่ sync กับคำพูด
  • สังเกตการเคลื่อนไหวจะไม่ smooth เพราะมีการตัดต่อวิดีโอ
  • สังเกตท่าทางเคลื่อนไหวจะซ้ำ ๆ เหมือนวนลูป
  • สังเกตการใช้สำเนียงของเสียงบรรยายในคลิป

ผลกระทบจากการรับข้อมูลลักษณะนี้

  1. ทำลายความน่าเชื่อถือของสื่อและผู้ประกาศหากมีกลุ่มคนหลงเชื่อหรือเข้าใจผิด อาจส่งผลให้ความน่าเชื่อถือของสถานีข่าวหรือสื่อโดยรวมลดลง

  2. ละเมิดสิทธิส่วนบุคคล

    การนำใบหน้าหรือเสียงของผู้อื่นมาใช้โดยไม่ได้รับอนุญาต ถือเป็นการละเมิดสิทธิส่วนบุคคล ซึ่งผิดกฎหมาย

  3. เปิดช่องทางให้มิจฉาชีพนำไปใช้ต่อ

    คลิปปลอมสามารถนำไปใช้สร้าง สามารถนำไปใช้ต่อในวงกว้างได้ เช่น การหลอกลวง การหลอกขายสินค้า

ข้อแนะนำเมื่อได้ข้อมูลเท็จนี้ ?

1. รวบรวมหลักฐานทันที แจ้งบุคคลที่ถูกแอบอ้างนำภาพส่วนตัวมาใช้โดยมิจฉาชีพ

  • เก็บภาพ วิดีโอที่ถูกตัดต่อ หรือข้อความที่เกี่ยวข้อง เวลาที่ถูกเผยแพร่ หากถูกเผยแพร่ในกลุ่มแชตหรือโซเชียล ให้เก็บประวัติการสนทนาและ URL ของโพสต์ไว้

2. กดรายงานในแพลตฟอร์ม (Facebook, YouTube, TikTok)

  • กดรายงานเนื้อหาต่อแพลตฟอร์มที่มีการเผยแพร่ Facebook X หรือ TikTok เพื่อให้ลบเนื้อหาออก

3. หากคุณเป็นผู้เสียหายที่ถูกนำภาพหรือเสียงไปใช้ ให้แจ้งความหรือปรึกษาหน่วยงานที่เกี่ยวข้อง

แจ้งความที่สถานีตำรวจหรือกองบังคับการปราบปรามการกระทำความผิดเกี่ยวกับอาชญากรรมทางเทคโนโลยี (ปอท.) และหน่วยงานเพิ่มเติมที่เกี่ยวข้อง

  • กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (DE) เพื่อขอให้ช่วยประสานงานลบข้อมูล
    หรือสายด่วนศูนย์รับเรื่องร้องเรียนภัยคุกคามทางไซเบอร์ 1212

 

 

อ่านข้อมูลที่เกี่ยวข้องได้ที่นี่

ป้องกันตัวอย่างไร ไม่ให้ตกเป็นเหยื่อของภัยจาก Deepfake

 

อ่านวิธีตรวจสอบภาพ AI เบื้องต้นได้ที่นี่

จับผิดภาพ AI อย่างไร ? เรียนรู้ "ประโยชน์-โทษ" เสริมทักษะใหม่ในยุคดิจิทัล