“หากใช้ยาตัวนี้จะช่วยให้อาการเจ็บปวดข้อดีขึ้น ภายใน 1 สัปดาห์”
นี่คือคำพูดของช่วงหนึ่งในคลิปสั้นทางเฟซบุ๊ก โดยบุคคลในคลิปคือ สันต์ ใจยอดศิลป์ นายแพทย์ชื่อดัง แต่แท้จริงไม่ได้พูดโดยนายแพทย์สันต์ แม้ว่าใบหน้าและเสียงคล้ายคลึงกับนายแพทย์คนดังกล่าว
คลิปวิดีโอที่เผยแพร่ผ่านทางเพจเฟซบุ๊ก ที่ถูกสร้างโดย AI มีความยาวประมาณ 3 นาที มีลักษณะเนื้อหาที่ถูกบิดเบือน ใช้โลโก้สถานีโทรทัศน์ Thai PBS และแอบอ้างบุคคลมีชื่อเสียง 3 คน โดยใช้วิดีโอและเสียงของ พิมพิมล ปัญญานะ ผู้ประกาศข่าวของสถานีโทรทัศน์ Thai PBS รายงานข่าวที่พาดพิงถึง เพชรา เชาวราษฎร์ นักแสดงและศิลปินแห่งชาติ ว่าป่วยเป็นโรคหมอนรองกระดูกทับเส้นประสาทและมีโอกาสสูญเสียขาทั้งสองข้าง จนอาจจะไม่สามารถเคลื่อนไหวได้ในอนาคต นอกจากนี้ในคลิปยังนำวิดีโอและเสียงของ นายแพทย์สันต์ ใจยอดศิลป์ อดีตแพทย์ผ่าตัดหัวใจ ที่พูดถึงการรักษาอาการของเพชรา โดยในคลิปตัดต่อได้อ้างถึง การใช้ยา แต่ไม่ได้ระบุว่าเป็นยาชนิดใด
จากการตรวจสอบความโปร่งใสของเพจเฟซบุ๊กที่ทำการเผยแพร่คลิปดังกล่าว พบว่าประเทศต้นทางของผู้ดูแลเพจตั้งอยู่ ประเทศเวียดนาม
นอกจากนี้เมื่อเราใช้เครื่องมือ AI-Generated Content Detection จากเว็บไซต์ hivemoderation พบว่า ในวิดีโอใช้พื้นฐานเป็นหน้าและเสียงของบุคคลดังกล่าว ใช้ AI กำหนดให้ใบหน้าและปากขยับเป็นประโยคที่สร้างขึ้นมาใหม่ ซึ่งเป็นน้ำเสียงและภาพที่มีอยู่จริงบนโลกอินเตอร์เน็ต นำมาประกอบบิดเบือนเนื้อหาให้ปากตรงกับเสียง ซึ่งมีเนื้อหาที่เปลี่ยนไปอย่างสิ้นเชิง
ตั้งแต่วินาทีที่ 0.02 เป็นต้นไป ผลลัพธ์คือ 75.3% สร้างโดย AI หรือ deepfake
ตั้งแต่วินาทีที่ 0.39 เป็นต้นไป ผลลัพธ์คือ 99.6% สร้างโดย AI หรือ deepfake
นาทีที่ 1.45 เป็นต้นไป ผลลัพธ์ ดังนี้
- ภาพรวมทั้งหมด 98.7% สร้างโดย AI หรือ deepfake
- เสียง 90% สร้างจาก AI
โดยคลิปจริงที่ถูกนำมาใช้คือ คลิปสัมภาษณ์เพชรา เชาวราษฎร์ ในรายการคุณพระช่วย (ลิงก์บันทึก)
ภาพเปรียบเทียบคลิปที่นำไปแอบอ้าง (ซ้าย) และคลิปจริง (ขวา) มีจุดสังเกตคือ โคมไฟด้านหลังที่ชี้ว่าเป็นสถานที่เดียวกัน
นาทีที่ 2.26 เป็นต้นไป ผลลัพธ์ ดังนี้
- ภาพรวมทั้งหมด 99.7% สร้างโดย AI หรือ deepfake
- เสียง 53% สร้างจาก AI
โดยคลิปจริง มาจากรายการยูทูปช่อง WELLNESS WE CARE ซึ่งไม่ได้มีเนื้อหาที่เกี่ยวข้องหรืออยู่ในคลิปที่เพจข้างต้นที่ถูกนำมาตัดต่ออย่างไร (ลิงก์บันทึก)
ภาพเปรียบเทียบคลิปที่นำไปแอบอ้าง (ซ้าย) และคลิปจริง (ขวา) มีจุดสังเกตคือ เสื้อและกรอบรูปด้านหลัง ชี้ว่าเป็นคลิปเดียวกัน
Thai PBS Verify ได้สอบถามไปยัง พิมพิมล ปัญญานะ ผู้ประกาศข่าวสถานีโทรทัศน์ Thai PBS ยืนยันว่าไม่เคยรายงานข่าวในลักษณะตามคลิปดังกล่าว และทั้งหมดเป็นการตัดต่อ
“รู้สึกว่าเราคือผู้เสียหาย เพราะไม่รู้ว่าจะมีคนที่รู้จักเรา อาจจะเข้าใจผิดและมีโลโก้ช่องชัดเจนมาก คล้ายกับออกอากาศจริง อาจทำให้คนเข้าใจผิด โดนหลอกลวงได้ แม้พอจะจับผิดได้ หรือดูไม่เนียน แต่เชื่อว่าอาจจะมีที่เนียนกว่านี้ และน่ากลัวมากกว่านี้”
เบื้องต้นไม่ได้เกิดความเสียหาย จึงไม่รู้ว่าจะต้องร้องเรียนและจัดการอย่างไร แต่ถ้าเป็นเชิงพาณิชย์เพื่อการขายของหรือแนบไฟล์อันตราย หากคนกดเข้าไปดู ก็นึกไม่ออกว่าจะจัดการอย่างไร แล้วสมัยนี้โปรแกรม AI ใช้ง่ายต่อการปลอมแปลง เพราะไม่ต้องเขียนโค้ด
AI ถ้าเอาไปใช้ในเชิงสร้างสรรค์ ถือว่ามีประโยชน์มากมาย แต่ตอนนี้ใครก็สามารถถูกเอาไปปลอมแปลง หลอกลวงได้ จึงค่อนข้างอันตราย และเห็นด้วยว่าควรเริ่มมีการเอาผิดกับคนที่ทำเรื่องเหล่านี้ เพราะเราไม่สามารถควบคุมได้เลยว่าเนื้อหาเหล่านี้มันจะถูกเอาไปใช้ในลักษณะไหนบ้าง
ในฐานะที่เป็นผู้ประกาศข่าวต้องใช้หน้าและเสียงทำงานออกสู่สาธารณะ มีความกังวลอะไรบ้างไหมในกรณีที่ AI ถูกนำมาใช้ในทางที่ผิด
“ทุกวันนี้ยังพอสังเกต Deepfake ได้ว่าจะมีจุดที่ไม่เนียนอยู่ แต่ถ้าในอนาคตมันเนียนขึ้นมา แล้วจะมีวิธีไหนที่จะมาตรวจสอบหรือรับรองได้ว่าเป็นคลิปปลอม พอเทคโนโลยีมันพัฒนาขึ้นเรื่อย ๆ เราจะรับมือยังไง ยิ่งหากถูกนำไปใช้ทางการเมือง ปลอมเสียงนักการเมือง หรือนำมาตัดเป็นข่าวใส่หน้าเราอ่าน อาจสร้างความเข้าใจผิดและความเสียหายได้”
ข้อสังเกตว่าเป็นการใช้เทคโนโลยี Deepfake
สถาพน พัฒนะคูหา ประธานบริษัท Guardian AI ให้ข้อมูลกับ Thai PBS Verify ว่า คลิปดังกล่าวเป็นการตัดต่อโดยใช้ AI text-to-speech เพื่อแปลงตัวหนังสือเป็นเสียงพูด ให้ปากขยับตรงกับคำที่กำหนด แต่เป็นการทำที่ไม่ละเอียด จึงสามารถจับสังเกตได้ด้วยตาเปล่า
“ในคำบรรยายคลิป จะเห็นว่านามสกุลของคุณ เพชรา เชาวราษฎร์ ถูกตัดคำเป็น เชา รา สด แล้วก็เอาเสียงรวมคลิปวิดีโอ ไปให้ AI ทำ lip sync ให้ขยับปากตามเสียง แต่รูปปากกับเสียงพูดไม่ตรงกัน และสังเกตได้ว่าผู้ประกาศข่าวจะมีท่าทางซ้ำ ๆ เหมือนเปิดคลิปวนไปเรื่อย ๆ
“ความน่ากลัวคือ ตอนนี้โมเดล AI ที่ทำพวก text-to-speech, voice clone, lipsync นี้ เวอร์ชันภาษาอังกฤษทำได้ดีมากแล้ว แต่ยังใช้กับภาษาไทยไม่ได้มากนัก พอเวลาถูกนำมาทำเป็นภาษาไทย เลยมีข้อผิดพลาดเยอะทำให้ดูออกได้ง่าย
ตัวอย่างคำบรรยายภาพที่เขียนผิด
"แต่ในอนาคต ถ้าโมเดลพวกนี้เก่งภาษาไทยมากขึ้น ก็จะแนบเนียนมากกว่านี้ จะจับผิดได้ยากกว่านี้ และขั้นตอนการใช้เครื่องมือ AI เหล่านี้ ทำได้ง่ายมาก ผ่านหน้าเว็บไซต์ต่าง ๆ”