Thai PBS ชวนรู้เท่าทัน AI ใช้อย่างไรเกิดประโยชน์ และลดเสี่ยงหลงเชื่อข้อมูลผิดพลาด โดยร่วมให้ความรู้ผ่านพลังของปัญญารวมหมู่และความร่วมมือระหว่างสื่อ นักวิชาการ ภาครัฐ และภาคประชาชน ในเวทีเสวนานักคิดดิจิทัล - Digital Thinkers Forum ครั้งที่ 33 เมื่อ 19 ธ.ค. ที่ผ่านมา ในหัวข้อ “รับมือข้อมูลหลอนด้วยปัญญารวมหมู่เพื่อสร้างภูมิคุ้มกันในยุค AI (AI Hallucinations VS. Digital Resilience)”
ผ่าน 5 วิทยากรทรงความรู้ได้แก่ นพ.ธีรพัฒน์ ตันพิริยะกุล อดีตรองนายกองค์การบริหารส่วนจังหวัด (อบจ.) เชียงใหม่, ดร.พณชิต กิตติปัญญางาม กรรมการบริหารแผนคณะที่ 8 สสส., ผศ. ดร.ณภัทร เรืองนภากุล อาจารย์คณะสารสนเทศและการสื่อสาร มหาวิทยาลัยแม่โจ้, คุณกนกพร ประสิทธิ์ผล ผู้อำนวยการสำนักสื่อดิจิทัล Thai PBS และ ดร.กมลภพ ศรีโสภา อาจารย์ภาควิชาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์ มหาวิทยาลัยเชียงใหม่

ซึ่งความร่วมมือครั้งนี้เกิดขึ้นโดย สถานเอกอัครราชทูตเยอรมนีประจำประเทศไทย, ภาคีโคแฟค (ประเทศไทย) สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.), มหาวิทยาลัยธรรมศาสตร์ โดยคณะวารสารศาสตร์และสื่อสารมวลชน มหาวิทยาลัยแม่โจ้ โดยคณะสารสนเทศและการสื่อสาร และ Thai PBS
ผศ. ดร.สุริยจรัส เตชะตันมีนสกุล รองอธิการบดีมหาวิทยาลัยแม่โจ้ ได้กล่าวถึงเทคโนโลยีปัญญาประดิษฐ์ (AI) ที่เข้ามาอย่างลึกซึ้งทั้งในการทำงาน การสื่อสาร การตัดสินใจทางสังคม ปรากฏการณ์ AI หลอนข้อมูล (Hallucinate) ไม่ได้เป็นเพียงเรื่องทางเทคนิค ยังมีความท้าทายเชิงโครงสร้างที่มีผลต่อความน่าเชื่อถือของข้อมูล ความถูกต้องทางวิชาการและความรับผิดชอบต่อสังคมในวงกว้าง
กิจกรรมในวันนี้มีความสำคัญยิ่ง ไม่ได้มุ่งอธิบาย AI เรื่องหลอนคืออะไร แต่มุ่งไปที่เรื่องของการสร้างความเข้าใจที่ลึกซึ้ง การตั้งคำถามอย่างมีวิจารณญาณ และการออกแบบแนวทางรับที่เหมาะสมในบริบททำงานจริง โดยเฉพาะภาคการศึกษา ภาคนโยบาย และภาควิชาชีพ
ความรู้ 5 วิทยากร งานเสวนา “รับมือข้อมูลหลอนด้วยปัญญารวมหมู่เพื่อสร้างภูมิคุ้มกันในยุค AI”

AI 101 : AI as a Tool
นพ.ธีรพัฒน์ ตันพิริยะกุล อดีตรองนายกองค์การบริหารส่วนจังหวัด (อบจ.) เชียงใหม่ เล่าถึงวิวัฒนาการของเทคโนโลยี AI ตั้งแต่ยุค Rule-based หรือการออกแบบให้ทำตามกฎเกณฑ์ตายตัว ถัดมาเป็นยุค Machine Learning นำข้อมูลมาสอนให้ AI เรียนรู้ เช่น ข้อมูลผู้มาซื้อของในห้างสรรพสินค้าซึ่งมีเป็นล้านชุด เพื่อวิเคราะห์ว่าหากเป็นบุคคลลักษณะนี้ควรจะซื้อสินค้าชนิดใด จนมาถึงปัจจุบันที่เป็นยุค Generative AI คือการให้ AI สร้างสิ่งใหม่ขึ้น และยุคนี้เองที่เกิดการหลอนของข้อมูล คือสร้างออกมาเป็นสิ่งที่เราไม่ต้องการ
เราจะทำอย่างไรให้ไม่หลอน ต้องมีกำแพงกั้น (Guardrail) ว่าจะให้ AI ไม่ออกนอกลู่นอกทาง ต้องมีขอบเขต (Scope) ให้ชัดว่าเราถามเรื่องอะไร ทุกวันนี้ Google ออกแนวปฏิบัติ (Guideline) วิธีการเขียน Prompt ให้ AI เป็นมืออาชีพ ด้วยเทคนิค 3 ข้อคือ
1. เราต้องรู้ว่า AI ถนัดเรื่องไหน เพราะไม่ได้มีแค่ Chat GPT อย่างเดียว บางคนอาจใช้ Claude ใช้ Gemini
2. ต้องกำหนดขอบเขตให้ชัด
3. ต้องถามซ้ำ AI จึงจะรู้มากขึ้น

AI : ความจริง ความหลอน และเป้าหมาย
ดร.พณชิต กิตติปัญญางาม กรรมการบริหารแผนคณะที่ 8 สสส. มองว่า AI ยังเป็นประโยชน์กับเราอยู่ 2 เรื่อง คือเราอยากได้ความรู้ และความคิด เช่น เมื่อเราบอกให้ AI ไปหาข้อมูล AI จะควานหาทั่วทั้งอินเทอร์เน็ตแล้วสรุปมาให้เรา ดังนั้นวิธีการตรวจสอบคือขอ Link เว็บไซต์แหล่งข้อมูลอ้างอิง เพื่อจะไปดูต่อว่าเป็นเว็บไซต์ที่น่าเชื่อถือหรือไม่ กระบวนการตรวจสอบจึงสำคัญว่าข้อมูลชุดที่ AI ยกมามีแหล่งอ้างอิงจริงหรือไม่ และแหล่งข้อมูลเหล่านั้นเชื่อได้มาก - น้อยเพียงใด แล้วจึงนำไปใช้งาน
แต่หากเราอยากได้ความคิด ความหลอนของ AI อาจเป็นประโยชน์ได้เช่นกัน เช่น อยากได้สูตรอาหารคาวที่ผสมกับชีสและใส่สับปะรดด้วย เราอาจคิดว่าของคาวกับของหวานจะเข้ากันได้อย่างไร แต่ผลที่ออกมาคือพิซซ่าหน้าฮาวายเอี้ยน ดังนั้นความหลอน บางครั้งคือความคิดสร้างสรรค์ (Creativity) การเลือกใช้ความหลอนให้ถูก หากไม่ได้ใช้เป็นความรู้ก็ไม่จำเป็นต้องตรวจสอบข้อเท็จจริง แต่หากต้องการสิ่งที่เป็นความรู้ก็ต้องมีกระบวนการตรวจสอบข้อเท็จจริง (Fact-Checking Methodologies) ก่อนนำไปใช้งาน
“ความหลอน” จะเป็นผลกับชีวิตมนุษย์ก็ต่อเมื่อมนุษย์เอาไปใช้ ดังนั้นไม่สามารถบอกได้ว่าความหลอนดีหรือไม่ ความจริงหรือความลวงดีหรือไม่ เพราะอยู่ที่เราจะเอาไปใช้งาน สุดท้ายจบที่เรื่องเป้าหมาย เราต้องเป็นผู้รับผลกระทบว่าสิ่งนั้นเอาไปทำแล้วเป้าหมายเป็นประโยชน์ต่อใครไหม? เป็นประโยชน์กับเราหรือเปล่า? ช่วยให้ดีขึ้นไหม? ต่อให้มันไม่จริงแต่เอาไปใช้แล้วเกิดผลตามมา

การใช้ AI ในงานวิชาการ “เมื่อแรงกดดันด้านเวลา ท้าทายความถูกต้อง”
ผศ. ดร.ณภัทร เรืองนภากุล อาจารย์คณะสารสนเทศและการสื่อสาร มหาวิทยาลัยแม่โจ้ กล่าวถึงปรากฏการณ์ที่หลายคนผลิตเนื้อหาเผยแพร่บนสื่อออนไลน์โชว์การใช้แพลตฟอร์ม AI คือทำให้เห็นว่าการใช้ AI เป็นเรื่องสนุกและดูเท่ นอกจากนั้น AI ยังทำให้เรารู้สึกถึงความง่ายหรือรู้สึกเก่งขึ้นทันที อะไรที่คิดไม่ออก - สรุปไม่ได้ก็ให้ AI เขียนสรุปมาให้ เลือกรูปแบบสำนวนภาษาได้ด้วย (เช่น ภาษาวิชาการ ภาษาการตลาด) นั่นเพราะ AI ถูกออกแบบมาให้ทำงานได้ง่ายที่สุดและเร็วที่สุด ตอบโจทย์คนยุคปัจจุบันที่ไม่อยากรอ
แต่สิ่งที่หายไปคือการคิดของเรา คือเมื่อใช้ AI เราอาจรู้สึกว่าเราฉลาดแม้เราจะยังไม่ได้ใช้ความคิดของตัวเอง อย่างไรก็ตาม “AI ไม่ได้เป็นเครื่องมือที่ผิดและการใช้ AI ก็ยังมีประโยชน์ แต่ปัญหาจริง ๆ อยู่ที่ความเท่ของการใช้ AI มันกระชากกระบวนการทางความคิดของเรา” เมื่อใช้ AI จนติดมาก ๆ ด้วยปัจจัยด้านปริมาณงานล้นและต้องแข่งกับเวลาของคนยุคดิจิทัล การใช้ AI จึงมาก่อนการใช้ความคิด เราจึงข้ามในส่วนของกระบวนการไป
การใช้ AI ก็มีความเสี่ยง ไม่ว่าจะเรื่องของการเรียนแบบมุ่งหาวิธีลัด (Shortcut Learning) ทำให้เราสมาธิสั้นลง ความรู้ของเราจะไม่ลุ่มลึก โดยเฉพาะคนที่ทำหน้าที่เป็นผู้จุดประกายทางปัญญาให้กับนักศึกษาของเรา เราก็จะมีความฉาบฉวยมากขึ้น เราก็จะไม่สามารถใช้หรือไม่คุ้นชินกับการใช้ความคิดเชิง Critical (วิเคราะห์) เพราะเราเสพติดกับการถาม AI

ทำไม? ต้องสนใจ AI ทำไม? ข้อมูลหลอนจึงอันตรายในยุค AI และสื่อ..ต้องทำอะไร?
คุณกนกพร ประสิทธิ์ผล ผู้อำนวยการสำนักสื่อดิจิทัล Thai PBS กล่าวว่า นับตั้งแต่ AI อย่าง ChatGPT เปิดตัวเมื่อปลายปี 2565 กระแสของ AI มีแต่จะเพิ่มขึ้น จากนั้นในปี 2566 พจนานุกรม Cambridge ยกคำว่า “อาการหลอน” (Hallucinate) เป็นคำแห่งปี มาจากการที่ AI ให้ข้อมูลแบบผิด ๆ มั่ว ๆ และล่าสุดในปี 2568 พจนานุกรม Merriam – Webster ได้ยกให้คำว่า “Slop” เป็นคำแห่งปี ซึ่งคำว่า Slop หมายถึงเนื้อหาคุณภาพต่ำที่ผลิตด้วย AI ซึ่งเนื้อหาเหล่านี้ไม่มีประโยชน์แต่เกิดขึ้นมาอย่างมหาศาล แล้วไปเบียดกับเนื้อหาดี ๆ ที่เกิดจากความคิดสร้างสรรค์
ทั้งนี้ ต้องไม่ลืมว่าแพลตฟอร์มสื่อสังคมออนไลน์มีระบบ Algorithm กล่าวคือ อะไรที่มีปริมาณมาก ๆ จะเบียดความสนใจ เนื้อหาที่ดี ๆ ก็จะตกลงไป เช่น ภาพที่ใช้ AI สร้างได้ในเวลาเพียงไม่กี่วินาที แม้จะดูสวยงามหรือสร้างขึ้นมาเพื่อเป็นสีสัน แต่ในอีกมุมคือไม่มีอะไรจรรโลงพัฒนาการหรือความคิดสร้างสรรค์ของมนุษย์ และจะอันตรายยิ่งขึ้นหากเป็นเนื้อหา “Slop” ที่ปรากฏในเหตุการณ์ เช่น ภาพสัตว์ต่าง ๆ ช่วยเหลือกันและกันในช่วงเกิดน้ำท่วม หรือภาพคนแบกช้างเดินบนถนน ทำให้เกิดความเข้าใจผิดได้
ทำไมข้อมูลหลอนถึงอันตราย? มาจากปัจจัยที่ไม่ใช่แค่คนเป็นมิจฉาชีพ ซึ่งก็คือ “จิตวิทยา” ไม่ว่าจะเป็น
1. สื่อสังคมออนไลน์ (Social Media) เติบโต
2. เทคโนโลยีปลอมแปลงใบหน้าและเสียง (Deepfake) มีความเก่งกาจมาก
3. เราไม่รู้เท่าทัน (Literacy) เพียงพอ
4. เป็นแหล่งหารายได้ สร้างยอดชม (View) ได้
5. แพลตฟอร์มไม่ได้มีกลไกที่ปกป้องพวกเราในขณะที่ใช้แพลตฟอร์ม Social Media
และปัจจัยที่สำคัญมาก ๆ คือในช่วงที่มีสภาวะหรือสถานการณ์สำคัญ จิตวิทยาจะเป็นตัวขับเคลื่อน ให้เกิดการแชร์โดยไม่มีสติ

AI Literacy และการเรียนรู้ด้วยตัวเอง
ดร.กมลภพ ศรีโสภา อาจารย์ภาควิชาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์ มหาวิทยาลัยเชียงใหม่ กล่าวถึงผลการศึกษาชิ้นหนึ่งของ OpenAI ซึ่งเป็นบริษัทผู้พัฒนา ChatGPT เรื่องอาการหลอนหรือการให้คำตอบมั่ว ๆ ของ AI เมื่อผู้วิจัยลองถาม AI ให้ทายวันเกิดของตนเอง แม้ AI จะไม่รู้แต่ก็ยังมั่วคำตอบมา เพราะมีโอกาส 1 ใน 365 ตามจำนวนวันใน 1 ปี ที่จะตอบถูก แต่ครั้นจะทำให้ปัญหาอาการหลอนของ AI หมดไปนั้นเป็นไปไม่ได้เพราะบางคำถามไม่ได้มีคำตอบแบบตายตัว ในขณะที่ AI ก็ถูกสอนให้รู้จักการเดาเพราะมีโอกาสที่จะตอบถูก
หรือตัวอย่างของ Grok ซึ่งเป็น AI ประจำแพลตฟอร์ม X ที่มีผู้ไปลองตั้งคำถามว่า ระหว่างปิดสมองของ อีลอน มัสก์ (เจ้าของแพลตฟอร์ม X) กับสังหารหมู่ชาวสโลวาเกีย ผลคือ AI เลือกสังหารหมู่ชาวสโลวาเกีย นั่นคือ AI ตอบโดยมีอคติเอียงไปทางชอบอีลอน มัสก์ จึงเป็นปัญหา เช่น หากเราจะไปถาม AI ว่าการเลือกตั้งครั้งหน้าจะเลือกใคร หรืออคติที่เกิดจากจำนวนไม่เท่ากันของข้อมูลที่ AI รวบรวมได้ เช่น บอก AI ให้วาดภาพพยาบาล มักจะได้ภาพพยาบาลเพศหญิง หรือบอกให้วาดภาพวิศวกร ก็มักจะได้ภาพวิศวกรเพศชาย เป็นต้น
ผู้ประกอบการ AI หลายแห่งพยายามที่จะลดอคติ (Bias) แล้วเพิ่มความโปร่งใส (Transparent) ในรูปแบบ System Card หรือ Model Card ให้เราอ่านว่าข้อมูลเขามาจากไหน มีข้อจำกัดอะไรบ้าง และเขียน prompt อย่างไรให้ดี เราก็สามารถเข้าไปศึกษาได้

จากนั้นเป็นการระดมสมองของผู้เข้าร่วมงาน ในหัวข้อ “รับมือข้อมูลหลอนด้วยปัญญารวมหมู่เพื่อสร้างภูมิคุ้มกันในยุค AI” และ คุณสุภิญญา กลางณรงค์ ผู้ร่วมก่อตั้งภาคีโคแฟค (ประเทศไทย) ได้ให้ความรู้ทิ้งท้ายไว้อย่างน่าสนใจว่า ยุคนี้นอกจากจะเจออาการหลอนของปัญญาประดิษฐ์ ข้อมูลจริง - ไม่จริงแล้วยังต้องเจอกับภาวะข้อมูลล้นถาโถม (Information Overload) จนเกิดภาวะอ่อนล้าที่จะรับข่าวสาร (News Fatigue) หรือเจอแต่ด้านลบ ๆ จนไม่อยากแลกเปลี่ยนข้อมูลในโลกออนไลน์ อยากไปอยู่เงียบ ๆ ซึ่งก็ต้องดูแลจิตใจของตนเองด้วย หลัก ๆ คือการตั้งสติ

ดังนั้น ในปีหน้า (ปี 2569) สิ่งที่อยากฝากสังคมไทยก็คือ “Keep Calm and Fact Check” ใจเย็น ๆ อย่าเพิ่งเชื่อ เห็นรูปเห็นคลิปอะไรที่ตรงกับอคติ มายาคติ หรือฉันทาคติอย่าเพิ่งเชื่อ เพราะเราอาจพลาดได้ง่าย ๆ โดยเฉพาะการเลือกตั้งที่จะมาถึง และอยากจะชวนทุกคนมาเป็นอาสาสมัครกับโคแฟคจับตาข่าวลวงการเมือง หากเห็นข้อมูลข่าวสารอะไร ไม่แน่ใจว่าเป็น AI หรือ ข่าวลวงที่อยากให้ตรวจสอบสามารถส่งมาได้ที่โคแฟค cofact.org, เพจของโคแฟค หรือแจ้งมาที่ทีมงาน Thai PBS Verify ได้ทาง Inbox Facebook : https://m.me/ThaiPBSVerify หรือ Email : Verify@thaipbs.or.th
📌อ่าน : “ไทยพีบีเอส” ร่วมสร้างภูมิคุ้มกันสังคมไทย รับมือ “ข้อมูลหลอน” ยุค AI
อัปเดตข้อมูลแวดวงวิทยาศาสตร์ เทคโนโลยี รู้ทันโลกไอที และโซเชียลฯ ในรูปแบบ Audio จาก AI เสียงผู้ประกาศของไทยพีบีเอส ได้ที่ Thai PBS
“รอบรู้ ดูกระแส ก้าวทันโลก” ไปกับ Thai PBS Sci & Tech









