สตาร์ตอัปด้านปัญญาประดิษฐ์ได้ทดสอบและประเมินประสิทธิภาพของ Google AI Search พบว่ามีการให้คำตอบผิด 10 ล้านครั้ง ซึ่งคิดเป็น 10% ของการค้นหา
แม้ระบบปัญญาประดิษฐ์ (AI) จะเข้ามาปฏิวัติการค้นหาข้อมูลให้สะดวกยิ่งขึ้น แต่ผลการทดสอบล่าสุดจากผู้เชี่ยวชาญกลับพบสถิติที่น่ากังวล เมื่อเทคโนโลยีสรุปคำตอบอัตโนมัติมีอัตราความผิดพลาดสูงถึง 10% คิดเป็นจำนวนคำตอบที่คลาดเคลื่อนนับ 10 ล้านครั้งต่อวัน สะท้อนให้เห็นว่าความรวดเร็วของนวัตกรรมอัจฉริยะในปัจจุบันยังคงมีช่องโหว่ด้านความถูกต้องที่ผู้ใช้งานยังคงต้องระวังเป็นพิเศษ
ผลทดสอบ "อาการหลอน" ของปัญญาประดิษฐ์
งานวิจัยของทีมวิศวกรจาก อูมิ (Oumi) แพลตฟอร์มวิจัยและทดสอบปัญญาประดิษฐ์แบบเปิด (Open-source AI Platform) จากประเทศสหรัฐอเมริกา ได้ทำการประเมินประสิทธิภาพผ่านชุดทดสอบมาตรฐาน SimpleQA เพื่อวัดความถูกต้องของข้อเท็จจริง
ผลการศึกษาพบว่าแม้โมเดลปัญญาประดิษฐ์ยุคใหม่จะมีความฉลาดมากขึ้น แต่ยังคงเกิดสภาวะ "อาการหลอน" (Hallucination) หรือการสร้างข้อมูลที่ไม่มีอยู่จริงขึ้นมาอย่างต่อเนื่อง โดยพบว่ามีอัตราความผิดพลาดเฉลี่ยที่ 10% ซึ่งเมื่อนำไปคำนวณกับปริมาณการค้นหาข้อมูลมหาศาลของผู้ใช้งานทั่วโลกในแต่ละวัน ตัวเลขความผิดพลาดนี้อาจพุ่งสูงถึง 10 ล้านครั้งต่อวัน หรือคิดเป็นเกือบ 7,000 ครั้งในทุก ๆ นาทีที่ผ่านไป
ความน่ากังวลของงานวิจัยชิ้นนี้ไม่ได้หยุดอยู่แค่ที่ตัวเลขความผิดพลาดเท่านั้น แต่ยังรวมถึงมิติของการอ้างอิงแหล่งที่มา โดยทีมวิจัยพบว่าในกรณีที่ปัญญาประดิษฐ์ให้คำตอบที่ถูกต้อง มีถึง 56% ของคำตอบเหล่านั้นที่มีการระบุ "ลิงก์อ้างอิง" ที่ไม่สอดคล้องกับเนื้อหาจริง (Unfounded Citations) หรือบางครั้งลิงก์ที่ให้มากลับไม่มีเนื้อหาที่สนับสนุนคำตอบนั้นอยู่เลย ปรากฏการณ์นี้สะท้อนให้เห็นว่าระบบยังขาดความสามารถในการเชื่อมโยงข้อมูลดิบกับแหล่งที่มาอย่างมีประสิทธิภาพ ส่งผลให้ผู้ใช้งานเกิดความสับสน และลดทอนความน่าเชื่อถือของนวัตกรรมการค้นหาในระยะยาว
เมื่อความสะดวกอาจแลกมาด้วยความเข้าใจผิด
สาเหตุหนึ่งที่ทำให้ระบบสรุปข้อมูลอัจฉริยะให้คำตอบผิดพลาดบ่อยครั้ง เกิดจากการที่ระบบปัญญาประดิษฐ์พยายาม "คาดเดา" คำถัดไปตามหลักสถิติมากกว่าการทำความเข้าใจความหมายเชิงลึกของบริบททางวิทยาศาสตร์หรือประวัติศาสตร์ โดยเฉพาะเมื่อผู้ใช้งานสอบถามข้อมูลที่มีความเฉพาะเจาะจงสูง เช่น ขั้นตอนทางเทคนิคหรือข้อมูลเชิงลึกด้านสุขภาพ ระบบมักจะนำข้อมูลจากแหล่งที่ไม่มีความน่าเชื่อถือเพียงพอ มาสังเคราะห์เป็นคำตอบที่ดูเหมือนจริงแต่อาจจะยังไม่ถูกต้องทั้งหมด

นอกจากนี้ เทคโนโลยีนี้มักจะทำงานได้ไม่ดีกับ "ข้อมูลที่เปลี่ยนแปลงตามเวลา" (Time-sensitive information) เช่น ผลการแข่งขันกีฬาที่เพิ่งจบลง หรือสถานการณ์ข่าวปัจจุบันที่ยังไม่มีข้อสรุปชัดเจน โดยระบบอาจนำข้อมูลเก่ามาปะติดปะต่อจนเกิดเป็นข้อสรุปที่ผิดเพี้ยนไปจากความเป็นจริง
ปัญหานี้ส่งผลกระทบโดยตรงต่อผู้ใช้งานที่ต้องการข้อมูลแบบเรียลไทม์เพื่อใช้ในการตัดสินใจสำคัญ ซึ่งอาจนำไปสู่ผลลัพธ์ที่เกิดความเสียหายได้หากไม่มีการตรวจสอบข้อมูลจากแหล่งข่าวที่เชื่อถือได้ผ่านวิธีการค้นหาแบบดั้งเดิม
การใช้ AI อย่างสร้างสรรค์ และการปรับตัวของผู้ใช้งาน
ท่ามกลางวิกฤตความน่าเชื่อถือที่เกิดขึ้น ประโยชน์ของเทคโนโลยี AI ยังคงมีประโยชน์หากผู้ใช้งานมีความเข้าใจในข้อจำกัด ผู้เชี่ยวชาญด้านนวัตกรรมมองว่าระบบนี้มีประโยชน์อย่างมากในการช่วยย่นระยะเวลาการอ่านบทความที่มีความยาว หรือช่วยสรุปแนวคิดเบื้องต้นในหัวข้อที่กว้างขวาง โดยหัวใจสำคัญคือการใช้ระบบปัญญาประดิษฐ์ (AI) เป็นเพียง "เครื่องมือเริ่มต้น" (Starting Point) มากกว่าจะเป็น "แหล่งอ้างอิงสุดท้าย" (Final Answer) การรู้จักตั้งคำถามและตรวจสอบความสมเหตุสมผลของคำตอบผ่านกระบวนการคิดเชิงวิพากษ์
การค้นพบว่าระบบปัญญาประดิษฐ์ (AI) ให้คำตอบคลาดเคลื่อน เป็นการตอกย้ำว่านวัตกรรมยังอยู่ในช่วงของการเปลี่ยนผ่านที่ต้องการการพัฒนาอีกมาก แม้เทคโนโลยีสรุปข้อมูลจะมอบคุณค่าในแง่ของความสะดวกสบายและประสิทธิภาพในการจัดการข้อมูลปริมาณมหาศาล แต่ผู้ใช้งานต้องมี "ความเท่าทันดิจิทัล" ในการคัดกรองเนื้อหา การพึ่งพาปัญญาประดิษฐ์เพียงอย่างเดียวโดยขาดการตรวจสอบอาจนำไปสู่ความเข้าใจที่ผิดพลาดได้ ดังนั้นการผสานพลังระหว่างความฉลาดของเครื่องจักรและวิจารณญาณของมนุษย์ จึงเป็นแนวทางที่ดีที่สุดในการนำเทคโนโลยีวิทยาศาสตร์มาขับเคลื่อนสังคมข้อมูลข่าวสารให้เกิดประโยชน์สูงสุด
เรียบเรียงโดย ขนิษฐา จันทร์ทร
ที่มาข้อมูล: oumi, techspot, popsci, searchengineland
อัปเดตข้อมูลแวดวงวิทยาศาสตร์ เทคโนโลยี รู้ทันโลกไอที และโซเชียลฯ ในรูปแบบ Audio จาก AI เสียงผู้ประกาศของไทยพีบีเอส ได้ที่ Thai PBS
“รอบรู้ ดูกระแส ก้าวทันโลก” ไปกับ Thai PBS Sci & Tech









