วิธีจับผิด AI ไม่ให้โดนหลอก เมื่อ AI พัฒนาขึ้นไปมากจนมันสามารถสร้างรูปภาพ วิดีโอ เสียง และบอตได้เนียนเหมือนของจริง แล้วเราจะแยกได้อย่างไรว่าอันไหนจริง อันไหนปลอม?
เมื่อ AI สร้างสรรค์ผลงานได้เนียนมาก ๆ ทั้งภาพ วิดีโอ เสียง และข้อความจนยากที่จะแยกที่จะดูออกทำให้เราตกอยู่ภายใต้ข้อมูลที่อาจเป็นเท็จก็ได้ แต่ถ้าหากคุณทราบถึงวิธี และสัญญาณบ่งชี้ต่างๆ ที่บอกว่าผลงานที่คุณกำลังดู หรือฟังอยู่เป็นของปลอมที่ AI สร้างขึ้น คุณก็จะช่วยปกป้องตัวเองไม่ให้ถูกหลอกได้
จากรายงานของ World Economic Forum ได้บอกว่า ข้อมูลเท็จและข้อมูลบิดเบือนอาจ “ก่อความปั่นป่วนอย่างรุนแรงต่อกระบวนการเลือกตั้งในหลายประเทศในอีกสองปีข้างหน้า” ขณะที่การเข้าถึงเครื่องมือ AI ได้ง่ายขึ้น “ทำให้เกิดการระเบิดของข้อมูลปลอมและเนื้อหาสังเคราะห์ เช่น การโคลนนิ่งเสียงที่ซับซ้อน ไปจนถึงเว็บไซต์ปลอม”
คำว่า Misinformation และ Disinformation ต่างก็หมายถึงข้อมูลเท็จหรือไม่ถูกต้อง แต่ Disinformation คือข้อมูลที่ตั้งใจจะหลอกลวงหรือทำให้เข้าใจผิด “ปัญหาเกี่ยวกับ Disinformation ที่ใช้ AI คือขนาด ความเร็ว และความง่ายในการสร้าง” Hany Farid จาก University of California, Berkeley กล่าว “การโจมตีเหล่านี้ ไม่ต้องอาศัยผู้กระทำผิดที่ได้รับการสนับสนุนจากรัฐหรือองค์กรที่มีเงินทุนมากมาย เพียงแค่บุคคลคนเดียวที่มีการเข้าถึงพลังการประมวลผลคอมพิวเตอร์เพียงเล็กน้อยก็สามารถสร้างเนื้อหาปลอมจำนวนมากได้” เขาบอกว่า Generative AI กำลัง “ทำให้ระบบข้อมูลทั้งหมดปนเปื้อน ทำให้ทุกสิ่งที่เราอ่าน เห็น และได้ยินเป็นเรื่องน่าสงสัย” เขาบอกว่าการวิจัยของเขาชี้ให้เห็นว่า ในหลายกรณี ภาพและเสียงที่สร้างขึ้นโดย AI “แทบแยกไม่ออกจากความเป็นจริงเลย”
อย่างไรก็ตาม การวิจัยของ Farid และผู้อื่นเผยให้เห็นว่ามีกลยุทธ์ที่ทำให้สามารถลดความเสี่ยงในการตกเป็นเหยื่อของข้อมูลเท็จหรือข้อมูลบิดเบือนบนโซเชียลมีเดียที่สร้างขึ้นโดย AI ได้ซึ่งจะแบ่งเป็นการสังเกตภาพจาก AI, วิดีโอปลอมแบบ Deepfake, บัญชีโซเชียลมีเดียที่เป็น AI bot และการโคลนเสียงจาก AI
วิธีจับผิดภาพจาก AI
วิธีการสังเกตภาพ AI ปลอม จำได้ไหมว่าเคยเห็นภาพ Pope Francis สวมแจ็คเก็ต? ภาพ AI ปลอมเช่นนี้กลายเป็นเรื่องธรรมดาขึ้นเรื่อย ๆ การศึกษาหนึ่งโดย Nicholas Dufour ที่ Google และเพื่อนร่วมงานของเขาพบว่าสัดส่วนของภาพที่สร้างขึ้นโดย AI ที่เป็นข้อมูลเท็จได้รับการตรวจสอบข้อเท็จจริงเพิ่มขึ้นอย่างรวดเร็วตั้งแต่ต้นปี 2023 เป็นต้นมา
“ทุกวันนี้ ความรู้ด้านสื่อต้องอาศัยความรู้ด้าน AI” Negar Kamali จาก Northwestern University ใน Illinois กล่าว ในปี 2024 เธอและเพื่อนร่วมงานได้ระบุ 5 ข้อผิดพลาดของภาพที่สร้างขึ้นโดย AI และให้คำแนะนำเกี่ยวกับวิธีสังเกตข้อผิดพลาดเหล่านี้ ซึ่งมีความแม่นยำประมาณ 70 เปอร์เซ็นต์ในการตรวจจับภาพปลอมของ AI
5 วิธีจับผิดรูปภาพที่สร้างโดย AI
- ความไม่น่าเชื่อถือทางสังคมและวัฒนธรรม: ภาพที่สร้างจาก AI อาจแสดงถึงพฤติกรรมที่หายาก ผิดปกติ หรือแปลกประหลาดสำหรับวัฒนธรรม หรือบุคคลสำคัญในประวัติศาสตร์
- ความไม่น่าเชื่อถือทางกายวิภาค: เมื่อสังเกตอย่างใกล้ชิด จะเห็นว่าส่วนต่างๆ ของร่างกาย เช่น มือมีรูปร่างหรือขนาดผิดปกติ ดวงตาหรือปากดูแปลก หรือมีส่วนใดของร่างกายที่ไม่ผสานกัน
- สิ่งประดิษฐ์ทางสไตล์: รูปภาพดูไม่เป็นธรรมชาติ สมบูรณ์แบบเกินไป พื้นหลังดูแปลกหรือขาดบางอย่างไป แสงดูแปลกหรือผิดปกติ
- ความไม่น่าเชื่อถือทางการทำงาน: มีวัตถุใดดูแปลกประหลาดหรือดูเหมือนว่าจะไม่ใช่ของจริง ตัวอย่างเช่น มีกระดุมหรือหัวเข็มขัดอยู่ในสถานที่แปลก ๆ ที่ ๆ ไม่ควรอยู่
- การละเมิดกฎฟิสิกส์: เงาชี้ไปในทิศทางที่ต่างกัน เงาที่สะท้อนในกระจกไม่สอดคล้องกับสิ่งที่ควรจะเป็น
วิธีจับผิดวิดีโอปลอมที่สร้างจาก Deepfake
Deepfake เกิดขึ้นตั้งแต่ปี 2014 โดยดัดแปลงวิดีโอที่มีอยู่ของใครก็ตามให้สลับหน้ากัน สร้างการแสดงออกทางสีหน้าใหม่ และแทรกเสียงพูดใหม่ที่มีการจับคู่ลิปซิงค์ ซึ่งทำให้กลุ่มนักต้มตุ๋น แฮกเกอร์ และผู้ใช้อินเทอร์เน็ตสามารถสร้างวิดีโอปลอมจาก Deepfake ได้ง่ายๆ ซึ่งคนดังอย่าง Taylor Swift หรือประธานาธิบดี Barack Obama ไปจนถึงคนธรรมดามีความเสี่ยงที่จะถูกนำไปแสดงในสื่อลามกอนาจารโดยไม่ได้รับความยินยอม ไปจนถึงการหลอกลวง และการให้ข้อมูลที่บิดเบือน
นักวิจัยจาก Massachusetts Institute of Technology (MIT) และ Northwestern University ได้รวบรวม 6 เคล็ดลับที่ช่วยให้สังเกตวิดีโอปลอมจาก Deepfake ได้ง่ายขึ้น
6 วิธีจับผิดคลิปวิดีโอจาก Deepfake
- การเคลื่อนไหวของปากและริมฝีปาก: มีช่วงเวลาที่ภาพและเสียงไม่ซิงค์กันอย่างสมบูรณ์
- ข้อผิดพลาดทางกายวิภาค: ใบหน้าหรือร่างกายดูแปลก หรือการเคลื่อนไหวไม่เป็นธรรมชาติ
- ใบหน้า: ความไม่สอดคล้องกัน ใบหน้าไม่เรียบเนียน หรือมีริ้วรอยรอบหน้าผากและแก้ม รวมถึงไฝบนใบหน้า
- แสง: แสงไม่สม่ำเสมอ เงาผิดปกติไม่เป็นธรรมชาติ จุดสังเกตที่สำคัญคือดวงตา คิ้ว และแว่นตา
- ผม หนวด และเครา : ผม หนวด เคราดูแปลก หรือเคลื่อนไหวไม่เป็นธรรมชาติ
- การกระพริบตา: กระพริบตาบ่อยเกินไป หรือน้อยเกินไป
วิธีจับผิด AI Bot
บัญชีโซเชียลมีเดียที่ควบคุมโดยบอตกลายเป็นเรื่องปกติในโลกโซเชียลมีเดีย และแพลตฟอร์มการส่งข้อความ บอทเหล่านี้มีจำนวนมากขึ้นเรื่อย ๆ จากเทคโนโลยี Generative AI ตั้งแต่ปี 2022 ซึ่งทำให้การผลิตเนื้อหาเป็นเรื่องง่าย และมีค่าใช้จ่ายต่ำ
Paul Brenner จาก University of Notre Dame ใน Indiana กล่าวว่า “การปรับแต่งโมเดลภาษาขนาดใหญ่เหล่านี้ให้เหมาะกับกลุ่มเป้าหมายแบบเฉพาะเจาะจงนั้นง่ายขึ้นมาก”
Paul Brenner และเพื่อนร่วมงานของเขาได้ทำการวิจัยและพบว่าอาสาสมัครสามารถแยกแยะบอตที่ขับเคลื่อนด้วย AI จากมนุษย์ได้เพียงประมาณ 42 เปอร์เซ็นต์เท่านั้น ซึ่งผู้เข้าร่วมการวิจัยเหล่านี้ได้รับแจ้งแล้วด้วยว่าอาจพูดคุยกับบอต โดย Paul Brenner ได้ระบุถึงเคล็ดลับการจับผิด AI Bot เอาไว้ดังนี้
5 วิธีจับผิดบัญชีโซเชียลมีเดียที่เป็นบอต AI
- อีโมจิและแฮชแท็ก: มีการใช้อีโมจิและแฮชแท็กมากเกินไป
- การใช้คำที่ไม่ค่อยใช้กันและการเลือกคำ: การใช้คำของบอตอาจเป็นคำที่ไม่ค่อยใช้กันโดยทั่วไป
- การทำซ้ำและโครงสร้าง: บอทอาจใช้คำซ้ำ ๆ ที่มีรูปแบบคล้ายกันหรือตายตัว และอาจใช้คำแสลงบางคำมากเกินไป
- ถามคำถาม: การถามคำถามอาจเผยให้เห็นว่าบอตขาดความรู้เกี่ยวกับหัวข้อใดหัวข้อหนึ่ง โดยเฉพาะอย่างยิ่งเมื่อถามเรื่องที่เกี่ยวกับสถานที่ และสถานการณ์ในท้องถิ่น
- คิดในแง่ร้าย: หากบัญชีโซเชียลมีเดียนั้นไม่ได้ยืนยันตัวตนอย่างชัดเจน บัญชีนั้นอาจเป็นบอต AI
วิธีจับผิดการโคลนเสียงจาก AI และ Deepfake
การโคลนเสียงด้วยเครื่องมือ AI ทำให้การสร้างเสียงพูดใหม่ ๆ ที่สามารถเลียนแบบเสียงของใครก็ได้ สิ่งนี้ทำให้เกิดการหลอกลวงแบบ Deepfake ที่โคลนเสียงของสมาชิกในครอบครัว ผู้บริหารบริษัท และผู้นำทางการเมือง เช่น ประธานาธิบดีโจ ไบเดนของสหรัฐฯ หรือการขโมยเสียงของทั้งบุคคลที่มีชื่อเสียง และไม่มีชื่อเสียงไปใช้เทรนเอไอ แล้วนำไปใช้ในทางที่ผิด ซึ่งอาจระบุได้ยากกว่าวิดีโอหรือรูปภาพที่สร้างโดย AI มาก
“การโคลนเสียงนั้นค่อนข้างท้าทายในการแยกแยะระหว่างเสียงจริงกับเสียงปลอม เพราะไม่มีองค์ประกอบทางสายตาที่จะช่วยสมองของเราตัดสินใจ” Rachel Tobac ผู้ก่อตั้งร่วมของ SocialProof Security ซึ่งเป็นองค์กรแฮกเกอร์ด้านความปลอดภัย (White-hat Hacking) กล่าว
การตรวจจับเสียง Deepfake จาก AI อาจทำได้ยากโดยเฉพาะเมื่อใช้ในวิดีโอและการโทร แต่ก็ไม่ใช่เรื่องที่เป็นไปไม่ได้ที่จะสังเกตเสียงเหล่านี้
4 วิธีจับผิดเสียงที่ถูกโคลน หรือปลอมแปลงโดย AI
- บุคคลสาธารณะ: หากคลิปเสียงเป็นของบุคคลสาธารณะหรือผู้มีชื่อเสียง เราควรจะตรวจสอบสิ่งที่เขาพูดนั้นว่าสอดคล้องกับรายงานอื่น ๆ ที่เผยแพร่ต่อสาธารณะ ทัศนคติ และพฤติกรรมของพวกเขาหรือไม่?
- มองหาความไม่สอดคล้องกัน: เปรียบเทียบกับคลิปเสียงกับวิดีโอ หรือคลิปเสียงของบุคคลเดียวกันที่ผ่านการยืนยันว่าเป็นของจริงก่อนหน้านี้ ว่ามีความสอดคล้องกันหรือไม่ เช่นเสียงของเขา หรือลักษณะการพูด
- ความเงียบ: หากคุณกำลังฟังการสนทนาทางโทรศัพท์หรือข้อความเสียง และผู้พูดฝ่ายตรงข้ามหยุดพูดไปนานผิดปกติ อาจเป็นเพราะว่าพวกเขากำลังสร้างเสียงโคลนด้วย AI อยู่ เพื่อนำเสียงนั้นมาตอบคำถามเรา
- พูดแปลก ๆ และใช้คำฟุ่มเฟือย: รูปแบบการพูดที่เหมือนหุ่นยนต์หรือลักษณะการพูดที่เยิ่นเย้อผิดปกติ
การจับผิด AI จะยากขึ้นเรื่อยๆ
ในขณะนี้ยังไม่มีกฎเกณฑ์ตายตัวใด ๆ ที่จะแยกแยะเนื้อหาที่สร้างโดย AI กับเนื้อหาของมนุษย์ที่แยกแยะได้แบบ 100% โมเดล AI ที่สามารถสร้างข้อความ รูปภาพ วิดีโอ และเสียงได้นั้นยังคงพัฒนาต่อไปอย่างต่อเนื่อง และมันก็จะสร้างเนื้อหาที่ดูเหมือนจริงมากขึ้นเรื่อย ๆ เราจึงต้องตระหนักอยู่เสมอว่า ภาพ คลิป เสียง หรือเนื้อหาที่เรากำลังเผชิญอยู่อาจสร้างมาจาก AI ก็ได้ และมันก็มีโอกาสที่จะบิดเบือนข้อมูลจากข้อเท็จจริง ขณะเดียวกันนั้นการสร้างสรรค์ผลงานจาก AI ก็ควรจะคำนึงถึงจริยธรรม (AI Ethics) ด้วยเช่นกัน
อ้างอิง newscientist.com cover iT24Hrs
อ่านบทความและข่าวอื่นๆเพิ่มเติมได้ที่ it24hrs.com
วิธีจับผิด AI ที่ต้องรู้ถ้าไม่อยากโดนหลอก!
อย่าลืมกดติดตามอัพเดตข่าวสาร ทิปเทคนิคดีๆกันนะคะ Please follow us
Youtube it24hrs
Twitter it24hrs
Tiktok it24hrs
facebook it24hrs