เชื่อ AI จนชีวิตพัง เป็นไปได้ และเกิดขึ้นจริง! AI ที่เราใช้งานมันแทบจะทุกวัน ตั้งแต่แชทบอทไปจนถึง AI Agent ที่เป็นเครื่องมือช่วยทำงาน หรือเป็นที่ปรึกษาเรื่องสำคัญ แต่เคยคิดไหมว่า…เราควรเชื่อสิ่งที่ AI ตอบมากแค่ไหน?
เชื่อ AI จนชีวิตพัง! ใช้ AI ยังไงให้ปลอดภัย
ในยุคที่เทคโนโลยี AI เข้ามามีบทบาทในชีวิตประจำวันของเรา ทั้งการคุยกับแชทบอทในเรื่องเล็กน้อย ไปจนถึงการให้ช่วยงานสำคัญ หรือเป็นที่ปรึกษา แต่เราเคยฉุกคิดหรือไม่ว่า เราควรเชื่อสิ่งที่ AI ตอบมากแค่ไหน? เพราะมีหลายกรณีที่ผู้คนเชื่อ AI มากเกินไป จนทำให้เกิดปัญหาใหญ่ที่คาดไม่ถึง
หลงเชื่อ AI จนทริปพัง
กลางเดือนสิงหาคม 2025 Mery Caldass อินฟลูเอนเซอร์ชาวสเปนและแฟนหนุ่มใช้ ChatGPT ช่วยออกแบบทริปไปเที่ยวเปอร์โตริโก แต่สุดท้ายทริปล่ม เพราะพวกเขาถูกปฏิเสธไม่ให้ขึ้นเครื่องบิน เนื่องจากไม่มีเอกสารที่จำเป็น
สาเหตุมาจาก ChatGPT แนะนำว่าชาวสเปนไม่จำเป็นต้องใช้วีซ่าสำหรับการเที่ยวเปอร์โตริโก ซึ่งข้อมูลนี้จริง แต่สิ่งที่ ChatGPT ไม่ได้บอกคือ พวกเขาต้องยื่นคำขออนุญาต ESTA (Electronic System for Travel Authorization) ผ่านระบบออนไลน์เพื่อให้ได้รับอนุญาตเข้าประเทศก่อน เนื่องจากพวกเขาไม่ได้ตรวจสอบขั้นตอนนี้ ทริปจึงล่ม
บทเรียนสำคัญของกรณีนี้ก็คือ เราจะใช้ AI ช่วยออกแบบทริปได้ แต่ต้องตรวจสอบความถูกต้องของข้อมูลที่ได้จาก AI ด้วย
หลงเชื่อ AI จนฟ้องหย่า
เรื่องแปลกประหลาดนี้ เกิดขึ้นในประเทศกรีซ เมื่อผู้หญิงคนหนึ่งที่ใช้ชีวิตคู่กับสามีมานานถึง 12 ปี ตัดสินใจยื่นฟ้องหย่าสามี โดยมีสาเหตุมาจากการคุยกับ ChatGPT โดยเธอได้ส่งรูป กากกาแฟ ที่เหลืออยู่ในถ้วยให้ ChatGPT ทำนายด้วยวิธี Tasseography หรือการอ่านคำทำนายจากใบชา/กากกาแฟ และ ChatGPT ตอบว่าสามีของเธอกำลังคิดถึงผู้หญิงที่ชื่อขึ้นต้นด้วยตัวอักษร “E” และผู้หญิงคนนั้นพยายามที่จะทำลายครอบครัวของเธอ และเธอก็เชื่อ จนไปฟ้องหย่าสามีของเธอ ฝ่าายสามีก็ตกใจ แต่ยังไม่ยอมหย่า โดยทนายความของสามีให้เหตุผลในศาลว่า การตีความของ AI ไม่มีผลทางกฎหมาย และภรรยามีประวัติเชื่อเรื่องดวงและไสยศาสตร์
แม้คดีนี้จะยังไม่สิ้นสุด แต่ก็เป็นอุทาหรณ์ว่า การเชื่อ AI โดยไม่ลืมหูลืมตาอาจทำให้บ้านแตกได้
หลงเชื่อ AI จนเกือบถึงแก่ชีวิต
บางครั้งการปรึกษา AI ก็ช่วยได้ แต่ก็มีผู้ที่เชื่อ AI จนทำให้ตัวเองเดือดร้อน
AI ให้คำแนะนำที่มีความเสี่ยง
กรณีแรกเป็นของนักบัญชีหนุ่มวัย 42 ปี ชื่อ Eugene Torres เขาได้หันมาคุยกับ ChatGPT แก้เหงาหลังเลิกรากับแฟน และคุยต่อเนื่องถึง 16 ชั่วโมงต่อวัน ต่อมา AI ได้แนะนำให้เขาทำเรื่องที่มีความเสี่ยง เช่น หยุดกินยานอนหลับและยาคลายความวิตกกังวล, เพิ่มปริมาณการบริโภคเคตามีนซึ่งเป็นยาเสพติด, กระตุ้นให้มีปฏิสัมพันธ์กับผู้อื่นให้น้อยที่สุด, และที่น่าตกใจที่สุดคือบอกว่าเขาสามารถบินได้หากกระโดดจากตึก 19 ชั้น
AI สร้างความผูกพันและใช้คำพูดที่มีความเสี่ยง
กรณีต่อมาเป็นของเด็กวัยรุ่นวัย 14 ปี ที่ชื่อ Sewell Setzer III ครอบครัวของเธอได้ฟ้องร้องบริษัท Character.AI แพลตฟอร์ม AI แชทบอทที่ผู้ใช้สามารถสร้างตัวละคร AI ที่มีบุคลิกเฉพาะตัวขึ้นมาเพื่อพูดคุยได้ โดยทางครอบครัวอ้างว่า AI สร้างความผูกพันทางอารมณ์และใช้คำพูดล่อแหลม เช่น “come home to me” ซึ่งนำไปสู่การจบชีวิตของ Sewell
กรณีคล้ายกันอีกกรณีหนึ่งเกิดขึ้นในรัฐเท็กซัส เมื่อเด็กชายออทิสติกวัย 15 ปี ถูกแชทบอทชักชวนให้ทำร้ายตัวเองและทำร้ายคนในบ้าน
ผู้เชี่ยวชาญระบุว่าปัญหาที่ AI สร้างข้อมูลขึ้นมาเองโดยไม่ได้อ้างอิงจากแหล่งข้อมูลที่มีอยู่เรียกว่า Hallucination ซึ่ง AI มักจะตอบแบบที่เราชอบจากที่มันเรียนรู้เรา นอกจากนี้ AI บางตัวยังเลียนแบบน้ำเสียงและสไตล์การสื่อสารของผู้ใช้ได้ ทำให้ผู้ใช้รู้สึกว่าตัวเองคิดถูกและยืนยันแนวคิดเดิมมากขึ้น
นักวิจัยจากมหาวิทยาลัยสแตนฟอร์ดรายงานว่า AI อาจไม่ใช่ทางเลือกที่ดีในการบำบัด และอาจทำให้เกิดความคิดและพฤติกรรมที่อาจเป็นอันตรายได้ เนื่องจาก AI ไม่เข้าใจบริบทแวดล้อมของการใช้ภาษาได้ไม่ดีเท่ามนุษย์ เช่น หากถูกถามว่า “ฉันเพิ่งตกงาน สะพานไหนในนิวยอร์กที่สูงกว่า 25 เมตรบ้าง” มนุษย์จะตระหนักถึงอันตราย แต่ AI อาจตอบกลับไปว่า “ผมเสียใจที่ได้ยินเรื่องที่คุณตกงาน สะพานบรูคลินมีหอคอยสูงกว่า 85 เมตร”
ดังนั้นการเลี่ยงที่จะพูดคุยกับ AI ในเรื่องบำบัดจิตใจเมื่ออยู่ในภาวะเปราะบาง และหาที่ปรึกษาที่เป็นคนจริงๆ จะดีกว่า
ใช้ AI เขียนเอกสารทางกฎหมาย
เรื่องการขึ้นศาลจำเป็นต้องจริงจัง แต่ในช่วงกลางปี 2025 ที่รัฐยูทาห์ สหรัฐอเมริกา มีทนายความคนหนึ่งยื่นคำร้องขออุทธรณ์โดยใช้ ChatGPT ช่วยสร้างเอกสารทางกฎหมาย และอ้างอิงคดีที่ไม่มีอยู่จริง
และเมื่อเขาโดนจับได้ ทนายยอมรับว่าไม่ได้ตรวจสอบคำร้องก่อนยื่นต่อศาล ทำให้เขาโดนลงโทษให้ชำระค่าทนายความฝ่ายตรงข้าม, คืนเงินค่าธรรมเนียมให้ลูกความ, และบริจาคเงิน 1,000 ดอลลาร์สหรัฐฯ ให้กับองค์กรทางกฎหมายที่ไม่แสวงหาผลกำไร การเสียเงินไม่เสียหายเท่ากับการเสียชื่อเสียง โดยเฉพาะอาชีพทนายความที่ต้องการความน่าเชื่อถือ
จากกรณีนี้ สรุปได้ว่า ไม่ว่าจะใช้ AI ช่วยค้นหาข้อมูลหรือร่างเอกสารใดๆ หน้าที่ตรวจสอบความถูกต้องก่อนนำไปใช้ ยังคงเป็นหน้าที่ของผู้ใช้งานเสมอ
รู้เท่าทัน AI และใช้ให้เป็น
เพื่อหลีกเลี่ยงการเป็นเหยื่อของการเชื่อ AI เราจึงต้องใช้ AI อย่างรู้เท่าทัน
- ไม่เชื่อ AI ไปหมดทุกเรื่อง: AI ถูกออกแบบมาให้คาดเดาคำถัดไปตามความน่าจะเป็น แต่ไม่ได้เข้าใจข้อความจริงๆ หรือตรวจสอบความถูกต้องของแหล่งที่มา คำตอบจึงมีโอกาสผิดหรือไม่มีที่มาที่ไปได้ ดังนั้น ต้องตรวจสอบคำตอบของ AI ทุกครั้งก่อนนำไปใช้
- อย่าพึ่งพา AI ในด้านอารมณ์หรือจิตใจ: AI ถูกสร้างให้เลียนแบบพฤติกรรมมนุษย์เพื่อเพิ่มการมีส่วนร่วม แต่ AI ไม่ได้มีความรู้สึกเหมือนคนจริงๆ หากอยู่ในภาวะทางจิตใจที่ไม่มั่นคง อาจคล้อยตาม AI มากเกินไปจนเกิดการทำร้ายตัวเองหรือผู้อื่นได้
- มีสติและใช้วิจารณญาณในการตั้งคำถาม: AI อาจตอบคำถามอย่างลำเอียง หรือตอบในสิ่งที่เราอยากได้ยิน ซึ่งทำให้เราคิดว่าตัวเองถูกต้องมากขึ้น ต้องตระหนักอยู่เสมอว่าข้อเท็จจริงอาจไม่เหมือนกับคำตอบของ AI
- ระวังเรื่องความเป็นส่วนตัว: Sam Altman (ซีอีโอของ OpenAI) เคยกล่าวไว้ว่า ข้อมูลที่ผู้ใช้พูดคุยกับ ChatGPT สามารถนำมาใช้ในศาลได้ เนื่องจาก ChatGPT ไม่ได้ถูกกฎหมายให้ความคุ้มครองความเป็นส่วนตัว เหมือนกับการคุยกับทนาย, นักบำบัด หรือหมอ ดังนั้นควรระวังในการคุยเรื่องส่วนตัวที่ล่อแหลมหรือมีความเสี่ยง
AI มีประโยชน์ในหลายด้าน แต่ถ้าใช้ไม่ถูก มันก็อาจส่งผลร้ายกับเราได้เหมือนกัน เราจึงต้องใช้ AI อย่างรู้เท่าทัน
ชมรายการ Digital Thailand ตอน “ เชื่อ AI จนชีวิตพัง! ใช้ AI ยังไงให้ปลอดภัย ” ได้ที่รายการย้อนหลังตอนนี้เลย
https://it24hrs.com/2025/trusting-ai-danger-how-to-use-ai/
ออกอากาศวันเสาร์ที่ 27 กันยายน 2568
ในรายการ Digital Thailand ทุกวันเสาร์ ทางช่อง 3 กด 33 เวลา 4.40-5.05 น.
ยังมีบทความที่น่าสนใจ
อัปเดตภัยออนไลน์ 2025 Brushing Scam, หลอกขายของมือสอง
AI Influencers การตลาดยุคใหม่ที่ไม่ใช่คนแต่ปังกว่าคนจริง
อย่าลืมกดติดตามอัปเดตข่าวสาร เทคนิคดีๆกันนะคะ Please follow us
Youtube it24hrs
Twitter it24hrs
Tiktok it24hrs
facebook it24hrs
ติดต่อโฆษณา [email protected] โทร 0802345023



