การหลอกลวงทั่วโลกทวีความรุนแรงมากขึ้นเรื่อยๆ จากรายงานการหลอกลวงทั่วโลกปี 2566 ของ GASA พบว่าการฉ้อโกง ทั่วโลกเพิ่มขึ้น 10.2% เมื่อเทียบกับปีที่แล้ว (2566) เกิดความสูญเสียทางการเงินสูงถึง 55,000 ล้านดอลลาร์สหรัฐ ในขณะที่ Generative AI (เช่น ChatGPT และ DeepFake เป็นต้น) ถูกพัฒนาอย่างรวดเร็วและถูกนำไปใช้หลอกลวงในหลายพื้นที่ ในอนาคต การหลอกลวงจะพัฒนาต่อไปอย่างรวดเร็ว โดยมีค่าใช้จ่ายในการดำเนินการลดลง เมื่อรวมกับการรั่วไหลของข้อมูล ส่วนบุคคลบ่อยครั้ง ภาครัฐและเอกชนจำเป็นต้องลงทุนและร่วมกันวางกลยุทธ์เพื่อป้องกันภัยจากการฉ้อโกงที่เกิดขึ้น
จำนวนเคสการหลอกลวงโดยใช้ AI ปลอมเสียง กำลังเพิ่มขึ้นทั่วโลก เนื่องจากมิจฉาชีพเริ่มใช้เทคโนโลยีปัญญาประดิษฐ์ (AI) เพื่อเลียนแบบเสียงคนคุ้นเคย เพื่อนหรือครอบครัว เพื่อทำให้เหยื่อเชื่อและหลงกลในที่สุด
มิจฉาชีพใช้เทคโนโลยีโคลนนิ่งเพื่อวิเคราะห์เสียงที่ถูกบันทึกไว้หรือเสียงที่ได้จากออนไลน์เพื่อสร้างเสียงสังเคราะห์ที่ใกล้เคียง กับเสียงบุคคลเป้าหมาย เมื่อทำสำเร็จก็จะโทรหาเหยื่อเพื่อปลอมเป็นสมาชิกในครอบครัวหรือคนใกล้ตัว บ่อยครั้งที่ผู้โทรอ้างว่า อยู่ในสถานการณ์ฉุกเฉิน เช่น เกิดอุบัติเหตุ ต้องการให้โอนเงินช่วยเหลือโดยด่วน หรือมีปัญหาทางกฎหมาย เพื่อบีบคั้นและเร่ง ให้เหยื่อทำบางอย่างโดยไม่ทันตรวจสอบว่าผู้โทรเข้าเป็นคนที่คิดไว้จริงหรือไม่
ในประเทศไทยเทคโนโลยี AI ปลอมเสียงเพื่อหลอกหลวงเริ่มคืบคลานเข้ามา หลายฝ่ายเริ่มส่งสัญญาณเตือน เมื่อเร็วๆนี้ กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (DES) ได้เตือนว่าขณะนี้มิจฉาชีพเริ่มใช้ AI ปลอมเสียง สร้างแชทปลอม และ คลิปปลอม ด้านสำนักงานตำรวจแห่งชาติ แถลงข่าวเตือนมิจฉาชีพใช้วิธี“ปลอมเสียง”เป็นบุคคลอื่นเพื่อยืมเงิน ซึ่งเป็นการพัฒนาวิธีการหลอกลวงของคนร้าย
นางสาวฐิตินันท์ สุทธินราพรรณ ผู้อำนวยการฝ่ายการตลาดประจำภูมิภาคเอเชียตะวันออกเฉียงใต้ บริษัท Gogolook ได้เน้นความสำคัญของการป้องกัน การฉ้อโกงและความมุ่งมั่นในการให้ความปลอดภัยแก่ผู้ใช้บริการ Whoscall ในประเทศไทย โดยกล่าวเสริมว่า "เมื่อเทคโนโลยีการฉ้อโกงพัฒนา อย่างต่อเนื่อง ทาง Gogolook มุ่งมั่นที่จะสร้างชุมชน ป้องกันการฉ้อโกงและสร้างความปลอดภัยให้แก่ผู้ใช้บริการ Whoscall พร้อมกับ การร่วมมือกับ GASA เพื่อเสริมสร้าง การแลกเปลี่ยนข้อมูลระหว่างภูมิภาคและการร่วมมือทางเทคโนโลยี และสร้างสรรค์โซลูชันส์ป้องกันการฉ้อโกงระดับโลก เพื่อปกป้องผู้ใช้จากอันตรายที่กำลังเพิ่มขึ้นจากการหลอกลวงด้วยเทคโนโลยีเสียงหรือการหลอกลวง โดยใช้ Generative AI"
Gogolook กระตุ้นให้คนไทยป้องกันตัวเองจาก AI ปลอมเสียง โดยระวังสายโทรเข้าที่ไม่พึงประสงค์ ดังนี้
• แม้ว่าจะรู้สึกคุ้นเคยกับเสียงที่โทรเข้ามาก็ตาม สิ่งสำคัญคืออย่ารีบทำตามสิ่งที่ปลายสายเร่งให้ทำ ควรเช็ค ตัวตนที่แท้จริงของผู้โทร ให้แน่ใจก่อนที่จะให้ข้อมูลส่วนตัวหรือดำเนินการใดๆ
• การที่จะช่วยยืนยันตัวตนของผู้โทรคือ ติดต่อกลับโดยใช้หมายเลขโทรศัพท์ที่เราเคยบันทึกไว้ โทรหาคนใกล้ ตัวเขาเพื่อเช็ค
• ไม่ควรเปิดเผยข้อมูลที่ละเอียดอ่อนหรือข้อมูลทางการเงินจนกว่าจะระบุตัวตนของผู้โทรที่แท้จริง นอกจากนี้ การดาวน์โหลดแอป Whoscall เป็นอีกหนึ่งเครื่องมือเพื่อช่วยระบุหมายเลขโทรเข้าได้
• ควรระมัดระวังหากมีการขอให้โอนเงินหรือขอความช่วยเหลือเร่งด่วน โดยเฉพาะหากเป็นวิธีชำระเงินที่ผิดปกติ ไม่โอนเงินไปหาบุคคลที่กล่าวถึงโดยตรง หรือ ผู้โทรพยายามกดดันให้ดำเนินการทันที
ในฐานะสมาชิกผู้ก่อตั้ง Gogolook หวังว่าความร่วมมือกับ GASA จะช่วยส่งเสริมให้มีการแลกเปลี่ยนข้อมูลการหลอกลวง ในระดับภูมิภาคและวงการต่างๆ อีกทั้งยกระดับการป้องกันการฉ้อโกงระดับโลกและเชื่อมเครือข่ายชุมชนการป้องกัน การฉ้อโกงในภูมิภาคเอเชียและตะวันตกเข้าไว้ด้วยกัน