New voice cloning technology allows scammers to impersonate anyone

สแกมเมอร์กำลังใช้เทคโนโลยี AI เป็นเครื่องมือโคลนเสียง เพื่อเลียนแบบเสียงของคนที่เหยื่อรู้จัก และไว้วางใจ เพื่อหลอกพวกเขาให้โอนเงิน เทคโนโลยีนี้ยังสามารถปลอมแปลงหมายเลขโทรศัพท์ของครอบครัวและเพื่อน ทำให้ดูเหมือนว่ามีสายมาจากบุคคลที่พวกเขาแอบอ้าง เมื่อเทคโนโลยี AI มีประสิทธิภาพมากขึ้น ผู้เชี่ยวชาญเตือนว่าอีกไม่นานนักต้มตุ๋นอาจสามารถลอกเลียนแบบใบหน้าของใครบางคนได้เช่นกัน เพื่อป้องกันตนเอง ผู้คนได้รับคำแนะนำให้ระมัดระวังและตรวจสอบการโทรจากเพื่อนและครอบครัวก่อนที่จะส่งเงิน

Scammers are using new voice cloning technology to imitate the voices of people that their victims know and trust in order to deceive them into handing over money. This technology can even spoof the phone numbers of family and friends, making it look like the call is coming from the person they are impersonating. As AI technology becomes more powerful, experts are warning that scammers may soon be able to clone someone’s face as well. To protect themselves, people are being advised to be vigilant and to verify calls from friends and family before sending any money.

เทคโนโลยีการโคลนเสียงใหม่ช่วยให้นักต้มตุ๋นสามารถเลียนแบบใครก็ได้

Marie Haynes ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์กล่าวว่าในไม่ช้าเครื่องมือ AI จะทำให้การแยกแยะ AI ออกจากเสียงคนจริงเป็นเรื่องยาก (Dave Charbonneau/CTV News Ottawa)

ในขณะที่เทคโนโลยีปัญญาประดิษฐ์ยังคงก้าวหน้า นักต้มตุ๋นก็หาวิธีใหม่ๆ ในการใช้ประโยชน์จากมัน

การโคลนเสียงได้กลายเป็นเครื่องมือที่อันตรายอย่างยิ่ง โดยนักต้มตุ๋นใช้มันเพื่อเลียนแบบเสียงของคนที่เหยื่อรู้จักและไว้วางใจเพื่อหลอกลวงพวกเขาให้โอนเงิน

Marie Haynes ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์กล่าวว่า “อีกไม่นานผู้คนจะสามารถใช้เครื่องมือเช่น ChatGPT หรือแม้แต่ Bing และในที่สุด Google เพื่อสร้างเสียงที่เหมือนเสียงของพวกเขามาก โดยใช้จังหวะของพวกเขา” Marie Haynes ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์กล่าว “และจะเป็นเรื่องยากมากที่จะแยกความแตกต่างจากบุคคลที่มีชีวิตจริง” เธอเตือนว่าการโคลนเสียงจะเป็นเครื่องมือใหม่สำหรับนักต้มตุ๋นที่แอบอ้างเป็นคนอื่น

Carmi Levy นักวิเคราะห์ด้านเทคโนโลยีอธิบายว่านักต้มตุ๋นสามารถปลอมแปลงหมายเลขโทรศัพท์ของครอบครัวและเพื่อนได้ ทำให้ดูเหมือนว่าการโทรนั้นมาจากบุคคลที่พวกเขาแอบอ้าง

“สแกมเมอร์กำลังใช้เครื่องมือที่ซับซ้อนมากขึ้นเพื่อโน้มน้าวเราว่าเมื่อโทรศัพท์ดังขึ้น แท้จริงแล้วมาจากสมาชิกในครอบครัวหรือคนสำคัญคนนั้น คนนั้นที่เรารู้จัก” เขากล่าว

คำแนะนำ คือ ให้คุณวางสาย และโทรหาคน ที่คุณคิดว่าโทรหาโดยตรง

“ถ้าคุณรับสายแล้วเสียงไม่ชัดเจน ดูน่าสงสัย อ้างถึงคนที่คุณรู้จัก สิ่งแรกที่คุณควรทำคือพูดว่า ‘โอเค ขอบคุณมากที่โทรมา เดี๋ยวฉันจะโทรกลับ ไม่ว่าเขาจะอ้างว่า เป็นหลานชาย หลานสาว หรือไม่ว่าจะเป็นใครก็ตาม’ ที่คุณกำลังบอกฉันว่า เขากำลังมีปัญหา โดยตรง’ จากนั้นวางจากโทรศัพท์แล้วโทรหาพวกเขา” เขาแนะนำ

Haynes ยังเตือนว่าการโคลนเสียงเป็นเพียงจุดเริ่มต้นเท่านั้น โดย AI นั้นทรงพลังพอที่จะโคลนใบหน้าของใครบางคนได้เช่นกัน

“ในเร็วๆ นี้ หากฉันได้รับสาย FaceTime ฉันจะรู้ได้อย่างไรว่าเป็นคนที่ฉันรู้จักจริงๆ” เธอกล่าว “เพราะอาจจะเป็นใครก็ได้ที่เลียนแบบเป็นคนๆ นั้น ด้วยเทคโนโลยี AI ก็ได้”

เมื่อเทคโนโลยี AI แพร่หลายมากขึ้น ผู้เชี่ยวชาญเรียกร้องให้ผู้คนระมัดระวังและตรวจสอบการโทรจากเพื่อนและครอบครัวก่อนที่จะดำเนินการตาม หรือแม้แต่โอนเงิน ให้ตามที่ปลายสายชักจูง

Haynes กล่าวว่า “มีเครื่องมือ AI ทุกประเภทที่สามารถใช้คำที่เป็นลายลักษณ์อักษร และสร้างเสียงออกมา “ในไม่ช้าเราจะพบว่าการโทรหลอกลวงกำลังเพิ่มขึ้นจริงๆ”

view original*