It Will Get Harder to Detect Deepfakes: Secta Labs CEO

แม้ว่าทุกวันนี้การตรวจจับ Deepfake จะทำได้ง่าย แต่ Marko Jak กล่าวว่า “เรากำลังเข้าสู่ยุคที่เราไม่สามารถเชื่อในสิ่งที่เห็นได้อีกต่อไป”

While deepfakes are easy to detect today, Marko Jak says, “We’re getting into an era where we can no longer believe what we see.”

การตรวจจับ Deepfakes จะยากขึ้น: Secta Labs CEO

เมื่อ AI image generators ก้าวหน้ามากขึ้น การตรวจจับ Deepfake ก็ยิ่งท้าทายมากขึ้นกว่าเดิม หน่วยงานบังคับใช้กฎหมายและผู้นำระดับโลกยังคงส่งเสียงเตือนเกี่ยวกับอันตรายของ Deepfakes ที่สร้างโดย AI บนโซเชียลมีเดียและในพื้นที่ที่มีความขัดแย้ง

“เรากำลังเข้าสู่ยุคที่เราไม่สามารถเชื่อในสิ่งที่เห็นได้อีกต่อไป” Marko Jak ผู้ร่วมก่อตั้งและซีอีโอของ Secta Labs กล่าว “ตอนนี้ ยังแยกแยะได้ง่าย เพราะของปลอมยังไม่ค่อยดีนัก และบางครั้ง คุณก็เห็นได้ชัดเจน”

ตามที่ Jak กล่าว เราไม่ได้พัฒนาไปไกลขนาดนั้น—อาจจะภายในหนึ่งปี—จากจุดที่เราสามารถแยกแยะภาพปลอม ตั้งแต่แรกเห็น จนไม่สามารถแยกแยะได้อีกต่อไป: Jak เป็น CEO ของบริษัท AI-image generator

Jak ร่วมก่อตั้ง Secta Labs ในปี 2022; การเริ่มต้นสร้าง AI ในออสติน มุ่งเน้นไปที่การสร้างภาพคุณภาพสูงที่สร้างโดย AI ผู้ใช้สามารถอัปโหลดรูปภาพของตัวเองและเปลี่ยนเป็นภาพศีรษะและอวตารที่สร้างโดย AI

ตามที่ Jak อธิบาย Secta Labs มองผู้ใช้ว่าเป็นเจ้าของโมเดล AI ที่สร้างขึ้นจากข้อมูลของพวกเขา ในขณะที่บริษัทเป็นเพียงผู้ดูแลที่ช่วยเหลือในการสร้างภาพจากโมเดลเหล่านี้

การใช้โมเดล AI ขั้นสูง ในทางที่ผิด อาจทำให้ผู้นำระดับโลกเรียกร้องให้มีการดำเนินการทันทีเกี่ยวกับกฎระเบียบของ AI และทำให้บริษัทต่างๆ ตัดสินใจ ยังไม่เผยแพร่เครื่องมือขั้นสูงของตนสู่สาธารณะ

เมื่อสัปดาห์ที่แล้วหลังจากประกาศแพลตฟอร์มเสียงที่สร้างโดย Voicebox AI ใหม่ Meta กล่าวว่าจะไม่เผยแพร่ AI สู่สาธารณะ

“ในขณะที่เราเชื่อว่า การเปิดกว้างกับชุมชน AI เป็นสิ่งสำคัญและแบ่งปันงานวิจัยของเราเพื่อพัฒนาความทันสมัยของ AI” โฆษกของ Meta กล่าว “นอกจากนี้ยังจำเป็นต้องสร้างสมดุลระหว่างความเปิดกว้าง ด้วยความรับผิดชอบ”

เมื่อต้นเดือนที่ผ่านมา สำนักงานสืบสวนกลางแห่งสหรัฐอเมริกา (the U.S. Federal Bureau of Investigation) เตือนถึงกลโกงการกรรโชกด้วย AI Deepfake และอาชญากรที่ใช้ภาพถ่ายและวิดีโอที่ถ่ายจากโซเชียลมีเดียเพื่อสร้างเนื้อหาปลอม

Jak กล่าวว่า คำตอบในการต่อสู้กับของปลอมอาจไม่ได้อยู่ที่การตรวจจับของปลอม แต่อยู่ที่ความสามารถในการเปิดเผยของปลอม

“AI เป็นวิธีแรกในการตรวจจับ [ของปลอม]” Jak กล่าว “มีคนสร้างปัญญาประดิษฐ์ที่คุณสามารถใส่ภาพลงในวิดีโอได้ และ AI สามารถบอกคุณได้ว่า AI สร้างขึ้นหรือไม่”

Generative AI และศักยภาพการใช้ภาพที่สร้างโดย AI ในภาพยนตร์และโทรทัศน์เป็นหัวข้อที่ร้อนแรงในอุตสาหกรรมบันเทิง สมาชิก SAG-AFTRA ลงคะแนนเสียงก่อนเข้าสู่การเจรจาสัญญาเพื่ออนุญาตการนัดหยุดงาน ซึ่งเป็นข้อกังวลที่สำคัญ ปัญญาประดิษฐ์

Jak เสริมว่า ความท้าทายคือการแข่งขันของ AI เมื่อเทคโนโลยีมีความก้าวหน้ามากขึ้นและผู้ไม่ประสงค์ดีสร้างการปลอมขั้นสูงขั้นสูงขึ้น เพื่อต่อต้านเทคโนโลยีที่ออกแบบมาเพื่อตรวจจับพวกเขา

Jak ยอมรับว่าเทคโนโลยี และการเข้ารหัส อาจช่วยแก้ปัญหา Deepfake ได้ เนื่องจากยอมรับว่ามีการใช้บล็อกเชนมากเกินไป บางคนอาจบอกว่าเกินจริง ซึ่งเป็นวิธีแก้ปัญหาในโลกแห่งความเป็นจริง

แต่ในขณะที่เทคโนโลยีสามารถแก้ปัญหามากมายด้วย deepfakes Jak กล่าวว่าวิธีแก้ปัญหาที่ใช้เทคโนโลยีต่ำมากขึ้น ภูมิปัญญาของฝูงชน (the wisdom of the crowd) อาจเป็นกุญแจสำคัญ

“สิ่งหนึ่งที่ฉันเห็นว่า Twitter ทำ ซึ่งฉันคิดว่าเป็นความคิดที่ดี คือบันทึกของชุมชน (community notes) ซึ่งเป็นที่ที่ผู้คนสามารถเพิ่มบันทึกบางส่วนเพื่อให้บริบทแก่ทวีตของใครบางคน” Jak กล่าว “ทวีตสามารถเป็นข้อมูลที่ผิดได้เช่นเดียวกับ Deepfake” เขากล่าว Jak เสริมว่า บริษัทโซเชียลมีเดียจะได้รับประโยชน์ในการคิดหาวิธียกระดับชุมชนของตนเพื่อตรวจสอบว่าเนื้อหาที่เผยแพร่นั้นเป็นของจริงหรือไม่

“บล็อกเชนสามารถแก้ไขปัญหาเฉพาะได้ แต่การเข้ารหัสสามารถช่วยตรวจสอบแหล่งที่มาของรูปภาพได้” เขากล่าว “นี่อาจเป็นวิธีแก้ปัญหาที่ใช้งานได้จริง เนื่องจากเกี่ยวข้องกับการยืนยันแหล่งที่มามากกว่าเนื้อหารูปภาพ โดยไม่คำนึงว่า Deepfake จะซับซ้อนเพียงใด”

view original *