Artificial Intelligence deciphers images perceived by the human brain

ทีม Meta ได้ทดลองสร้างภาพใหม่ขึ้นจาก โดยต้นแบบคือภาพถ่ายที่ให้อาสาสมัครดู แล้วใช้การวิเคราะห์การทำงานของสมองโดย AI เพื่อทำซ้ำภาพถ่ายที่อาสาสมัครดู ผลลัพธ์มีความแม่นยำ น่าประทับใจ

A Meta team has reproduced, in some cases with impressive precision, photographs viewed by volunteers based on AI analysis of their brain activity.

ปัญญาประดิษฐ์ถอดรหัสภาพที่สมองมนุษย์รับรู้

ปัญญาประดิษฐ์ (AI) สามารถอ่านสมองและติดตามความคิดของเราได้หรือไม่? การศึกษาล่าสุด หลายการวิจัยชี้ให้เห็นว่า AI สามารถถอดรหัสและแปลกิจกรรมสมองของเรา ในรูปแบบของข้อความและรูปภาพ ในขณะที่เรากำลังฟังเรื่องราว ต้องการพูดคุย หรือดูภาพ

ผลงานล่าสุดนี้นำเสนอที่ปารีสเมื่อวันพุธที่ 18 ตุลาคม โดยทีมงานจาก Meta AI (ชื่อเดิม Facebook) แสดงให้เห็นถึงความก้าวหน้าอันน่าทึ่งเหล่านี้

Jean-Rémi King และเพื่อนร่วมงานของเขาอธิบายว่าอัลกอริธึม AI ของพวกเขาสามารถสร้างภาพถ่ายที่อาสาสมัครได้ดูอย่างสมจริงได้อย่างไร โดยอาศัยการวิเคราะห์การทำงานของสมองของพวกเขา การศึกษาทดลองของพวกเขาถูกนำเสนอในเอกสารงานวิจัยเวอร์ชั่นก่อนที่จะส่งให้สำนักพิมพ์เพื่อกระบวนการ peer-review อย่างเป็นทางการ โดยอาศัยชุดข้อมูลที่ได้จากการถ่ายภาพด้วยสนามแม่เหล็ก (MEG) และการถ่ายภาพด้วยคลื่นสนามแม่เหล็ก (fMRI) ของอาสาสมัครที่แสดงภาพถ่าย จากนั้นข้อมูลนี้จะถูกส่งไปยังชุดตัวถอดรหัส AI ซึ่งเรียนรู้ที่จะตีความและถอดเสียงกลับเป็นรูปภาพ

ผลลัพธ์? แม้ว่าความคล้ายคลึงกันระหว่างต้นฉบับกับสำเนาจะไม่สมบูรณ์แบบ แต่ก็มีความคล้ายคลึงกันอย่างน่าทึ่ง แม้แต่กับนักวิจัยในทีมของเรา “เมื่อสองปีที่แล้ว ฉันไม่คิดว่าผลลัพธ์แบบนี้จะเป็นไปได้” Jean-Rémi King นักวิจัยทางวิชาการ (CNRS, ENS) ที่ปัจจุบันทำงานกับ Meta AI มาแล้วห้าปี

ตัวอย่างการถอดรหัสภาพด้วยปัญญาประดิษฐ์ ด้านซ้าย คือ ภาพถ่ายที่อาสาสมัครนำเสนอ ด้านขวาเป็นภาพที่ AI สร้างขึ้นโดยการตีความการทำงานของสมองของวัตถุที่ถ่ายโดยเครื่องแมกนีโตเอนเซฟาโลกราฟฟี (MEG) สิ่งของ-MEG/FAIR META AI

ปัญญาประดิษฐ์ (AI) จะสามารถอ่านเข้าสู่สมองและติดตามความคิดของเราได้โดยตรงหรือไม่? ผลงานชุดล่าสุดแนะนำว่าไม่ว่าในกรณีใดก็ตาม AI สามารถถอดรหัสและแปลได้ดียิ่งขึ้นทั้งในรูปแบบของข้อความและรูปภาพ กิจกรรมสมองของเรา เมื่อเราฟังเรื่องราว อยากพูดหรือดูภาพ ล่าสุดนำเสนอเมื่อวันพุธที่ 18 ตุลาคมโดยทีมงาน Meta AI (เดิมชื่อ Facebook) ในปารีส แสดงให้เห็นถึงความก้าวหน้านี้อย่างน่าทึ่ง

Jean-Rémi King และเพื่อนร่วมงานอธิบายว่าอัลกอริธึม AI ของพวกเขาสามารถสร้างภาพถ่ายที่อาสาสมัครรับชมได้อย่างสมจริงได้อย่างไร โดยอาศัยการวิเคราะห์การทำงานของสมองของพวกเขา ข้อสังเกตของพวกเขาถูกนำเสนอในการพิมพ์ล่วงหน้า ซึ่งเป็นสิ่งตีพิมพ์ที่ยังไม่ได้รับการตรวจสอบโดยผู้ทรงคุณวุฒิก่อนที่จะตีพิมพ์ในวารสารทางวิทยาศาสตร์ เกี่ยวข้องกับชุดข้อมูลที่ได้รับจากการตรวจด้วยสนามแม่เหล็ก (MEG) หรือการถ่ายภาพด้วยคลื่นสนามแม่เหล็กเชิงฟังก์ชัน (fMRI) ของอาสาสมัครที่ฉายภาพด้วย จากนั้นข้อมูลนี้จะถูกส่งไปยังชุดตัวถอดรหัส AI ซึ่งเรียนรู้ที่จะตีความและถอดเสียงเป็นรูปภาพ

เครื่องถอดรหัสสมอง (Brain decoders)

ในช่วงไม่กี่เดือนที่ผ่านมา งานวิจัยหลายฉบับ ได้ศึกษาถึงศักยภาพในการถอดรหัสการทำงานของสมองโดย AI ไม่ว่าจะด้วยวิธี invasive – โดยการรวบรวมข้อมูลผ่านอิเล็กโทรด ฝังอยู่ในสมองในผู้ที่เป็นอัมพาต หรือวิธี non-invasive โดย MEG, fMRI ซึ่งเป็นเครื่องจักรขนาดใหญ่ที่สแกนศีรษะของผู้ถูกทดสอบ หรือแค่วัดสัญญาณแบบธรรมดาสำหรับการตรวจคลื่นไฟฟ้าสมอง (EEG)

เมื่อวันที่ 1 พฤษภาคม ในงาน Nature Neuroscience ทีมงานจากมหาวิทยาลัยออสติน (สหรัฐอเมริกา) นำโดย Alexander Huth เล่าว่ากำลังพยายาม reproduce สร้างภาพขึ้นใหม่ โดยใช้เครื่องถอดรหัส AI ซึ่งอาจเป็นการสร้างเสียงที่ได้ยินโดยผู้ถูกทดลองใน fMRI ขึ้นใหม่

การทดลองยังสรุปไม่ได้ทั้งหมด แต่พบว่า AI สามารถกู้คืนคำศัพท์และความหมายทั่วไปได้บางส่วน เธอยังสามารถเขียนข้อความจากเรื่องราวที่อาสาสมัครจินตนาการหรือจากวิดีโอที่พวกเขาดูได้ ความหมายบางส่วนได้รับการเก็บรักษาไว้ โดยมีความเที่ยงตรงมากกว่าข้อความที่สุ่มล้วนๆ ราวกับว่าสมอง ด้วยวิธีการต่างๆ เหล่านี้ ไม่ว่าจะฟัง จินตนาการ หรือสังเกตเรื่องราว ก็สามารถสร้าง “รหัสประสาทที่ใช้ร่วมกันระหว่างภาพและคำพูด” ตามความคิดเห็นของ Jean-Rémi King

view original*