Artificial emotional intelligence: AI starting to recognise emotions

เบอร์ลิน: การจับน้ำเสียง สังเกตภาษากาย และรับรู้สิ่งที่ผู้คนไม่ได้พูด สิ่งเหล่านี้ล้วนเป็นส่วนหนึ่งของการเป็นผู้ฟังที่ดี

BERLIN: Picking up on tone of voice, body language, what’s left unsaid – these are all part of being what’s called a good listener.

Artificial emotional intelligence: AI เริ่มเรียนรู้การรับรู้อารมณ์

เบอร์ลิน: การจับน้ำเสียง สังเกตภาษากาย และรับรู้สิ่งที่ผู้คนไม่ได้พูด สิ่งเหล่านี้ล้วนเป็นส่วนหนึ่งของการเป็นผู้ฟังที่ดี

ไม่ใช่ทุกคนที่มีไหวพริบ ความละเอียดอ่อน หรือความฉลาดทางอารมณ์ ที่จะสังเกตเห็นสิ่งที่บางครั้งอาจไม่ใช่คำพูด เราทุกคนมีเพื่อน หรือเพื่อนร่วมงาน ซึ่งไม่ได้มีทักษะในการสื่อสารที่ดี คุณต้องเข้าใจพวกเขาจากอวัจนภาษา (non-verbal language) 

แต่หลายคน ก็ไม่สามารถจับน้ำเสียง สีหน้า หรืออารมณ์ ได้ โดยการวิจัยของสถาบัน Max Planck ซึ่งชี้ให้เห็นว่าระบบปัญญาประดิษฐ์อาจอยู่ในขอบเขตที่ดีที่สุดของเราเมื่อพูดถึงการฟังและระบายความรู้สึก

“Machine learning การเรียนรู้ของเครื่อง สามารถจดจำอารมณ์จากคลิปเสียงที่สั้นเพียง 1.5 วินาที” Hannes Diemerling จากสถาบัน Max Planck เพื่อการพัฒนามนุษย์กล่าว ซึ่งกล่าวว่า บอทแสดงออกได้คล้ายกับมนุษย์ เมื่อต้องแสดงความยินดี ความโกรธ ความโศกเศร้า ความกลัว ความรังเกียจ และความเป็นกลางในการพูด

Diemerling และเพื่อนร่วมงานได้ข้อสรุปหลังจากคิดค้นการทดสอบที่พวกเขาเชื่อว่า จะแสดงให้เห็นว่าโมเดลการเรียนรู้ของเครื่องสามารถจดจำอารมณ์ได้อย่างแม่นยำโดยไม่คำนึงถึงภาษา ความแตกต่างทางวัฒนธรรม และเนื้อหาเชิงความหมาย

โดยใช้ชุดข้อมูลจากกลุ่มตัวอย่างของแคนาดา และเยอรมัน พวกเขาได้ประโยค “ไร้สาระ (nonsense)” เป็นคลิปที่ตัดให้เหลือครึ่งวินาที ซึ่งพวกเขากล่าวว่า “how long humans need to recognise emotion in speech (นานแค่ไหนที่มนุษย์ต้องรับรู้อารมณ์ในคำพูด)” และช่วงเวลาที่สั้นที่สุดที่เป็นไปได้ในการควบคุม “การทับซ้อนกันของอารมณ์ (overlapping of emotions)”

ทีมงานยอมรับว่าการทดลองของพวกเขา ซึ่งตีพิมพ์ในวารสาร Frontiers in Psychology มี “ข้อจำกัดบางประการ” โดยไม่ได้กล่าวถึงความแตกต่างในชีวิตจริงของการทับซ้อนกัน

view original*