How Walmart, Delta, Chevron and Starbucks are using AI to monitor employee messages

บริษัท Aware สตาร์ทอัพ  AI ที่เชี่ยวชาญด้านการวิเคราะห์ข้อความต่างๆ ของพนักงาน กล่าวว่าบริษัทต่างๆ เช่น Walmart, Delta, T-Mobile, Chevron และ Starbucks กำลังใช้เทคโนโลยีของตน บริษัท Aware กล่าวว่า data repository ประกอบด้วยข้อความโต้ตอบระหว่างพนักงาน ประมาณ 2 หมื่นล้านข้อความจากพนักงานมากกว่า 3 ล้านคน Jutta Williams ผู้ร่วมก่อตั้ง Humane Intelligence กล่าวถึงเทคโนโลยี employee surveillance technology ว่า “นี่คือการปฏิบัติต่อผู้คนเหมือนสินค้าคงคลัง ในแบบที่ฉันไม่เคยเห็นมาก่อน”

Aware, an AI firm specializing in analyzing employee messages, said companies including Walmart, Delta, T-Mobile, Chevron and Starbucks are using its technology. Aware said its data repository contains messages that represent about 20 billion individual interactions across more than 3 million employees. “A lot of this becomes thought crime,” Jutta Williams, co-founder of Humane Intelligence, said of AI employee surveillance technology in general. She added, “This is treating people like inventory in a way I’ve not seen.”

Walmart, Delta, Chevron และ Starbucks ใช้ AI เพื่อติดตามการสื่อสารของพนักงานอย่างไร

บริษัท Aware สตาร์ทอัพ  AI ที่เชี่ยวชาญด้านการวิเคราะห์ข้อความต่างๆ ของพนักงาน กล่าวว่าบริษัทต่างๆ เช่น Walmart, Delta, T-Mobile, Chevron และ Starbucks กำลังใช้เทคโนโลยีของตน บริษัท Aware กล่าวว่า data repository ประกอบด้วยข้อความโต้ตอบระหว่างพนักงาน ประมาณ 2 หมื่นล้านข้อความจากพนักงานมากกว่า 3 ล้านคน

“สิ่งนี้จำนวนมากสร้างความคิดที่เป็นมลพิษ” Jutta Williams ผู้ร่วมก่อตั้ง Humane Intelligence กล่าวถึงเทคโนโลยี employee surveillance technology เธอกล่าวเสริมว่า “นี่คือการปฏิบัติต่อผู้คนเหมือนสินค้าคงคลัง ในแบบที่ฉันไม่เคยเห็นมาก่อน”

employee surveillance technology ขึ้นอยู่กับสถานที่ที่คุณทำงาน มีโอกาสสำคัญที่ปัญญาประดิษฐ์จะวิเคราะห์ข้อความของคุณบน Slack, Microsoft Teams, Zoom และแอพยอดนิยมอื่นๆ

นายจ้างรายใหญ่ในสหรัฐฯ เช่น Walmart, Delta Air Lines, T-Mobile, Chevron และ Starbucks

ตลอดจนแบรนด์ยุโรปอย่าง Nestle และ AstraZeneca ได้หันมาใช้บริการของ Aware สตาร์ทอัพอายุ 7 ปี เพื่อติดตามการพูดคุยระหว่างพนักงานต่างๆ บันทึกการสนทนาเป็นดาต้าเซ็ตของบริษัท

Jeff Schumann ผู้ร่วมก่อตั้งและซีอีโอของสตาร์ทอัพโคลัมบัส รัฐโอไฮโอ กล่าวว่า AI ช่วยให้บริษัทต่างๆ “เข้าใจความเสี่ยงในการสื่อสารของพวกเขา” เพื่ออ่านความรู้สึกของพนักงานแบบเรียลไทม์ แทนที่จะขึ้นอยู่กับปีหรือสองครั้ง แบบสำรวจต่อปี

การใช้ข้อมูลเป็นดาต้าเซ็ต โดยที่ไม่ระบุชื่อพนักงานในการวิเคราะห์ของ Aware ลูกค้าสามารถดูได้ว่าพนักงานในกลุ่มอายุใดกลุ่มหนึ่ง หรือในพื้นที่การทำงานใด ตอบสนองต่อนโยบายองค์กรหรือแคมเปญการตลาดใหม่อย่างไร ตามข้อมูลของ Schumann โมเดล AI จำนวนมากของ Aware ที่สร้างขึ้นเพื่ออ่านข้อความและประมวลผลรูปภาพ ยังสามารถระบุการกลั่นแกล้ง การคุกคาม การเลือกปฏิบัติ การไม่ปฏิบัติตามข้อกำหนด ภาพลามกอนาจาร ภาพเปลือย และพฤติกรรมอื่น ๆ เขากล่าว

เครื่องมือวิเคราะห์ของ Aware ซึ่งเป็นเครื่องมือที่ติดตามความรู้สึก และความเป็นมลพิษของพนักงาน ไม่มีการระบุชื่อพนักงานเป็นรายบุคคล ตามที่ Schumann กล่าว แต่เครื่องมือ eDiscovery ที่แยกออกมานั้นสามารถทำได้ ในกรณีที่มีภัยคุกคามขั้นรุนแรงหรือพฤติกรรมเสี่ยงอื่นๆ ที่ลูกค้ากำหนดไว้ล่วงหน้า เขากล่าวเสริม

Aware กล่าวว่า Walmart, T-Mobile, Chevron และ Starbucks ใช้เทคโนโลยีของบริษัทในการกำกับดูแลความเสี่ยง และการปฏิบัติตามกฎระเบียบ และงานประเภทนั้นคิดเป็นประมาณ 80% ของธุรกิจของบริษัท

CNBC ไม่ได้รับการตอบกลับจาก Walmart, T-Mobile, Chevron, Starbucks หรือ Nestle เกี่ยวกับการใช้ Aware ตัวแทนจาก AstraZeneca กล่าวว่าบริษัทใช้ผลิตภัณฑ์ eDiscovery แต่ไม่ได้ใช้การวิเคราะห์เพื่อติดตามความรู้สึกหรือความเป็นมลพิษของพนักงาน Delta บอกกับ CNBC ว่าจะใช้การวิเคราะห์และ eDiscovery ของ Aware ในการติดตามแนวโน้มและความรู้สึกเพื่อรวบรวมคำติชมจากพนักงานและผู้มีส่วนได้ส่วนเสียอื่น ๆ และสำหรับการเก็บรักษาบันทึกไว้ใช้ทางกฎหมายในแพลตฟอร์มโซเชียลมีเดีย

Jutta Williams ผู้ร่วมก่อตั้ง Humane Intelligence องค์กรที่ไม่หวังผลกำไรด้านความรับผิดชอบด้าน AI กล่าวว่า AI เพิ่มปัญหาใหม่ และอาจเป็นปัญหาให้กับสิ่งที่เรียกว่าโปรแกรมความเสี่ยงภายใน ซึ่งมีมานานหลายปีเพื่อประเมินสิ่งต่าง ๆ เช่น การจารกรรมขององค์กร โดยเฉพาะอย่างยิ่งในการสื่อสารทางอีเมล

Williams กล่าวกับ CNBC ว่า “สิ่งเหล่านี้ส่วนใหญ่กลายเป็นอาชญากรรมทางความคิด” เมื่อพูดถึงการใช้ AI การเฝ้าระวังพฤติกรรมของพนักงาน โดยทั่วไป ไม่จำเพาะเจาะจงแค่เทคโนโลยีของ Aware เธอกล่าวว่า “นี่คือการปฏิบัติต่อผู้คนเหมือนสินค้าคงคลัง ในแบบที่ฉันไม่เคยเห็นมาก่อน”

Employee surveillance AI ระบบเฝ้าระวังพนักงานขยายตัวอย่างรวดเร็ว เป็นตลาด AI ขนาดใหญ่ที่เติบโตขึ้นอย่างรวดเร็ว ในปีที่ผ่านมา หลังจากการเปิดตัวแชทบอท ChatGPT ของ OpenAI ในปลายปี 2022 Generative AI กลายเป็นหัวข้อที่พูดถึงอย่างกว้างขวาง ในการหารายได้ขององค์กร และรูปแบบหนึ่งของเทคโนโลยีที่ทำให้งานต่างๆ เป็นอัตโนมัติในทุกอุตสาหกรรม ตั้งแต่บริการทางการเงินและการวิจัยทางชีวการแพทย์ ไปจนถึงโลจิสติกส์ การเดินทางออนไลน์ และสาธารณูปโภค

รายได้ของ Aware เพิ่มขึ้น 150% ต่อปีโดยเฉลี่ยในช่วงห้าปีที่ผ่านมา Schumann กล่าวกับ CNBC และลูกค้าทั่วไปของบริษัทมีพนักงานประมาณ 30,000 คน คู่แข่งอันดับต้นๆ ได้แก่ Qualtrics, Relativity, Proofpoint, Smarsh และ Netskope

ตามมาตรฐานอุตสาหกรรม บริษัท  Aware ค่อนข้างประหยัด บริษัทระดมทุนครั้งล่าสุดในปี 2021 โดยสามารถระดมทุนได้ 60 ล้านดอลลาร์ในรอบที่นำโดย Goldman Sachs บริษัทการจัดการสินทรัพย์ เปรียบเทียบกับโมเดลภาษาขนาดใหญ่หรือ LLM บริษัทต่างๆ เช่น OpenAI และ Anthropic ซึ่งระดมทุนได้หลายพันล้านดอลลาร์ต่อบริษัท โดยส่วนใหญ่มาจากพันธมิตรเชิงกลยุทธ์

การติดตามมลพิษของพนักงานแบบเรียลไทม์

Schumann เริ่มต้นบริษัทในปี 2560 หลังจากใช้เวลาเกือบแปดปีในการทำงานด้านความร่วมมือระดับองค์กรที่บริษัทประกันภัย Nationwide

ก่อนหน้านั้นเขาเป็นผู้ประกอบการ และ Aware ไม่ใช่บริษัทแรกที่เขาก่อตั้งที่ดึงเอาความคิดถึงออร์เวลล์ออกมา

ในปี 2548  Schumann ได้ก่อตั้งบริษัทชื่อ BigBrotherLite.com ตามโปรไฟล์ LinkedIn ของเขา ธุรกิจได้พัฒนาซอฟต์แวร์ที่ “ปรับปรุงประสบการณ์การรับชมดิจิทัลและมือถือ” ของซีรีส์เรียลลิตี CBS เรื่อง “Big Brother” ในนวนิยายคลาสสิกของออร์เวลล์เรื่อง “1984” พี่ใหญ่เป็นผู้นำของรัฐเผด็จการที่ประชาชนตกอยู่ใต้การสอดส่องตลอดเวลา

“ฉันสร้างเครื่องเล่นที่เรียบง่ายโดยเน้นไปที่ประสบการณ์ผู้บริโภคที่สะอาดและง่ายขึ้นเพื่อให้ผู้คนดูรายการทีวีบนคอมพิวเตอร์ของพวกเขา”  Schumann กล่าวในอีเมล

Aware กำลังทำสิ่งที่แตกต่างออกไป

ในทุกปี บริษัทจะจัดทำรายงานที่รวบรวมข้อมูลเชิงลึกจากข้อความนับพันล้านในปี 2566 ซึ่งมีจำนวน 6.5 พันล้านข้อความ ที่ส่งไปยังบริษัทขนาดใหญ่ โดยจัดตารางปัจจัยเสี่ยงที่รับรู้และคะแนนความเชื่อมั่นในที่ทำงาน Schumann กล่าวถึงข้อความนับล้านล้านที่ส่งผ่านแพลตฟอร์มการสื่อสารในที่ทำงานทุกปีว่าเป็นดาต้าเซ็ตที่ไม่มีโครงสร้างที่เติบโตเร็วที่สุดในโลก”

เมื่อรวมเนื้อหาประเภทอื่นๆ ที่มีการแชร์ เช่น รูปภาพและวิดีโอ AI การวิเคราะห์ของ Aware จะวิเคราะห์เนื้อหามากกว่า 100 ล้านชิ้นทุกวัน ในการทำเช่นนี้ เทคโนโลยีจะสร้างกราฟทางสังคมของบริษัท โดยพิจารณาว่าทีมใดพูดคุยกันภายในมากกว่าทีมอื่นๆ

“ระบบติดตามความรู้สึกนึกคิดของพนักงานแบบเรียลไทม์อยู่เสมอ และติดตามความเป็นมลพิษแบบเรียลไทม์อยู่เสมอ” Schumann กล่าวถึงเครื่องมือวิเคราะห์ “หากคุณเป็นธนาคารที่ใช้ Aware และความรู้สึกของพนักงานพุ่งสูงขึ้นในช่วง 20 นาที ที่ผ่านมา นั่นเป็นเพราะพวกเขากำลังพูดถึงบางสิ่งในแง่บวกร่วมกัน เทคโนโลยีจะสามารถบอกพวกเขาได้ว่ามันคืออะไร”

Aware ยืนยันกับ CNBC ว่าจะใช้ข้อมูลจากลูกค้าองค์กรเพื่อฝึกอบรมโมเดลการเรียนรู้ของเครื่อง ที่เก็บข้อมูลของบริษัทประกอบด้วยข้อความประมาณ 6.5 พันล้านข้อความ ซึ่งแสดงถึงการโต้ตอบระหว่างบุคคลประมาณ 20 พันล้านครั้งจากพนักงานที่ไม่ซ้ำกันมากกว่า 3 ล้านคน บริษัทกล่าว

เมื่อลูกค้ารายใหม่สมัครใช้เครื่องมือวิเคราะห์ โมเดล AI ของ Aware จะใช้เวลาประมาณสองสัปดาห์ในการฝึกอบรมข้อความของพนักงาน และทำความรู้จักกับรูปแบบของอารมณ์และความรู้สึกภายในบริษัท เพื่อให้สามารถเห็นว่าอะไรเป็นเรื่องปกติและผิดปกติ Schumann กล่าว

“จะไม่มีการระบุชื่อบุคคล เพื่อปกป้องความเป็นส่วนตัว”  Schumann กล่าว แต่เขากล่าวว่า ลูกค้าจะเห็นว่า “บางทีพนักงานที่มีอายุเกิน 40 ปีในส่วนนี้ของสหรัฐอเมริกาอาจเห็นการเปลี่ยนแปลงนโยบาย [a] ในทางลบอย่างมากเนื่องจากต้นทุน แต่ทุกคนที่อยู่นอกกลุ่มอายุนั้นและ สถานที่มองในแง่ดีเพราะมันส่งผลกระทบต่อพวกเขาในลักษณะที่แตกต่างออกไป”

แต่เครื่องมือ eDiscovery ของ Aware ทำงานแตกต่างออกไป บริษัทสามารถตั้งค่าการเข้าถึงชื่อพนักงานตามบทบาท โดยขึ้นอยู่กับหมวดหมู่ “ความเสี่ยงขั้นสูงสุด” ที่บริษัทเลือก ซึ่งสั่งให้เทคโนโลยีของ Aware ดึงชื่อบุคคล ในบางกรณี จากทรัพยากรบุคคลหรือตัวแทนบริษัทอื่น

“เหตุการณ์ที่พบบ่อยบางส่วน ได้แก่ ความรุนแรงขั้นรุนแรง การกลั่นแกล้งอย่างรุนแรง การล่วงละเมิด แต่จะแตกต่างกันไปตามอุตสาหกรรม”  Schumann กล่าว พร้อมเสริมว่าในบริการทางการเงิน การซื้อขายหลักทรัพย์โดยใช้ข้อมูลภายในที่น่าสงสัยจะถูกติดตาม

ตัวอย่างเช่น ลูกค้าสามารถระบุนโยบาย “ภัยคุกคามที่รุนแรง” หรือหมวดหมู่อื่น ๆ โดยใช้เทคโนโลยีของ Aware  Schumann กล่าว และให้โมเดล AI ตรวจสอบการละเมิดใน Slack, Microsoft Teams และ Workplace ของ Meta ลูกค้ายังสามารถจับคู่สิ่งนั้นกับ rule-based flags ตาม certain phrases, statements และอื่นๆ ที่กำหนด หาก AI พบสิ่งที่ละเมิดนโยบายที่ระบุของบริษัท AI สามารถแจ้งชื่อพนักงานแก่ตัวแทนที่ได้รับมอบหมายของลูกค้าได้

แนวทางปฏิบัติประเภทนี้ใช้มานานหลายปีในการสื่อสารทางอีเมล มีอะไรใหม่คือการใช้ AI และแอปพลิเคชันบนแพลตฟอร์มการส่งข้อความในที่ทำงาน เช่น Slack และ Teams

Amba Kak ผู้อำนวยการบริหารของ AI Now Institute แห่งมหาวิทยาลัยนิวยอร์ก กังวลเกี่ยวกับการใช้ AI เพื่อช่วยระบุพฤติกรรมที่ถือว่าเป็นพฤติกรรมเสี่ยง

“มันส่งผลให้เกิดผลกระทบที่น่าขนลุกต่อสิ่งที่ผู้คนพูดในที่ทำงาน” Kak กล่าว พร้อมเสริมว่าคณะกรรมาธิการการค้าของรัฐบาลกลาง กระทรวงยุติธรรม และคณะกรรมการโอกาสการจ้างงานที่เท่าเทียมกัน ต่างก็แสดงความกังวลเกี่ยวกับเรื่องนี้ แม้ว่าเธอจะไม่ได้พูดเจาะจงเกี่ยวกับเรื่องนี้ก็ตาม เทคโนโลยีของอะแวร์ “ปัญหาเหล่านี้เป็นปัญหาด้านสิทธิแรงงานพอๆ กับปัญหาความเป็นส่วนตัว”

Schumann กล่าวว่าแม้ว่าเครื่องมือ eDiscovery ของ Aware จะช่วยให้ทีมรักษาความปลอดภัยหรือทีมสืบสวนด้านทรัพยากรบุคคลใช้ AI เพื่อค้นหาข้อมูลจำนวนมหาศาล แต่ความสามารถ “ที่คล้ายกันแต่เป็นพื้นฐานก็มีอยู่แล้วในปัจจุบัน” ใน Slack, Teams และแพลตฟอร์มอื่น ๆ

“ข้อแตกต่างที่สำคัญคือ Aware และโมเดล AI ไม่ได้ทำการตัดสินใจ”  Schumann กล่าว “AI ของเราช่วยให้การรวมชุดข้อมูลใหม่นี้ง่ายขึ้นเพื่อระบุความเสี่ยงที่อาจเกิดขึ้นหรือการละเมิดนโยบาย”

ข้อกังวลเรื่องความเป็นส่วนตัว

แม้ว่าข้อมูลจะถูกรวบรวมหรือไม่เปิดเผยตัวตน แต่การวิจัยก็แนะนำว่า มันเป็นแนวคิดที่มีข้อบกพร่อง การศึกษาที่สำคัญเกี่ยวกับความเป็นส่วนตัวของข้อมูลโดยใช้ข้อมูลการสำรวจสำมะโนประชากรของสหรัฐอเมริกาในปี 1990 แสดงให้เห็นว่า 87% ของชาวอเมริกันสามารถระบุตัวตนได้โดยใช้รหัสไปรษณีย์ วันเกิด และเพศเพียงอย่างเดียว ลูกค้า Aware ที่ใช้เครื่องมือวิเคราะห์สามารถเพิ่มข้อมูลเมตาให้กับการติดตามข้อความ เช่น อายุของพนักงาน สถานที่ แผนก การดำรงตำแหน่ง หรือหน้าที่งาน

“สิ่งที่พวกเขากำลังพูดนั้นขึ้นอยู่กับความคิดที่ล้าสมัยมากและฉันจะบอกว่าเป็นแนวคิดที่หักล้างโดยสิ้นเชิง ณ จุดนี้ที่ว่าการไม่เปิดเผยตัวตนหรือการรวมกลุ่มเป็นเหมือนกระสุนวิเศษผ่านความกังวลเรื่องความเป็นส่วนตัว” Kak กล่าว

นอกจากนี้ ประเภทของการใช้ AI Model Aware ยังมีประสิทธิภาพในการสร้างอนุมานจากข้อมูลรวม ทำให้คาดเดาได้อย่างแม่นยำ เช่น เกี่ยวกับตัวระบุส่วนบุคคลตามภาษา บริบท ศัพท์สแลง และอื่นๆ ตามการวิจัยล่าสุด

“ไม่มีบริษัทใดที่อยู่ในฐานะที่จะรับประกันความเป็นส่วนตัวและความปลอดภัยของ LLM และระบบประเภทนี้ได้อย่างกว้างขวาง” Kak กล่าว “ไม่มีใครสามารถบอกคุณด้วยใบหน้าตรงไปตรงมาว่าความท้าทายเหล่านี้ได้รับการแก้ไขแล้ว”

แล้วเรื่องการขอความช่วยเหลือจากพนักงานล่ะ? หากการโต้ตอบถูกตั้งค่าสถานะและพนักงานถูกลงโทษทางวินัยหรือไล่ออก เป็นเรื่องยากสำหรับพวกเขาที่จะเสนอข้อแก้ตัวหากพวกเขาไม่ได้เป็นความลับของข้อมูลทั้งหมดที่เกี่ยวข้อง  Williams กล่าว

“คุณจะเผชิญหน้ากับผู้กล่าวหาของคุณอย่างไร เมื่อเรารู้ว่าความสามารถในการอธิบายของ AI ยังไม่สามารถเชื่อถือได้เต็มร้อย”  Williams กล่าว

Schumann กล่าวตอบ: “ไม่มีโมเดล AI ใดของเราที่ตัดสินใจหรือให้คำแนะนำเกี่ยวกับวินัยของพนักงาน”

“เมื่อแบบจำลองทำเครื่องหมายปฏิสัมพันธ์” Schumann กล่าว “โมเดลจะให้บริบทที่สมบูรณ์เกี่ยวกับสิ่งที่เกิดขึ้นและนโยบายที่แบบจำลองนั้นกระตุ้น ทำให้ทีมสอบสวนได้รับข้อมูลที่พวกเขาต้องการเพื่อตัดสินใจขั้นตอนต่อไปที่สอดคล้องกับนโยบายของบริษัทและกฎหมาย”

view original *