Risk of ‘industrial capture’ looms over AI revolution.

ในอุตสาหกรรม AI มีข้อสังเกตว่า องค์กรเอกชนและบุคคลจำนวนหนึ่ง มีบทบาทสำคัญ ควบคุมทรัพยากร และความรู้ส่วนใหญ่ ปรากฏการณ์นี้ ผู้เชี่ยวชาญด้าน AI เรียกว่า “ภาวะครอบงำอุตสาหกรรม”  โดยบริษัท Big Tech

สถานการณ์นี้ ถูกประเมิน ด้วยการนับปริมาณงานวิจัยที่ตีพิมพ์ โดยนักวิจัยจาก MIT ในวารสาร Science เมื่อต้นเดือนนี้ โดยเรียกร้องให้ผู้กำหนดนโยบายให้ความสนใจมากขึ้น การวิจัยของ MIT พบว่าเกือบ 70% ของผู้จบปริญญาเอกด้าน AI ไปทำงานในบริษัทต่างๆ ในปี 2020 เทียบกับ 21% ในปี 2004 ในทำนองเดียวกัน มีการจ้างคณาจารย์ในบริษัท AI เอกชน เพิ่มขึ้นแปดเท่าตั้งแต่ปี 2006 ซึ่งเร็วกว่าการเพิ่มขึ้น ของคณาจารย์ในคณะวิทยาการคอมพิวเตอร์อย่างมาก ผลที่ตามมาของการเปลี่ยนแปลงนี้ เทคโนโลยี  AI และแอปพลิเคชันใหม่ มีแนวโน้มที่จะขับเคลื่อนในเชิงพาณิชย์มากกว่าเพื่อประโยชน์สาธารณะในวงกว้าง

Private AI companies have quietly entrenched their power, and a handful of individuals and corporations now control much of the resources and knowledge in the sector. This phenomenon, which AI experts refer to as “industrial capture”, was quantified in a paper published by researchers from MIT in the journal Science earlier this month, calling on policymakers to pay closer attention. The MIT research found that almost 70% of AI PhDs went to work for companies in 2020, compared to 21% in 2004. Similarly, there was an eightfold increase in faculty being hired into AI companies since 2006, far faster than the overall increase in computer science research faculty. The consequences of this shift are manifold, and new applications are likely to be commercially driven rather than in the broader public interest.

เงินทุน และพลังการประมวลผลของ Big Tech หมายความว่ากิจการขนาดเล็กและสถาบันการศึกษาไม่สามารถแข่งขันในสาขา AI ได้ 

ความเสี่ยงของ ‘ภาวะการครอบงำอุตสาหกรรม AI’ โดยบริษัท Big Tech

เทคโนโลยี AI จำเป็นต้องใช้เงินทุนสูง ใช้พลังการประมวลผลที่สูงมาก ดังนั้น บุคคลและองค์กร Big Tech จำนวนหนึ่ง จะควบคุมทรัพยากรและความรู้ส่วนใหญ่ ในอุตสาหกรรม AI 

มีการเปลี่ยนแปลงครั้งใหญ่ ในด้านปัญญาประดิษฐ์ — แต่มันไม่ใช่อย่างที่บางคนคิด ในขณะที่ระบบสร้างภาษาขั้นสูง และแชทบอทครอบงำ

บริษัท Big Tech  เอกชนได้ยึดอำนาจอุตสาหกรรม AI อย่างซึมลึก จากพัฒนาการ AI ล่าสุด แสดงให้ว่า ขณะนี้บุคคลและองค์กร Big Tech จำนวนหนึ่ง ควบคุมทรัพยากรและความรู้ส่วนใหญ่ในอุตสาหกรรม AI  และท้ายที่สุดจะกำหนดผลกระทบต่ออนาคตโดยรวมของเรา

ปรากฏการณ์ที่ผู้เชี่ยวชาญด้าน AI เรียกว่า “ภาวะการครอบงำอุตสาหกรรม AI” โดยบริษัท Big Tech  มีนักวิจัยจากสถาบันเทคโนโลยีแมสซาชูเซตส์ ได้ศึกษาสถานการณ์ดังกล่าว ด้วยการนับจำนวนงานวิจัยด้าน AI ที่ตีพิมพ์ออกมา  แล้วนำเสนอในวารสาร Science เมื่อต้นเดือนที่ผ่านมา 

กระตุ้นให้มีการเรียกร้องผู้กำหนดนโยบาย ในสถาบันการศึกษา และภาครัฐ ให้ความสนใจเรื่องนี้มากขึ้น 

Generative AI เทคโนโลยีที่สนับสนุน ChatGPT กำลังเป็น AI ที่อยู่ในซอฟต์แวร์ที่ใช้โดยผู้คนหลายพันล้านคน เช่น Microsoft Office, Google Docs และ Gmail และธุรกิจตั้งแต่สำนักงานกฎหมายไปจนถึงสื่อและสถาบันการศึกษา ในอนาคต ผู้คนทั่วไป กำลังถูกเปลี่ยนแปลงด้วยการแนะนำจาก Generative AI

งานวิจัยของ MIT พบว่าเกือบร้อยละ 70 ของปริญญาเอกด้าน AI ไปทำงานในบริษัทต่างๆ ในปี 2020 เทียบกับร้อยละ 21 ในปี 2004 ในทำนองเดียวกัน มีการจ้างคณาจารย์ในบริษัท AI เพิ่มขึ้นแปดเท่าตั้งแต่ปี 2006 ซึ่งเร็วกว่าภาพรวมมาก การเพิ่มขึ้นของคณะวิจัยวิทยาการคอมพิวเตอร์ “นักวิจัยหลายคนที่เราพูดคุยด้วย ได้ละทิ้งแนวทางการวิจัยบางอย่าง เพราะพวกเขารู้สึกว่าไม่สามารถแข่งขันกับอุตสาหกรรมได้ พวกเขาไม่มีความสามารถด้านคอมพิวเตอร์หรือวิศวกรรม” นูร์ อาเหม็ด ผู้เขียนรายงาน Science กล่าว

โดยเฉพาะอย่างยิ่ง เขากล่าวว่านักวิชาการไม่สามารถสร้างโมเดลภาษาขนาดใหญ่อย่าง GPT-4 ซึ่งเป็นซอฟต์แวร์ AI ประเภทหนึ่งที่สร้างข้อความที่น่าเชื่อถือ และมีรายละเอียดโดยการคาดเดาคำถัดไปในประโยคที่มีความแม่นยำสูง เทคนิคนี้ต้องการข้อมูลและพลังการประมวลผลจำนวนมหาศาล 

ซึ่งหลักๆ แล้วมีเพียงบริษัทเทคโนโลยีขนาดใหญ่อย่าง Google, Microsoft และ Amazon เท่านั้นที่สามารถลงทุน และเข้าถึงเทคโนโลยี AI อย่างไร้ข้อจำกัด ได้ Ahmed พบว่าส่วนแบ่งของบริษัทต่างๆ ในโมเดล AI ที่ใหญ่ที่สุดได้หายไปจาก 11 เปอร์เซ็นต์ ในปี 2010 เป็น 96 เปอร์เซ็นต์ในปี 2021 

การจำกัดการเข้าถึง หมายความว่านักวิจัยไม่สามารถสร้างแบบจำลอง วิจัย พัฒนา เทคโนโลยี AI ชั้นสูงในห้องปฏิบัติการของมหาวิทยาลัย ได้เทียบเท่ากับองค์กรเอกชนได้ ดังนั้น นักวิจัยในสถาบันการศึกษาจึงไม่สามารถติดตามความก้าวหน้า หรือตรวจสอบอันตรายที่อาจเกิดขึ้น ของ AI ได้อย่างมีประสิทธิภาพ

ข้อมูลของเอกสารยังแสดงให้เห็นความแตกต่างอย่างมีนัยสำคัญระหว่างการลงทุนของภาครัฐและเอกชนในเทคโนโลยี AI ในปี 2021 หน่วยงานรัฐบาลที่ไม่ใช่ด้านกลาโหมของสหรัฐฯ ได้จัดสรรเงินจำนวน 1.5 พันล้านดอลลาร์ให้กับ AI คณะกรรมาธิการยุโรปวางแผนที่จะใช้จ่าย 1 พันล้านยูโร ในขณะเดียวกัน ภาคเอกชนลงทุนมากกว่า 340 พันล้านเหรียญสหรัฐกับ AI ในปี2564

Alex Hanna ผู้อำนวยการฝ่ายวิจัยของ Distributed AI Research Institute และอดีตสมาชิกทีมEthical AI ของ Google กล่าวว่า “มีความมั่งคั่งและการลงทุนในชุดเทคนิคที่แคบมาก 

เธอชี้ไปที่ข้อมูลการลงทุนจาก PitchBook ที่แสดงให้เห็นว่าเงินส่วนใหญ่สำหรับ generative AI ในช่วง 6  ปีที่ผ่านมาไปที่สตาร์ทอัพอย่าง Anthropic, Inflection, Character.ai และ Adept AI และความพยายามที่ใหญ่กว่าอย่าง OpenAI ที่กำลังสร้างของตัวเอง โมเดลขนาดใหญ่ ในปี 2019 

OpenAI ได้เปลี่ยนสถานะจากองค์กรไม่แสวงหาผลกำไรเป็นองค์กรที่ทำกำไรด้วยเงินลงทุน 1 พันล้านดอลลาร์จาก Microsoft โดยอ้างถึงความต้องการ “เพื่อเพิ่มการลงทุนในด้านการประมวลผลและความสามารถ” 

ผลที่ตามมาของการเปลี่ยนแปลงนี้มีมากมาย หมายความว่าทางเลือกสาธารณะสำหรับเทคโนโลยี AI ขององค์กร เช่น แบบจำลองและชุดข้อมูล กำลังหายากขึ้นเรื่อยๆ และแอปพลิเคชันใหม่มีแนวโน้มที่จะขับเคลื่อนในเชิงพาณิชย์มากกว่าเพื่อประโยชน์สาธารณะในวงกว้าง 

นักวิจัยหลายคนชี้ให้เห็น ฮันนาซึ่งทำงานโดยได้รับทุนสนับสนุนจากองค์กรไม่แสวงผลกำไรเห็นด้วย “ถ้าคุณต้องการทำงานเกี่ยวกับ AI เฉพาะทางเช่น การรับรองความหลากหลายทางชีวภาพ หรือวิทยาศาสตร์ภูมิอากาศ หรือการเกษตร ไม่มีอะไรที่อยากทำมากนัก” เธอกล่าว 

Meredith Whittaker ประธานของแอป Signal ที่เข้ารหัสได้เปรียบเทียบสถานการณ์กับการที่กองทัพสหรัฐฯ มีอำนาจเหนือการวิจัยทางวิทยาศาสตร์ในช่วงสงครามเย็นในรายงานเชิงวิเคราะห์ในปี 2021 “ที่นี่ ในประวัติศาสตร์ที่มืดมนเหล่านี้ เราเผชิญหน้ากับต้นทุนที่สูงลิ่วในการจับกุม — ไม่ว่าจะเป็นทางทหารหรือทางอุตสาหกรรม” เธอเขียน “และผลกระทบที่เป็นอันตรายต่อเสรีภาพทางวิชาการ . . สามารถถือครองอำนาจในบัญชีได้”

นักวิจัยและผู้เชี่ยวชาญด้านนโยบายเห็นพ้องต้องกันในการวินิจฉัย แต่ไม่ใช่ในแนวทางแก้ไข— บางคนเช่น Ahmed เชื่อว่ารัฐบาลควรจัดตั้งศูนย์ข้อมูลเฉพาะด้านวิชาการเพื่อให้นักวิจัยทำการทดลองได้ แต่คนอื่น ๆ เช่น Whittaker เชื่อว่าจะรวมอำนาจต่อไปในหมู่ผู้ที่เป็นเจ้าของโครงสร้างพื้นฐาน เช่น บริการคลาวด์ แต่พวกเขาทั้งหมดเห็นพ้องต้องกันว่าสิ่งหนึ่งที่ผู้กำหนดนโยบายทำไม่ได้ นั่นคือเมินเฉย

view original *