Lifesaver or job killer? Why AI tools like ChatGPT are so polarizing

เครื่องมือสร้าง AI เช่น ChatGPT, Replika และ Stable Diffusion กำลังสร้างผลกระทบในอุตสาหกรรมเทคโนโลยี เทคโนโลยีใหม่นี้ทำให้เส้นแบ่งระหว่างมนุษย์กับเครื่องจักรพร่ามัว และทำให้เกิดทั้งความหวังและความกลัวที่สิ้นหวัง เครื่องมือ Generative AI มีความสามารถในการสร้างเนื้อหาของตนเองโดยใช้ข้อมูล เช่น ศิลปะ เพลง เรียงความ และรหัสคอมพิวเตอร์ และกำลังถูกใช้งานมากขึ้นในหลากหลายอุตสาหกรรม อย่างไรก็ตาม ความกลัวที่ล้อมรอบ AI กำเนิดคือการดูดซับและสะท้อนอคติที่เลวร้ายที่สุดของสังคม คุกคามการดำรงชีวิตของศิลปินและคนงานปกขาว ตลอดจนการหลอกลวงและการบิดเบือนข้อมูลอย่างต่อเนื่อง ผู้เชี่ยวชาญแนะนำว่าข้อดีและด้านมืดนั้นมีอยู่จริง แต่คำมั่นสัญญาและอันตรายของ AI กำเนิดนั้นอาจดูเรียบง่ายกว่าที่พาดหัวข่าวไว้

Generative AI tools, such as ChatGPT, Replika and Stable Diffusion, are causing a polarising effect in the tech industry. The new technology is blurring the lines between human and machine and causing both wild hopes and desperate fears. Generative AI tools have the ability to create their own content using data, such as art, songs, essays and computer code, and are increasingly being used in a wide range of industries. However, the fear surrounding generative AI is that it is absorbing and reflecting society’s worst biases, threatening the livelihoods of artists and white-collar workers, and perpetuating scams and disinformation. Experts suggest that the benefits and dark sides are real, but the promise and perils of generative AI may be more modest than the headlines make them seem.

ผู้ช่วยชีวิตหรือนักฆ่างาน? เหตุใดเครื่องมือ AI เช่น ChatGPT จึงมีการแบ่งขั้ว

หากคุณฟังสิ่งที่ส่งเสริม ปัญญาประดิษฐ์ก็พร้อมที่จะปฏิวัติเกือบทุกด้านของชีวิตให้ดีขึ้น กระแสของเครื่องมือล้ำสมัยกำลังทำลายอุปสรรคด้านภาษา ทำให้งานที่น่าเบื่อเป็นอัตโนมัติ ตรวจหามะเร็งและปลอบโยนคนเหงา

ในขณะเดียวกัน กลุ่มผู้ทำพินัยกรรมที่เพิ่มจำนวนขึ้นเรื่อยๆ ก็เห็นพ้องต้องกันว่า AI พร้อมที่จะปฏิวัติชีวิต — แต่แย่กว่านั้น มันดูดซับและสะท้อนถึงอคติที่เลวร้ายที่สุดในสังคม คุกคามการดำรงชีวิตของศิลปินและคนงานปกขาว และทำให้การหลอกลวงและการบิดเบือนข้อมูลยืดเยื้อ พวกเขากล่าว

คลื่นลูกล่าสุดของ AI ทำให้อุตสาหกรรมเทคโนโลยีและนักวิจารณ์คลั่งไคล้ สิ่งที่เรียกว่าเครื่องมือ AI กำเนิด เช่น ChatGPT, Replika และ Stable Diffusion ซึ่งใช้ซอฟต์แวร์ที่ได้รับการฝึกฝนเป็นพิเศษเพื่อสร้างข้อความ รูปภาพ เสียง และวิดีโอที่เหมือนมนุษย์ ดูเหมือนจะทำให้เส้นแบ่งระหว่างมนุษย์กับเครื่องจักร ความจริงและเรื่องแต่งจางลงอย่างรวดเร็ว

ในขณะที่ภาคส่วนต่าง ๆ ตั้งแต่การศึกษาไปจนถึงการดูแลสุขภาพไปจนถึงการประกันไปจนถึงการตลาดต่างพิจารณาว่า AI จะเปลี่ยนโฉมหน้าธุรกิจของพวกเขาได้อย่างไร โฆษณาชวนเชื่อจำนวนมากได้ก่อให้เกิดความหวังและความกลัวที่สิ้นหวัง การเติมน้ำมันทั้งสองอย่างเป็นความรู้สึกที่ว่าเครื่องจักรฉลาดเกินไป เร็วเกินไป — และสักวันหนึ่งอาจหลุดลอยไปนอกเหนือการควบคุมของเรา “นิวเคลียร์คืออะไรสำหรับโลกทางกายภาพ” Tristan Harris นักจริยธรรมด้านเทคโนโลยีประกาศเมื่อเร็ว ๆ นี้ว่า “AI มีความสำคัญต่อทุกสิ่ง”

ผู้เชี่ยวชาญกล่าวว่าข้อดีและด้านมืดเป็นเรื่องจริง แต่ในระยะสั้น คำมั่นสัญญาและอันตรายของ AI กำเนิดอาจดูเรียบง่ายกว่าพาดหัวข่าว Margaret O’Mara ศาสตราจารย์ด้านประวัติศาสตร์แห่งมหาวิทยาลัยวอชิงตันกล่าวว่า “การผสมผสานระหว่างความน่าหลงใหลและความกลัว หรือความรู้สึกสบายและความตื่นตระหนก เป็นสิ่งที่ต้อนรับคลื่นเทคโนโลยีใหม่ทุกลูก นับตั้งแต่มีคอมพิวเตอร์ดิจิทัลทั้งหมดเครื่องแรก” เช่นเดียวกับการเปลี่ยนแปลงทางเทคโนโลยีที่ผ่านมา เธอเสริมว่าโมเดล AI ในปัจจุบันสามารถทำให้งานบางอย่างในชีวิตประจำวันเป็นไปโดยอัตโนมัติ ลบล้างงานบางประเภท แก้ปัญหาบางอย่างและทำให้งานอื่นแย่ลง แต่ “มันจะไม่ใช่พลังเดียวที่เปลี่ยนแปลงทุกสิ่ง”

ปัญญาประดิษฐ์และแชทบอทไม่ใช่เรื่องใหม่ AI รูปแบบต่างๆ ได้ขับเคลื่อนฟีด “For You” ของ TikTok, รายการเล่นเพลงส่วนตัวของ Spotify, ระบบขับเคลื่อนอัตโนมัติของ Tesla, การพัฒนายารักษาโรค และระบบจดจำใบหน้าที่ใช้ในการสืบสวนคดีอาชญากรรม แชตบอตคอมพิวเตอร์ธรรมดามีมาตั้งแต่ปี 1960 และถูกใช้อย่างแพร่หลายสำหรับการบริการลูกค้าออนไลน์

สิ่งใหม่คือความกระตือรือร้นรอบ ๆ AI เชิงกำเนิด ซึ่งเป็นเครื่องมือ AI ประเภทหนึ่งที่ดึงข้อมูลมหาศาลมาสร้างเนื้อหาของตนเอง ไม่ว่าจะเป็นศิลปะ เพลง เรียงความ หรือแม้แต่รหัสคอมพิวเตอร์ แทนที่จะวิเคราะห์หรือแนะนำเนื้อหาที่สร้างโดยมนุษย์เพียงอย่างเดียว ในขณะที่เทคโนโลยีที่อยู่เบื้องหลัง AI กำเนิดได้เกิดขึ้นมานานหลายปีในห้องปฏิบัติการวิจัย แต่สตาร์ทอัพและบริษัทต่าง ๆ เพิ่งเริ่มเผยแพร่สู่สาธารณะได้ไม่นาน

เครื่องมือฟรี เช่น แชทบอต ChatGPT ของ OpenAI และโปรแกรมสร้างภาพ DALL-E 2 ได้บันทึกจินตนาการในขณะที่ผู้คนแบ่งปันวิธีการใช้งานที่แปลกใหม่และประหลาดใจกับผลลัพธ์ ความนิยมของพวกเขาทำให้ยักษ์ใหญ่ในอุตสาหกรรม เช่น Microsoft, Google และ Facebook แข่งกันรวมเครื่องมือที่คล้ายคลึงกันเข้ากับผลิตภัณฑ์ที่ได้รับความนิยมมากที่สุดของพวกเขา ตั้งแต่เสิร์ชเอ็นจิ้นไปจนถึงโปรแกรมประมวลผลคำ

แต่สำหรับทุกเรื่องราวความสำเร็จ ดูเหมือนว่าจะมีสถานการณ์ที่เหมือนฝันร้าย

สิ่งอำนวยความสะดวกของ ChatGPT ในการร่างอีเมลที่ฟังดูเป็นมืออาชีพและถูกต้องตามหลักไวยากรณ์ทำให้การประหยัดเวลาในแต่ละวันสำหรับหลาย ๆ คน ช่วยให้ผู้ที่มีปัญหาในการอ่านออกเขียนได้ แต่มหาวิทยาลัย Vanderbilt ใช้ ChatGPT ในการเขียนอีเมลทั่ววิทยาลัยเพื่อแสดงความเสียใจทั่วไปในการตอบโต้เหตุกราดยิงในรัฐมิชิแกน ซึ่งทำให้นักศึกษาโกรธแค้น

ChatGPT และเครื่องมือภาษา AI อื่นๆ ยังสามารถเขียนโค้ดคอมพิวเตอร์ สร้างเกม และกลั่นกรองข้อมูลเชิงลึกจากชุดข้อมูลได้อีกด้วย แต่ไม่มีการรับประกันว่าโค้ดจะใช้งานได้ เกมจะสมเหตุสมผลหรือข้อมูลเชิงลึกจะถูกต้อง บอท Bing AI ของ Microsoft ได้รับการพิสูจน์แล้วว่าให้คำตอบที่ไม่ถูกต้องสำหรับข้อความค้นหา และการทำซ้ำในช่วงแรก ๆ ยังกลายเป็นการต่อสู้กับผู้ใช้ เกมที่ ChatGPT ประดิษฐ์ขึ้นกลับกลายเป็นเกมลอกเลียนแบบที่มีอยู่แล้ว

GitHub Copilot ซึ่งเป็นเครื่องมือเขียนโค้ด AI จาก OpenAI และ Microsoft กลายเป็นสิ่งที่นักพัฒนาซอฟต์แวร์จำนวนมากขาดไม่ได้อย่างรวดเร็ว โดยคาดการณ์โค้ดบรรทัดถัดไปและแนะนำวิธีแก้ไขปัญหาทั่วไป การแก้ปัญหาไม่ได้ถูกต้องเสมอไป และอาจนำโค้ดที่ผิดพลาดเข้าสู่ระบบได้หากนักพัฒนาไม่ระมัดระวัง

นักข่าวถ่ายภาพขณะที่ Yusuf Mehdi ผู้บริหารของ Microsoft อธิบายการค้นหา Bing ที่ขับเคลื่อนด้วย AI ใหม่ที่สำนักงานใหญ่ของบริษัทเมื่อเดือนที่แล้วใน Redmond, Wash (Jovelle Tamayo สำหรับ The Washington Post)

ต้องขอบคุณอคติในข้อมูลที่ได้รับการฝึกอบรม ผลลัพธ์ของ ChatGPT ไม่เพียงแต่ไม่ถูกต้องเท่านั้น แต่ยังเป็นการล่วงละเมิดอีกด้วย ในตัวอย่างที่น่าอับอายอย่างหนึ่ง ChatGPT ได้สร้างโปรแกรมซอฟต์แวร์สั้นๆ ที่เสนอว่า วิธีง่ายๆ ที่จะบอกว่าใครสักคนจะเป็นนักวิทยาศาสตร์ที่ดีหรือไม่ก็คือการตรวจสอบว่าพวกเขาเป็นทั้งคนผิวขาวและผู้ชายหรือไม่ OpenAI กล่าวว่ากำลังทำงานอย่างต่อเนื่องเพื่อแก้ไขผลลัพธ์ที่มีข้อบกพร่องและปรับปรุงโมเดล

Stable Diffusion ซึ่งเป็นระบบแปลงข้อความเป็นรูปภาพจาก Stability AI สตาร์ทอัพในลอนดอน ช่วยให้ทุกคนสามารถสร้างภาพที่ดูโดดเด่นในรูปแบบศิลปะที่หลากหลาย โดยไม่คำนึงถึงทักษะทางศิลปะของพวกเขา บล็อกเกอร์และนักการตลาดนำเครื่องมือนี้ไปใช้อย่างรวดเร็วและเครื่องมือที่คล้ายกันเพื่อสร้างภาพประกอบเฉพาะสำหรับบทความและเว็บไซต์โดยไม่จำเป็นต้องจ่ายเงินให้ช่างภาพหรือซื้อภาพสต็อก

แต่ศิลปินบางคนแย้งว่า Stable Diffusion เลียนแบบงานของพวกเขาอย่างโจ่งแจ้งโดยไม่ให้เครดิตหรือค่าตอบแทน Getty Images ฟ้อง Stability AI ในเดือนกุมภาพันธ์ โดยกล่าวหาว่าละเมิดลิขสิทธิ์โดยใช้ภาพ 12 ล้านภาพเพื่อฝึกโมเดลโดยไม่ต้องจ่ายเงินหรือขออนุญาต

ความเสถียร AI ไม่ตอบสนองต่อคำขอความคิดเห็น

บริษัทสตาร์ทอัพที่ใช้ AI เพื่อพูดข้อความด้วยเสียงที่เหมือนมนุษย์ชี้ไปที่การใช้ความคิดสร้างสรรค์ เช่น หนังสือเสียง ซึ่งตัวละครแต่ละตัวจะได้รับเสียงที่เข้ากับบุคลิกของพวกเขา วัล คิลเมอร์ นักแสดงผู้สูญเสียเสียงของเขาด้วยโรคมะเร็งลำคอในปี 2558 ได้ใช้เครื่องมือ AI เพื่อสร้างเสียงขึ้นมาใหม่

ปัจจุบัน สแกมเมอร์กำลังใช้เทคโนโลยีที่คล้ายคลึงกันมากขึ้นเพื่อเลียนแบบเสียงของคนจริงๆ โดยไม่ได้รับความยินยอม โทรหาญาติของเป้าหมายและแสร้งทำเป็นว่าต้องการเงินฉุกเฉิน

Arvind Narayanan ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์แห่งมหาวิทยาลัยพรินซ์ตันกล่าวว่ามีสิ่งล่อใจเมื่อเผชิญกับเทคโนโลยีใหม่ที่ทรงอิทธิพล โดยเน้นที่ประโยชน์หรือผลเสีย แต่เอไอไม่ใช่สิ่งเดียว และใครก็ตามที่บอกว่ามันดีหรือชั่วทั้งหมดนั้นถือว่าง่ายเกินไป ณ จุดนี้ เขากล่าวว่า ยังไม่เป็นที่แน่ชัดว่า AI กำเนิดจะกลายเป็นเทคโนโลยีแห่งการเปลี่ยนแปลงหรือเป็นกระแสนิยม

Narayanan กล่าวว่า “เมื่อพิจารณาว่า AI เชิงกำเนิดพัฒนาได้เร็วเพียงใด และเราเรียนรู้เกี่ยวกับความสามารถและความเสี่ยงใหม่ๆ บ่อยเพียงใด การอยู่บนพื้นฐานของความเป็นจริงเมื่อพูดถึงระบบเหล่านี้จึงรู้สึกเหมือนเป็นงานประจำ” Narayanan กล่าว “คำแนะนำหลักของฉันสำหรับคนทั่วไปคือทำใจให้สบายมากขึ้นโดยยอมรับว่าเราไม่รู้แน่ชัดว่าการพัฒนาที่เกิดขึ้นใหม่เหล่านี้จะเกิดขึ้นได้อย่างไร”

ความสามารถสำหรับเทคโนโลยีที่จะใช้ทั้งในด้านดีและไม่ดีนั้นไม่ได้มีลักษณะเฉพาะสำหรับ AI กำเนิด เครื่องมือ AI ประเภทอื่นๆ เช่น เครื่องมือที่ใช้ในการค้นพบยาใหม่ๆ ก็มีด้านมืดในตัวเอง ปีที่แล้ว นักวิจัยพบว่าระบบเดียวกันนี้สามารถระดมความคิดเกี่ยวกับอาวุธชีวภาพใหม่ที่อาจถึงตายได้ประมาณ 40,000 ชิ้น

เทคโนโลยีที่คุ้นเคยมากขึ้น ตั้งแต่อัลกอริธึมคำแนะนำ โซเชียลมีเดีย ไปจนถึงโดรนติดกล้อง แต่ AI กำเนิดนั้นสร้างแรงบันดาลใจให้เกิดปฏิกิริยาที่รุนแรงเป็นพิเศษ ส่วนหนึ่งเพราะมันสามารถทำสิ่งต่างๆ เช่น แต่งกลอนหรือสร้างงานศิลปะ ซึ่งคิดกันมานานแล้วว่าเป็นเอกลักษณ์ของมนุษย์

O’Mara ศาสตราจารย์ด้านประวัติศาสตร์กล่าวว่าบทเรียนไม่ได้อยู่ที่เทคโนโลยีเป็นสิ่งที่ดี ชั่วร้าย หรือแม้แต่เป็นกลางโดยเนื้อแท้ วิธีการออกแบบ ใช้งาน และทำการตลาดสำหรับผู้ใช้อาจส่งผลต่อระดับที่บางอย่าง เช่น แชทบ็อต AI ยืมตัวไปทำอันตรายและละเมิด และโฆษณาที่ “ร้อนแรง” เหนือ ChatGPT โดยผู้คนประกาศว่ามันจะเปลี่ยนสังคมหรือนำไปสู่ “เจ้าเหนือหัวของหุ่นยนต์” ความเสี่ยงที่ทำให้การตัดสินของทั้งผู้ใช้และผู้สร้างคลุมเครือ

“ตอนนี้เรามีการแข่งขันอาวุธ AI แบบนี้ การแข่งขันครั้งนี้จะเป็นการแข่งขันครั้งแรก” O’Mara กล่าว “และนั่นคือสิ่งที่ฉันกังวล ถ้าคุณมีบริษัทอย่าง Microsoft และ Google ล้มทับกันเพื่อเป็นบริษัทที่มีการค้นหาที่เปิดใช้งาน AI หากคุณพยายามที่จะดำเนินการอย่างรวดเร็วจริงๆ สิ่งนั้นก็จะพัง”

เขียนโดย Will Oremus, The Washington Post

View Original