บริษัทสตาร์ทอัพใหม่ SSI ที่ก่อตั้งมาได้ 3 เดือน มีมูลค่า 5 พันล้านดอลลาร์ เงินทุนดังกล่าวจะใช้เพื่อจ่ายค่าพลังการประมวลผล และจ้างบุคลากรชั้นนำ โดยมี Andreessen Horowitz และ Sequoia Capital ร่วมลงทุนด้วย
Three-month-old SSI valued at $5 billion, sources say. Funds will be used to acquire computing power, top talent. Investors include Andreessen Horowitz, Sequoia Capital
บริษัทสตาร์ทอัพ AI ใหม่ SSI ที่เน้นด้านความปลอดภัย ของ Ilya Sutskever ผู้ร่วมก่อตั้ง OpenAI ระดมทุนได้ 1 พันล้านดอลลาร์
ซานฟรานซิสโก/นิวยอร์ก 4 ก.ย. – บริษัท Safe Superintelligence (SSI) ซึ่งก่อตั้งโดย Ilya Sutskever อดีตหัวหน้านักวิทยาศาสตร์ของ OpenAI ได้ระดมทุนได้ 1 พันล้านดอลลาร์สหรัฐฯ เพื่อช่วยพัฒนาระบบปัญญาประดิษฐ์ที่ปลอดภัย ซึ่งเหนือกว่าความสามารถของมนุษย์มาก ผู้บริหารของบริษัทกล่าวกับรอยเตอร์
ปัจจุบัน SSI มีพนักงาน 10 คน วางแผนที่จะใช้เงินทุนดังกล่าวเพื่อจ่ายค่าพลังการประมวลผล และว่าจ้างบุคลากรที่มีความสามารถสูง โดยจะมุ่งเน้นไปที่การสร้างทีมนักวิจัยและวิศวกรขนาดเล็ก ที่มีศักยภาพและความน่าเชื่อถือสูง ที่อยู่ในเมืองพาโลอัลโต รัฐแคลิฟอร์เนีย และเมืองเทลอาวีฟ ประเทศอิสราเอล
บริษัทปฏิเสธที่จะเปิดเผยมูลค่าของบริษัท แต่แหล่งข่าวใกล้ชิดกับเรื่องนี้ระบุว่า บริษัทมีมูลค่า 5 พันล้านดอลลาร์ การระดมทุนครั้งนี้แสดงให้เห็นว่านักลงทุนบางส่วนยังคงเต็มใจที่จะเดิมพันกับบุคลากรที่มีความสามารถพิเศษ ซึ่งมุ่งเน้นการวิจัย AI ขั้นพื้นฐาน แม้ว่าโดยทั่วไปแล้ว นักลงทุนมีความสนใจลดลง ในการระดมทุนให้กับบริษัทสตาร์ทอัพ ที่อาจไม่ทำกำไรได้ในระยะเวลาสองสามปี และทำให้ผู้ก่อตั้งสตาร์ทอัพหลายคนลาออกจากตำแหน่งเพื่อไปทำงานกับบริษัทเทคโนโลยียักษ์ใหญ่
นักลงทุนรวมถึงบริษัทเงินทุนในความเสี่ยงชั้นนำอย่าง Andreessen Horowitz, Sequoia Capital, DST Global และ SV Angel นอกจากนี้ NFDG ซึ่งเป็นหุ้นส่วนการลงทุนที่ดำเนินการโดย Nat Friedman และ Daniel Gross ประธานเจ้าหน้าที่บริหารของ SSI ก็เข้าร่วมลงทุนด้วย
“เป็นเรื่องสำคัญสำหรับเราที่จะต้องมีนักลงทุนที่เข้าใจ เคารพ และสนับสนุนภารกิจของเรา ซึ่งก็คือการเดินหน้าไปสู่ระบบอัจฉริยะขั้นสูงที่ปลอดภัย และโดยเฉพาะอย่างยิ่งการใช้เวลาสองสามปีในการวิจัยและพัฒนาผลิตภัณฑ์ของเรา ก่อนที่จะนำออกสู่ตลาด” Gross กล่าวในการสัมภาษณ์
ความปลอดภัยของ AI ซึ่งหมายถึงการป้องกันไม่ให้ AI ก่อให้เกิดอันตราย เป็นหัวข้อที่ได้รับความสนใจอย่างมากท่ามกลางความกลัวว่า AI ที่เป็นอันตรายอาจทำสิ่งที่ขัดต่อผลประโยชน์ของมนุษยชาติหรืออาจทำให้มนุษย์สูญพันธุ์ได้
ร่างกฎหมายของรัฐแคลิฟอร์เนียที่พยายามบังคับใช้กฎระเบียบด้านความปลอดภัยกับบริษัทต่างๆ ได้สร้างความแตกแยกในอุตสาหกรรมนี้ โดยมีบริษัทอย่าง OpenAI และ Google คัดค้าน และได้รับการหนุนหลังจาก Anthropic และ xAI ของ Elon Musk
Sutskever วัย 37 ปี เป็นหนึ่งในนักเทคโนโลยีที่มีอิทธิพลมากที่สุดในด้าน AI เขาร่วมก่อตั้ง SSI ในเดือนมิถุนายนร่วมกับ Gross ซึ่งเคยเป็นผู้นำโครงการด้าน AI ที่ Apple และ Daniel Levy อดีตนักวิจัย OpenAI
Sutskever เป็นหัวหน้าฝ่ายวิทยาศาสตร์และ Levy เป็นหัวหน้าฝ่ายวิทยาศาสตร์ ในขณะที่ Gross รับผิดชอบด้านพลังการประมวลผลและการระดมทุน
ความท้าทายใหม่
Sutskever กล่าวว่าโครงการใหม่ของเขาสมเหตุสมผลเพราะเขาพบความท้าทายที่ค่อนข้างแตกต่างจากสิ่งที่เขาทำอยู่
เมื่อปีที่แล้ว เขาเป็นส่วนหนึ่งของคณะกรรมการของบริษัทแม่ที่ไม่แสวงหากำไรของ OpenAI ซึ่งลงมติขับไล่ Sam Altman ซีอีโอของ OpenAI ออกจากตำแหน่งเนื่องจากปัญหาการสื่อสารระหว่างกัน
ภายในไม่กี่วัน เขาก็กลับคำตัดสินใจและร่วมกับพนักงานเกือบทั้งหมดของ OpenAI ลงนามในจดหมายเรียกร้องให้ Altman กลับมาและคณะกรรมการลาออก แต่เหตุการณ์ที่เกิดขึ้นทำให้บทบาทของเขาที่ OpenAI ลดลง เขาถูกปลดออกจากคณะกรรมการและลาออกจากบริษัทในเดือนพฤษภาคม
หลังจากที่ Sutskever ลาออก บริษัทได้ยุบทีม “Superalignment” ของเขา ซึ่งทำงานเพื่อให้แน่ใจว่า AI ยังคงสอดคล้องกับค่านิยมของมนุษย์ เพื่อเตรียมพร้อมสำหรับวันที่ AI เหนือกว่าสติปัญญาของมนุษย์
แตกต่างจากโครงสร้างองค์กรที่ไม่ธรรมดาของ OpenAI ซึ่งนำมาใช้ด้วยเหตุผลด้านความปลอดภัยของ AI แต่ทำให้การปลด Altman เป็นไปได้ SSI มีโครงสร้างเพื่อแสวงหากำไรตามปกติ
ปัจจุบัน SSI มุ่งเน้นอย่างมากในการจ้างบุคลากรที่เหมาะสมกับวัฒนธรรมของบริษัท
Gross กล่าวว่าพวกเขาใช้เวลาหลายชั่วโมงในการตรวจสอบว่า ผู้สมัครมีลักษณะนิสัยที่ดี และกำลังมองหาบุคลากรที่มีความสามารถพิเศษ แทนที่จะเน้นย้ำคุณสมบัติและประสบการณ์ในสาขานี้มากเกินไป
“สิ่งหนึ่งที่ทำให้เราตื่นเต้นคือเมื่อคุณพบคนที่สนใจงาน ไม่สนใจกระแสในแวดวงนี้” เขากล่าวเสริม
SSI กล่าวว่ามีแผนที่จะร่วมมือกับผู้ให้บริการคลาวด์และบริษัทชิปเพื่อระดมทุนสำหรับความต้องการใช้พลังการประมวลผล แต่ยังไม่ได้ตัดสินใจว่าจะทำงานร่วมกับบริษัทใด สตาร์ทอัพด้าน AI มักทำงานร่วมกับบริษัทเช่น Microsoft และ Nvidia เพื่อรองรับความต้องการด้านโครงสร้างพื้นฐานของพวกเขา Sutskever เป็นผู้สนับสนุนสเกลลิ่งในช่วงแรกๆ ซึ่งเป็นสมมติฐานที่ว่าโมเดล AI จะปรับปรุงประสิทธิภาพได้ เมื่อมีพลังการประมวลผลมหาศาล แนวคิดและการดำเนินการดังกล่าวได้จุดประกายให้เกิดการลงทุนด้าน AI ในอุตสาหกรรมผลิตชิป ดาต้าเซ็นเตอร์ และพลังงาน ซึ่งถือเป็นการวางรากฐานสำหรับความก้าวหน้าด้าน generative AI เช่น ChatGPT
Sutskever กล่าวว่าเขาจะใช้วิธีการขยายขนาดที่แตกต่างไปจากนายจ้างเก่าของเขาโดยไม่เปิดเผยรายละเอียด
“ทุกคนพูดแต่ scaling hypothesis ทุกคนละเลยที่จะถามว่าเรากำลังสเกลลิ่งอะไร” เขากล่าว
“บางคนทุ่มเททำงานนานหลายชั่วโมง มุ่งไปในเส้นทางเดิมให้ได้เร็วขึ้น นั่นไม่ใช่สไตล์ของเรา ถ้าคุณลองทำอะไรที่แตกต่างออกไป คุณอาจสามารถทำบางอย่างที่พิเศษได้”