เวิร์ดคอร์ป ดาโวส | ความแตกต่างในการพัฒนา AGI? Google DeepMind กับ Anthropic มุมมองหลัก 3 ประเด็นที่ควรรู้

ChainNewsAbmedia

Google DeepMind ซีอีโอ Demis Hassabis และซีอีโอ Anthropic Dario Amodei เข้าร่วมการเสวนาในงานประชุมเศรษฐกิจโลก (WEF) ที่เมืองดาวอส สวิตเซอร์แลนด์ เมื่อวันที่ 20/1 เรื่องอนาคตของปัญญาประดิษฐ์ทั่วไป (AGI) ตลอดการสนทนา บรรยากาศเป็นไปอย่างมีเหตุผลและเป็นมิตร แต่ในสามหัวข้อหลัก ทั้งสองแสดงความเห็นแตกต่างอย่างชัดเจน

ปัญญาประดิษฐ์ทั่วไป (AGI) คืออะไร?

AGI หมายถึงรูปแบบของปัญญาประดิษฐ์ในจินตนาการ ที่สามารถเข้าใจ เรียนรู้ และดำเนินงานที่มนุษย์ทำได้ในด้านต่าง ๆ โดยมีเป้าหมายเพื่อจำลองความสามารถในการรับรู้ของสมองมนุษย์ ต่างจาก AI ที่ปัจจุบันส่วนใหญ่มักทำงานในด้านเดียวกัน AGI มีความสามารถในการปรับใช้ความรู้ในสาขาใดก็ได้ ไปสู่บริบทใหม่ ๆ พร้อมทั้งมีความรู้ทั่วไปและความเข้าใจโลกในระดับใกล้เคียงมนุษย์ เพื่อใช้ในการวิเคราะห์และตัดสินใจ

การพัฒนา AGI ขึ้นอยู่กับการวิจัยในหลายสาขา เช่น วิทยาการคอมพิวเตอร์ วิทยาศาสตร์ประสาท และจิตวิทยาเชิงรับรู้ ปัจจุบันยังไม่มี AGI ที่แท้จริงเกิดขึ้น แต่การวิจัยและพยายามพัฒนายังคงดำเนินต่อไป

ความเห็นเกี่ยวกับเมื่อไหร่จะเกิด AGI? ซีอีโอของ DeepMind กับ Anthropic มีความเห็นแตกต่างกัน

Amodei ซีอีโอของ Anthropic ย้ำถึงแผนเวลาที่เขาเคยเสนอไว้เมื่อปีที่แล้ว คาดว่าในปี 2026-2027 จะมี AI ที่สามารถทำงานในหลายสาขาและระดับความสามารถเทียบเท่ามนุษย์ในระดับรางวัลโนเบล

“ตราบใดที่ AI สามารถเขียนโปรแกรมและทำวิจัยด้าน AI ได้ ก็สามารถย้อนกลับมาช่วยออกแบบโมเดลรุ่นต่อไป สร้างวงจรเร่งความเร็วของ AI เองได้ เมื่อวงจรนี้เริ่มทำงานอย่างราบรื่น AGI จะเกิดขึ้นในลักษณะระเบิดเชิงเลข”

เขายังกล่าวด้วยว่า ภายในบริษัท Anthropic มีวิศวกรเกือบจะไม่เขียนโปรแกรมเองแล้ว แต่ปล่อยให้โมเดลสร้างผลลัพธ์ แล้วค่อยให้มนุษย์ตรวจสอบ ซึ่งแสดงให้เห็นว่าวิถีนี้เริ่มเป็นรูปเป็นร่างแล้ว

อย่างไรก็ตาม Hassabis ซีอีโอของ Google DeepMind ยังคงมีมุมมองที่ระมัดระวังมากกว่า โดยประมาณว่า “มีโอกาส 50% ที่จะเกิด AGI ที่สมบูรณ์ภายในสิ้นศตวรรษนี้” เขาเชื่อว่าด้านโปรแกรมและคณิตศาสตร์ ซึ่งสามารถตรวจสอบได้อย่างรวดเร็ว จะง่ายต่อการทำให้อัตโนมัติ แต่ด้านวิทยาศาสตร์ธรรมชาติ การสร้างทฤษฎี และการตั้งคำถามที่ดี ยังขาดความสามารถสำคัญในปัจจุบัน และการตรวจสอบใช้เวลานาน รวมถึงความยุ่งยากในโลกแห่งความเป็นจริง ทำให้ไม่สามารถแก้ปัญหาได้อย่างรวดเร็วด้วยวงจรเร่งความเร็วเอง

AI ส่งผลกระทบต่อการจ้างงานเร็วแค่ไหน? Amodei เตือนให้รีบเร่ง ขณะที่ Hassabis เน้นความระมัดระวัง

ในเรื่องผลกระทบต่อการจ้างงาน ทั้งสองคนมีความเห็นแตกต่างกันอย่างชัดเจน Amodei เคยกล่าวสาธารณะว่า ใน 1-5 ปีข้างหน้า อาจมีงานระดับเริ่มต้นของคนทำงานในสำนักงานหายไปครึ่งหนึ่ง ซึ่งในเวทีนี้ เขาอธิบายว่า แม้ข้อมูลแรงงานโดยรวมยังไม่สะท้อนผลกระทบอย่างเต็มที่ แต่ในด้านโปรแกรมและวิศวกรรม ก็เริ่มเห็นผลกระทบเบื้องต้นแล้ว ความต้องการแรงงานระดับเริ่มต้นและระดับกลาง อาจลดลงเป็นอันดับแรก โดยเริ่มจาก “อัตราการเติบโตชะลอลง” ก่อนจะมีการแทนที่อย่างชัดเจน

ความกังวลหลักของ Amodei คือ ความก้าวหน้าของ AI เป็นแบบระเบิดเชิงเลข แต่ความสามารถในการปรับตัวของสังคมเป็นเชิงเส้น ซึ่งในที่สุดจะเกิดความไม่สมดุลกัน

ในทางตรงกันข้าม Hassabis มองในมุมมองเศรษฐศาสตร์แบบดั้งเดิม เขาเชื่อว่าในระยะสั้นจะยังคงเกิดขึ้นตามแบบของการปฏิวัติเทคโนโลยีในอดีต คือ

“งานบางส่วนจะหายไป แต่ก็จะมีงานใหม่ ๆ ที่มีคุณค่าสูงขึ้นเกิดขึ้น พร้อมทั้งตำแหน่งงานระดับเริ่มต้นและฝึกงานอาจได้รับผลกระทบเป็นอันดับแรก”

แต่ก็เน้นว่า เครื่องมือ AI ในปัจจุบัน “สามารถใช้งานได้ทุกคน” หากเยาวชนสามารถเรียนรู้ได้อย่างรวดเร็ว ก็อาจสะสมประสบการณ์ได้เร็วกว่าการฝึกงานแบบเดิม

ควรลดความเร็วในการพัฒนา AI หรือไม่? Amodei ชี้ให้ช้าลง ขณะที่ Hassabis ต้องการความมั่นคงและก้าวไปอย่างระมัดระวัง

เมื่อพูดถึงความเสี่ยงและการเมืองระหว่างประเทศ ความเห็นของทั้งสองก็แตกต่างกันอย่างชัดเจน Amodei กล่าวตรง ๆ ว่า เขาหวังว่าโลกจะชะลอการพัฒนา AI เพื่อให้มนุษย์มีเวลามากขึ้นในการสร้างกลไกความปลอดภัยและการกำกับดูแล จึงสนับสนุนอย่างแรงกล้าที่จะจำกัดการส่งออกชิปขั้นสูง โดยมองว่า ความสำคัญเชิงกลยุทธ์ของ AI ใกล้เคียงกับอาวุธนิวเคลียร์ ไม่ควรประเมินจากมุมมองเชิงธุรกิจหรือซัพพลายเชนเท่านั้น เขายังเปรียบเทียบด้วยการทำธุรกรรมอาวุธนิวเคลียร์ ว่าไม่ควรแลกผลประโยชน์ระยะสั้นกับความเสี่ยงระยะยาว

Hassabis ในด้านคุณค่า ไม่คัดค้านการชะลอ แต่เน้นเงื่อนไขในความเป็นจริง เช่น สถานการณ์ทางการเมืองและการแข่งขันของบริษัท ทำให้การชะลออย่างเต็มที่เป็นเรื่องยาก ในสถานการณ์เช่นนี้ คำถามที่เป็นจริงมากกว่าคือ

“เราจะทำอย่างไรในสงครามแข่งขั้นของ AI ให้สามารถตั้งกลไกความปลอดภัยพร้อมกันได้มากที่สุดเพื่อรับมือกับความเสี่ยง”

ความแตกต่างนอกแนวทางหลัก กำหนดจังหวะการพัฒนา AI ในอนาคต

น่าสังเกตว่า ทั้งสองมีความเห็นตรงกันในหลายด้าน เช่น เชื่อว่า AI จะเปลี่ยนแปลงโลกอย่างมาก และยอมรับว่าความเสี่ยงด้านความปลอดภัยเป็นความจริง รวมถึงคัดค้านแนวคิดสิ้นหวังว่า “จะล่มสลายแน่นอน” แต่ในเรื่องของความเร็วในการพัฒนา กลับให้คำตอบแตกต่างกันอย่างชัดเจน ความแตกต่างนี้สะท้อนให้เห็นถึงหัวใจของประเด็นสำคัญในยุค AI ว่า ควรให้ AI มุ่งสู่ AGI อย่างเต็มที่ หรือควบคุมความเร็วไว้

(AI เริ่มทำงานเองแล้ว, Anthropic อธิบาย: มนุษย์ควรประเมินอย่างไรว่า AI ทำได้ดีหรือไม่?)

บทความนี้ ปรากฏครั้งแรกใน ดาโวส ฟอรั่ม|ความแตกต่างในการพัฒนา AGI? Google DeepMind กับ Anthropic มุมมอง 3 ประเด็นที่น่าสนใจที่สุด ถูกเผยแพร่ใน แพลตฟอร์ม ABMedia

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น