มีความกระตือรือร้นและความฮือฮามากมายในขอบเขตของ ปัญญาประดิษฐ์ (AI) ล้อมรอบเทคโนโลยีที่สร้างขึ้นเมื่อเร็ว ๆ นี้ที่เรียกว่า GPT-3 พูดง่ายๆ ก็คือ AI ที่เหนือกว่าทุกสิ่งที่มีมาก่อนหน้านี้ในการสร้างเนื้อหาด้วยโครงสร้างภาษา – ภาษามนุษย์หรือภาษาเครื่อง
GPT-3 ได้รับการพัฒนาโดย OpenAIบริษัทวิจัยที่อีลอน มัสก์ร่วมก่อตั้ง และได้รับการยกย่องว่าเป็นความก้าวหน้าด้านปัญญาประดิษฐ์ที่สำคัญและใช้งานได้จริงที่สุดในรอบหลายปี
อย่างไรก็ตาม มีความสับสนอยู่บ้างเกี่ยวกับสิ่งที่มันทำ (และที่สำคัญกว่านั้น คือสิ่งที่มันไม่ได้ทำ) ดังนั้นผมจะพยายามทำให้ง่ายขึ้นสำหรับผู้อ่านที่ไม่ใช่ด้านเทคนิคที่สนใจในการทำความเข้าใจหลักการสำคัญที่อยู่เบื้องหลัง นอกจากนี้ ฉันจะพูดถึงปัญหาบางอย่างที่เกิดขึ้น รวมถึงสาเหตุที่บางคนเชื่อว่าความสำคัญของสิ่งนี้ได้รับการกล่าวเกินจริงไปบ้างจากการกล่าวเกินจริง
เครดิตรูปภาพ : https://pixabay.com/photos/robot-mech-machine-technology-2301646
GPT-3 มีความสามารถอะไร?
GPT-3 สามารถผลิตอะไรก็ได้ที่มีโครงสร้างทางภาษา ซึ่งรวมถึงการตอบคำถาม การเขียนเรียงความ การสรุปหนังสือขนาดยาว การแปลภาษา การจดบันทึก และแม้กระทั่งการเขียนโค้ดคอมพิวเตอร์
แน่นอนค่ะ การนำเสนอออนไลน์หนึ่งครั้งเป็นการสาธิตวิธีการสร้างแอปที่ดูและทำงานคล้ายกับแอปพลิเคชัน Instagram โดยใช้ plugin สำหรับเครื่องมือซอฟต์แวร์ Figma ที่เป็นที่รู้จักอย่างกว้างขวาง
แน่นอนว่านี่เป็นเรื่องแปลกใหม่ และหากพิสูจน์ได้ว่าสามารถใช้งานได้และเป็นประโยชน์ในระยะยาว ก็อาจส่งผลกระทบอย่างลึกซึ้งต่อการพัฒนาซอฟต์แวร์และแอปพลิเคชันในอนาคต
เนื่องจากโค้ดยังไม่เปิดเผยต่อสาธารณะ (จะมีรายละเอียดเพิ่มเติมในภายหลัง) การเข้าถึงจึงถูกจำกัดไว้สำหรับกลุ่มนักพัฒนาที่เลือกผ่าน API ที่จัดการโดย OpenAI นับตั้งแต่เปิดตัว API ในเดือนมิถุนายนของปีนี้ ก็มีบทกวี ร้อยแก้ว การรายงานข่าว และนิยายเชิงสร้างสรรค์ปรากฏขึ้น
บทความนี้น่าสนใจเป็นพิเศษ เพราะมันแสดงให้เห็นถึงความพยายามของ GPT-3 ที่ค่อนข้างโน้มน้าวใจ เพื่อโน้มน้าวมนุษย์ว่ามันไม่เป็นอันตราย แม้ว่าความซื่อสัตย์ของหุ่นยนต์จะบังคับให้ต้องสารภาพว่า "ฉันรู้ว่าฉันจะไม่สามารถหลีกเลี่ยงการทำลายมนุษยชาติได้" ถ้าคนชั่วร้ายผลักดันมัน!
GPT-3 ทำงานอย่างไร?
GPT-3 คือโมเดลการทำนายภาษาในแง่ของแอปพลิเคชัน AI หมวดหมู่กว้างๆ ซึ่งหมายความว่ามันเป็นกรอบอัลกอริทึมที่ใช้ภาษาชิ้นเดียว (อินพุต) และแปลงเป็นภาษาที่อัลกอริทึมคาดการณ์ว่าเป็นภาษาที่มีประโยชน์ที่สุดสำหรับผู้ใช้
สิ่งนี้เป็นไปได้เนื่องจากการวิเคราะห์การฝึกอบรมที่ครอบคลุมซึ่งดำเนินการกับวัสดุจำนวนมหาศาลที่จำเป็นสำหรับ "การฝึกอบรมล่วงหน้า" เมื่อเปรียบเทียบกับอัลกอริธึมอื่นๆ ที่ไม่ได้รับการฝึก OpenAI ได้ใช้ทรัพยากรการประมวลผลจำนวนมหาศาลที่จำเป็นสำหรับ GPT-3 เพื่อทำความเข้าใจวิธีทำงานและโครงสร้างของภาษา จากข้อมูลของ OpenAI เวลาในการคำนวณที่จำเป็นเพื่อให้บรรลุผลนี้มีค่าใช้จ่าย 4.6 ล้านเหรียญสหรัฐ
หากต้องการเรียนรู้วิธีสร้างโครงสร้างภาษา เช่น ประโยค ระบบจะใช้การวิเคราะห์เชิงความหมาย ไม่ใช่แค่คำและความหมายเท่านั้น แต่ยังรวมถึงวิธีใช้คำที่แตกต่างกันโดยขึ้นอยู่กับคำอื่นๆ ในข้อความด้วย
นอกจากนี้ยังเรียกอีกอย่างว่าการเรียนรู้แบบไม่มีผู้ดูแลเนื่องจากข้อมูลการฝึกอบรมไม่ได้รวมข้อมูลใดๆ เกี่ยวกับสิ่งที่ถือเป็นการตอบสนองที่ "ถูกต้อง" หรือ "ผิด" เช่นเดียวกับการเรียนรู้แบบมีผู้สอน ข้อมูลทั้งหมดที่จำเป็นในการคำนวณความน่าจะเป็นที่ผลลัพธ์จะเป็นไปตามความต้องการของผู้ใช้นั้นได้มาจากข้อความการฝึกอบรมโดยตรง
ซึ่งทำได้โดยการวิเคราะห์การใช้คำและประโยค จากนั้นจึงรื้อออกและพยายามสร้างใหม่
ตัวอย่างเช่น อัลกอริธึมอาจเจอวลี “บ้านมีประตูสีแดง” ในระหว่างการฝึก จากนั้นจะได้รับวลีอีกครั้งโดยไม่เว้นคำ เช่น “บ้านมีเครื่องหมาย X สีแดง”
จากนั้นจะตรวจสอบข้อความในข้อมูลการฝึกอบรม ซึ่งเป็นคำนับแสนล้านคำที่จัดเป็นภาษาที่มีความหมาย และเลือกคำที่จะใช้ในการทำซ้ำวลีต้นฉบับ
ในการเริ่มต้น เกือบจะแน่นอนว่าจะเข้าใจผิด — อาจจะนับล้านครั้ง แต่สุดท้ายก็จะได้คำที่ถูกต้อง โดยการเปรียบเทียบผลลัพธ์กับข้อมูลอินพุตดั้งเดิม จะเป็นตัวกำหนดว่าเอาต์พุตนั้นถูกต้องหรือไม่ และมอบ "น้ำหนัก" ให้กับขั้นตอนอัลกอริทึมที่สร้างการตอบสนองที่ถูกต้อง ซึ่งหมายความว่าจะ "เรียนรู้" เมื่อเวลาผ่านไปว่ากลยุทธ์ใดมีแนวโน้มที่จะสร้างการตอบสนองที่เหมาะสมที่สุดในอนาคต
ความสำคัญของกระบวนการ "ถ่วงน้ำหนัก" แบบไดนามิกนี้คือสิ่งที่ทำให้ GPT-3 กลายเป็นโครงข่ายประสาทเทียมที่ใหญ่ที่สุดในโลก ดังที่ได้กล่าวไว้แล้วว่า สิ่งที่บรรลุผลสำเร็จนั้นไม่ใช่เรื่องแปลกใหม่ในบางแง่มุม เนื่องจากแบบจำลองการทำนายภาษาของหม้อแปลงนั้นมีมาหลายปีแล้ว อย่างไรก็ตาม ระบบจะจัดเก็บและใช้งานแบบไดนามิก น้ำหนัก 175 พันล้าน เพื่อประมวลผลแต่ละคำค้นหา — มากกว่าคู่แข่งที่ใกล้ที่สุดถึงสิบเท่าซึ่งสร้างโดย Nvidia
AI สองคนคุยกันเรื่องการเป็นมนุษย์ (GPT-3)
ปัญหาที่เกี่ยวข้องกับ GPT-3 มีอะไรบ้าง
ความสามารถในการสร้างภาษาของ GPT-3 ได้รับการยกย่องว่าดีที่สุดในด้านปัญญาประดิษฐ์ อย่างไรก็ตาม มีประเด็นสำคัญบางประการที่ต้องพิจารณา
Sam Altman ซีอีโอของ OpenAI กล่าวว่า “GPT-3 Hype นั้นมากเกินไป” AI จะเปลี่ยนโลกโดยพื้นฐาน แต่ GPT-3 เป็นเพียงการมองแวบเดียว”
ในการเริ่มต้น มันเป็นเครื่องมือที่มีราคาแพงมากที่จะใช้ในขณะนี้ เนื่องจากพลังการประมวลผลจำนวนมหาศาลที่จำเป็นในการทำงาน ซึ่งหมายความว่าค่าใช้จ่ายในการดำเนินการจะมีราคาแพงมากสำหรับองค์กรขนาดเล็ก
นอกจากนี้ยังเป็นระบบปิดหรือกล่องดำอีกด้วย เนื่องจาก OpenAI ไม่ได้เปิดเผยข้อเท็จจริงทั้งหมดเกี่ยวกับวิธีการทำงานของอัลกอริธึม ใครก็ตามที่พึ่งพา OpenAI เพื่อตอบคำถามหรือสร้างผลิตภัณฑ์อันทรงคุณค่าจะไม่แน่ใจว่าสร้างขึ้นได้อย่างไร
ประการที่สาม ผลลัพธ์ของระบบยังไม่สมบูรณ์แบบ แม้ว่าจะสามารถสร้างข้อความสั้น ๆ และซอฟต์แวร์ธรรมดา ๆ ได้ แต่ผลลัพธ์ของมันก็มีประโยชน์น้อยลง (จริงๆ แล้วมันถูกอธิบายว่าเป็น "คำพูดที่ไม่มีความหมาย") เมื่อถูกขอให้สร้างสิ่งที่ยาวหรือซับซ้อนมากขึ้น
ไม่ต้องสงสัยเลยว่าสิ่งเหล่านี้เป็นข้อกังวลที่จะได้รับการแก้ไขเมื่อเวลาผ่านไป เนื่องจากต้นทุนของพลังการประมวลผลยังคงลดลง มีการสร้างมาตรฐานรอบแพลตฟอร์ม AI แบบเปิด และอัลกอริธึมได้รับการปรับแต่งอย่างละเอียดด้วยปริมาณข้อมูลที่ใหญ่ขึ้น
โดยรวมแล้ว มีเหตุผลที่จะสรุปได้ว่า GPT-3 สร้างการค้นพบที่เร็วกว่าสิ่งที่สังเกตมาก่อนหน้านี้หลายปีแสง ใครก็ตามที่ได้เห็นผลลัพธ์ของภาษา AI จะเข้าใจว่าพวกเขาสามารถเปลี่ยนแปลงได้อย่างไร และผลลัพธ์ของ GPT-3 ดูเหมือนจะก้าวไปข้างหน้าอย่างไม่ต้องสงสัย
เมื่อเราเห็นว่ามันอยู่ในมือของสาธารณะอย่างเหมาะสมและทุกคนสามารถเข้าถึงได้ ประสิทธิภาพของมันควรจะปรับปรุงให้ดียิ่งขึ้นไปอีก
ยังอ่าน: