Nagkaroon ng maraming sigasig at hype sa larangan ng artificial intelligence (AI) na nakapalibot sa isang kamakailang nilikhang teknolohiya na tinatawag na GPT-3. Sa madaling sabi, ito ay isang AI na mas mataas kaysa sa lahat ng nauna sa paglikha ng nilalaman na may istraktura ng wika - wika ng tao o machine.
Ang GPT-3 ay binuo ni OpenAI, isang kumpanya ng pananaliksik na itinatag ni Elon Musk, at tinaguriang pinakamahalaga at magagamit na pagsulong sa artificial intelligence sa mga taon.
Gayunpaman, mayroong ilang pagkalito tungkol sa kung ano ang ginagawa nito (at, higit sa lahat, kung ano ang hindi nito ginagawa), kaya dito ay susubukan kong pasimplehin ito para sa sinumang hindi teknikal na mga mambabasa na interesadong maunawaan ang mga pangunahing prinsipyo sa likod nito. Tatalakayin ko rin ang ilan sa mga isyu na dulot nito, pati na rin kung bakit naniniwala ang ilan na ang kahalagahan nito ay medyo pinalaki ng hype.
Mga kredito sa larawan : https://pixabay.com/photos/robot-mech-machine-technology-2301646
Ano ang kaya ng GPT-3?
Ang GPT-3 ay may kakayahang gumawa ng anumang bagay na may istraktura ng wika — kabilang dito ang pagsagot sa mga tanong, pagsulat ng mga sanaysay, pagbubuod ng mahahabang aklat, pagsasalin ng mga wika, pagkuha ng mga memo, at maging ang pagsulat ng computer code.
Sa katunayan, sa isang online presentation, ito ay ipinapakita kung paano lumikha ng isang app na mukhang at gumaganap nang katulad sa Instagram application sa pamamagitan ng paggamit ng isang plugin para sa malawak na kilalang software tool na Figma.
Ito ay, siyempre, medyo nobela, at kung ito ay mapatunayang magagamit at kapaki-pakinabang sa katagalan, maaari itong magkaroon ng malalim na kahihinatnan para sa hinaharap na pagbuo ng software at mga application.
Dahil sa katotohanan na ang code ay hindi pa available sa publiko (higit pa tungkol doon sa ibang pagkakataon), ang pag-access ay pinaghihigpitan sa isang piling grupo ng mga developer sa pamamagitan ng OpenAI-managed API. Mula nang ilabas ang API noong Hunyo ng taong ito, lumitaw ang mga pagkakataon ng tula, prosa, pag-uulat ng balita, at creative fiction.
Ang artikulong ito ay partikular na kawili-wili dahil ipinapakita nito ang GPT-3 na sinusubukan - medyo mapanghikayat - upang kumbinsihin tayong mga tao na hindi ito nakakasama. Bagama't pinipilit ito ng robotic na katapatan nito na aminin na "Alam kong hindi ko kayang iwasang sirain ang sangkatauhan" kung itulak ito ng masasamang tao!
Paano gumagana ang GPT-3?
Ang GPT-3 ay isang modelo ng hula sa wika sa mga tuntunin ng malawak na kategorya ng mga AI application. Nangangahulugan ito na ito ay isang algorithmic framework na kumukuha ng isang piraso ng wika (isang input) at binabago ito sa kung ano ang hinuhulaan ng algorithm na magiging pinaka-kapaki-pakinabang na piraso ng wika para sa user.
Posible ito dahil sa malawak na pagsusuri sa pagsasanay na ginawa sa napakalaking halaga ng materyal na kinakailangan upang "pre-train" ito. Sa paghahambing sa iba pang mga algorithm na hindi pa nasanay, ang OpenAI ay gumastos na ng napakalaking halaga ng compute resources na kinakailangan para sa GPT-3 upang maunawaan kung paano gumagana at binuo ang mga wika. Ayon sa OpenAI, ang oras ng pagkalkula na kinakailangan upang magawa ito ay nagkakahalaga ng $4.6 milyon.
Upang matutunan kung paano bumuo ng mga konstruksyon ng wika tulad ng mga pangungusap, gumagamit ito ng semantic analytics - hindi lamang ang mga salita at kahulugan ng mga ito, kundi pati na rin kung paano nag-iiba-iba ang paggamit ng mga salita depende sa iba pang mga salita sa teksto.
Tinutukoy din ito bilang hindi pinangangasiwaang pag-aaral dahil ang data ng pagsasanay ay hindi kasama ang anumang impormasyon tungkol sa kung ano ang bumubuo ng isang "tama" o "maling" tugon, tulad ng ginagawa ng pinangangasiwaang pag-aaral. Ang lahat ng impormasyong kinakailangan upang makalkula ang posibilidad na ang output ay makatugon sa mga kinakailangan ng gumagamit ay direktang nakuha mula sa mga teksto ng pagsasanay.
Nagagawa ito sa pamamagitan ng pagsusuri sa paggamit ng mga salita at pangungusap, pagkatapos ay pagbuwag sa mga ito at pagtatangkang muling buuin ang mga ito.
Halimbawa, maaaring makita ng mga algorithm ang pariralang "may pulang pinto ang bahay" habang nagsasanay. Pagkatapos ay bibigyan itong muli ng parirala na may pagtanggal ng isang salita - halimbawa, "may pulang X ang tahanan."
Pagkatapos ay sinusuri nito ang teksto sa data ng pagsasanay nito - daan-daang bilyong salita na nakaayos sa makabuluhang wika - at pinipili kung aling salita ang dapat gamitin upang kopyahin ang orihinal na parirala.
Upang magsimula, halos tiyak na mali ito — marahil milyon-milyong beses. Gayunpaman, sa huli ay makakabuo ito ng tamang salita. Sa pamamagitan ng paghahambing ng resulta sa orihinal na data ng pag-input, tinutukoy nito kung tama ang output, at iginawad ang isang "timbang" sa hakbang ng algorithm na gumawa ng tamang tugon. Nangangahulugan ito na "natututo" ito sa paglipas ng panahon kung aling mga diskarte ang pinakamalamang na makagawa ng tamang tugon sa hinaharap.
Ang laki ng pabago-bagong prosesong "pagtimbang" na ito ang nagpapakilala sa GPT-3 bilang pinakamalaking artipisyal na neural network sa mundo. Tulad ng nabanggit na, ang naabot nito ay hindi nobela sa ilang mga paraan, dahil ang mga modelo ng transpormador ng hula sa wika ay umiral nang maraming taon. Gayunpaman, ang system ay dynamic na nag-iimbak at gumagamit 175 bilyong timbang upang iproseso ang bawat query — sampung beses na higit pa sa pinakamalapit na katunggali nito, na binuo ng Nvidia.
Dalawang AI ang nag-uusap tungkol sa pagiging tao. (GPT-3)
Ano ang ilan sa mga paghihirap na nauugnay sa GPT-3?
Ang kakayahan ng GPT-3 na bumuo ng wika ay pinuri bilang ang pinakamahusay na nakikita sa artificial intelligence; gayunpaman, may ilang mga kritikal na punto na dapat isaalang-alang.
Sinabi ni Sam Altman, ang CEO ng OpenAI, "Ang GPT-3 Hype ay sobra-sobra." Sa panimula babaguhin ng AI ang mundo, ngunit ang GPT-3 ay isang sulyap lamang."
Upang magsimula, ito ay isang napakamahal na tool na gagamitin sa ngayon, dahil sa napakalaking halaga ng compute power na kinakailangan upang maisagawa ang trabaho nito. Nangangahulugan ito na ang gastos sa pagpapatupad nito ay magiging napakamahal para sa mas maliliit na negosyo.
Higit pa rito, ito ay isang closed o black-box system. Dahil hindi isiniwalat ng OpenAI ang lahat ng mga katotohanan kung paano gumagana ang mga algorithm nito, sinumang umaasa dito upang sagutin ang mga query o bumuo ng mga mahahalagang produkto ay hindi lubos na tiyak kung paano nilikha ang mga ito.
Pangatlo, hindi pa perpekto ang output ng system. Bagama't ito ay may kakayahang gumawa ng mga maikling mensahe at simpleng software, ang output nito ay nagiging hindi gaanong kapaki-pakinabang (sa katunayan, ito ay inilarawan bilang "gibberish") kapag hiniling na lumikha ng isang bagay na mas mahaba o mas sopistikado.
Ang mga ito ay walang alinlangan na mga alalahanin na malulutas sa paglipas ng panahon — habang patuloy na bumababa ang halaga ng compute power, nabubuo ang standardisasyon sa paligid ng mga bukas na platform ng AI, at ang mga algorithm ay naayos sa mas malalaking volume ng data.
Sa pangkalahatan, makatwirang isiping ang GPT-3 ay bumubuo ng mga natuklasan na mas maaga kaysa sa anumang naobserbahang dati. Nauunawaan ng sinumang nakakita sa mga kinalabasan ng wikang AI kung gaano sila maaaring maging variable, at ang output ng GPT-3 ay walang alinlangan na lumilitaw na isang hakbang sa unahan.
Kapag nakita natin itong maayos na inilagay sa mga kamay ng publiko at naa-access ng lahat, ang pagganap nito ay dapat na mapabuti pa.
Gayundin Basahin:
- Libreng Pagsubok ng Jasper AI
- Pinakamahusay na AI Writers, Content Writing Software
- Pinakamahusay na AI Copywriting Tools
- Pinakamahusay na Mga Tool sa AI para I-automate ang Iyong Mga Ad sa Facebook
- Pagpepresyo ng Content Studio
- Aking Honest Jasper AI Review
- Ano Ang Pinakamahusay na Mga Tool sa Pag-ikot ng Artikulo