Apa Itu GPT-3 Dan Mengapa Mengubah Wajah Kecerdasan Buatan?

Ada banyak antusiasme dan hype di ranah kecerdasan buatan (AI) seputar teknologi yang baru dibuat yang disebut GPT-3. Sederhananya, ini adalah AI yang lebih unggul dari semua yang telah ada sebelumnya dalam membuat konten dengan struktur bahasa – bahasa manusia atau mesin.

GPT-3 dikembangkan oleh OpenAI, sebuah perusahaan riset yang didirikan bersama oleh Elon Musk, dan telah dijuluki sebagai kemajuan paling signifikan dan bermanfaat dalam kecerdasan buatan selama bertahun-tahun.

Namun, ada beberapa kebingungan tentang apa yang dilakukannya (dan, yang lebih penting, apa yang tidak dilakukannya), jadi di sini saya akan mencoba menyederhanakannya untuk pembaca non-teknis yang tertarik untuk memahami prinsip-prinsip inti di baliknya. Saya juga akan membahas beberapa masalah yang dibawanya, serta mengapa beberapa orang percaya bahwa kepentingannya agak dibesar-besarkan oleh hype.

Kredit gambar: https://pixabay.com/photos/robot-mech-machine-technology-2301646

Apa yang bisa dilakukan GPT-3?

GPT-3 mampu menghasilkan apa pun dengan struktur bahasa — ini termasuk menjawab pertanyaan, menulis esai, meringkas buku yang panjang, menerjemahkan bahasa, mengambil memo, dan bahkan menulis kode komputer.

Memang, dalam satu presentasi online, didemonstrasikan cara membuat aplikasi yang tampilan dan performanya mirip dengan aplikasi Instagram dengan memanfaatkan plugin untuk perangkat lunak yang dikenal luas Figma.

Ini, tentu saja, cukup baru, dan jika terbukti dapat digunakan dan bermanfaat dalam jangka panjang, mungkin memiliki konsekuensi besar bagi pengembangan perangkat lunak dan aplikasi di masa depan.

Karena fakta bahwa kode tersebut belum tersedia untuk umum (lebih lanjut tentang itu nanti), akses dibatasi untuk sekelompok pengembang tertentu melalui API yang dikelola OpenAI. Sejak rilis API pada bulan Juni tahun ini, contoh puisi, prosa, pelaporan berita, dan fiksi kreatif telah muncul.

Artikel ini sangat menarik karena menunjukkan upaya GPT-3 – cukup persuasif – untuk meyakinkan kita manusia bahwa itu tidak membahayakan. Meskipun kejujuran robotnya memaksanya untuk mengakui bahwa "Saya sadar bahwa saya tidak akan mampu menghindari penghancuran umat manusia" jika orang jahat mendorongnya!

Bagaimana GPT-3 berfungsi?

GPT-3 adalah model prediksi bahasa dalam hal kategori aplikasi AI yang luas. Ini berarti bahwa ini adalah kerangka kerja algoritmik yang mengambil satu bagian bahasa (input) dan mengubahnya menjadi apa yang diprediksi oleh algoritme sebagai bagian bahasa yang paling bermanfaat bagi pengguna.

Hal ini dimungkinkan karena analisis pelatihan ekstensif yang dilakukan pada sejumlah besar materi yang diperlukan untuk "melatihnya terlebih dahulu". Dibandingkan dengan algoritme lain yang belum dilatih, OpenAI telah menghabiskan banyak sekali sumber daya komputasi yang diperlukan untuk GPT-3 untuk memahami cara kerja dan konstruksi bahasa. Menurut OpenAI, waktu komputasi yang diperlukan untuk mencapai ini menghabiskan biaya $4.6 juta.

Untuk mempelajari cara menghasilkan konstruksi bahasa seperti kalimat, ia menggunakan analisis semantik – tidak hanya kata dan artinya, tetapi juga bagaimana penggunaan kata bervariasi tergantung pada kata lain dalam teks.

Ini juga disebut sebagai pembelajaran tanpa pengawasan karena data pelatihan tidak menyertakan informasi apa pun tentang apa yang merupakan respons "benar" atau "salah", seperti halnya pembelajaran yang diawasi. Semua informasi yang diperlukan untuk menghitung probabilitas bahwa output akan memenuhi kebutuhan pengguna diperoleh langsung dari teks pelatihan.

Hal ini dilakukan dengan menganalisis penggunaan kata dan kalimat, kemudian membongkarnya dan mencoba merekonstruksinya.

Misalnya, algoritme mungkin menemukan frasa "rumah memiliki pintu merah" selama pelatihan. Kemudian diberi frasa lagi dengan penghilangan kata – misalnya, “rumah memiliki X merah.”

Kemudian memeriksa teks dalam data pelatihannya – ratusan miliar kata yang disusun dalam bahasa yang bermakna – dan memilih kata mana yang harus digunakan untuk mereproduksi frasa aslinya.

Untuk memulai, hampir pasti salah — mungkin jutaan kali. Namun, pada akhirnya akan muncul kata yang tepat. Dengan membandingkan hasilnya dengan data input asli, ini menentukan apakah outputnya benar, dan "bobot" diberikan untuk langkah algoritme yang menghasilkan respons yang benar. Ini berarti bahwa ia "belajar" dari waktu ke waktu strategi mana yang paling mungkin menghasilkan respons yang tepat di masa depan.

Besarnya proses “pembobotan” dinamis inilah yang membedakan GPT-3 sebagai jaringan syaraf tiruan terbesar di dunia. Seperti yang telah dicatat, apa yang dicapainya bukanlah hal baru dalam beberapa hal, karena model transformator prediksi bahasa telah ada selama bertahun-tahun. Namun, sistem secara dinamis menyimpan dan menggunakan 175 miliar bobot untuk memproses setiap kueri — sepuluh kali lebih banyak dari pesaing terdekatnya, yang dibuat oleh Nvidia.

Dua AI berbicara tentang menjadi manusia. (GPT-3)

Apa saja kesulitan yang terkait dengan GPT-3?

Kemampuan GPT-3 untuk menghasilkan bahasa telah dipuji sebagai yang terbaik dalam kecerdasan buatan; namun, ada beberapa poin penting yang perlu dipertimbangkan.

Sam Altman, CEO OpenAI, menyatakan, “Hype GPT-3 berlebihan.” AI secara fundamental akan mengubah dunia, tetapi GPT-3 hanya sekilas.”

Untuk memulai, ini adalah alat yang sangat mahal untuk digunakan saat ini, karena sejumlah besar daya komputasi yang diperlukan untuk melakukan tugasnya. Ini berarti bahwa biaya penerapannya akan sangat mahal untuk perusahaan kecil.

Selain itu, ini adalah sistem tertutup atau kotak hitam. Karena OpenAI belum mengungkapkan semua fakta tentang bagaimana algoritme berfungsi, siapa pun yang bergantung padanya untuk menjawab pertanyaan atau membuat produk berharga tidak akan sepenuhnya yakin bagaimana mereka dibuat.

Ketiga, keluaran sistem belum ideal. Meskipun mampu menghasilkan pesan singkat dan perangkat lunak sederhana, outputnya menjadi kurang berguna (memang, digambarkan sebagai "omong kosong") ketika diminta untuk membuat sesuatu yang lebih panjang atau lebih canggih.

Ini tidak diragukan lagi merupakan masalah yang akan diselesaikan seiring waktu — karena biaya daya komputasi terus turun, standarisasi di sekitar platform AI terbuka dibangun, dan algoritme disesuaikan dengan volume data yang lebih besar.

Secara keseluruhan, masuk akal untuk menyimpulkan bahwa GPT-3 menghasilkan temuan yang jauh lebih cepat dari apa pun yang diamati sebelumnya. Siapa pun yang telah melihat hasil bahasa AI memahami betapa bervariasinya mereka, dan keluaran GPT-3 tidak diragukan lagi tampaknya selangkah lebih maju.

Ketika kita melihatnya ditempatkan dengan benar di tangan publik dan dapat diakses oleh semua orang, kinerjanya akan meningkat lebih jauh.

Baca Juga: 

Jitendra Vaswani
Penulis ini diverifikasi di BloggersIdeas.com

Jitendra Vaswani adalah Praktisi Pemasaran Digital dan pembicara utama internasional terkenal yang telah menganut gaya hidup pengembara digital saat ia berkeliling dunia. Ia mendirikan dua situs web yang sukses, BloggerIdeas.com & Agen Pemasaran Digital DigiExe di mana kisah suksesnya berkembang menjadi penulisan "Inside A Hustler's Brain: In Pursuit of Financial Freedom" (20,000 eksemplar terjual di seluruh dunia) dan berkontribusi pada "Penulis Penjualan Terbaik Internasional Buku Peretasan Pertumbuhan 2". Jitendra merancang lokakarya untuk lebih dari 10000+ profesional dalam pemasaran digital lintas benua; dengan niat yang pada akhirnya berlabuh untuk menciptakan perbedaan yang dapat berdampak dengan membantu orang membangun bisnis impian mereka secara online. Jitendra Vaswani adalah investor berdaya tinggi dengan portofolio mengesankan yang mencakup stasiun gambar. Untuk mempelajari lebih lanjut tentang investasinya, Temukan dia di Linkedin, Twitter, & Facebook.

Pengungkapan afiliasi: Dalam transparansi penuh – beberapa tautan di situs web kami adalah tautan afiliasi, jika Anda menggunakannya untuk melakukan pembelian, kami akan mendapatkan komisi tanpa biaya tambahan untuk Anda (tidak ada sama sekali!).

Tinggalkan Komentar