Meta Luncurkan Model AI Baru untuk Mengurangi Keterlibatan Manusia
ilustrasi meta
Model yang mampu memperbaiki diri sendiri ini dapat mengurangi kebutuhan akan proses yang sering kali mahal dan tidak efisien yang saat ini dikenal sebagai Reinforcement Learning from Human Feedback (RLHF).
Proses ini memerlukan masukan dari pengamat manusia yang harus memiliki keahlian khusus untuk menandai data dengan akurat dan memverifikasi bahwa jawaban terhadap pertanyaan kompleks dalam matematika dan penulisan adalah benar. "Kami berharap, seiring dengan berkembangnya AI yang semakin super-manusia, ia akan semakin baik dalam memeriksa kinerjanya sendiri, sehingga ia sebenarnya akan lebih baik daripada rata-rata manusia," kata Jason Weston, salah satu peneliti, dilansir dari Reuters, Minggu, (20/10).
"Ide untuk belajar sendiri dan dapat melakukan evaluasi diri adalah kunci untuk mencapai tingkat AI super-manusia," tambahnya. Penelitian ini mencerminkan kemajuan signifikan dalam pengembangan AI yang dapat bekerja secara independen dan dapat meningkatkan efisiensi serta akurasi dalam berbagai aplikasi.
Perusahaan lain, termasuk Google dan Anthropic, juga telah menerbitkan penelitian tentang konsep RLAIF, atau Reinforcement Learning from AI Feedback. Namun, berbeda dengan Meta, perusahaan-perusahaan tersebut cenderung tidak merilis model mereka untuk digunakan secara publik.
Selain Self-Taught Evaluator, Meta juga merilis alat-alat AI lainnya pada hari Jumat, termasuk pembaruan untuk model identifikasi gambar mereka, Segment Anything, serta alat yang mempercepat waktu respons model bahasa besar (LLM) dan dataset yang dapat digunakan untuk membantu penemuan material anorganik baru. Langkah-langkah ini menunjukkan komitmen Meta untuk tetap berada di garis depan inovasi AI dan menyoroti potensi aplikasi luas dari teknologi baru ini di berbagai bidang.
Halaman Selanjutnya....
Komentar
()Muat lainnya