Startup komputasi AI Cerebras rilis model "open source"
29 Maret 2023 13:15 WIB
Superkomputer AI baru Startup Cerebras System Andromeda terlihat di pusat data di Santa Clara, California, AS Oktober 2022. Rebecca Lewington/Cerebras Systems/HO via REUTERS
JAKARTA (ANTARA) - Startup chip kecerdasan buatan, Cerebras Systems, telah merilis model open source mirip ChatGPT untuk penelitian dan komunitas bisnis yang dapat digunakan secara gratis dalam upaya mendorong lebih banyak kolaborasi.
Cerebras yang berbasis di Silicon Valley, California, merilis tujuh model yang semuanya dilatih di superkomputer AI-nya yang disebut Andromeda, termasuk model bahasa parameter 111 juta yang lebih kecil hingga model parameter 13 miliar yang lebih besar.
"Ada pergerakan besar untuk menutup apa yang telah menjadi sumber terbuka di AI. Tidak mengherankan karena sekarang ada banyak uang di dalamnya," kata pendiri dan CEO Cerebras Andrew Feldman, seperti dilansir Reuters, Rabu.
"Kegembiraan di komunitas, kemajuan yang kami buat, sebagian besar karena sangat terbuka."
Model dengan lebih banyak parameter mampu melakukan fungsi generatif yang lebih kompleks.
Chatbot OpenAI, ChatGPT yang diluncurkan akhir tahun lalu, misalnya, memiliki 175 miliar parameter dan dapat menghasilkan puisi dan penelitian, yang telah membantu menarik minat dan pendanaan yang besar untuk AI secara lebih luas.
Baca juga: Baidu China batalkan peluncuran publik untuk produk mirip ChatGPT
Cerebras mengatakan model yang lebih kecil dapat digunakan di ponsel atau speaker pintar, sementara yang lebih besar beroperasi di PC atau server, meskipun tugas rumit seperti peringkasan bagian besar memerlukan model yang lebih besar.
Namun, Karl Freund, seorang konsultan chip di Cambrian AI, mengatakan bahwa lebih besar tidak selalu lebih baik.
"Ada beberapa makalah menarik yang diterbitkan yang menunjukkan bahwa (model yang lebih kecil) bisa akurat jika Anda melatihnya lebih banyak," kata Freund. "Jadi ada pertukaran antara lebih besar dan lebih terlatih."
Feldman mengatakan model terbesarnya membutuhkan waktu lebih dari seminggu untuk dilatih, pekerjaan yang biasanya memakan waktu beberapa bulan, berkat arsitektur sistem Cerebras, yang mencakup chip seukuran piring makan yang dibuat untuk pelatihan AI.
Sebagian besar model AI saat ini dilatih menggunakan chip Nvidia Corp, tetapi semakin banyak startup seperti Cerebras mencoba mengambil bagian di pasar itu.
Model yang dilatih pada mesin Cerebras juga dapat digunakan pada sistem Nvidia untuk pelatihan atau penyesuaian lebih lanjut, kata Feldman.
Baca juga: Microsoft ancam akan putus akses data pencarian Bing ke kompetitornya
Baca juga: ChatGPT perbaiki bug yang bisa lihat histori percakapan
Baca juga: ChatGPT dan kecemasan termanjakannya generasi muda pada aplikasi AI
Cerebras yang berbasis di Silicon Valley, California, merilis tujuh model yang semuanya dilatih di superkomputer AI-nya yang disebut Andromeda, termasuk model bahasa parameter 111 juta yang lebih kecil hingga model parameter 13 miliar yang lebih besar.
"Ada pergerakan besar untuk menutup apa yang telah menjadi sumber terbuka di AI. Tidak mengherankan karena sekarang ada banyak uang di dalamnya," kata pendiri dan CEO Cerebras Andrew Feldman, seperti dilansir Reuters, Rabu.
"Kegembiraan di komunitas, kemajuan yang kami buat, sebagian besar karena sangat terbuka."
Model dengan lebih banyak parameter mampu melakukan fungsi generatif yang lebih kompleks.
Chatbot OpenAI, ChatGPT yang diluncurkan akhir tahun lalu, misalnya, memiliki 175 miliar parameter dan dapat menghasilkan puisi dan penelitian, yang telah membantu menarik minat dan pendanaan yang besar untuk AI secara lebih luas.
Baca juga: Baidu China batalkan peluncuran publik untuk produk mirip ChatGPT
Cerebras mengatakan model yang lebih kecil dapat digunakan di ponsel atau speaker pintar, sementara yang lebih besar beroperasi di PC atau server, meskipun tugas rumit seperti peringkasan bagian besar memerlukan model yang lebih besar.
Namun, Karl Freund, seorang konsultan chip di Cambrian AI, mengatakan bahwa lebih besar tidak selalu lebih baik.
"Ada beberapa makalah menarik yang diterbitkan yang menunjukkan bahwa (model yang lebih kecil) bisa akurat jika Anda melatihnya lebih banyak," kata Freund. "Jadi ada pertukaran antara lebih besar dan lebih terlatih."
Feldman mengatakan model terbesarnya membutuhkan waktu lebih dari seminggu untuk dilatih, pekerjaan yang biasanya memakan waktu beberapa bulan, berkat arsitektur sistem Cerebras, yang mencakup chip seukuran piring makan yang dibuat untuk pelatihan AI.
Sebagian besar model AI saat ini dilatih menggunakan chip Nvidia Corp, tetapi semakin banyak startup seperti Cerebras mencoba mengambil bagian di pasar itu.
Model yang dilatih pada mesin Cerebras juga dapat digunakan pada sistem Nvidia untuk pelatihan atau penyesuaian lebih lanjut, kata Feldman.
Baca juga: Microsoft ancam akan putus akses data pencarian Bing ke kompetitornya
Baca juga: ChatGPT perbaiki bug yang bisa lihat histori percakapan
Baca juga: ChatGPT dan kecemasan termanjakannya generasi muda pada aplikasi AI
Penerjemah: Siti Zulaikha
Editor: Satyagraha
Copyright © ANTARA 2023
Tags: