
(SeaPRwire) – Pada hari Rabu, OpenAI menerbitkan catatan blog yang menggariskan “falsafah dan mekanik” di sebalik Model Spec mereka—dokumen yang membentuk tingkah laku ChatGPT, chatbot paling luas digunakan di dunia.
Model Spec bertujuan untuk menjadi “antara muka,” menurut catatan blog itu. Ia menjadikan tingkah laku yang diingini untuk chatbot paling luas digunakan di dunia itu jelas, supaya penyelidik, pembuat dasar, dan orang awam boleh “membaca, memeriksa, dan membahaskannya.” Hasilnya adalah dokumen 100 muka surat yang mentakrifkan bagaimana model OpenAI harus mengadili antara obligasi yang berpotensi bercanggah terhadap masyarakat, OpenAI, pembangun yang membina di atas produk OpenAI, dan pengguna akhir. Untuk tujuan ini, Spec dibina di sekitar rantaian arahan, dengan larangan terhadap “kemudaratan tahap tinggi” mengatasi arahan pembangun atau pengguna, dan dikemas kini secara berkala—versi terkini bertarikh Disember.
“Saya melihat diri saya sebagai penjaga—dalam semangat projek sampingan sumber terbuka,” kata Jason Wolfe, yang menguruskan input ke dalam Model Spec dari bahagian berbeza OpenAI. Wolfe berkata bahawa penyelidik telah mula menghubungi OpenAI untuk mendapatkan input tentang cara mereka bentuk Model Spec yang serupa, yang mendorong catatan blog menggariskan pemikiran syarikat di sebalik dokumen itu. “Terdapat banyak perkara di sini yang diharapkan berguna untuk orang ramai.”
Walau bagaimanapun, dokumen itu “bukan pelaksanaan,” menurut catatan blog, yang menimbulkan persoalan tentang sejauh mana dokumen itu mewakili apa yang sebenarnya membentuk ChatGPT semasa latihan. Proses di mana Spec mempengaruhi tingkah laku model adalah “rumit,” menurut Wolfe. Dalam beberapa kes, teks dari Spec digunakan secara langsung dalam latihan “penjajaran,” di mana model AI dilatih untuk berkelakuan seperti yang diingini. Tetapi sama kerapnya, prinsip yang muncul dalam Spec adalah ringkasan kerja terperinci yang dilakukan oleh pasukan keselamatan dalam organisasi. “Dalam banyak kes, Spec dan latihan sebenarnya … proses selari yang kami kekalkan selaras,” kata Wolfe.
Pertumbuhan asas pengguna ChatGPT bermakna prinsip dalam Spec berpotensi mempengaruhi beratus-ratus juta orang di seluruh dunia. Setakat Februari, chatbot itu mempunyai kira-kira 10% daripada populasi global dalam kalangan pengguna aktif mingguannya. Cabaran ini diburukkan lagi oleh pertumbuhan dalaman OpenAI yang pesat, dengan syarikat merancang untuk hampir menggandakan jumlah pekerja semasa seramai 4,500 orang menjelang akhir 2026. Puluhan orang di seluruh organisasi telah menyumbang teks secara langsung kepada Spec, menurut catatan blog, dengan input dari pasukan penyelidikan, produk, dan undang-undang, antara lain. Wolfe bekerja rapat dengan ketua tingkah laku model dan dasar.
OpenAI bukan satu-satunya syarikat AI yang bergelut dengan cara membentuk tingkah laku model mereka dan bagaimana meminta input apabila kesan AI terhadap masyarakat berkembang. Pada Januari, Anthropic menerbitkan “Perlembagaan Claude,” dokumen 80 muka surat yang menerangkan jenis entiti yang mereka mahu Claude, model andalan mereka, menjadi. Perlembagaan Anthropic dan Model Spec OpenAI dibaca sangat berbeza: yang pertama terasa seperti esei falsafah moral, yang kedua lebih dekat dengan kompendium undang-undang kes dengan contoh tingkah laku yang diingini. “Perlembagaan Anthropic lebih falsafah, dan Spec OpenAI lebih berkelakuan,” kata Sharan Maiya, penyelidik PhD dalam penjajaran AI di University of Cambridge.
Dokumen-dokumen itu juga digunakan dengan cara yang berbeza oleh kedua-dua syarikat. Spec OpenAI adalah “pertama dan paling utama, dokumen untuk orang,” menurut Wolfe, berguna untuk membina konsensus tentang tingkah laku model yang diingini, tetapi lebih jauh dari apa yang model pelajari secara konkrit. Sebaliknya, Amanda Askell, ahli falsafah yang bertanggungjawab untuk Perlembagaan Anthropic, berkata bahawa Anthropic memberikan Perlembagaannya kepada Claude “untuk mencipta bahan latihan sendiri yang membolehkannya memahami dokumen itu.” Versi awal Perlembagaan Anthropic ditemui oleh pengguna, sepenuhnya, dalam respons Claude sebelum penerbitan rasminya, menunjukkan bahawa model itu telah mempelajari teks perlembagaan tersebut. “Saya memang mahu dokumen itu terasa baik untuk model Claude,” kata Askell kepada TIME pada Januari.
Google DeepMind, xAI, dan Meta belum menerbitkan dokumen serupa yang menerangkan tingkah laku yang diingini untuk model mereka.
Garis merah untuk model AI telah menjadi sangat ketara dalam beberapa minggu kebelakangan ini. Bulan lepas, OpenAI menandatangani perjanjian dengan Jabatan Perang selepas Anthropic enggan mengalihkan garis merah sekitar pengawasan massa domestik dan senjata autonomi. OpenAI kemudian menarik balik, dengan Sam Altman mengakui bahawa perjanjian itu kelihatan “oportunistik dan cuai.” Versi terkini perjanjian itu menyatakan bahawa “sistem AI tidak boleh digunakan secara sengaja untuk pengawasan domestik terhadap orang dan warganegara A.S.,” walaupun pakar undang-undang berbeza pendapat tentang kekuatan jaminan ini.
Model Spec menyatakan bahawa model OpenAI “tidak boleh sekali-kali” digunakan untuk memudahkan pengawasan massa.
“Saya berharap, setakat yang mungkin memandangkan sifat kerja ini, jika kami menyesuaikan dasar kami untuk [penempatan terkategori], kami mencari cara untuk menjadikan penyesuaian itu telus,” kata Wolfe.
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.
