Mengapa Perintah Eksekutif Biden Hanya Sampai Sejauh Itu Saja

Presiden Biden minggu ini menandatangani Perintah Eksekutif yang meluas tentang kecerdasan buatan yang berusaha menangani ancaman yang dibawa oleh teknologi tersebut, tetapi beberapa pakar mengatakan bahawa peraturan itu telah meninggalkan soalan-soalan tidak terjawab tentang bagaimana ia boleh berfungsi dalam amalan.

Perintah tersebut menugaskan agensi untuk meninjau semula pendekatan mereka terhadap AI dan bertujuan untuk menangani ancaman yang berkaitan dengan keselamatan negara, persaingan dan privasi pengguna, sambil mempromosikan inovasi, persaingan, dan penggunaan AI untuk perkhidmatan awam.

Salah satu unsur paling penting dalam perintah tersebut adalah keperluan bagi syarikat yang membangunkan model AI paling kuat untuk mendedahkan keputusan ujian keselamatan. Pada Selasa, Setiausaha Perdagangan Gina Raimondo memberitahu CNBC bahawa di bawah Perintah Eksekutif “Presiden mengarahkan Kementerian Perdagangan untuk memerlukan syarikat-syarikat memberitahu kami: apakah langkah-langkah keselamatan yang mereka laksanakan dan membenarkan kami untuk menilai sama ada itu cukup. Dan kami merancang untuk memegang syarikat-syarikat ini bertanggungjawab.”

Dokumen Perintah Eksekutif 63 muka surat tidak, bagaimanapun, menetapkan implikasi bagi sebuah syarikat melaporkan bahawa modelnya boleh menjadi berbahaya. Pakar berpecah – sesetengah berfikir bahawa Perintah Eksekutif hanya meningkatkan ketelusan, manakala yang lain percaya bahawa kerajaan mungkin akan mengambil tindakan jika model didapati tidak selamat.

Ini telah mendorong beberapa pakar untuk menyimpulkan bahawa Putih Rumah telah berhadapan dengan batasan kuasa eksekutif dalam menangani sesetengah kebimbangan AI.

Panduan ke hadapan

Dalam taklimat maya sebelum keluaran Perintah, seorang pegawai kanan berkata bahawa Presiden menugaskan pasukannya untuk mencari setiap alat dan menarik semuanya, menurut penghadir Helen Toner, pengarah strategi dan geran penyelidikan asas di Pusat Keselamatan dan Teknologi Muncul, sebuah pemikir yang berfikir.

Kebanyakan perintah terdiri daripada arahan kepada agensi dan badan lain untuk melaksanakan kajian atau membangunkan panduan lebih terperinci. Sebagai contoh, Pejabat Pengurusan dan Bajet mempunyai 150 hari untuk mengeluarkan panduan kepada agensi persekutuan bagaimana mereka boleh maju inovasi sambil menguruskan risiko yang dibawa oleh AI.

Perintah Eksekutif bergantung kepada pelaksanaan yang berjaya, tetapi tahap sokongan politik yang kuat dari dalam kerajaan persekutuan bermakna bahawa ini mempunyai peluang yang lebih baik daripada kebanyakan untuk memberi kesan, menurut Divyansh Kaushik, pengarah penyelidikan teknologi muncul dan keselamatan negara di pemikir Federation of American Scientists.

Presiden terdahulu Donald Trump mengeluarkan Perintah Eksekutif tersendiri yang berfokus pada AI pada tahun 2019 yang bertujuan untuk mengekalkan kepimpinan AS dalam AI. Kaushik berkata bahawa ia menderita kerana kekurangan sokongan yang serius dari pegawai kanan, dengan hanya satu jabatan – Jabatan Kesihatan dan Perkhidmatan Kemanusiaan – melaksanakan dasar AI selari dengan Perintah Eksekutif. Sebaliknya, Perintah Eksekutif Pentadbiran Biden “mempunyai sokongan dari puncak, yang mempunyai sokongan dari pejabat Presiden, pejabat ketua staf, pejabat Naib Presiden,” kata Kaushik.

Batasan komputer

Beberapa bahagian Perintah Pentadbiran Biden dijangka memberi kesan segera, seperti perubahan kepada peraturan berkaitan imigresen kemahiran tinggi. Ini bertujuan untuk meningkatkan inovasi AS dengan meningkatkan jumlah bakat AI yang tersedia, beberapa daripadanya sepatutnya dilaksanakan dalam tempoh 90 hari.

Peruntukan lain yang dijangka memberi kesan lebih segera kepada industri AI adalah satu set keperluan yang dikenakan kepada syarikat-syarikat yang sedang membangunkan atau bercadang untuk membangunkan model asas dual-use. Model-model ini mampu melakukan tugas pelbagai dan boleh menimbulkan ancaman kepada keselamatan negara, seperti yang Kerajaan UK terbaru huraikan dalam kertas diterbitkan sebelum Summit Keselamatan AI. Syarikat-syarikat akan perlu memaklumkan kerajaan AS tentang rancangan pembangunan AI mereka, langkah-langkah keselamatan – kedua-dua fizikal dan siber – yang telah diambil untuk menyekat model AI mereka, dan keputusan apa-apa ujian keselamatan yang telah dilakukan.

Setiausaha Perdagangan telah diberi tugas untuk mendefinisikan model AI yang cukup membahayakan untuk layak bagi keperluan ini. Pada masa ini, pakar tidak tahu bagaimana untuk melakukannya, menurut Paul Scharre, naib presiden eksekutif dan pengarah kajian di Pusat untuk Amerika Baru Keselamatan, pemikir urusan tentera.

Sementara itu, keperluan akan terpakai kepada model yang dilatih menggunakan jumlah kuasa pengkomputeran melebihi ambang yang ditetapkan seratus bilion bilion bilion operasi. Tiada model AI yang pernah dilatih menggunakan sebanyak kuasa pengkomputeran ini. GPT-4 OpenAI, model AI awam paling berkemampuan, dianggarkan oleh organisasi penyelidikan Epoch telah dilatih dengan lima kali kurang daripada jumlah ini. Walau bagaimanapun, jumlah kuasa pengkomputeran yang digunakan untuk melatih model AI telah berkembang dua kali setiap enam bulan untuk dasawarsa terakhir, menurut Epoch.

Seorang pegawai Pentadbiran Biden berkata ambang itu ditetapkan supaya model semasa tidak ditangkap tetapi generasi seterusnya model terkemuka negara memang akan, menurut Scharre, yang juga menghadiri taklimat tersebut.

Kuasa pengkomputeran adalah “proksi kasar” untuk perkara yang benar-benar menjadi kebimbangan para penggubal dasar – keupayaan model – kata Scharre. Tetapi Kaushik menunjukkan bahawa menetapkan ambang pengkomputeran boleh mencipta insentif bagi syarikat AI untuk membangunkan model yang mencapai prestasi serupa sambil mengekalkan kuasa pengkomputeran di bawah ambang, terutamanya jika keperluan laporan mengancam untuk mendedahkan rahsia perdagangan atau harta intelek.

Batasan kuasa presiden

Walaupun bagi model yang melepasi ambang pengkomputeran, Perintah Eksekutif hanya secara jelas memerlukan syarikat untuk memaklumkan kerajaan keputusan ujian red-teaming keselamatan, yang melibatkan juruaudit secara bermusuhan cuba untuk mencari isu dengan model AI. Untuk memberikan justifikasi undang-undang, Pentadbiran Biden memanggil Akta Pengeluaran Pertahanan, undang-undang yang boleh membenarkan Presiden untuk mempengaruhi industri domestik bagi mempromosikan keselamatan negara.

Ia “sama sekali tidak jelas” apa yang akan berlaku jika sebuah syarikat melaporkan bahawa model AI mereka gagal ujian keselamatan yang diperlukan, kata Toner, dari Pusat Keselamatan dan Teknologi Muncul.

“Falsafah asas di sini adalah terdapat beberapa syarikat membina sistem AI yang sangat maju ini, dan syarikat-syarikat itu memberitahu kerajaan: ‘Kami tidak tahu apa yang boleh dilakukan sistem kami, dan kami fikir mereka mungkin berbahaya.’ Dan itulah yang agak gila,” kata Toner. “Jadi kerajaan berkata: ‘Baiklah, anda perlu memberitahu kami lebih lanjut, kami perlu lebih bermaklumat.'”

Samuel Hammond, seorang ekonom kanan Yayasan Inovasi Amerika, percaya bahawa kerajaan akan campur tangan, sama ada untuk mencegah penggunaan model atau bahkan memerintahkan supaya ia dipadamkan. “Aksis pengeluaran pertahanan telah digunakan dalam beberapa tahun kebelakangan ini untuk memaksa syarikat-syarikat menghasilkan perkara yang tidak mahu mereka hasilkan, dan boleh memaksa syarikat-syarikat untuk berhenti menghasilkan perkara yang tidak mahu mereka hasilkan,” kata Hammond. “Kuasanya