Pada hari biasa di November, Bletchley Park menjadi tuan rumah campuran kepada warga tua dan kumpulan kanak-kanak sekolah yang tidak teratur, melawat untuk mempelajari tentang pengekod—termasuk pakar komputer awal Alan Turing—yang berpangkalan di sini semasa Perang Dunia Kedua, dan membantu Kuasa Bersekutu menewaskan Nazi.
Tetapi ini bukan minggu biasa, dan ini bukan lawatan biasa.
Pada Rabu dan Khamis, wakil-wakil dari 27 kerajaan di seluruh dunia, serta ketua-ketua syarikat kecerdasan buatan terkemuka, berkumpul untuk Persidangan Keselamatan Kecekapan Buatan Dunia yang pertama di bekas rumah berstatus ini berhampiran London, kini sebuah muzium. Antara peserta: wakil-wakil kerajaan AS dan China, Elon Musk, dan CEO OpenAI Sam Altman.
Acara berprofil tinggi ini, yang dihoskan oleh kerajaan UK yang dipimpin oleh Rishi Sunak, menamatkan setahun intensifikasi perbahasan global tentang keselamatan kecekapan buatan, berikutan pelancaran ChatGPT hampir setahun lalu. Chatbot itu mempamerkan buat kali pertama—kepada kebanyakan pengguna setidaknya—keupayaan umum yang kuat sistem kecekapan buatan generasi terkini. Daya tarikannya yang viral menghidupkan semula aliran fikiran yang sebelumnya tidak terlalu menonjol bahawa kecekapan buatan boleh, lebih awal atau kemudian, membawa risiko kewujudan kepada manusia, dan mendorong pembuat dasar di seluruh dunia mempertimbangkan sama ada, dan bagaimana, untuk mengawal selia teknologi itu. Perbahasan itu berlangsung di tengah-tengah amaran bukan sahaja bahawa alat kecekapan buatan hari ini sudah menyediakan pelbagai bahaya—terutamanya kepada komuniti terpinggir—tetapi juga bahawa generasi sistem berikutnya boleh menjadi 10 atau 100 kali lebih kuat, tidak kira lebih berbahaya.
Bletchley Park dipilih oleh kerajaan UK sebagai lokasi persidangan kerana simboliknya: ia merupakan salah satu tempat kelahiran komputer moden; mesin yang dicipta di sini untuk mengekod semula Kod Enigma Nazi membentuk lukisan awal komputer boleh program. Michelle Donelan, menteri sains dan teknologi UK, membuka Persidangan itu pada Rabu membincangkan harapannya bahawa wakil-wakil yang berkumpul untuk persidangan akan menyumbang kepada pencapaian yang serupa dalam skala, “mendorong sempadan apa yang sebenarnya mungkin.”
Pegawai-pegawai dari seluruh dunia tidak cuba untuk mencapai persetujuan di sini mengenai set garis panduan yang boleh dikuatkuasakan bersama untuk teknologi itu. Tetapi Sunak mengumumkan pada Khamis bahawa syarikat-syarikat kecekapan buatan telah bersetuju di Persidangan itu untuk memberi kerajaan-kerajaan akses awal kepada model mereka untuk melakukan penilaian keselamatan. Beliau juga mengumumkan bahawa Yoshua Bengio, seorang ahli sains komputer pemenang Anugerah Turing, telah bersetuju untuk mengetuai badan yang akan cuba untuk menetapkan, dalam laporan, konsensus saintifik mengenai risiko dan keupayaan sistem kecekapan buatan sempadan.
Kemenangan utama Sunak dari Persidangan—bahawa makmal AI akan memberi kerajaan-kerajaan akses awal kepada sistem mereka—kurang butiran. Sunak sudah mengumumkan, pada Jun, bahawa tiga syarikat kecekapan buatan sempadan terkemuka (OpenAI, Google DeepMind, dan Anthropic) telah bersetuju untuk memberi kerajaan UK “akses awal atau keutamaan” kepada sistem mereka untuk tujuan keselamatan. Sunak tidak memperincikan bagaimana persetujuan yang dicapai pada Khamis berbeza dari komitmen sedia ada, jika ada. Beliau juga tidak memberi komen sama ada kerajaan akan menerima kod sumber, atau berat yang dipanggil, model sempadan—atau sekadar keupayaan untuk berinteraksi dengannya menggunakan antara muka yang dikenali sebagai API. (Pejabat Sunak tidak segera membalas permintaan komen.)
Sunak juga mengumumkan bahawa Gugus Tugas Kecekapan Buatan Sempadan UK akan berkembang menjadi badan kekal yang diberi tugas untuk menjalankan penilaian keselamatan: Institut Keselamatan Kecekapan Buatan UK.
Walaupun kemajuan yang terhad, wakil-wakil di acara itu menyambut perbahasan tingkat tinggi sebagai langkah penting pertama menuju kerjasama antarabangsa dalam mengawal selia teknologi itu—mengakui bahawa walaupun terdapat banyak kawasan persetujuan, beberapa perbezaan kunci masih wujud.
“Saya gembira menyokong koordinasi antarabangsa yang sangat diperlukan untuk pengurusan keselamatan kecekapan buatan, dengan bekerja bersama rakan-rakan dari seluruh dunia untuk menyajikan bukti terkini mengenai isu penting ini,” kata Bengio dalam kenyataan.
Membuka acara pada Rabu, kerajaan UK mengumumkan “Deklarasi Bletchley” tentang AI, ditandatangani oleh 28 negara, termasuk AS, UK, China, dan India, serta Kesatuan Eropah. Deklarasi itu menyatakan bahawa AI membawa risiko jangka pendek dan jangka panjang, mengesahkan tanggungjawab pencipta sistem AI yang kuat untuk memastikan mereka selamat, dan berkomitmen terhadap kerjasama antarabangsa dalam mengenal pasti dan mengurangkan risiko.
Kerajaan UK, sebagai penganjur Persidangan, telah berjalan di atas garis yang halus antara mengkomunikasikan bahawa ia serius tentang risiko AI di satu pihak, sementara menghantar isyarat kepada syarikat teknologi bahawa ia terbuka untuk perniagaan di pihak lain. “Bagi saya, risiko terbesar sebenarnya yang dihadapi kita, ialah risiko melepas peluang semua kemungkinan luar biasa yang AI benar-benar boleh hadirkan,” kata Donelan kepada tokoh-tokoh cahaya industri teknologi di jamuan di ibu pejabat Google DeepMind semalam Persidangan. “Jika kita benar-benar menakutkan orang terlalu banyak, atau jika kita mengelak kerana kita tidak menangani risiko ini, maka kita tidak akan melihat penggunaan di NHS kita [Perkhidmatan Kesihatan Kebangsaan], kita tidak akan melihat penggunaan dalam rangkaian pengangkutan kita, kita tidak akan dapat memanfaatkan AI untuk menangani perubahan iklim atau menyokong negara-negara membangun untuk menangani isu-isu seperti ketidaksetaraan makanan. Dan itu akan menjadi tragedi terbesar yang boleh kita bayangkan.”
Setiausaha Luar Asing Britain, James Cleverley, memainkan tuntutan pada Khamis bahawa AS telah mengatasi UK dengan pengumuman mereka. “Ini bukan tentang pengumpulan, ini tentang berkongsi,” katanya kepada TIME. “Ini sesuatu yang kita inginkan semua terlibat. Ia tidak eksklusif, ia inklusif.”
Di Bletchley Park, polis berada di luar untuk mengawal sempadan sementara yang telah didirikan di sekeliling kompleks memecahkan kod perang zaman dahulu. Di luar pagar depan, sekumpulan kecil penunjuk perasaan dari kumpulan tekanan Pause AI hadir pada Rabu, membawa banner dan papan tanda. Kumpulan itu menyokong penangguhan sementara terhadap latihan sistem kecekapan buatan yang lebih kuat daripada GPT-4 OpenAI, pengganti ChatGPT dan model bahasa besar awam yang paling kuat di dunia. “Polling semakin menunjukkan bahawa memperlahankan pembangunan kecekapan buatan popular dengan orang awam, seperti juga banyak mesej sokongan yang kami terima dari ahli awam, muda dan tua, hari ini semasa kami membantah,” kata Gideon Futerman, salah seorang penunjuk perasaan, kepada TIME. “Penangguhan bukan sahaja perlu, tetapi ia juga boleh dicapai.”
Di dalam, perbincangan utama diadakan di belakang pintu tertutup, tetapi beberapa tokoh industri muncul untuk berucap kepada media. Mustafa Suleyman, pengasas bersama Google DeepMind dan kini CEO syarikat permulaan Inflection AI, berkata dalam persidangan akhbar bahawa walaupun terdapat banyak persetujuan, terdapat juga beberapa perbezaan penting yang masih wujud dalam cara kita memandang risiko ini dan bagaimana kita hendak menangani risiko ini. Beliau menambah bahawa walaupun terdapat banyak kerjasama, masih terdapat banyak kerja yang perlu dilakukan.