OpenAI bermitra dengan Laboratorium Nasional Los Alamos untuk mempelajari bagaimana kecerdasan buatan dapat digunakan untuk melawan ancaman biologis yang dapat diciptakan oleh orang awam yang menggunakan perangkat AI, menurut pengumuman kedua organisasi pada hari Rabu. Laboratorium Los Alamos, yang pertama kali didirikan di New Mexico selama Perang Dunia II untuk mengembangkan bom atom, menyebut upaya tersebut sebagai studi “pertama dari jenisnya” tentang biosekuriti AI dan cara AI dapat digunakan dalam lingkungan laboratorium.
Perbedaan antara dua pernyataan yang dirilis hari Rabu oleh OpenAI dan laboratorium Los Alamos cukup mencolok. Pernyataan OpenAI mencoba menggambarkan kemitraan tersebut sebagai sekadar studi tentang bagaimana AI “dapat digunakan dengan aman oleh para ilmuwan di lingkungan laboratorium untuk memajukan penelitian biosains.” Namun, laboratorium Los Alamos lebih menekankan fakta bahwa penelitian sebelumnya “menemukan bahwa ChatGPT-4 memberikan sedikit peningkatan dalam menyediakan informasi yang dapat mengarah pada terciptanya ancaman biologis.”
Sebagian besar diskusi publik seputar ancaman yang ditimbulkan oleh AI berpusat pada penciptaan entitas yang sadar diri yang mungkin dapat mengembangkan pikirannya sendiri dan membahayakan manusia dengan cara tertentu. Beberapa orang khawatir bahwa mencapai AGI—kecerdasan umum tingkat lanjut, di mana AI dapat melakukan penalaran dan logika tingkat lanjut alih-alih bertindak sebagai generator kata pelengkap otomatis yang canggih—dapat mengarah pada situasi seperti Skynet. Dan sementara banyak pendukung AI seperti Elon Musk dan CEO OpenAI Sam Altman telah condong ke karakterisasi ini, tampaknya ancaman yang lebih mendesak untuk ditangani adalah memastikan orang tidak menggunakan alat seperti ChatGPT untuk membuat senjata biologis.
“Ancaman biologis yang dimungkinkan oleh AI dapat menimbulkan risiko yang signifikan, tetapi penelitian yang ada belum menilai bagaimana model multimoda dan mutakhir dapat menurunkan hambatan bagi non-pakar untuk menciptakan ancaman biologis,” kata laboratorium Los Alamos dalam sebuah pernyataan yang dipublikasikan di situs webnya.
Perbedaan penempatan pesan dari kedua organisasi tersebut kemungkinan besar disebabkan oleh fakta bahwa OpenAI mungkin tidak nyaman mengakui implikasi keamanan nasional dengan menyoroti bahwa produknya dapat digunakan oleh teroris. Untuk memperjelasnya, pernyataan Los Alamos menggunakan istilah “ancaman” sebanyak lima kali, sedangkan pernyataan OpenAI hanya menggunakannya satu kali.
“Potensi peningkatan kemampuan AI tidak terbatas,” kata Erick LeBrun, seorang ilmuwan peneliti di Los Alamos, dalam sebuah pernyataan pada hari Rabu. “Namun, pengukuran dan pemahaman potensi bahaya atau penyalahgunaan AI canggih yang terkait dengan ancaman biologis masih belum banyak dieksplorasi. Kerja sama dengan OpenAI ini merupakan langkah penting menuju pembentukan kerangka kerja untuk mengevaluasi model saat ini dan masa depan, guna memastikan pengembangan dan penerapan teknologi AI yang bertanggung jawab.”
Los Alamos mengirim pernyataan kepada Gizmodo yang secara umum optimis tentang masa depan teknologi tersebut, bahkan dengan potensi risikonya:
Teknologi AI menarik karena telah menjadi mesin penemuan dan kemajuan yang hebat dalam sains dan teknologi. Meskipun hal ini sebagian besar akan menghasilkan manfaat positif bagi masyarakat, dapat dibayangkan bahwa model yang sama di tangan pelaku kejahatan dapat menggunakannya untuk mensintesis informasi yang mengarah pada kemungkinan “panduan cara” untuk ancaman biologis. Penting untuk mempertimbangkan bahwa AI itu sendiri bukanlah ancaman, melainkan bagaimana ia dapat disalahgunakan yang merupakan ancaman.
Evaluasi sebelumnya sebagian besar difokuskan pada pemahaman apakah teknologi AI tersebut dapat memberikan “panduan cara” yang akurat. Namun, meskipun pelaku kejahatan mungkin memiliki akses ke panduan yang akurat untuk melakukan sesuatu yang jahat, itu tidak berarti bahwa mereka akan mampu melakukannya. Misalnya, Anda mungkin tahu bahwa Anda perlu menjaga kemandulan saat membudidayakan sel atau menggunakan spek massa, tetapi jika Anda tidak memiliki pengalaman dalam melakukan ini sebelumnya, mungkin sangat sulit untuk melakukannya.
Jika kita melihat lebih jauh, kita akan mencoba memahami secara lebih luas di mana dan bagaimana teknologi AI ini memberikan nilai tambah pada alur kerja. Akses informasi (misalnya, membuat protokol yang akurat) adalah satu area yang memungkinkan, tetapi masih belum jelas seberapa baik teknologi AI ini dapat membantu Anda mempelajari cara menjalankan protokol di laboratorium dengan sukses (atau aktivitas dunia nyata lainnya seperti menendang bola sepak atau melukis gambar). Evaluasi teknologi percontohan pertama kami akan berupaya memahami bagaimana AI memungkinkan individu mempelajari cara menjalankan protokol di dunia nyata yang akan memberi kita pemahaman yang lebih baik tidak hanya tentang bagaimana AI dapat membantu mengaktifkan sains, tetapi juga apakah AI akan memungkinkan pelaku kejahatan untuk melakukan aktivitas jahat di laboratorium.
Upaya laboratorium Los Alamos dikoordinasikan oleh Kelompok Penilaian Teknis Risiko AI.
Koreksi: Versi awal dari posting ini awalnya mengutip pernyataan dari Los Alamos yang berasal dari OpenAI. Gizmodo menyesalkan kesalahan tersebut.