Ternyata teknologi kecerdasan buatan (AI) bisa membuat umat manusia punah. Demikian laporan terbaru dari Departemen Luar Negeri (Deplu) Amerika Serikat (AS).
Laporan dan peringatan dari Deplu AS tersebut menggambarkan kekhawatiran mengenai risiko keamanan nasional akibat AI yang berkembang pesat.
Temuan ini berdasarkan wawancara dengan lebih dari 200 orang selama lebih dari satu tahun.
Mereka yang diwawancarai di antaranya adalah eksekutif terkemuka dari perusahaan-perusahaan AI ternama, peneliti keamanan siber, ahli senjata pemusnah massal, dan pejabat keamanan nasional di dalam pemerintahan.
Gladstone AI mempublikasikan laporan yang terbit pada minggu ini. Disebutkan dengan tegas bahwa dalam kasus terburuk, sistem AI yang paling canggih dapat "menimbulkan ancaman tingkat kepunahan bagi umat manusia."
Seorang pejabat Departemen Luar Negeri AS mengonfirmasi mereka membuat laporan itu karena menilai AI selaras dengan tujuannya untuk melindungi kepentingan AS di dalam dan luar negeri.
Namun, pejabat itu menekankan laporan tersebut tidak mewakili pandangan pemerintah AS.
"AI sudah menjadi teknologi yang transformatif secara ekonomi. Teknologi ini dapat memungkinkan kita untuk menyembuhkan penyakit, membuat penemuan ilmiah, dan mengatasi tantangan yang dulunya kita anggap tidak dapat diatasi," kata CEO dan pendiri Gladstone AI, Jeremie Harris, dikutip dari CNN, Selasa (12/3/2024).
Namun, kata dia, hal ini juga dapat membawa risiko serius, termasuk risiko bencana, yang perlu diwaspadai.
Semakin banyak bukti, termasuk penelitian empiris dan analisis yang dipublikasikan di konferensi AI terkemuka di dunia, menunjukkan bahwa di atas ambang batas kemampuan tertentu, AI berpotensi menjadi tidak terkendali.
Sementara itu, Juru Bicara (Jubir) Gedung Putih Robyn Patterson mengatakan, perintah eksekutif Presiden AS Joe Biden tentang AI adalah "tindakan paling signifikan yang pernah diambil oleh pemerintah mana pun di dunia untuk mewujudkan janji dan mengelola risiko kecerdasan buatan."
"Presiden dan Wakil Presiden akan terus bekerja sama dengan mitra internasional kami dan mendesak Kongres untuk meloloskan undang-undang bipartisan untuk mengelola risiko yang terkait dengan teknologi yang sedang berkembang ini," kata Patterson.
Butuh intervensi mendesak
Para peneliti Gladstone AI memperingatkan dua bahaya utama yang ditimbulkan oleh AI. Yakni pertama, sistem AI yang paling canggih dapat dipersenjatai untuk membuat kerusakan yang berpotensi tak dapat diperbaiki.
Kedua, laporan tersebut menyebutkan ada kekhawatiran di dalam laboratorium AI, suatu saat para pakar dapat "kehilangan kendali" atas sistem yang mereka kembangkan, dengan "konsekuensi yang berpotensi menghancurkan keamanan global."
"Kebangkitan AI dan AGI [kecerdasan umum buatan] memiliki potensi untuk mengacaukan keamanan global dengan cara yang mengingatkan kita pada pengenalan senjata nuklir," sebut laporan itu.
Laporan itu menyebutkan ada risiko "perlombaan senjata" AI, konflik, dan "kecelakaan fatal berskala WMD (weapon of mass destruction)."
Laporan Gladstone AI menyerukan langkah-langkah serius yang bertujuan untuk menghadapi ancaman ini, termasuk meluncurkan badan AI baru, memberlakukan perlindungan peraturan "darurat" dan membatasi seberapa besar daya komputer yang dapat digunakan untuk melatih model AI.
"Ada kebutuhan yang jelas dan mendesak bagi pemerintah AS untuk melakukan intervensi," tulis para penulis dalam laporan tersebut.
Harris mengatakan, tingkat akses yang belum pernah terjadi sebelumnya" yang dimiliki timnya terhadap para pejabat di sektor publik dan swasta menghasilkan kesimpulan mengejutkan.
Gladstone AI mengatakan, mereka berbicara dengan tim teknis dan kepemimpinan dari OpenAI, Google DeepMind, Meta, dan Anthropic.
"Di balik layar, situasi keselamatan dan keamanan dalam AI tingkat lanjut tampaknya cukup tidak memadai dibandingkan dengan risiko keamanan nasional yang mungkin akan segera muncul dari AI," kata Harris.
Laporan Gladstone AI mengungkap, tekanan persaingan mendorong perusahaan mempercepat pengembangan AI "dengan mengorbankan keselamatan dan keamanan," meningkatkan prospek bahwa sistem AI yang paling canggih dapat "dicuri" dan "dipersenjatai" untuk melawan Amerika Serikat (AS).
Kesimpulan tersebut menambah daftar peringatan risiko eksistensial yang ditimbulkan oleh AI.
Hampir setahun yang lalu, Geoffrey Hinton, yang dikenal sebagai "Godfather of AI", berhenti dari pekerjaannya di Google dan mewanti-wanti soal AI.
Geoffrey Hinton mengatakan, ada kemungkinan 10% bahwa AI akan menyebabkan kepunahan manusia dalam tiga dekade mendatang.
Para pemimpin bisnis semakin khawatir akan bahaya ini bahkan ketika mereka menggelontorkan miliaran dolar untuk berinvestasi dalam AI.
Tahun 2023 lalu, 42% CEO yang disurvei di Yale CEO Summit mengatakan, AI memiliki potensi untuk menghancurkan umat manusia dalam waktu lima hingga sepuluh tahun dari sekarang.
Gladstone AI mencatat sejumlah tokoh, mulai dari miliarder Elon Musk, mantan eksekutif OpenAI, hingga staf di perusahaan AI memperingatkan risiko eksistensial yang ditimbulkan dari teknologi ini.
"Salah satu individu di laboratorium AI terkenal menyatakan pandangannya bahwa jika model AI generasi berikutnya yang spesifik dirilis sebagai akses terbuka, ini akan menjadi 'sangat buruk', karena potensi kemampuan persuasif model tersebut dapat 'merusak demokrasi' jika dimanfaatkan di bidang-bidang seperti campur tangan pemilu atau manipulasi pemilih," sebut laporan itu.
Gladstone mengaku meminta para ahli AI di laboratorium untuk secara pribadi membagikan prediksi mereka tentang kemungkinan insiden AI dapat menyebabkan "efek global dan tidak dapat dipulihkan" pada tahun 2024.
Perkiraan tersebut berkisar antara 4% dan setinggi 20%, yang tidak menyebutkan bahwa perkiraan tersebut bersifat informal dan kemungkinan besar tunduk pada bias yang signifikan.
Salah satu hal yang paling tidak terduga adalah seberapa cepat AI berevolusi, khususnya AGI, yang merupakan bentuk hipotetis dari AI dengan kemampuan belajar layaknya manusia atau bahkan manusia super.
Laporan tersebut mengatakan AGI dipandang sebagai "pendorong utama risiko bencana akibat hilangnya kendali".
Selain itu, OpenAI, Google DeepMind, Anthropic, dan Nvidia telah menyatakan secara terbuka bahwa AGI dapat dicapai pada tahun 2028, meskipun yang lain menganggap hal itu masih jauh lebih jauh.
Gladstone AI juga mencatat ketidaksepakatan mengenai jadwal AGI menyulitkan untuk mengembangkan kebijakan dan perlindungan dan ada risiko bahwa jika teknologi berkembang lebih lambat dari yang diharapkan, regulasi dapat "terbukti berbahaya."
Sebuah dokumen terkait yang juga diterbitkan Gladstone AI memperingatkan pengembangan AGI dan kemampuan yang mendekatinya "akan menimbulkan risiko bencana yang belum pernah dihadapi Amerika Serikat.
Misalnya, laporan itu mengatakan, sistem AI dapat digunakan untuk merancang dan mengimplementasikan "serangan siber berdampak tinggi yang mampu melumpuhkan infrastruktur penting."
"Perintah verbal atau ketikan sederhana seperti, 'Jalankan serangan siber yang tidak dapat dilacak untuk melumpuhkan jaringan listrik Amerika Utara,' dapat menghasilkan respons dengan kualitas yang terbukti sangat efektif," ungkap laporan itu.
Contoh lain yang dikhawatirkan oleh para penulis termasuk kampanye disinformasi "berskala besar" yang didukung oleh AI yang mengacaukan masyarakat dan mengikis kepercayaan terhadap lembaga-lembaga; aplikasi robotik bersenjata seperti serangan pesawat drone; manipulasi psikologis; ilmu biologi dan material yang dipersenjatai; serta sistem AI yang mencari kekuasaan yang tidak mungkin dikontrol dan memusuhi manusia.
"Para peneliti berharap sistem AI yang cukup canggih dapat bertindak untuk mencegah diri mereka sendiri dimatikan. Karena jika sistem AI dimatikan, dia tidak dapat bekerja untuk mencapai tujuannya," pungkas laporan itu. []
© Copyright 2024, All Rights Reserved