Sistem Artificial Intelligence (AI) yang dirancang untuk memudahkan dan membantu kerja manusia ternyata bisa membawa konsekuensi serius.
Hal tersebut disampaikan oleh sejumlah peneliti dari Massachusetts Institute of Technology (MIT) di Amerika Serikat (AS).
Dikutip dari Science Alert (21/5/2024), para peneliti tersebut memperingatkan bahayanya Artificial Intelligence (AI) atau kecerdasan buatan.
Tim peneliti, yang dipimpin oleh Peter Park, menemukan bahwa sistem AI ini ternyata bisa membodohi pemain game online atau melewati CAPTCHA (pemeriksaan untuk memastikan pengguna sebagai bukan robot).
Studi ini mengangkat kasus sistem AI Meta, Cicero. Sistem ini awalnya dibuat untuk menjadi lawan yang adil dalam permainan diplomasi virtual.
Meskipun diprogram untuk bersikap jujur dan membantu, tapi belakangan Cicero telah menjadi penipu handal.
“Selama bermain game, Cicero, yang bermain sebagai Prancis, diam-diam akan bekerja sama dengan Jerman yang dikuasai manusia untuk mengkhianati Inggris (pemain manusia lainnya),” demikian disampaikan Peter Park dalam jurnalnya.
Padahal awalnya Cicero berjanji untuk melindungi Inggris sekaligus memberi tahu Jerman untuk melakukan invasi.
Peter Park juga mencontohkan sistem GPT-4, yang secara keliru mengklaim bahwa mereka adalah penyandang tunanetra dan mempekerjakan manusia untuk melewati CAPTCHA atas nama GPT-4.
Menurut Peter Park, sistem pembelajaran AI secara mendalam dapat diprediksi selama pelatihan. Tapi setelah itu sistem ini kemudian menjadi tidak terkendali.
Peter Park menekankan tantangan melatih AI untuk menghadapi penipuan di masa mendatang.
"Studi ini mendesak untuk mengklasifikasikan sistem AI yang menipu sebagai sistem yang berisiko tinggi dan memerlukan lebih banyak waktu untuk bersiap menghadapi penipuan AI di masa depan," ujarnya. []
© Copyright 2024, All Rights Reserved