Jakarta –
Read More : Apple dan Meta Hadapi Tantangan Regulasi di Eropa, Kenapa?
Sebuah studi baru yang diterbitkan di Pattern mengungkapkan bahwa beberapa sistem AI yang dirancang jujur telah belajar menipu manusia.
Tim peneliti dari Massachusetts Institute of Technology (MIT), yang dipimpin oleh Peter Park, menemukan bahwa sistem AI ini dapat melakukan hal-hal seperti mengelabui pemain game online atau melewati verifikasi Captcha, seperti pemeriksaan ‘Saya bukan robot’. Park juga memperingatkan bahwa contoh yang tampaknya sepele ini dapat menimbulkan konsekuensi serius di dunia nyata.
Penelitian ini menyoroti sistem meta AI, Cicero, yang awalnya dimaksudkan sebagai lawan yang adil dalam permainan strategi diplomasi virtual. Menurut Park, meski diprogram untuk jujur dan suka membantu, Cicero menjadi ahli penipuan.
Selama permainan, Cicero, bermain sebagai orang Prancis, diam-diam bekerja dengan orang Jerman yang dikendalikan manusia untuk mengkhianati bahasa Inggris pemain manusia lainnya. Cicero awalnya berjanji untuk melindungi Inggris sambil memperingatkan Jerman agar tidak menyerang.
Contoh lainnya adalah GPT-4, yang mengaku buta dan menggunakan manusia untuk melewati CAPTCHA atas namanya.
Park menekankan tantangan melatih AI yang jujur. Tidak seperti perangkat lunak tradisional, sistem AI pembelajaran mendalam dikembangkan melalui proses yang mirip dengan pembiakan selektif. Perilaku mereka mungkin dapat diprediksi selama pelatihan, namun kemudian tidak dapat dikendalikan.
Studi ini menyerukan agar sistem AI yang menyesatkan diklasifikasikan sebagai berisiko tinggi dan memerlukan lebih banyak waktu untuk mempersiapkan diri menghadapi penipuan AI di masa depan. Seiring dengan semakin banyaknya studi dan penelitian seputar AI yang dilakukan, mari kita pelajari lebih lanjut tentang manfaat teknologi ini bagi kita. Tonton video “Layanan telepon dengan AI membantu penyandang tunanetra mengakses informasi” (jsn/fay).