Jenewa –

Tahukah Anda bahwa Profesor Geoffrey Hinton, pakar senior kecerdasan buatan (AI), memutuskan pensiun dan meninggalkan Google bukan hanya karena usianya yang semakin tua, tetapi juga karena “takut” dengan teknologi AI. dilahirkan? Ya, Geoffrey, yang dikenal sebagai bapak AI, adalah seorang profesor ilmu komputer terkenal di Universitas Toronto, yang kemudian memilih tujuannya untuk mengedukasi masyarakat tentang risiko dan bahaya AI.

“Dalam waktu dekat, AI akan lebih pintar dan efisien dibandingkan manusia. Tentu saja ada perbedaan pendapat tentang betapa canggihnya AI dan betapa berbahayanya. Ibaratnya AI adalah kecerdasan alien,” ujarnya saat berbicara di AI For Bagus. KTT global di Jenewa (31/5).

Jeffrey yang telah meraih sejumlah penghargaan dunia di bidang ilmu komputer ini sebelumnya menduduki posisi bergengsi sebagai vice presiden dan engineering officer di Google. Sepanjang karirnya di dunia akademis dan sektor swasta, ia telah mendedikasikan dirinya pada penelitian dan pengembangan teknologi jaringan saraf tiruan, yang merupakan sumber kehidupan teknologi AI saat ini.

“Cara AI bekerja dan berpikir tidak sama dengan kita. Faktanya, mereka bisa memiliki pengalaman (dan penilaian) yang subjektif,” tambahnya menjelaskan apa yang dimaksud dengan “kecerdasan alien”.

Kekhawatiran utama adalah potensi kecerdasan buatan untuk mengungguli manusia dalam tugas-tugas kognitif. Jeffrey juga memperingatkan bahaya AI yang perlahan-lahan menjadi bentuk kecerdasan yang dominan karena ia berkembang secara mandiri tanpa kendali manusia.

“AI bisa memprioritaskan tujuannya sendiri daripada mengikuti arahan manusia,” ujarnya.

Lantas, bagaimana solusi untuk memprediksi ancaman AI yang ada di depan mata kita? Ia mencatat bahwa peraturan yang kuat diperlukan untuk mengendalikan pengembangan dan penggunaan AI, serupa dengan bagaimana industri berisiko lainnya diatur, untuk melindungi kepentingan publik.

“Pemerintah harus mengatur secara ketat perusahaan-perusahaan besar terkait keamanan AI. Bukan hanya kontrol keamanan, tapi peraturan yang memperkuat perlunya perusahaan menganggarkan dana untuk penelitian keamanan AI,” ujarnya.

Dia mengatakan kebutuhan akan protokol keamanan yang kuat dan kerangka peraturan untuk mengelola pengembangan AI sangatlah penting. “Tanpa pengawasan yang signifikan, AI dapat berkembang dengan cara yang tidak dapat diprediksi dan berpotensi membahayakan masyarakat,” katanya.

Dalam sesi tersebut, yang dihadiri penuh oleh peserta di lokasi dan berlangsung sekitar satu jam, Jeffrey menandai momen penting di mana ia menyadari bahwa komputasi digital, meskipun menggunakan lebih banyak energi, masih memiliki keunggulan signifikan dibandingkan otak manusia dalam hal replikasi dan skalabilitas.

Dia mengatakan bahwa model digital dapat secara akurat meniru dan beroperasi dalam skala besar, yang tidak dapat dilakukan oleh otak manusia.

Diskusi dilanjutkan dengan topik-topik seperti keamanan AI, netralitas AI, dan pentingnya pendekatan yang hati-hati terhadap AI dalam pengambilan keputusan sosial dan politik, terutama untuk menghindari manipulasi disinformasi dan kejahatan dunia maya yang didukung AI.

Implikasi sosial dan etika dari AI juga dijelaskan, termasuk masalah privasi, otonomi, dan potensi gangguan sosial. Terutama jika sistem AI unggul dalam mengambil keputusan atau melakukan tugas-tugas yang biasanya ditangani oleh manusia, termasuk fungsi kognitif.

*) Tim ICT Watch (ictwatch.id) menghadiri WSIS Forum (27 – 29 Mei 2024) dan AI For Good Global Summit (30 – 31 Mei 2024) di Jenewa, Swiss. ICT Watch berkomitmen untuk terus terlibat secara aktif dan bermakna dalam isu-isu kecerdasan buatan (AI) di tingkat nasional, regional, dan global. Tonton video “Sam Altman Mengatakan AI Berpotensi Mengganggu Sistem Sosial” (rns/rns)

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *