Suara Banyumas– Para ahli dan pimpinan perusahaan (CEO) mengeluarkan peringatan kedua terkait bahaya kepunahan yang disebabkan oleh kecerdasan buatan (AI). Center for AI Safety menggagas pernyataan terbuka “Statement on AI Risk” ini.
Lebih dari 100 tokoh, termasuk ilmuwan terkenal seperti Geoffrey Hinton dan Yoshua Bengio yang meraih Turing Award pada tahun 2018, serta para CEO perusahaan teknologi seperti Demis Hassabis dari Google DeepMind dan Sam Altman dari OpenAI, yang merupakan pemilik chatbot ChatGPT, telah menandatangani pernyataan tersebut.
Mereka menyatakan bahwa mitigasi risiko kepunahan akibat AI harus menjadi prioritas global, seperti pandemi dan perang nuklir. Pernyataan ini menjadi bagian dari intervensi terbaru dalam perdebatan yang kompleks dan kontroversial mengenai keamanan AI.
Baca Juga : Gunakan ChatGPT, Akibatnya Ijazah Satu Kelas Ditahan
Pada awal tahun ini, sejumlah tokoh yang sebagian besar sama dengan yang mendukung peringatan terbaru ini, menandatangani surat terbuka serupa yang menyerukan “jeda” selama enam bulan dalam pengembangan AI. Namun, banyak pihak mengkritik seruan tersebut dalam berbagai tingkatan.
Menurut Para Ahli dan CEO
Direktur Dan Hendrycks menjelaskan bahwa mereka menyampaikan pernyataan terbaru ini secara singkat untuk menghindari perpecahan dalam pandangan mengenai masalah ini. Menurutnya, mereka tidak ingin menyajikan daftar yang sangat panjang dengan 30 intervensi potensial, karena hal itu akan melemahkan pesan yang ingin mereka sampaikan.
Hendrycks menggambarkan pernyataan tersebut sebagai “coming-out” bagi para tokoh di industri yang khawatir akan risiko AI. Ia menyatakan bahwa terdapat kesalahpahaman umum, bahkan di kalangan komunitasnya, bahwa hanya sedikit orang yang peduli dengan masalah ini. Namun, kenyataannya banyak orang yang secara pribadi mengungkapkan kekhawatiran mereka terhadap kecerdasan buatan.
Polemik seputar AI memang sudah menjadi hal yang umum, tetapi pembicaraan tentang detailnya sering kali tidak menghasilkan kesepakatan. Namun, intinya adalah ada skenario hipotetis di mana sistem AI meningkatkan kemampuannya dengan cepat dan tidak lagi berfungsi dengan aman.
Mereka berpendapat bahwa setelah ini mencapai tingkat kecanggihan tertentu, mungkin akan menjadi sulit untuk mengendalikan tindakan mereka.
Baca Juga : Google Bard, Chatbot AI yang Menjadi Pesaing ChatGPT
Namun, beberapa pihak meragukan prediksi tersebut. Mereka menunjukkan bahwa sistemkecerdasan buatan saat ini belum mampu mengatasi tugas-tugas yang relatif sederhana, seperti mengemudikan mobil sepenuhnya secara mandiri.
AI Berbahaya
Penggunaan kecerdasan buatan dalam bidang keamanan dan militer juga menciptakan keprihatinan. Beberapa ahli khawatir bahwa jika teknologi ini jatuh ke tangan yang salah dapat membahayakan manusia. Untuk mengatasi resiko ini, Center for AI Safety memberikan prioritas global pada mitigasi risiko kecerdasan buatan.
Dalam perdebatan tentang keamanan dan risiko, penting untuk mencatat bahwa orang sedang melakukan upaya untuk mengembangkan kerangka regulasi yang tepat. Beberapa negara dan organisasi internasional telah memulai inisiatif untuk mengatasi isu-isu tersebut.
Misalnya, Uni Eropa telah mengusulkan peraturan tentang kecerdasan buatan yang bertujuan untuk melindungi hak-hak individu, menghindari diskriminasi, dan mendorong transparansi dalam penggunaan kecerdasan buatan.
Langkah-langkah semacam ini bertujuan untuk mengatur dan mengawasi pengembangan serta penerapan teknologi kecerdasan buatan secara bertanggung jawab. Di sisi lain, para peneliti terus melakukan penelitian tentang keamanan dan etika.