Suara Banyumas– Mantan CEO Google, Eric Schmidth ungkap bahaya AI dapat membahayakan nyawa orang.
Dalam pandangannya, kecerdasan buatan merupakan risiko eksistensial yang berpotensi membahayakan atau bahkan membunuh manusia.
Namun, mengapa seseorang yang pernah memegang posisi eksekutif tinggi di Google menentang produk yang telah banyak diinvestasikannya?
Eric Schmidt sebenarnya tidak menentang pengembangan kecerdasan buatan oleh Google, melainkan seluruh industri ini tanpa adanya regulasi yang tepat.
Meskipun memiliki kekhawatiran, ia tidak percaya bahwa ancaman tersebut akan muncul dalam waktu dekat, tetapi mungkin akan terungkap di masa depan.
Eric Schmidt membayangkan sebuah masa depan di mana kecerdasan buatan akan digunakan untuk menemukan kelemahan keamanan perangkat lunak dan menyerang organisasi.
Yang membuatnya khawatir adalah kemungkinan kecerdasan buatan membantu menciptakan cacat atau senjata biologis baru.
Namun, kedua situasi yang mengerikan ini hanya akan terjadi jika kekuatan kecerdasan buatan disalahgunakan. Oleh karena itu, peraturan yang ketat diperlukan saat ini.
Eric Schmidt bukanlah satu-satunya yang mendukung regulasi kecerdasan buatan, karena popularitasnya semakin meningkat.
Meskipun kecerdasan buatan selalu menjadi bagian dari perkembangan teknologi, dalam beberapa bulan terakhir ini teknologi tersebut telah masuk ke dalam kehidupan sehari-hari manusia.
Banyak perusahaan teknologi besar telah meluncurkan berbagai model kecerdasan atau mengintegrasikan model kecerdasan buatan ke dalam layanan mereka.
Integrasi ini telah membuat penggunaan kecerdasan buatan menjadi lebih umum di kalangan pengguna layanan tersebut.
Namun, sejak peluncuran model-model kecerdasan buatan ini dan integrasinya ke dalam produk dan layanan, banyak keluhan yang muncul dari beberapa pengguna akhir.
Keluhan-keluhan ini timbul akibat penyalahgunaan kecerdasan buatan untuk melakukan kejahatan sosial tertentu.
Beberapa contoh kejahatan yang dilakukan oleh individu menggunakan kecerdasan buatan termasuk menyontek selama ujian dan memproduksi serta menjual musik palsu, dan masih banyak lagi.
Awalnya, model-model kecerdasan buatan ini digunakan dengan tujuan yang kurang baik, seperti siswa yang memanfaatkannya untuk menulis makalah mereka. Namun, kini kejahatan yang dilakukan dengan bantuan kecerdasan buatan semakin serius.
Eric Schmidt dan National Security Commission on AI menunjukkan bahwa saat ini tidak ada regulasi yang membatasi penggunaan kecerdasan buatan.
Hal ini dapat menimbulkan ancaman bagi kehidupan manusia karena perkembangan model-model kecerdasan buatan seiring waktu.
Beberapa badan pemerintah di berbagai negara sudah bekerja keras untuk menerapkan pembatasan pada kecerdasan buatan dan penggunaannya.
Upaya pembatasan ini akan sangat membantu dalam membatasi kemampuan dan penggunaan model-model kecerdasan buatan.
Dalam beberapa bulan mendatang, diperkirakan akan ada lebih banyak wilayah yang meluncurkan pembatasan semacam itu guna membantu mengawasi perkembangan kecerdasan buatan.
Dalam rangka menghadapi masa depan yang diramalkan oleh Eric Schmidt yang menakutkan, langkah-langkah pembatasan ini sangat penting.
Mereka bertujuan untuk mengontrol kemampuan dan penggunaan kecerdasan buatan.
Dengan demikian, diharapkan dapat mencegah kemungkinan penyalahgunaan kekuatan kecerdasan buatan dan melindungi masyarakat dari potensi bahaya yang dapat timbul.