RIAU24.COM - Seorang pelopor kecerdasan buatan telah mengirimkan peringatan yang tidak menyenangkan, bukan tentang teknologi itu sendiri, tetapi tentang orang-orang yang mengendalikannya.
Ilmuwan komputer Kanada, Yoshua Bengio, dalam sebuah wawancara dengan CNBC, mengatakan bahwa ada beberapa maestro teknologi elit yang ingin menggantikan manusia dengan AI, Futurism melaporkan.
Bengio adalah salah satu orang yang disebut sebagai Godfather of AI.
Dia sebelumnya juga meningkatkan kekhawatiran tentang AI dan merupakan salah satu penandatangan publik dari surat terbuka Hak untuk Memperingatkan yang ditulis oleh peneliti AI terkemuka di OpenAI.
Mereka mengklaim bahwa teknologi tersebut menimbulkan beberapa bahaya dan mereka dipaksa untuk tidak membicarakannya.
Berbicara selama KTT Satu Muda Dunia di Montreal, Bengio mengatakan, "Kecerdasan memberi kekuatan. Jadi siapa yang akan mengendalikan kekuatan itu?"
"Ada orang yang mungkin ingin menyalahgunakan kekuatan itu, dan ada orang yang mungkin senang melihat umat manusia digantikan oleh mesin," klaim Bengio.
Dia memperingatkan bahwa meskipun hanya ada segelintir orang seperti itu, mereka perlu digagalkan sekarang.
"Maksud saya, ini adalah pinggiran, tetapi orang-orang ini dapat memiliki banyak kekuasaan, dan mereka dapat melakukannya kecuali kita menempatkan pagar pembatas yang tepat sekarang," tambahnya.
"Akan ada konsentrasi kekuasaan: kekuatan ekonomi, yang bisa berdampak buruk bagi pasar; kekuasaan politik, yang bisa berdampak buruk bagi demokrasi; dan kekuatan militer, yang bisa berdampak buruk bagi stabilitas geopolitik planet kita," lanjutnya.
Pakar AI menyerukan kebijakan global yang tepat waktu
Para pemimpin dunia perlu mengambil langkah-langkah untuk mengendalikan kekuatan AI yang berkembang, meskipun tidak ada yang bisa mengatakan dengan pasti kapan AI tingkat manusia dapat dicapai.
Namun, jika yang terakhir terjadi sebelum kebijakan global tercapai tentang masalah ini, itu akan menimbulkan masalah.
"Jika lima tahun, kami tidak siap, karena kami tidak memiliki metode untuk memastikan bahwa sistem ini tidak akan membahayakan orang atau tidak akan berbalik melawan orang," dia menyimpulkan.
Beberapa ahli lain juga menyerukan untuk mengendalikan kecerdasan buatan selagi masih ada waktu.
(***)