Geoffrey Hinton, Sang Pionir AI, Ungkap Kekhawatiran Terhadap Potensi Dominasi Kecerdasan Buatan Atas Manusia

Geoffrey Hinton, seorang ilmuwan komputer yang dikenal luas sebagai salah satu tokoh kunci di balik kemajuan pesat kecerdasan buatan (AI), baru-baru ini menyampaikan kekhawatiran mendalam tentang potensi dampak teknologi yang ia rintis.

Dalam sebuah wawancara eksklusif, Hinton memperingatkan tentang kemungkinan AI melampaui kecerdasan manusia dan bahkan mengambil alih kendali. Pernyataan ini muncul di tengah perdebatan global yang semakin intens tentang etika, keamanan, dan implikasi jangka panjang dari perkembangan AI yang sangat cepat.

Hinton menggarisbawahi pentingnya kewaspadaan terhadap potensi bahaya yang mungkin timbul dari sistem AI yang semakin canggih. Ia menggunakan analogi "bayi harimau" untuk menggambarkan AI saat ini: tampak lucu dan tidak berbahaya pada awalnya, tetapi berpotensi tumbuh menjadi kekuatan yang sangat berbahaya.

Potensi Ancaman dan Perlunya Keamanan

Kekhawatiran Hinton didasarkan pada keyakinan bahwa AI, khususnya model bahasa besar seperti GPT-4, telah mencapai tingkat pengetahuan yang signifikan dan terus berkembang dengan kecepatan yang belum pernah terjadi sebelumnya. Ia menyarankan agar para pengembang dan perusahaan AI memprioritaskan keamanan dan keselamatan di atas keuntungan komersial dalam pengembangan teknologi ini.

Hinton juga menyoroti dua ancaman utama yang terkait dengan AI:

  • Potensi AI untuk mengambil alih kendali manusia.
  • Penggunaan AI oleh individu atau kelompok dengan niat jahat untuk tujuan seperti serangan siber, penipuan, dan penyebaran informasi palsu.

Untuk mengatasi risiko ini, Hinton mendesak perusahaan AI untuk mengalokasikan sumber daya yang signifikan untuk pengembangan mekanisme keamanan yang kuat. Ia menyarankan agar setidaknya sepertiga dari kapasitas komputasi mereka dialokasikan untuk tujuan ini.

Seruan untuk Regulasi dan Tanggung Jawab

Hinton juga mengkritik perusahaan AI besar karena keengganan mereka untuk menerima regulasi yang lebih ketat. Ia berpendapat bahwa regulasi yang berfokus pada masa depan dan kesejahteraan manusia sangat penting untuk memastikan bahwa AI dikembangkan dan digunakan secara bertanggung jawab.

Keputusan Hinton untuk meninggalkan Google pada tahun 2023 didorong oleh kekhawatiran tentang fokus perusahaan pada pengembangan AI untuk aplikasi militer. Ia percaya bahwa para pemimpin industri harus memprioritaskan etika dan keamanan dalam pengembangan AI untuk menghindari konsekuensi yang tidak diinginkan.

Perkataan Hinton menjadi pengingat yang kuat tentang perlunya pendekatan yang bijaksana dan bertanggung jawab terhadap pengembangan dan penerapan kecerdasan buatan. Seiring dengan terus berkembangnya teknologi ini, sangat penting untuk mengatasi potensi risiko dan memastikan bahwa AI digunakan untuk kepentingan umat manusia.