Ilustrasi senjata pemusnah massal. (Foto: Shutterstock)
METROTODAY, JAKARTA – Kecerdasan buatan atau Artificial Intelligence (AI) bak pedang bermata dua. Di satu sisi, ia menawarkan lompatan peradaban. Namun di sisi lain, ia menyimpan potensi kehancuran yang mengerikan jika disematkan dalam mesin perang.
Peringatan keras ini disampaikan oleh Program Pembangunan PBB (UNDP) melalui Kepala Ekonom Biro Regional Asia-Pasifik, Philip Schellekens.
Dalam pemaparannya di Jenewa, Swiss, Selasa (2/12) lalu, Schellekens menyoroti bahwa penggunaan AI untuk tujuan militer bukan sekadar isu teknis, melainkan ancaman eksistensial yang nyata bagi kemanusiaan.
UNDP baru saja merilis laporan komprehensif mengenai risiko AI. Laporan tersebut tidak hanya mengupas potensi AI dalam memperlebar jurang ketimpangan antarnegara, tetapi juga membedah peran teknologi ini dalam industri persenjataan.
Menurut Schellekens, narasi tentang AI saat ini memang didominasi oleh optimismenya. AI dianggap sebagai dewa penyelamat untuk mengatasi krisis iklim atau mempercepat penemuan medis saat pandemi.
“Itulah fitur yang sangat umum dalam diskusi tentang AI saat ini. Ada kesan bahwa AI menghadirkan peluang eksistensial bagi umat manusia,” ujar Schellekens.
Namun, ia buru-buru mengingatkan sisi gelap yang mengintai. Yakni, AI juga dapat menimbulkan ancaman eksistensial dan menjadi kekuatan negatif bagi umat manusia. “Seperti aplikasi militer di mana AI dapat memicu korban massal,” tegasnya.
Tanpa pengawasan ketat, integrasi AI ke dalam sistem persenjataan otonom dikhawatirkan dapat memicu konflik dengan skala korban jiwa yang sulit dibayangkan sebelumnya.
Kekhawatiran UNDP ini senada dengan alarm yang telah dibunyikan oleh para petinggi PBB lainnya. Isu AI kini ditempatkan dalam level kewaspadaan tertinggi.
Pada Januari lalu, Sekretaris Jenderal PBB Antonio Guterres bahkan mensejajarkan AI yang tidak terkendali dengan dua ancaman terbesar bumi lainnya yakni perubahan iklim dan senjata nuklir.
Senada dengan Guterres, Komisaris Tinggi PBB untuk Hak Asasi Manusia, Volker Turk, pada akhir November lalu juga memberikan analogi yang menohok.
Turk memperingatkan bahwa penggunaan AI generatif tanpa etika oleh perusahaan teknologi berpotensi melahirkan Frankenstein modern, sebuah ciptaan yang berbalik menyerang penciptanya dan meningkatkan pelanggaran hak asasi manusia secara global.
Melihat besarnya risiko tersebut, Schellekens menekankan bahwa pengelolaan perangkat AI yang bertanggung jawab adalah harga mati.
Dunia tidak bisa hanya terbuai oleh efisiensi yang ditawarkan AI, tetapi harus segera membangun pagar pengaman regulasi yang ketat, terutama dalam sektor militer, demi mencegah skenario terburuk bagi umat manusia.
Kekhawatiran yang disampaikan UNDP tentang AI militer yang berpotensi menyebabkan korban massal ini merujuk langsung pada pengembangan Lethal Autonomous Weapons Systems (LAWS). Ini adalah sistem persenjataan yang setelah diaktifkan, dapat memilih dan menyerang target tanpa campur tangan (intervensi) signifikan dari operator manusia.
Diskusi utama mengenai LAWS telah berlangsung sejak tahun 2013 di bawah kerangka Konvensi Senjata Konvensional Tertentu (CCW) PBB tahun 1980 (Convention on Certain Conventional Weapons).
Forum ini menjadi titik temu bagi dua pandangan besar. Kelompok Pelarangan Total menyebut negara-negara yang menghendaki pelarangan penuh terhadap LAWS karena dianggap tidak mungkin memenuhi prinsip kemanusiaan dan merusak meaningful human control (kontrol manusia yang bermakna).
Kelompok Pengaturan Fleksibel menyebut negara-negara yang mendukung pengembangan teknologi militer otonom dan mengusulkan pengaturan yang lebih fleksibel untuk memastikan penggunaannya sesuai dengan Hukum Humaniter Internasional (HHI).
Saat ini, LAWS belum memiliki perjanjian internasional spesifik yang mengaturnya. Oleh karena itu, legalitasnya dianalisis berdasarkan prinsip-prinsip HHI yang sudah ada. Yakni Prinsip Pembedaan (Distinction): Senjata harus mampu membedakan secara jelas antara kombatan (pejuang) dan warga sipil, serta antara sasaran militer dan objek sipil.
Namun banyak ahli meragukan apakah algoritma AI, seberapa pun canggihnya, dapat memahami konteks moral, niat, dan situasi yang kompleks seperti manusia.
Prinsip Proporsionalitas (Proportionality): Serangan yang dilakukan tidak boleh menyebabkan kerugian sipil (korban jiwa atau kerusakan) yang berlebihan dibandingkan dengan keuntungan militer yang diharapkan. Ini membutuhkan penilaian etika yang sulit dilakukan oleh mesin.
Klausa Martens (Martens Clause): Prinsip ini menegaskan bahwa bahkan dalam situasi yang tidak diatur oleh hukum internasional, warga sipil dan kombatan tetap berada di bawah perlindungan prinsip kemanusiaan dan nurani publik (dictates of public conscience). LAWS dikhawatirkan melanggar “nurani publik” ini karena menyerahkan keputusan hidup dan mati kepada mesin.
Isu sentral dalam perdebatan ini adalah sejauh mana Kontrol Manusia yang Bermakna harus dipertahankan. Jika sebuah mesin diizinkan secara independen mengambil keputusan untuk membunuh, maka akan menyebabkan dua dampak:
2. Dehumanisasi Perang: Menyerahkan eksekusi nyawa manusia kepada algoritma tanpa emosi, nurani, dan naluri kemanusiaan dikhawatirkan akan mengurangi ambang batas penggunaan kekuatan militer dan berpotensi memicu eskalasi konflik.
Organisasi-organisasi kemanusiaan seperti ICRC (International Committee of the Red Cross) secara aktif mendesak negara-negara untuk merundingkan aturan baru yang mengikat secara hukum untuk mengatur atau melarang LAWS, demi mencegah meningkatnya pelanggaran HHI. (mt)
Tiga stand warung semi permanen di Jalan Pawiyatan, Surabaya tepatnya belakang Aspol, terbakar, Sabtu (13/12)…
DALAM sebuah momen yang berlangsung sederhana namun sarat makna, di ruang yang hangat dan penuh kekeluargaan,…
Raperda tentang hunian yang layak, yang mencakup kebijakan perencanaan, pengelolaan, tata ruang, dan keberlanjutan hunian…
PWI Pusat menerbitkan tiga Surat Edaran (SE) untuk seluruh anggota se-Indonesia, yakni SE tentang Rangkap…
Masyarakat dihebohkan dengan video viral aksi pencopetan di Stasiun Surabaya Gubeng Lama, beberapa waktu lalu.…
Tim gabungan Universitas Airlangga (Unair) yang terdiri dari Fakultas Kedokteran, Fakultas Kesehatan Masyarakat, Fakultas Keperawatan,…
This website uses cookies.