loading…
Ressa Uli Patrissia, Dosen Universitas Muhammadiyah Palangka Raya, Pemerhati Komunikasi dan Keahlian, dan Peneliti Komunikasi Algoritmik. Foto/Dok.Pribadi
Dosen Universitas Muhammadiyah Palangka Raya
Pemerhati Komunikasi dan Keahlian, dan Peneliti Komunikasi Algoritmik
ADA yang berubah secara mendasar Di cara manusia menewaskan sesamanya dan kita hampir tidak menyadarinya. Konflik yang melibatkan Amerika Serikat (AS), Israel, dan Iran hari ini bukan lagi Pertempuran Di pengertian yang kita warisi Bersama Bacaan sejarah: pasukan berhadapan, batas Daerah dilanggar, deklarasi diumumkan.
Tetapi yang terjadi Di ini adalah sesuatu yang jauh lebih licin, jauh lebih tersembunyi, dan justru Lantaran itulah jauh lebih berbahaya. Ini adalah Pertempuran yang dirancang agar tidak terlihat sebagai Pertempuran, agar tidak memicu kecaman publik, tidak menuntut pertanggungjawaban, dan tidak meninggalkan jejak yang cukup jelas Bagi disidangkan Hingga Mahkamah Internasional mana pun.
Kita menyebutnya transformasi Keahlian militer. Saya lebih cenderung menyebutnya: normalisasi Tindak Kekerasan yang difasilitasi Logika.
Ketika Mesin Memutuskan Siapa yang Harus Tewas
Salah satu perkembangan paling menggelisahkan Di arsitektur Pertempuran modern adalah apa yang dikenal sebagai automated target prioritization, suatu sistem yang secara otomatis mengidentifikasi, meranking, dan merekomendasikan target serangan berdasarkan pemrosesan data masif.
Sistem ini bekerja Sebelumnya keputusan manusia diambil. Ia menyusun daftar. Ia menentukan urutan. Ia menawarkan pilihan kepada komandan militer Di bentuk antarmuka yang terlihat seperti dashboard manajemen, bukan surat perintah kematian.
Pertanyaannya bukan lagi “siapa yang Menarik Perhatian pelatuk?” Pertanyaannya adalah: siapa yang bertanggung jawab ketika algoritmanya salah?
Sampai Sekarang, tidak ada jawaban yang memuaskan. Industri Lini Di menyebutnya “human in the loop” – manusia tetap ada Di rantai keputusan. Tetapi Di praktiknya, ketika seorang operator militer disuguhi rekomendasi sistem yang diklaim Memiliki akurasi tinggi, Di tekanan operasional, Bersama waktu respons yang terbatas seberapa “manusiawi” sesungguhnya keputusan itu?
Manusia menjadi penanda tangan, bukan pemikir. Akuntabilitas moral diencerkan Hingga titik yang hampir tidak ada.
Ini bukan hanya masalah teknis. Ini adalah krisis etika yang sistemik, dan kita Lagi membiarkannya terjadi Di senyap.
Drone: Senjata yang Memisahkan Tindak Kekerasan Bersama Konsekuensinya
Argumen paling lazim yang digunakan Bagi membenarkan penggunaan drone militer adalah reduced human risk, pengurangan risiko Pada nyawa tentara pihak yang menyerang. Secara retorika, ini terdengar humanis, Justru progresif. Tetapi mari kita bongkar argumen itu lebih jujur.
Pengurangan risiko Bagi satu pihak tidak pernah berarti pengurangan risiko secara absolut. Ia hanya berarti Peralihan risiko; Bersama tubuh tentara Hingga Bangsa Striker kepada tubuh-tubuh lain Hingga Daerah yang diserang, termasuk tubuh sipil yang tidak Memiliki drone Bagi membalas.
Yang berubah bukan tingkat kematian; yang berubah adalah jarak psikologis Antara yang berniat menewaskan dan yang Akansegera ditewaskan.Dan jarak psikologis inilah yang paling merusak secara moral.
Artikel ini disadur –> Sindonews Indonesia News: Pertempuran Algoritmik dan Kehancuran Atas Kemanusiaan











