Anggota parlemen Uni Eropa mengusulkan larangan terbatas pada sistem kepolisian prediktif

Prize harian Data SGP 2020 – 2021. Cashback seputar lain-lain bisa dipandang secara berkala melewati pemberitahuan yg kita umumkan dalam laman ini, lalu juga dapat dichat terhadap petugas LiveChat pendukung kita yang menunggu 24 jam On-line guna melayani semua kepentingan antara visitor. Ayo segera sign-up, dan ambil bonus Lotere & Kasino Online terbaik yg nyata di web kita.

Dua anggota parlemen bersama-sama bertanggung jawab untuk mengawasi dan mengubah Undang-Undang Kecerdasan Buatan (AIA) Uni Eropa yang akan datang telah mengatakan bahwa penggunaan alat kepolisian prediktif bertenaga AI untuk membuat “penilaian risiko individual” harus dilarang atas dasar bahwa itu “melanggar martabat manusia. dan asas praduga tak bersalah”.

Ioan-Dragoş Tudorache, co-rapporteur atas nama komite Civil Liberties, Justice and Home Affairs (LIBE), dan Brando Benifei, co-rapporteur atas nama komite Internal Market and Consumer Protection (IMCO), mengkonfirmasi dukungan mereka untuk a larangan parsial pada sistem AI kepolisian prediktif dalam draf laporan.

“Pemolisian prediktif melanggar martabat manusia dan asas praduga tak bersalah, dan memiliki risiko diskriminasi tertentu. Oleh karena itu dimasukkan di antara praktik-praktik terlarang,” kata laporan setebal 161 halaman itu.

Seperti yang ada saat ini, AIA mencantumkan empat praktik yang dianggap sebagai “risiko yang tidak dapat diterima” dan oleh karena itu dilarang, termasuk: sistem yang mendistorsi perilaku manusia; sistem yang mengeksploitasi kerentanan kelompok sosial tertentu; sistem yang memberikan “penilaian” individu; dan identifikasi biometrik jarak jauh dan real-time dari orang-orang di tempat umum.

Kritikus sebelumnya mengatakan kepada Computer Weekly bahwa sementara proposal tersebut memberikan “larangan horizontal yang luas” pada praktik AI ini, penggunaan semacam itu masih diperbolehkan dalam konteks penegakan hukum.

Meskipun larangan pemolisian prediktif yang disarankan oleh pelapor membatasi penggunaan sistem tersebut oleh penegak hukum, larangan tersebut hanya akan meluas ke sistem yang “memprediksi kemungkinan seseorang untuk melakukan pelanggaran atau pelanggaran kembali”, dan bukan sistem prediksi berbasis tempat yang digunakan untuk area profil dan lokasi.

Sarah Chander, penasihat kebijakan senior di European Digital Rights (EDRi), mengatakan kepada Computer Weekly: “Melarang pemolisian prediktif adalah langkah penting dalam kebijakan digital Eropa – belum pernah sebelumnya diskriminasi rasial berbasis data menjadi sangat penting dalam agenda UE. Tetapi larangan pemolisian prediktif belum diperluas ke sistem pemolisian prediktif yang memprofilkan lingkungan untuk risiko kejahatan, yang dapat meningkatkan pengalaman pemolisian yang diskriminatif untuk komunitas yang rasis dan miskin.”

Uji Coba Adil organisasi non-pemerintah (LSM) juga menyambut baik proposal tersebut, tetapi juga mempermasalahkan pengecualian analitik prediktif berbasis tempat.

“Berkali-kali, kami telah melihat bagaimana penggunaan sistem ini memperburuk dan memperkuat tindakan polisi dan peradilan pidana yang diskriminatif, memberi makan ketidaksetaraan sistemik dalam masyarakat, dan pada akhirnya menghancurkan kehidupan masyarakat,” kata Griff Ferris, petugas hukum dan kebijakan di Fair Trials . “Namun, larangan itu juga harus mencakup sistem kepolisian prediktif yang menargetkan area atau lokasi, yang memiliki efek yang sama.

“Kami sekarang meminta semua anggota parlemen untuk tetap setia pada mandat mereka untuk melindungi hak-hak masyarakat dengan mendukung dan memberikan suara mendukung larangan semua penggunaan AI prediktif dalam kepolisian dan peradilan pidana.”

Pada 1 Maret 2022, Fair Trials, EDRi dan 43 organisasi masyarakat sipil lainnya secara kolektif meminta anggota parlemen Eropa untuk melarang sistem kepolisian prediktif yang didukung AI, dengan alasan bahwa mereka secara tidak proporsional menargetkan orang-orang yang paling terpinggirkan dalam masyarakat, melanggar hak-hak dasar dan memperkuat diskriminasi struktural.

Fair Trials juga menyerukan larangan langsung menggunakan AI dan sistem otomatis untuk “memprediksi” perilaku kriminal pada September 2021.

Terlepas dari amandemen yang berkaitan dengan pemolisian prediktif, teks draf laporan menyarankan sejumlah perubahan lebih lanjut pada AIA.

Ini termasuk memperluas daftar aplikasi berisiko tinggi untuk mencakup kasus penggunaan AI dalam triase medis, asuransi, pemalsuan mendalam, dan yang dirancang untuk berinteraksi dengan anak-anak; dan menciptakan pendekatan dua tingkat di mana Komisi Eropa akan mengambil tanggung jawab yang lebih besar dalam menilai sistem AI ketika ada “pelanggaran yang meluas”, yaitu ketika suatu sistem berdampak pada individu di tiga atau lebih negara anggota.

Pelapor juga telah memperluas mekanisme ganti rugi dengan memasukkan hak orang untuk mengadu kepada otoritas pengawas dan mencari ganti rugi baik individu maupun kolektif ketika hak-hak mereka dilanggar. Misalnya, kelompok konsumen akan diaktifkan untuk memulai proses hukum di bawah Petunjuk Tindakan Perwakilan.

Draf laporan juga mengusulkan amandemen untuk mengenali orang-orang yang “terpengaruh” oleh AI, sedangkan AIA saat ini hanya mengakui “penyedia” – mereka yang menempatkan sistem AI di pasar – dan “pengguna” – mereka yang menerapkan sistem AI.

Hal ini sejalan dengan rekomendasi yang diterbitkan oleh Ada Lovelace Institute pada 31 Maret 2022, yang mengatakan AIA harus mengakui “orang yang terkena dampak” sebagai aktor yang berbeda.

Ada Lovelace Institute juga merekomendasikan pembentukan kembali arti “risiko” dalam AIA untuk menilai sistem berdasarkan tujuan “yang dapat diperkirakan” mereka, yang sekarang telah ditulis oleh laporan Tudorache-Benifei ke dalam amandemen yang disarankan.

Dalam hal tata kelola, laporan tersebut mengusulkan sejumlah kewajiban bagi otoritas publik – tetapi bukan swasta, entitas komersial – termasuk kebutuhan untuk melakukan penilaian dampak hak-hak dasar, untuk memberi tahu orang-orang yang terkena dampak sistem AI berisiko tinggi, dan untuk mendaftarkan setiap kasus penggunaan risiko dalam database publik yang didefinisikan dalam Pasal 60 AIA.

“Para perunding parlemen Eropa mengisi celah penting – hak orang-orang yang terkena dampak untuk mengeluh ketika sistem AI melanggar hak kami,” kata Chander dari EDRi. “Namun, mereka dapat melangkah lebih jauh dan mengharuskan semua pengguna AI berisiko tinggi, bukan hanya otoritas publik, harus transparan tentang penggunaannya.”

Laporan Tudorache-Benifei akan menetapkan ketentuan perdebatan seputar AIA, dengan komite LIBE dan IMCO akan membahas kesimpulannya pada 11 Mei sebelum akhirnya memberikan suara pada amandemen pada akhir November 2022.

Namun, saat ini tidak jelas apakah komite akan mengadopsi amandemen yang diusulkan laporan karena perbedaan pendapat anggota parlemen Eropa tentang masalah kepolisian prediktif.

Pada 5 Oktober 2021, misalnya, Parlemen Eropa menyetujui laporan komite LIBE tentang penggunaan AI oleh polisi di Eropa, yang menentang penggunaan teknologi untuk “memprediksi” perilaku kriminal dan menyerukan larangan pengawasan massal biometrik.

Tetapi dua minggu kemudian, Parlemen memberikan suara mendukung proposal komite LIBE untuk memperpanjang mandat badan kejahatan internasional Europol, yang akan memungkinkannya untuk bertukar informasi dengan perusahaan swasta lebih mudah dan mengembangkan alat kepolisian bertenaga AI.

Kelompok hak-hak sipil mengatakan pada saat itu bahwa mandat yang diusulkan mewakili “cek kosong” bagi polisi untuk menciptakan sistem AI yang berisiko merusak hak asasi manusia yang mendasar.

Ada juga titik perbedaan antara Benifei dan Tudorache sendiri. Misalnya, mereka tidak dapat menyetujui poin-poin seputar identifikasi biometrik jarak jauh, sehingga tidak disertakan dalam laporan.