Saat Anda menelusuri feed media sosial atau membiarkan aplikasi musik favorit Anda menyusun playlist yang sempurna, mungkin terasa seperti kecerdasan buatan meningkatkan kehidupan Anda – mempelajari preferensi dan memenuhi kebutuhan Anda. Namun di balik tampilan yang nyaman ini terdapat kekhawatiran yang semakin besar: dampak buruk algoritmik.
Kerugian ini tidak terlihat jelas dan tidak langsung terjadi. Mereka berbahaya dan berkembang seiring waktu ketika sistem AI secara diam-diam membuat keputusan tentang hidup Anda tanpa Anda sadari. Kekuatan tersembunyi dari sistem ini menjadi ancaman besar terhadap privasi, kesetaraan, otonomi, dan keselamatan.
Sistem AI tertanam di hampir setiap aspek kehidupan modern. Mereka menyarankan acara dan film apa yang harus Anda tonton, membantu pemberi kerja memutuskan siapa yang ingin mereka pekerjakan, dan bahkan mempengaruhi hakim untuk memutuskan siapa yang memenuhi syarat untuk dijatuhi hukuman. Namun apa yang terjadi ketika sistem-sistem ini, yang seringkali dipandang netral, mulai mengambil keputusan yang merugikan kelompok tertentu atau, yang lebih buruk lagi, menyebabkan kerugian di dunia nyata?
Konsekuensi penerapan AI yang sering diabaikan memerlukan kerangka peraturan yang dapat mengimbangi teknologi yang berkembang pesat ini. Saya mempelajari titik temu antara hukum dan teknologi, dan saya telah menguraikan kerangka hukum untuk melakukan hal tersebut.
Luka bakar yang lambat
Salah satu aspek yang paling mencolok dari kerusakan algoritmik adalah bahwa dampak kumulatifnya sering kali tidak terdeteksi. Sistem ini biasanya tidak secara langsung menyerang privasi atau otonomi Anda dengan cara yang mudah Anda pahami. Mereka mengumpulkan sejumlah besar data tentang manusia – sering kali tanpa sepengetahuan mereka – dan menggunakan data ini untuk mengambil keputusan yang memengaruhi kehidupan manusia.
Terkadang, hal ini menimbulkan ketidaknyamanan kecil, seperti iklan yang mengikuti Anda di seluruh situs web. Namun ketika AI beroperasi tanpa mengatasi dampak buruk yang berulang ini, dampaknya akan semakin besar dan menyebabkan kerusakan kumulatif yang signifikan pada berbagai kelompok masyarakat.
Perhatikan contoh algoritma media sosial. Mereka seolah-olah dirancang untuk mendorong interaksi sosial yang bermanfaat. Namun, di balik tampilannya yang tampak menguntungkan, mereka secara diam-diam melacak klik pengguna dan menyusun profil keyakinan politik, afiliasi profesional, dan kehidupan pribadi mereka. Data yang dikumpulkan digunakan dalam sistem yang mengambil keputusan penting — apakah Anda diidentifikasi sebagai pejalan kaki yang menyeberang jalan, dipertimbangkan untuk mendapatkan pekerjaan, atau ditandai sebagai berisiko untuk melakukan bunuh diri.
Yang lebih buruk lagi, desainnya yang membuat ketagihan menjebak remaja dalam siklus penggunaan yang berlebihan, sehingga menyebabkan meningkatnya krisis kesehatan mental, termasuk kecemasan, depresi, dan tindakan menyakiti diri sendiri. Pada saat Anda memahami keseluruhan cakupannya, semuanya sudah terlambat — privasi Anda telah dilanggar, peluang Anda dibentuk oleh algoritme yang bias, dan keselamatan kelompok yang paling rentan dirusak, semuanya tanpa sepengetahuan Anda.
Inilah yang saya sebut sebagai “kerusakan kumulatif yang tidak berwujud”: sistem AI beroperasi di latar belakang, namun dampaknya bisa sangat merusak dan tidak terlihat.
Mengapa regulasi tertinggal
Meskipun bahaya ini semakin besar, kerangka hukum di seluruh dunia masih kesulitan untuk mengimbanginya. Di Amerika Serikat, pendekatan peraturan yang menekankan pada inovasi telah mempersulit penerapan standar ketat mengenai bagaimana sistem ini digunakan dalam berbagai konteks.
Pengadilan dan badan pengawas terbiasa menangani kerugian nyata, seperti cedera fisik atau kerugian ekonomi, namun kerugian algoritmik sering kali lebih tidak kentara, bersifat kumulatif, dan sulit dideteksi. Peraturan tersebut sering kali gagal mengatasi dampak yang lebih luas yang dapat ditimbulkan oleh sistem AI seiring berjalannya waktu.
Algoritme media sosial, misalnya, secara bertahap dapat mengikis kesehatan mental penggunanya, namun karena dampak buruk ini berkembang secara perlahan, maka dampak buruk tersebut sulit untuk diatasi dalam batas-batas standar hukum yang ada saat ini.
Empat jenis kerusakan algoritmik
Berdasarkan ilmu AI dan tata kelola data yang sudah ada, saya telah mengkategorikan dampak buruk algoritmik ke dalam empat bidang hukum: privasi, otonomi, kesetaraan, dan keamanan. Masing-masing domain ini rentan terhadap kekuatan sistem AI yang halus namun sering kali tidak terkendali.
Jenis kerugian yang pertama adalah mengikis privasi. Sistem AI mengumpulkan, memproses, dan mentransfer data dalam jumlah besar, sehingga mengikis privasi masyarakat dengan cara yang mungkin tidak langsung terlihat namun memiliki implikasi jangka panjang. Misalnya, sistem pengenalan wajah dapat melacak orang-orang di ruang publik dan pribadi, sehingga secara efektif mengubah pengawasan massal menjadi sebuah hal yang biasa.
Jenis dampak buruk yang kedua adalah melemahkan otonomi. Sistem AI sering kali secara halus melemahkan kemampuan Anda untuk membuat keputusan secara mandiri dengan memanipulasi informasi yang Anda lihat. Platform media sosial menggunakan algoritme untuk menampilkan konten kepada pengguna yang memaksimalkan kepentingan pihak ketiga, secara halus membentuk opini, keputusan, dan perilaku jutaan pengguna.
Jenis dampak buruk yang ketiga adalah berkurangnya kesetaraan. Sistem AI, meskipun dirancang untuk netral, sering kali mewarisi bias yang ada dalam data dan algoritmenya. Hal ini memperkuat kesenjangan sosial dari waktu ke waktu. Dalam satu kasus yang terkenal, sistem pengenalan wajah yang digunakan oleh toko ritel untuk mendeteksi pengutil secara tidak proporsional salah mengidentifikasi wanita dan orang kulit berwarna.
Jenis kerugian yang keempat adalah mengganggu keselamatan. Sistem AI mengambil keputusan yang memengaruhi keselamatan dan kesejahteraan manusia. Jika sistem ini gagal, dampaknya bisa sangat buruk. Namun meskipun berfungsi sesuai rancangan, hal tersebut masih dapat menimbulkan kerugian, seperti efek kumulatif algoritma media sosial terhadap kesehatan mental remaja.
Karena kerugian kumulatif ini sering kali timbul dari aplikasi AI yang dilindungi oleh undang-undang rahasia dagang, para korban tidak memiliki cara untuk mendeteksi atau melacak kerugian tersebut. Hal ini menciptakan kesenjangan dalam akuntabilitas. Ketika keputusan perekrutan yang bias atau penangkapan yang salah dilakukan karena suatu algoritma, bagaimana korban dapat mengetahuinya? Tanpa transparansi, hampir mustahil untuk meminta pertanggungjawaban perusahaan.
Menutup kesenjangan akuntabilitas
Mengkategorikan jenis-jenis kerugian algoritmik menggambarkan batas-batas hukum peraturan AI dan menyajikan kemungkinan reformasi hukum untuk menjembatani kesenjangan akuntabilitas ini. Perubahan yang saya yakini akan membantu mencakup penilaian dampak algoritmik wajib yang mengharuskan perusahaan untuk mendokumentasikan dan mengatasi dampak langsung dan kumulatif dari aplikasi AI terhadap privasi, otonomi, kesetaraan, dan keselamatan – sebelum dan setelah penerapannya. Misalnya, perusahaan yang menggunakan sistem pengenalan wajah perlu mengevaluasi dampak sistem ini sepanjang siklus hidupnya.
Perubahan lain yang bermanfaat adalah hak individu yang lebih kuat dalam penggunaan sistem AI, yang memungkinkan masyarakat untuk tidak ikut serta dalam praktik berbahaya dan membuat aplikasi AI tertentu ikut serta. Misalnya, mengharuskan adanya sistem keikutsertaan dalam pemrosesan data oleh perusahaan yang menggunakan pengenalan wajah. sistem dan memungkinkan pengguna untuk memilih keluar kapan saja.
Terakhir, saya menyarankan agar perusahaan-perusahaan mengungkapkan penggunaan teknologi AI dan antisipasi dampak buruknya. Sebagai ilustrasi, hal ini mungkin termasuk memberi tahu pelanggan tentang penggunaan sistem pengenalan wajah dan perkiraan bahaya di seluruh domain yang diuraikan dalam tipologi.
Ketika sistem AI semakin banyak digunakan dalam fungsi-fungsi sosial yang penting – mulai dari layanan kesehatan hingga pendidikan dan pekerjaan – kebutuhan untuk mengatur dampak buruk yang dapat ditimbulkan oleh AI menjadi semakin mendesak. Tanpa intervensi, dampak buruk yang tidak terlihat ini kemungkinan akan terus terakumulasi, berdampak pada hampir semua orang dan secara tidak proporsional berdampak pada kelompok yang paling rentan.
Ketika AI generatif melipatgandakan dan memperburuk dampak buruk AI, saya yakin penting bagi pembuat kebijakan, pengadilan, pengembang teknologi, dan masyarakat sipil untuk mengakui dampak hukum yang ditimbulkan AI. Hal ini tidak hanya membutuhkan undang-undang yang lebih baik, namun juga pendekatan yang lebih bijaksana terhadap teknologi AI yang mutakhir – yang memprioritaskan hak-hak sipil dan keadilan dalam menghadapi kemajuan teknologi yang pesat.
Masa depan AI sangat menjanjikan, namun tanpa kerangka hukum yang tepat, AI juga dapat memperparah kesenjangan dan mengikis hak-hak sipil yang, dalam banyak kasus, dirancang untuk ditingkatkan.
Sylvia Lu, Rekan Fakultas dan Asisten Profesor Tamu Hukum, Universitas Michigan
Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.