Komentar: Berita buruk. Kecerdasan buatan bias

CALIFORNIA: Bukan berita bahwa, terlepas dari semua manfaat yang dijanjikan, kecerdasan buatan (AI) memiliki masalah bias.

Kekhawatiran tentang bias ras atau gender dalam AI telah muncul dalam berbagai aplikasi seperti perekrutan, pengawasan polisi, putusan pengadilan dan layanan keuangan.

Jika teknologi luar biasa ini ingin mencapai potensi maksimalnya, bias penanganan harus menjadi prioritas mutlak. Dengan mengingat hal ini, berikut adalah empat tantangan utama yang dapat dipertimbangkan pengembang, pengguna, dan pembuat kebijakan AI saat kami berupaya menciptakan ekosistem AI yang sehat.

1. BANGUN BIAS DALAM DATA

Kita hidup di dunia yang dipenuhi data. Secara teori, itu seharusnya menjadi hal yang baik untuk AI: lagipula, data mendukung AI, termasuk kemampuannya untuk belajar dengan kecepatan yang jauh lebih cepat daripada manusia. Namun, data yang digunakan sistem AI sebagai input mungkin memiliki bias bawaan, terlepas dari upaya terbaik dari programmer AI.

BACA: Peningkatan kecerdasan buatan dan bagaimana kehidupan akan berubah selamanya

BACA: Sedikit lagi sebelum robot dan kecerdasan buatan menjalankan hidup kita untuk kita, sebuah komentar.

Pertimbangkan algoritma yang digunakan oleh hakim untuk membuat keputusan hukuman. Jelas, akan salah menggunakan ras sebagai salah satu input untuk algoritma. Tetapi bagaimana dengan informasi yang tampaknya netral tentang ras, seperti jumlah penangkapan sebelumnya?

Sayangnya, penangkapan tidak netral berkenaan dengan ras: ada banyak bukti bahwa orang Afrika-Amerika adalah target kepolisian yang tidak proporsional. Akibatnya, statistik catatan penangkapan sangat sesuai dengan ras.

Korelasi itu dapat diperbanyak dalam menjatuhkan hukuman rekomendasi yang dibuat oleh sistem AI yang menggunakan penangkapan sebelumnya sebagai entri.

istri

Stok borgol. (Foto: HARI INI)

BACA: Pengacara mungkin harus berurusan dengan data besar segera, komentar

Pengaruh tidak langsung dari bias juga hadir di banyak tipe data lainnya. Misalnya, penilaian kelayakan kredit ditentukan oleh faktor-faktor yang mencakup riwayat pekerjaan dan akses pra-kredit, dua bidang di mana ras memiliki dampak besar.

Untuk mengambil contoh lain, bayangkan bagaimana AI dapat digunakan untuk membantu perusahaan besar menetapkan gaji awal untuk karyawan baru. Salah satu kontribusi tidak diragukan lagi akan menjadi sejarah gaji, tetapi mengingat keprihatinan yang terdokumentasi dengan baik mengenai peran seksisme dalam struktur kompensasi perusahaan, ini dapat menyiratkan bias gender dalam perhitungan.

2. BIAS DIINDUKSI OLEH AI

Tantangan tambahan adalah bahwa bias dapat dibuat dalam sistem AI dan kemudian diperkuat ketika algoritma berkembang.

Menurut definisi, algoritma AI tidak statis. Sebaliknya, mereka belajar dan berubah seiring waktu. Pada awalnya, suatu algoritma dapat membuat keputusan hanya dengan menggunakan set perhitungan yang relatif sederhana berdasarkan sejumlah kecil sumber data.

Saat sistem mendapatkan pengalaman, Anda dapat memperluas jumlah dan variasi data yang Anda gunakan sebagai input dan menjadikan data tersebut sebagai pemrosesan yang semakin canggih. Ini berarti bahwa suatu algoritma dapat menjadi jauh lebih kompleks daripada ketika awalnya diimplementasikan.

Perlu dicatat bahwa perubahan ini bukan karena campur tangan manusia untuk memodifikasi kode, tetapi karena modifikasi otomatis yang dilakukan oleh mesin untuk perilakunya sendiri. Dalam beberapa kasus, evolusi ini dapat menimbulkan bias.

Manusia di depan komputer, coding, pemrograman.

(Foto: Unsplash / Arif Riyanto)

Ambil sebagai contoh perangkat lunak untuk membuat keputusan persetujuan hipotek yang menggunakan input dari dua lingkungan terdekat: satu untuk berpenghasilan menengah dan satu untuk berpenghasilan rendah.

Jika yang lainnya sama, orang yang dipilih secara acak dari lingkungan berpenghasilan menengah kemungkinan akan memiliki pendapatan yang lebih tinggi dan, oleh karena itu, kapasitas hutang yang lebih besar daripada orang yang dipilih secara acak dari lingkungan berpenghasilan rendah.

Sekarang pertimbangkan apa yang terjadi ketika algoritma ini, yang akan tumbuh dalam kompleksitas seiring waktu, membutuhkan ribuan keputusan hipotek selama periode tahun di mana pasar real estat meningkat.

Persetujuan pinjaman akan menguntungkan penghuni lingkungan berpenghasilan menengah daripada mereka yang tinggal di lingkungan berpenghasilan rendah. Persetujuan-persetujuan itu, pada gilirannya, akan meningkatkan kesenjangan kekayaan di antara lingkungan-lingkungan tersebut, karena para penerima pinjaman akan mendapat manfaat secara tidak proporsional dari peningkatan nilai-nilai perumahan, dan karenanya akan melihat bahwa kekuatan hutang masa depan mereka akan semakin meningkat.

BACA: Banyak yang bisa dilupakan jika data mendorong kebijakan publik, komentar

Fenomena analog telah terjadi sejak lama dalam konteks non-AI. Tetapi dengan AI, banyak hal yang lebih buram, karena algoritma dapat berkembang dengan cepat ke titik di mana bahkan seorang ahli mungkin mengalami kesulitan memahami apa yang sebenarnya dia lakukan. Ini akan membuat sulit untuk mengetahui apakah Anda terlibat dalam praktik ilegal, seperti pengurangan.

Kekuatan AI untuk menciptakan algoritma yang jauh lebih kompleks daripada yang bisa diciptakan manusia adalah salah satu aset terbesarnya, dan ketika datang untuk mengidentifikasi dan mengatasi sumber dan konsekuensi dari bias yang dihasilkan secara algoritmik, salah satu tantangan terbesarnya.

3. MENGAJAR PERATURAN MANUSIA

Dari sudut pandang mesin, manusia memiliki beberapa aturan rumit tentang kapan boleh mempertimbangkan atribut yang sering dikaitkan dengan bias.

Ambillah gender: anggaplah itu ofensif (dan ilegal) bagi perusahaan untuk mengadopsi rencana kompensasi yang dihasilkan oleh AI dengan skala gaji untuk pria dan skala gaji yang berbeda dan lebih rendah untuk wanita.

Kesenjangan upah rata-rata berdasarkan gender di semua perusahaan Inggris yang mengirimkan rincian tetap di 12 persen

(Foto: AFP / Daniel Leal-Olivas)

Tetapi bagaimana dengan asuransi mobil? Kami percaya bahwa sangat normal (dan legal) bagi perusahaan asuransi untuk memperlakukan pria dan wanita secara berbeda, dengan serangkaian biaya untuk pengemudi pria dan serangkaian biaya yang berbeda untuk driver wanita: perlakuan berbeda yang dibenarkan sesuai dengan perbedaan. statistik tingkat kecelakaan.

Jadi, apakah itu berarti bahwa itu akan dapat diterima untuk algoritma untuk menghitung tarif asuransi mobil sebagian didasarkan pada kesimpulan statistik yang dikaitkan dengan atribut seperti agama pengemudi? Jelas tidak.

Tetapi untuk algoritma AI yang dirancang untuk membagi sejumlah besar data dengan semua cara yang memungkinkan, larangan itu mungkin tidak begitu jelas.

BACA: Ketika mesin membuat keputusan atas nama kami, ketakutan baru muncul, pertanyaan baru muncul, komentar.

Contoh lain adalah usia. Anda dapat memaafkan algoritme karena tidak dapat memahami untuk diri sendiri bahwa dapat diterima untuk mempertimbangkan usia dalam beberapa konteks (misalnya, asuransi jiwa, asuransi mobil) tetapi ilegal dalam konteks lain (misalnya, kontrak, pinjaman hipotek) .

Contoh di atas dapat dikurangi, setidaknya sebagian, dengan memaksakan batasan aplikasi spesifik pada algoritma terlebih dahulu. Tetapi algoritma AI dilatih sebagian dengan data dalam suatu konteks kemudian dapat dimigrasikan ke konteks yang berbeda dengan aturan yang berbeda tentang jenis atribut yang dapat dipertimbangkan.

Dalam sistem kecerdasan buatan yang kompleks di masa depan, kita bahkan mungkin tidak tahu kapan migrasi ini terjadi, yang membuatnya sulit untuk mengetahui kapan algoritma mungkin telah melewati garis hukum atau etika.

4. EVALUASI KASUS AIOS BERBAHAYA

Tidak ada keraguan bahwa bias adalah masalah utama dalam AI. Namun, hanya karena Anda menduga bias algoritmik tidak berarti Anda benar-benar terbukti hadir dalam semua kasus.

Seringkali, akan ada lebih banyak informasi tentang hasil yang didorong oleh AI, misalnya, jika permohonan pinjaman disetujui atau ditolak; jika seseorang yang meminta pekerjaan dipekerjakan atau tidak, dalam data yang mendasarinya dan proses algoritmik yang mengarah pada hasil tersebut. Ini dapat membuatnya lebih sulit untuk membedakan bias nyata dari yang nyata, setidaknya pada awalnya.

Peserta mengambil resume mereka di bursa kerja di Washington.

Para peserta di sebuah bursa kerja siap untuk wawancara dengan resume mereka di tas kulit. (Foto: REUTERS / Jason Reed)

Sementara dugaan bias AI harus selalu dianggap serius, tuduhan itu sendiri seharusnya tidak menjadi akhir dari cerita. Penelitian tentang bias AI harus disusun sedemikian rupa sehingga memaksimalkan kemampuan untuk melakukan analisis objektif, bebas tekanan untuk mencapai kesimpulan yang telah ditentukan.

HASIL

Sementara AI memiliki potensi untuk memberikan manfaat yang sangat besar, tantangan yang dibahas di atas, termasuk memahami kapan dan dalam bentuk apa bias dapat mempengaruhi data dan algoritma yang digunakan dalam sistem AI, akan membutuhkan perhatian.

Tantangan-tantangan ini bukan alasan untuk berhenti berinvestasi di AI atau membebani para pembuat AI dengan peraturan baru yang terburu-buru dan tertahan oleh inovasi. Tetapi mereka benar-benar berarti bahwa akan penting untuk melakukan upaya nyata ke dalam pendekatan yang dapat meminimalkan kemungkinan bias dalam algoritma AI, baik melalui data yang dipasok secara eksternal atau dari dalam.

Dan, kita perlu mengartikulasikan kerangka kerja untuk menilai apakah bias AI benar-benar hadir dalam kasus-kasus di mana diduga.

John Villasenor adalah anggota senior non-residen Studi Pemerintahan dan Pusat Inovasi Teknologi di Brookings. Dia juga seorang profesor teknik elektro, kebijakan publik dan administrasi, dan profesor tamu hukum di University of California, Los Angeles, anggota Dewan Agenda Global tentang Keamanan Siber Forum Ekonomi Dunia dan anggota Dewan. di Luar Negeri

Komentar ini pertama kali muncul di blog Brookings Institution, TechTank. Baca di sini

Be the first to comment

Leave a Reply

Your email address will not be published.


*