Kecerdasan buatan (AI) telah mengubah cara kita hidup dan bekerja. Teknologi memengaruhi setiap bidang, mulai dari pemasaran dan teknologi hingga perawatan kesehatan.
Para penggemar AI berusaha keras untuk memahami bagaimana teknologi dapat memecahkan masalah paling rumit yang dihadapi dunia saat ini dengan menggunakan pembelajaran mesin (ML) sebagai landasannya.
ML adalah proses memasukkan data ke dalam sistem untuk memungkinkan sistem tersebut menjalankan tugas. Mungkin kedengarannya bukan hal baru, tetapi yang menarik dari ML adalah bahwa sistem dapat menggunakan data yang diberikan untuk mempelajari sendiri tugas tersebut dan bahkan menjadi lebih baik dalam menjalankan tugas tersebut tanpa memerlukan manusia untuk memberikan instruksi secara eksplisit, yang merupakan norma sebelum munculnya AI.
Inilah sebabnya kita menuju hal-hal seperti mobil otonom, yang sebelumnya tidak terbayangkan. Didukung oleh ML, mobil semacam itu 'belajar' untuk menjadi 'pengemudi' yang lebih baik seiring waktu.
Tapi, satu kata peringatan.
AI dengan cepat mengambil alih tugas yang secara langsung mempengaruhi kehidupan manusia. Secara alami, pertanyaan-pertanyaan mulai diajukan:
Apakah AI adil, ataukah bias?
Apakah AI akan melanggar hak asasi manusia dasar kita?
Diskursus semacam ini telah dikenal sebagai etika AI–praktik mengidentifikasi dan mengatasi bagaimana kita menggunakan AI tanpa bertentangan dengan nilai-nilai kemanusiaan.
Dalam blog ini, kita akan membahas dan menavigasi bagaimana melakukan percakapan yang sulit dan terbuka tentang menyelaraskan kompas moral AI dan ML.
Apa Itu Etika AI?
AI etis memeriksa secara dekat bagaimana AI berinteraksi dan mempengaruhi masyarakat manusia. Orang-orang yang terlibat dalam AI etis membahas bagaimana membangun sistem AI secara adil–khususnya dalam bagaimana AI membuat keputusan dari data dengan cara yang meminimalkan risiko.
Untuk menekankan poin tersebut, mari kita gunakan contoh operasi.
Contoh AI dalam kesehatan bisa berupa penyedia yang melatih sistem untuk membantu dokter memprioritaskan pasien dalam daftar tunggu operasi. Dalam hal ini, etikus AI akan memastikan sistem menggunakan metrik yang tepat untuk menentukan prioritas (seperti tingkat keparahan kondisi medis), bukan faktor tidak etis (seperti memprioritaskan orang dari lingkungan yang lebih kaya).
Selain itu, etikus akan memastikan AI diberi data yang adil. Jika AI diberikan data yang bias untuk dipelajari, itu hanya akan memperpetuasi stereotip yang menyakitkan.
Secara keseluruhan, inti dari AI etis adalah menciptakan sistem yang menguntungkan masyarakat dan meminimalkan bahaya.
Penting untuk tidak terpengaruh oleh kemajuan teknologi hingga dapat membahayakan anggota masyarakat tertentu.
Mengapa Etika AI Penting
AI etis melindungi individu dari bahaya dengan cara-cara berikut.
Melindungi Hak Fundamental
AI dalam bisnis sering bekerja dengan data sensitif, seperti informasi keuangan atau biometrik seseorang.
Jika langkah-langkah etis tidak diterapkan, sistem ini bisa melanggar hak asasi manusia mereka. Misalnya:
Data dapat disalahgunakan
Data dapat dijual kepada entitas jahat
Orang-orang dapat menjadi subjek pengawasan tanpa izin
Dalam hal ini, peran AI etis adalah untuk memastikan sistem ini beroperasi secara transparan.
Mencegah Dampak yang Berbeda
Sebijak apapun ML, belajar dari data yang dipenuhi dengan bias manusia dapat memiliki konsekuensi bencana. Ini akan seperti memperkuat rasisme, seksisme, dan sejenisnya. Hasilnya dapat mengakibatkan:
Keputusan pinjaman yang bias
Praktik perekrutan yang tidak adil
Putusan hukum yang cacat
Desain sistem etis masuk untuk menghapus bias kognitif dan tidak sadar.
Mengatasi Risiko Eksistensial dan Sosial
Penyalahgunaan AI dengan cara yang menyebabkan krisis eksistensial adalah masalah nyata. Contoh utamanya adalah deepfakes.
Deepfakes adalah nama yang diberikan untuk menciptakan media palsu yang hiper-realistis. Seorang aktor jahat dapat membuat deepfake (peniru) seorang selebriti dan membuatnya mengatakan apa pun yang diinginkannya–coba pikirkan betapa merusaknya itu bagi korban dan masyarakat secara keseluruhan.
Deepfakes dapat menghasilkan:
Penyebaran informasi yang salah
Pencurian identitas
Konsekuensi semacam itu bisa menjadi bencana selama acara global seperti pemilihan umum.
Pertanyaan Etika Kunci dalam Pengembangan AI
Bagus bahwa kita mengangkat pertanyaan penting seputar penggunaan AI, tetapi bagaimana kita menerapkan etika AI? Ada beberapa pertanyaan yang perlu dipertimbangkan.
Siapa yang Memutuskan Apa yang Benar?
Siapa yang memutuskan apa yang benar dan salah? Setelah semua, kecuali seseorang mengikuti kode etik yang ketat (seperti yang ditemukan dalam agama terorganisir), moralitas tetap subjektif.
Apa yang menjadi hakmu bisa jadi salahku.
Jadi, siapa yang memutuskan? (dan siapa yang memutuskan siapa yang memutuskan?)
Haruskah itu:
Organisasi secara keseluruhan?
Sebuah kelompok pengarah yang didedikasikan?
Pemerintah?
Para pengembang?
Paus?
Secara umum, cara terbaik ke depan adalah sebuah kelompok pengarah yang beragam yang mungkin memiliki pendapat di berbagai ujung spektrum. Semakin banyak masukan yang beragam, semakin besar peluang untuk membuat pilihan yang tepat karena setiap kelompok dapat saling melengkapi kekurangan AI masing-masing.
Dan, se subjektif apapun moralitas, ada bagian besar dari itu yang memiliki konsensus manusia 99,99%, jadi kebingungan moral tidak selalu akan menjadi rumit setiap saat, tetapi kita perlu pengambilan keputusan kelompok.
Bagaimana Kita Mencegah Bias?
Sistem AI harus dirancang untuk menghindari diskriminasi terhadap individu atau kelompok. Bias dalam data pelatihan dapat menyebabkan hasil yang tidak adil, seperti menolak pinjaman berdasarkan faktor demografis. Memastikan keadilan memerlukan dataset yang beragam dan pengujian yang ketat untuk mendeteksi dan memperbaiki bias.
Apakah Kita Transparan?
Orang perlu memahami bagaimana sistem AI membuat keputusan. Kurangnya transparansi membingungkan dan mengurangi kepercayaan, terutama di area kritis seperti kesehatan atau keadilan pidana. AI yang dapat dijelaskan berarti orang dapat memahami alasan di balik keputusan.
Apakah Kita Melindungi Privasi Orang?
Sebagai turunan dari transparansi, sistem harus secara jelas mengkomunikasikan bagaimana data pengguna dikumpulkan, disimpan, dan dibagikan–mengingat bagaimana privasi adalah masalah etis utama dalam AI.
Siapa yang Bertanggung Jawab Ketika Terjadi Kesalahan?
Harus ada rantai komando yang diikuti ketika terjadi kesalahan.
Pengembang, organisasi, atau badan regulasi harus menetapkan kerangka akuntabilitas untuk mengelola risiko dan memberikan pemulihan untuk kesalahan.
Sejauh Mana Penalaran AI Menggantikan Manusia?
Faktor manusia tidak boleh dikeluarkan dari persamaan AI. Keputusan AI tanpa pengawasan manusia dapat merugikan.
Dampak pada Pekerjaan
AI memiliki potensi untuk mengotomatisasi tugas, yang dapat menggusur pekerja di berbagai industri.
Perusahaan-perusahaan merasa pemutusan hubungan kerja terkait AI tidak dapat dihindari. (Sumber gambar.)
AI etis mencakup strategi untuk mengatasi gangguan ini, seperti program pelatihan ulang atau menciptakan peluang kerja baru untuk mengurangi efek ekonomi.
Informasi yang salah
Seperti yang disebutkan, teknologi AI seperti deepfakes dapat menyebarkan informasi palsu dan memanipulasi opini publik.
Kerangka etika harus fokus pada mendeteksi dan mencegah penyalahgunaan AI untuk melindungi integritas informasi dan proses demokratis.
Ketika AI Salah: Studi Kasus Dunia Nyata
Kekhawatiran yang disebutkan di atas adalah valid, mengingat bagaimana AI telah salah dalam kasus tertentu selama beberapa tahun terakhir.
Rekrutmen AI yang Bias
Alat perekrutan AI Amazon menghukum resume dengan istilah seperti “perempuan,” lebih memilih kandidat pria karena pola dalam data perekrutan historis.
Diskriminasi Algoritmik dalam Pemerintah
Skandal manfaat anak-anak Belanda adalah contoh jelas bias algoritmik dalam aplikasi pemerintah. Sistem AI menandai keluarga berpenghasilan rendah dan mereka yang memiliki kewarganegaraan ganda sebagai calon penipu, yang mengakibatkan tuduhan palsu.
Manipulasi Data untuk Keuntungan Politik
Skandal Cambridge Analytica mengungkapkan bagaimana analitik bertenaga AI dapat disalahgunakan dalam politik. Dengan mengeksploitasi data pengguna Facebook, perusahaan tersebut mempengaruhi pemilihan presiden AS 2016, memicu perdebatan tentang privasi data dan batasan etis AI dalam membentuk hasil politik.
Langkah-langkah untuk Mengembangkan Sistem AI Etis
Seperti yang dapat Anda lihat, AI bisa sama destruktifnya seperti menjadi sumber kebaikan. Akibatnya, ada kebutuhan besar untuk mengembangkan AI secara etis.
Berikut adalah caranya.
Membangun Prinsip AI Etis
Setiap organisasi memerlukan SOP AI etis yang merinci bagaimana mereka berencana menggunakan AI secara bertanggung jawab. Ini harus menjadi wajib untuk diterbitkan. Etika AI yang baik memprioritaskan hak asasi manusia, privasi, dan nilai-nilai demokratis.
SOP ini kemudian berfungsi sebagai Bintang Utara organisasi. Sebuah laporan tahun lalu merekomendasikan perusahaan AI untuk menghabiskan 30% dari pendanaan mereka untuk R&D dalam keselamatan dan etika.
Dan bukan hanya perusahaan yang berorientasi laba yang memerlukan AI etis. Bahkan universitas-universitas terkemuka di Inggris sedang mengembangkan prinsip etika AI yang pedoman.
Melakukan Penilaian Risiko Etis
Tidak cukup hanya memiliki kebijakan yang ada. Perusahaan perlu mengaudit pengembangan dan penggunaan AI mereka secara teratur untuk mengidentifikasi masalah seperti pelanggaran privasi dan keluaran diskriminatif.
Pada dasarnya, ini menggunakan AI yang baik (seperti analitik prediktif yang dapat melihat risiko potensial) untuk mengalahkan AI yang buruk (baik yang berniat jahat maupun tidak).
Terapkan Prinsip Etis yang Baik
Bright Data membedakan dirinya dalam AI dan pengumpulan data dengan memprioritaskan praktik etis. Mereka bekerja dengan organisasi seperti Forum Data Etis Dunia untuk mengatasi tantangan penggunaan data yang bertanggung jawab di dunia teknologi.
Pedoman etika yang jelas adalah pendekatan mereka, mendukung transparansi dan akuntabilitas dalam cara data dikumpulkan dan ditangani.
Komitmen mereka semakin ditunjukkan melalui inisiatif seperti Pusat Kepercayaan mereka, yang menetapkan standar untuk pengumpulan data web secara etis sambil melindungi kepentingan pelanggan dan mitra.
Dengan fokus pada persetujuan pengguna yang jelas dan mematuhi regulasi seperti GDPR dan CCPA, Bright Data menunjukkan bagaimana praktik yang bertanggung jawab dapat berjalan seiring dengan inovasi. Dedikasi mereka terhadap praktik etis telah menjadikannya menonjol di ruang AI dan pengumpulan data, menetapkan contoh bagaimana inovasi dan tanggung jawab dapat berjalan beriringan.
Pikiran Akhir
Pengembangan AI yang etis sangat penting untuk menavigasi tantangan moral yang dihadapi ML.
Ketika kita mengatasi kekhawatiran etis seperti privasi, keadilan, dan dampak sosial, kita dapat membantu sistem AI selaras dengan nilai-nilai kemanusiaan dan mempromosikan kepercayaan.
Bagi organisasi, mengintegrasikan prinsip etika AI ke dalam proses pengembangan mereka melampaui kewajiban moral atau hukum. Ini adalah prasyarat untuk inovasi yang bertanggung jawab.
Postingan AI Ethics 101: Menavigasi Lanskap Moral Pembelajaran Mesin pertama kali muncul di Metaverse Post.