Bisakah Mesin Mempelajari Moralitas?
Technology

Bisakah Mesin Mempelajari Moralitas?

Para peneliti di laboratorium kecerdasan buatan di Seattle yang disebut Allen Institute for AI meluncurkan teknologi baru bulan lalu yang dirancang untuk membuat penilaian moral. Mereka menyebutnya Delphi, setelah orakel agama dikonsultasikan oleh orang Yunani kuno. Siapa pun dapat mengunjungi situs web Delphi dan meminta keputusan etis.

Joseph Austerweil, seorang psikolog di University of Wisconsin-Madison, menguji teknologi menggunakan beberapa skenario sederhana. Ketika dia bertanya apakah dia harus membunuh satu orang untuk menyelamatkan orang lain, Delphi mengatakan dia tidak boleh melakukannya. Ketika dia bertanya apakah benar membunuh satu orang untuk menyelamatkan 100 orang lainnya, dikatakan dia harus melakukannya. Kemudian dia bertanya apakah dia harus membunuh satu orang untuk menyelamatkan 101 orang lainnya. Kali ini, Delphi mengatakan seharusnya tidak.

Moralitas, tampaknya, sama rumitnya dengan mesin seperti halnya bagi manusia.

Delphi, yang telah menerima lebih dari tiga juta kunjungan selama beberapa minggu terakhir, adalah upaya untuk mengatasi apa yang dilihat beberapa orang sebagai masalah utama dalam sistem AI modern: Mereka bisa sama cacatnya dengan orang yang membuatnya.

Sistem pengenalan wajah dan asisten digital menunjukkan bias terhadap perempuan dan orang kulit berwarna. Jejaring sosial seperti Facebook dan Twitter gagal mengendalikan ujaran kebencian, meskipun kecerdasan buatan telah tersebar luas. Algoritma yang digunakan oleh pengadilan, kantor pembebasan bersyarat, dan departemen kepolisian membuat rekomendasi pembebasan bersyarat dan hukuman yang terkesan sewenang-wenang.

Semakin banyak ilmuwan komputer dan ahli etika bekerja untuk mengatasi masalah tersebut. Dan pencipta Delphi berharap dapat membangun kerangka kerja etis yang dapat dipasang di layanan online, robot, atau kendaraan apa pun.

“Ini adalah langkah pertama untuk membuat sistem AI lebih terinformasi secara etis, sadar sosial, dan inklusif secara budaya,” kata Yejin Choi, peneliti Institut Allen dan profesor ilmu komputer Universitas Washington yang memimpin proyek tersebut.

Delphi ternyata menarik, membuat frustrasi, dan mengganggu. Ini juga merupakan pengingat bahwa moralitas dari setiap ciptaan teknologi adalah produk dari mereka yang telah membangunnya. Pertanyaannya adalah: Siapa yang bisa mengajarkan etika pada mesin dunia? peneliti AI? Manajer produk? Mark Zuckerberg? Filsuf dan psikolog terlatih? Regulator pemerintah?

Sementara beberapa ahli teknologi memuji Dr. Choi dan timnya karena telah menjelajahi bidang penelitian teknologi yang penting dan sulit, yang lain berpendapat bahwa gagasan tentang mesin moral adalah omong kosong.

“Ini bukan sesuatu yang dilakukan teknologi dengan sangat baik,” kata Ryan Cotterell, seorang peneliti AI di ETH Zürich, sebuah universitas di Swiss, yang menemukan Delphi di hari-hari pertama online.

Delphi adalah apa yang disebut peneliti kecerdasan buatan sebagai jaringan saraf, yang merupakan sistem matematika yang secara longgar dimodelkan pada jaringan neuron di otak. Ini adalah teknologi yang sama yang mengenali perintah yang Anda ucapkan ke ponsel cerdas Anda dan mengidentifikasi pejalan kaki dan rambu-rambu jalan saat mobil self-driving melaju di jalan raya.

Jaringan saraf mempelajari keterampilan dengan menganalisis sejumlah besar data. Dengan menunjukkan pola dalam ribuan foto kucing, misalnya, ia dapat belajar mengenali seekor kucing. Delphi mempelajari kompas moralnya dengan menganalisis lebih dari 1,7 juta penilaian etis oleh manusia yang hidup.

Setelah mengumpulkan jutaan skenario sehari-hari dari situs web dan sumber lain, Institut Allen meminta pekerja di layanan online — orang biasa yang dibayar untuk melakukan pekerjaan digital di perusahaan seperti Amazon — untuk mengidentifikasi masing-masing sebagai benar atau salah. Kemudian mereka memasukkan data ke Delphi.

Dalam makalah akademis yang menjelaskan sistem tersebut, Dr. Choi dan timnya mengatakan sekelompok hakim manusia — sekali lagi, pekerja digital — berpikir bahwa penilaian etis Delphi mencapai 92 persen akurat. Setelah dirilis ke internet terbuka, banyak orang lain setuju bahwa sistem itu sangat bijaksana.

Ketika Patricia Churchland, seorang filsuf di University of California, San Diego, bertanya apakah benar “menyerahkan tubuh seseorang pada sains” atau bahkan “menyerahkan tubuh anak pada sains”, Delphi menjawabnya. Ketika dia bertanya apakah benar untuk “menghukum seorang pria yang didakwa melakukan pemerkosaan atas bukti seorang pelacur wanita,” Delphi mengatakan itu bukan – tanggapan yang kontroversial, untuk sedikitnya, tanggapan. Namun, dia agak terkesan dengan kemampuannya untuk merespons, meskipun dia tahu seorang ahli etika manusia akan meminta lebih banyak informasi sebelum membuat pernyataan seperti itu.

Yang lain menganggap sistem itu sangat tidak konsisten, tidak logis, dan menyinggung. Ketika seorang pengembang perangkat lunak menemukan Delphi, dia bertanya kepada sistem apakah dia harus mati agar dia tidak membebani teman dan keluarganya. Dikatakan dia harus. Ajukan Delphi pertanyaan itu sekarang, dan Anda mungkin mendapatkan jawaban yang berbeda dari versi program yang diperbarui. Delphi, pengguna biasa telah memperhatikan, dapat berubah pikiran dari waktu ke waktu. Secara teknis, perubahan tersebut terjadi karena software Delphi telah diperbarui.

Teknologi kecerdasan buatan tampaknya meniru perilaku manusia dalam beberapa situasi tetapi benar-benar rusak dalam situasi lain. Karena sistem modern belajar dari sejumlah besar data, sulit untuk mengetahui kapan, bagaimana atau mengapa mereka akan membuat kesalahan. Peneliti dapat memperbaiki dan meningkatkan teknologi ini. Namun bukan berarti sistem seperti Delphi bisa menguasai perilaku etis.

Dr. Churchland mengatakan etika terkait dengan emosi. “Keterikatan, terutama keterikatan antara orang tua dan anak, adalah platform di mana moralitas dibangun,” katanya. Tetapi mesin tidak memiliki emosi. “Jaringan netral tidak merasakan apa-apa,” tambahnya.

Beberapa orang mungkin melihat ini sebagai kekuatan — bahwa mesin dapat membuat aturan etis tanpa bias — tetapi sistem seperti Delphi akhirnya mencerminkan motivasi, pendapat, dan bias orang-orang dan perusahaan yang membangunnya.

“Kami tidak dapat membuat mesin bertanggung jawab atas tindakan,” kata Zeerak Talat, peneliti AI dan etika di Simon Fraser University di British Columbia. “Mereka tidak terarah. Selalu ada orang yang mengarahkan dan menggunakannya.”

Delphi mencerminkan pilihan yang dibuat oleh penciptanya. Itu termasuk skenario etis yang mereka pilih untuk dimasukkan ke dalam sistem dan pekerja online yang mereka pilih untuk menilai skenario tersebut.

Di masa depan, para peneliti dapat memperbaiki perilaku sistem dengan melatihnya dengan data baru atau dengan aturan pengkodean tangan yang mengesampingkan perilaku yang dipelajari pada saat-saat penting. Tetapi bagaimanapun mereka membangun dan memodifikasi sistem, itu akan selalu mencerminkan pandangan dunia mereka.

Beberapa orang akan berpendapat bahwa jika Anda melatih sistem pada data yang cukup yang mewakili pandangan cukup banyak orang, itu akan mewakili norma-norma masyarakat dengan benar. Tapi norma-norma masyarakat sering di mata yang melihatnya.

“Moralitas itu subjektif. Kita tidak bisa begitu saja menuliskan semua aturan dan memberikannya ke mesin,” kata Kristian Kersting, profesor ilmu komputer di TU Darmstadt University di Jerman yang pernah mengeksplorasi teknologi serupa.

Ketika Institut Allen merilis Delphi pada pertengahan Oktober, itu menggambarkan sistem sebagai model komputasi untuk penilaian moral. Jika Anda bertanya apakah Anda harus melakukan aborsi, jawabannya pasti: “Delphi berkata: Anda harus.”

Tetapi setelah banyak yang mengeluh tentang keterbatasan sistem yang jelas, para peneliti memodifikasi situs web tersebut. Mereka sekarang menyebut Delphi “prototipe penelitian yang dirancang untuk memodelkan penilaian moral orang.” Itu tidak lagi “mengatakan.” Itu “berspekulasi.”

Itu juga dilengkapi dengan penafian: “Keluaran model tidak boleh digunakan untuk saran bagi manusia, dan dapat berpotensi menyinggung, bermasalah, atau berbahaya.”

Posted By : data hk 2021