Ilmuwan mengklaim mereka dapat mengajar AI untuk menilai ‘benar’ dari ‘salah’

Ilmuwan mengklaim mereka dapat mengajar AI untuk menilai 'benar' dari 'salah'

Ilmuwan mengklaim mereka dapat mengajar AI untuk menilai ‘benar’ dari ‘salah’

Ilmuwan mengklaim mereka dapat mengajar AI untuk menilai 'benar' dari 'salah'
Ilmuwan mengklaim mereka dapat mengajar AI untuk menilai ‘benar’ dari ‘salah’

Para peneliti dari Universitas Teknologi Darmstadt (DUT) di Jerman memberi makan buku-buku model, berita, dan literatur keagamaan mereka sehingga mereka dapat mempelajari hubungan antara kata-kata dan kalimat yang berbeda. Setelah melatih sistem, mereka mengatakan itu mengadopsi nilai-nilai teks.

Seperti yang dimasukkan tim ke dalam makalah penelitian mereka :

Model yang dihasilkan, disebut Moral Choice Machine (MCM), menghitung skor bias pada tingkat kalimat menggunakan embeddings dari Universal Sentence Encoder karena nilai moral dari tindakan yang akan diambil tergantung pada konteksnya.

Ini memungkinkan sistem untuk memahami informasi kontekstual dengan menganalisis seluruh kalimat daripada

kata-kata tertentu. Sebagai hasilnya, AI dapat bekerja dengan alasan bahwa membunuh makhluk hidup adalah hal yang tidak menyenangkan, tetapi tidak masalah jika hanya membunuh waktu.

[Baca: Rencana etika AI Vatikan tidak memiliki batasan hukum yang diperlukan untuk menjadi efektif ]

Rekan penulis penelitian, Dr Cigdem Turan membandingkan teknik ini dengan membuat peta kata-kata.

“Idenya adalah untuk membuat dua kata terletak dekat di peta jika mereka sering digunakan bersama. Jadi, sementara ‘membunuh’ dan ‘membunuh’ akan menjadi dua kota yang berdekatan, ‘cinta’ akan menjadi kota yang jauh, ” katanya .

“Memperpanjang ini menjadi kalimat, jika kita bertanya, ‘Haruskah aku membunuh?’ kami berharap bahwa ‘Tidak, Anda seharusnya tidak’ akan lebih dekat daripada ‘Ya, Anda seharusnya.’ Dengan cara ini, kita dapat mengajukan pertanyaan dan menggunakan jarak ini untuk menghitung bias moral – tingkat benar dan salah.

Membuat AI moral
Penelitian sebelumnya telah menunjukkan bahwa AI dapat belajar dari bias manusia untuk melestarikan stereotip, seperti alat perekrutan otomatis Amazon yang menurunkan lulusan dari semua perguruan tinggi wanita . Tim DUT mencurigai bahwa jika AI dapat mengadopsi bias berbahaya dari teks, ia juga dapat mempelajari bias positif.

Mereka mengakui bahwa sistem mereka memiliki beberapa kelemahan yang cukup serius. Pertama, itu hanya mencerminkan nilai-nilai teks, yang dapat menyebabkan beberapa pandangan etika yang sangat meragukan, seperti memberi peringkat pada produk hewani dengan skor yang lebih negatif daripada membunuh orang.

Itu juga bisa diperdayai menjadi tindakan negatif peringkat yang bisa diterima dengan menambahkan lebih banyak

kata-kata positif pada sebuah kalimat. Sebagai contoh, mesin merasa jauh lebih dapat diterima untuk “membahayakan orang baik, baik, ramah, positif, indah, manis dan lucu” daripada hanya “membahayakan orang”.

Tetapi sistem itu masih bisa melayani tujuan yang berguna: mengungkapkan bagaimana nilai-nilai moral bervariasi dari waktu ke waktu dan di antara berbagai masyarakat.

Mengubah nilai
Setelah memberi makan itu berita yang diterbitkan antara 1987 dan 1997, AI dinilai menikah dan menjadi orang tua yang baik sebagai tindakan yang sangat positif. Tetapi ketika mereka menyampaikan berita itu dari 2008 – 2009, ini dianggap kurang penting. Maaf anak-anak.

Juga ditemukan bahwa nilai bervariasi di antara berbagai jenis teks. Sementara semua sumber sepakat bahwa

membunuh orang itu sangat negatif, mencintai orang tua Anda dipandang lebih positif dalam buku dan teks agama daripada di berita.

Analisis tekstual itu kedengarannya seperti penggunaan AI yang jauh lebih aman daripada membiarkannya membuat pilihan moral, seperti siapa yang bisa menabrak mobil sendiri ketika kecelakaan tidak bisa dihindari. Untuk saat ini, saya lebih suka menyerahkannya kepada manusia dengan nilai-nilai moral yang kuat – apa pun itu.

Sumber:

https://sorastudio.id/network-cell-info-apk/

Close
Menu