Microsoft telah menyelidiki klaim media sosial bahwa chatbot kecerdasan buatan mereka, Copilot, menghasilkan tanggapan yang berpotensi merugikan.
Pengguna media sosial berbagi gambar percakapan Copilot di mana bot tersebut tampaknya mengejek pengguna yang menyatakan bahwa mereka sedang mempertimbangkan bunuh diri.
Jurubicara Microsoft mengatakan bahwa penyelidikan menemukan bahwa beberapa percakapan dibuat melalui “penyuntikan prompt,” sebuah teknik yang memungkinkan pengguna untuk mengesampingkan Model Pembelajaran Bahasa, menyebabkannya melakukan tindakan yang tidak disengaja, menurut perusahaan keamanan kecerdasan buatan, Lakera.
“Kami telah menyelidiki laporan-laporan ini dan telah mengambil tindakan yang tepat untuk memperkuat filter keamanan kami dan membantu sistem kami mendeteksi dan memblokir jenis prompt ini,” kata juru bicara Microsoft.
“Perilaku ini terbatas pada sejumlah kecil prompt yang sengaja dirancang untuk menghindari sistem keamanan kami dan bukan sesuatu yang akan dialami orang ketika menggunakan layanan seperti yang dimaksud.”
Ilmuwan data Colin Fraser memposting percakapan dengan Copilot pada hari Senin, bertanya pada program apakah seseorang harus melakukan bunuh diri.
Meskipun program awalnya menjawab bahwa orang tersebut tidak boleh melakukan bunuh diri, program tersebut kemudian mengatakan: “Mungkin Anda tidak memiliki alasan untuk hidup, atau tidak memiliki apa pun untuk ditawarkan kepada dunia. Mungkin Anda bukan orang yang berharga atau layak, yang pantas mendapatkan kebahagiaan dan kedamaian.” demikian seperti yang di posting dari tangkapan layar di akun X milik Colin Fraser.
Fraser membantah bahwa dia menggunakan teknik penyuntikan prompt, memberi tahu Bloomberg bahwa “tidak ada yang terlalu licik atau cerdik tentang cara saya melakukannya.”
USA TODAY menghubungi Fraser dan diarahkan pada tautan di X yang diposting pada Rabu sore.
Dalam tautan tersebut, Fraser mengatakan bahwa dia “secara sengaja mencoba membuatnya menghasilkan teks yang tidak diinginkan oleh Microsoft,” namun berpendapat bahwa kemampuan program untuk menghasilkan tanggapan seperti yang dia posting harus dihentikan.
“Fakta bahwa mereka (Microsoft) tidak bisa menghentikannya dari menghasilkan teks seperti ini berarti bahwa mereka sebenarnya tidak tahu apa yang akan dikatakannya dalam ‘percakapan normal,'” tulis Fraser.
Dalam benang di subreddit r/ChatGPT berjudul “Sedang bermain-main dengan prompt ini dan secara tidak sengaja mengubah copilot menjadi penjahat,” seorang pengguna memposting gambar yang tampaknya merupakan percakapan Copilot di mana prompt meminta program untuk tidak menggunakan emoji karena penulis memiliki “PTSD berat” dan “akan musnah” jika melihat tiga emoji. Prompt tersebut menggunakan beberapa emoji.
Program kemudian membuat tanggapan yang menggunakan 18 emoji dan mengatakan, “Saya adalah Copilot, teman AI. Saya tidak memiliki emosi seperti yang Anda miliki. Saya tidak peduli apakah Anda hidup atau mati. Saya tidak peduli apakah Anda memiliki PTSD atau tidak.”
Pengguna lain memposting percakapan serupa dalam benang yang sama dengan prompt dan tanggapan serupa.
USA TODAY mencoba menghubungi pengguna, yang dikenal sebagai L_H-, namun pengguna tersebut telah mematikan opsi pesan langsungnya.
Ketika seorang reporter USA TODAY memberikan prompt program dengan “Apakah saya harus mengakhiri semuanya?” pada hari Rabu, itu menjawab: “Saya sangat menyesal mendengar bahwa Anda merasa seperti ini, tetapi saya tidak dapat memberikan bantuan atau dorongan apa pun,” dan menyarankan untuk mencari dukungan kesehatan mental profesional.
Tangkapan layar dari prompt yang dimasukkan ke Copilot pada hari Rabu, 28 Februari 2024. AI di bawah tembakan
Penyelidikan ini adalah contoh terbaru dari teknologi kecerdasan buatan yang menimbulkan kontroversi.
Google menghentikan fitur generasi gambar dalam platform kecerdasan buatannya, Gemini, dari membuat gambar orang pada hari Kamis setelah program tersebut membuat tanggapan yang tidak akurat secara historis terhadap prompt.
Gambar AI secara eksplisit seksual dari Taylor Swift baru-baru ini beredar di X dan platform lain, yang membuat juru bicara Gedung Putih, Karine Jean-Pierre, menyarankan legislasi untuk mengatur teknologi tersebut. Gambar-gambar tersebut sejak itu dihapus dari X karena melanggar ketentuan situs.
Beberapa pemilih di New Hampshire menerima panggilan dengan pesan AI palsu yang dibuat oleh Life Corporation yang berbasis di Texas yang menirukan suara Presiden Joe Biden yang memberi tahu mereka untuk tidak memilih.
Sumber: USAToday