Dalam beberapa bulan terakhir, peringatan terus-menerus datang bahwa kecerdasan buatan (AI) dapat menjadi ancaman eksistensial bagi manusia. Pada bulan Maret, pemimpin teknologi seperti Elon Musk dan pendiri Apple, Steve Wozniak, mengeluarkan surat terbuka yang menyerukan penundaan pengembangan AI, dengan alasan “risiko mendalam bagi masyarakat dan kemanusiaan.”
Pada akhir Mei, sekelompok insinyur ahli dan LSM berpendapat bahwa “mengurangi risiko kepunahan akibat AI harus menjadi prioritas global.”
Namun, semua ini tidak menghentikan organisasi dari berbondong-bondong untuk mengadopsi alat seperti ChatGPT, yang didorong oleh laporan efisiensi yang lebih besar. Tetapi, seperti yang mulai ditemukan oleh beberapa bisnis, pelukan terburu-buru terhadap alat AI kadang-kadang dapat membawa masalah sendiri.
1. Ketidakakuratan
Dalam dua bulan setelah peluncurannya, aplikasi ChatGPT dari OpenAI menarik lebih dari 100 juta pengguna. Gelombang alat serupa lainnya mengikuti jejaknya, mulai dari chatbot hingga pembuat teks situs web, alat penjadwalan, perancang presentasi, dan bahkan pemrograman.
Namun, ChatGPT dan model bahasa besar lainnya telah mendapatkan reputasi untuk masalah serius dengan ketepatan. Meskipun pencipta ChatGPT-4 mengklaim bahwa sekarang ia 40% lebih mungkin menghasilkan “respons faktual” daripada iterasi sebelumnya, masalah tetap ada. Sistem ini tidak memiliki pengetahuan tentang peristiwa setelah September 2021, dapat membuat kesalahan dalam penalaran, dan seringkali dengan percaya diri memberikan jawaban yang salah.
2. Transparansi dan Akuntabilitas
Salah satu prinsip dari Undang-undang AI baru Uni Eropa adalah bahwa organisasi harus mengungkapkan kapan konten dibuat oleh AI. Sayangnya, hal ini tidak selalu terjadi. Sebagai contoh, Tech title CNET baru-baru ini ditemukan telah menerbitkan cerita yang dihasilkan oleh AI dan terpaksa meminta maaf kepada pembaca.
OECD merekomendasikan bahwa penggunaan AI harus transparan dan umum dipahami, dan pengguna harus sadar akan interaksi mereka dengan AI serta dapat memahami dan menantang hasilnya. Oleh karena itu, komunikasi dengan pelanggan dan pemangku kepentingan lainnya perlu jelas. Dan untuk memiliki informasi yang akurat untuk dibagikan kepada pelanggan, bisnis perlu melakukan due diligence terhadap pemasok AI mereka dalam hal waris data, praktik label, dan pengembangan model.
3. Kualitas Data dan Bias Algoritmik
Meskipun risiko bias yang tidak disengaja dalam model AI telah lama dikenali sebagai masalah potensial, menurut survei oleh IBM, tiga perempat bisnis yang menggunakan AI belum melakukan apa-apa untuk mengatasi hal ini. Bias semacam ini dapat memiliki konsekuensi ekstrem: Amazon, misalnya, dipaksa lima tahun lalu untuk menghapus alat rekrutmen AI yang ditemukan sangat seksis. Dilatih menggunakan data yang hampir semuanya berasal dari pelamar pria, sistem tersebut secara diam-diam menurunkan CV milik kandidat wanita.
4. Privasi Data
Earlier this year, video platform Vimeo agreed to pay $2.25m (£1.7m) to some of its users for collecting and storing their facial biometrics without their knowledge. The company had been using the data to train an AI to classify images for storage and insisted that “determining whether an area represents a human face or a volleyball does not equate to ‘facial recognition’”.
But any personal information is subject to standard data protection rules, no matter how it’s used. This includes any data collected for the purposes of training an AI, which can easily end up becoming extremely extensive.
5. Hak Kekayaan Intelektual
Perusahaan semakin sering melanggar aturan HKI dalam penggunaan AI. Getty Images baru-baru ini menggugat Stability AI karena diketahui menggunakan gambar-gambar mereka untuk melatih AI yang menghasilkan seni, Stable Diffusion. Demikian pula, tuntutan kolektif sedang berlangsung terhadap Microsoft, GitHub, dan OpenAI, yang mengklaim bahwa mereka melanggar hukum hak cipta dengan menggunakan