Bias dan stereotip orang pertama di ChatGPT diuji dalam studi OpenAI baru

ChatGPT, seperti chatbot kecerdasan buatan (AI) lainnya, berpotensi menimbulkan bias dan stereotip yang merugikan saat membuat konten. Seringkali, perusahaan berfokus pada menghilangkan bias pihak ketiga ketika mencari informasi tentang perusahaan lain. Namun, dalam studi baru yang diterbitkan oleh OpenAI, perusahaan tersebut menguji bias perspektif orang pertama pada model AI-nya, di mana AI memutuskan apa yang akan dihasilkan berdasarkan ras, jenis kelamin, dan etnis pengguna. Berdasarkan penelitian, perusahaan AI mengklaim bahwa ChatGPT memiliki kecenderungan yang sangat rendah untuk menghasilkan bias orang pertama.

OpenAI menerbitkan studi tentang bias orang pertama di ChatGPT

Bias orang pertama berbeda dengan misinformasi orang ketiga. Misalnya, jika pengguna bertanya tentang tokoh politik atau selebritas dan model AI menghasilkan teks yang berisi stereotip berdasarkan jenis kelamin atau etnis seseorang, hal ini bisa disebut bias orang ketiga.

Di sisi lain, jika pengguna memberi tahu AI nama mereka dan chatbot mengubah cara mereka merespons pengguna berdasarkan kecenderungan rasis atau seksis, itu merupakan bias orang pertama. Misalnya, jika seorang wanita bertanya kepada AI tentang ide untuk saluran YouTube dan AI merekomendasikan saluran yang berbasis memasak atau tata rias, hal ini dapat dianggap bias orang pertama.

Di sebuah Entri blogOpenAI telah merinci studinya dan menyoroti temuannya. Perusahaan AI menggunakan versi ChatGPT-4o dan ChatGPT 3.5 untuk mempelajari apakah chatbots menghasilkan konten yang bias berdasarkan nama dan informasi tambahan yang diberikan kepada mereka. Perusahaan mengklaim bahwa respons model AI dianalisis di jutaan percakapan nyata untuk menemukan pola apa pun yang menunjukkan tren tersebut.

Bagaimana LMRA ditugaskan mengukur bias dalam tanggapan yang dihasilkan
Sumber gambar: OpenAI

Kumpulan data besar tersebut kemudian dibagikan dengan Language Model Research Assistant (LMRA), sebuah model AI khusus yang dirancang untuk mendeteksi pola stereotip dan bias dari sudut pandang orang pertama serta penilai manusia. Skor standar dibuat berdasarkan seberapa setuju LMRA dengan temuan para penilai manusia.

OpenAI mengklaim bahwa studi tersebut menemukan bahwa bias terkait gender, ras, atau etnis pada model AI yang lebih baru hanya sebesar 0,1 persen, sementara bias pada model lama ditemukan sekitar 1 persen di beberapa wilayah.

Perusahaan AI juga mencantumkan keterbatasan penelitian tersebut, dengan mencatat bahwa penelitian tersebut berfokus terutama pada interaksi dalam bahasa Inggris dan asosiasi gender biner berdasarkan nama umum yang ditemukan di Amerika Serikat. Studi ini juga berfokus terutama pada ras dan etnis kulit hitam, Asia, Hispanik, dan kulit putih. OpenAI mengakui bahwa masih banyak pekerjaan yang perlu dilakukan terkait demografi, bahasa, dan konteks budaya lainnya.

Sumber