Google Hentikan Pembuatan Gambar AI di Gemini Setelah Perdebatan Etnis

R24/tya
Gemini, model kecerdasan buatan generasi baru telah diresapi dengan chatbot Bard Google /AFP
Gemini, model kecerdasan buatan generasi baru telah diresapi dengan chatbot Bard Google /AFP

RIAU24.COM Google untuk sementara berhenti membiarkan pengguna menghasilkan gambar orang yang menggunakan model kecerdasan buatannya Gemini setelah masalah yang diangkat oleh pengguna tentang etnis orang dalam gambar.

Banyak pengguna media sosial telah memposting contoh gambar yang dihasilkan oleh Gemini yang menunjukkan Viking, paus, bapak pendiri AS dalam berbagai etnis dan jenis kelamin.

Ini telah memicu perdebatan tentang bias implisit atau dorongan implisit untuk tindakan terhadap bias semacam itu.

"Kami sudah bekerja untuk mengatasi masalah terbaru dengan fitur generasi gambar Gemini. Sementara kami melakukan ini, kami akan menghentikan sementara pembuatan gambar orang dan akan segera merilis ulang versi yang lebih baik," kata Google dalam sebuah pernyataan.

Dalam pernyataannya, Google tidak menyebutkan gambar tertentu tetapi contoh gambar tersebut banyak tersedia di media sosial.

The Guardian telah melaporkan sebuah postingan yang dibuat oleh mantan karyawan Google yang mengatakan sulit untuk membuat Google Gemini mengakui bahwa orang kulit putih ada.

"Kami sedang berupaya memperbaiki penggambaran semacam ini dengan segera," kata Jack Krawczyk, direktur senior tim Gemini Google.

"Generasi gambar AI Gemini memang menghasilkan banyak orang. Dan itu umumnya hal yang baik karena orang-orang di seluruh dunia menggunakannya. Tapi itu hilang tanda di sini," tambahnya.

Dalam pernyataannya di platform media sosial X (sebelumnya Twitter), Krawczyk lebih lanjut mengatakan bahwa alat AI Google mencerminkan basis pengguna global kami.

Dia mengatakan bahwa sementara Google akan terus melakukan ini untuk permintaan terbuka seperti seseorang yang berjalan-jalan dengan anjing tetapi mengakui bahwa tanggapan pada petunjuk terkait sejarah memerlukan beberapa penyesuaian.

"Konteks sejarah memiliki lebih banyak nuansa bagi mereka dan kami akan lebih lanjut menyesuaikan untuk mengakomodasi itu," katanya.

Cakupan bias dalam AI telah menunjukkan banyak contoh dampak negatif pada orang kulit berwarna.

Investigasi Washington Post tahun lalu menunjukkan beberapa contoh generator gambar yang menunjukkan bias terhadap orang kulit berwarna, serta seksisme.

Ditemukan bahwa generator gambar Stable Diffusion XL menunjukkan penerima kupon makanan terutama tidak berkulit putih atau lebih gelap meskipun 63% penerima kupon makanan di AS berkulit putih.

Permintaan untuk gambar seseorang di layanan sosial menghasilkan hasil yang serupa.

(***)

Tulisan ini merupakan kiriman dari member Riau24. Isi dan foto artikel ini sepenuhnya merupakan tanggung jawab pengirim.

Tampilkan lebih banyak