Pada tahun 2023, teknologi AI emosional – teknologi kecerdasan buatan yang dapat merasakan dan berinteraksi dengan emosi manusia – akan menjadi salah satu aplikasi dominan dari pembelajaran mesin. Misalnya, Hume AI, sebuah perusahaan teknologi yang didirikan oleh Alan Cowen, seorang mantan peneliti Google, sedang mengembangkan alat untuk mengukur emosi dari ekspresi verbal, wajah, dan vokal.
Sementara itu, perusahaan asal Swedia, Smart Eyes, baru-baru ini juga berhasil mengakuisisi Affectiva, spin-off dari MIT Media Lab yang mengembangkan jaringan saraf SoundNet, sebuah algoritma yang mengklasifikasikan emosi seperti kemarahan dari sampel audio dalam waktu kurang dari 1,2 detik. Bahkan platform video Zoom memperkenalkan Zoom IQ, fitur yang akan segera memberikan pengguna analisis waktu nyata tentang emosi dan keterlibatan selama pertemuan virtual.
Pada tahun 2023, perusahaan teknologi berlomba-lomba merilis chatbot canggih yang dapat meniru emosi manusia senyata mungkin demi menciptakan koneksi yang lebih tegas dengan pengguna di sektor perbankan, pendidikan, dan perawatan kesehatan. Chatbot Microsoft, Xiaoice, sudah berhasil di China, dengan pengguna rata-rata melaporkan bahwa mereka telah berbicara “dengannya” lebih dari 60 kali dalam sebulan. Chatbot ini juga lulus tes Turing, di mana beberapa pengguna selama 10 menit gagal mengenali bahwa itu adalah bot.
Analisis dari Juniper Research Consultancy menunjukkan bahwa interaksi chatbot di bidang perawatan kesehatan akan meningkat sebesar hampir 167 persen dari tahun 2018, hingga mencapai 2,8 miliar interaksi tahunan pada tahun 2023. Peningkatan interaksi ini akan menghemat waktu staf medis dan berpotensi menghemat sekitar $3,7 miliar untuk sistem perawatan kesehatan di seluruh dunia.
Pada tahun 2023, AI emosional juga diprediksi akan menjadi sesuatu yang umum di sekolah-sekolah. Di Hong Kong, beberapa sekolah menengah sudah menggunakan program kecerdasan buatan yang dikembangkan oleh Find Solutions AI, yang mengukur gerakan mikro otot di wajah siswa dan mengidentifikasi berbagai emosi negatif dan positif. Guru menggunakan sistem ini untuk melacak perubahan emosional pada siswa, serta motivasi dan fokus mereka, sehingga memungkinkan mereka untuk melakukan intervensi awal jika siswa kehilangan minat.
Masalahnya adalah bahwa sebagian besar AI emosional didasarkan pada ilmu yang cacat. Algoritma AI emosional, bahkan ketika dilatih dengan set data yang besar dan beragam, mengurangi ekspresi wajah dan nada menjadi satu emosi tanpa mempertimbangkan konteks sosial dan budaya orang dan situasi.
Sementara, misalnya, algoritma dapat mengenali dan melaporkan bahwa seseorang sedang menangis, tidak selalu mungkin untuk mengambil kesimpulan yang akurat tentang alasan dan makna di balik air mata tersebut. Demikian pula, wajah yang cemberut tidak selalu mengimplikasikan seseorang yang marah.
Mengapa demikian? Itu karena kita semua menyesuaikan tampilan emosional kita sesuai dengan norma-norma sosial dan budaya kita, sehingga ekspresi kita tidak selalu mencerminkan keadaan dan perasaan kita yang sebenarnya. Sering kali orang melakukan “pekerjaan emosional” untuk menyembunyikan emosi mereka yang sebenarnya, dan bagaimana mereka mengekspresikan emosinya kemungkinan adalah respons yang dipelajari, bukan ekspresi spontan. Sebagai contoh, wanita sering memodifikasi emosinya lebih dari pada pria, terutama emosi yang memiliki nilai negatif seperti kemarahan, karena mereka diharapkan melakukannya.
Oleh karena itu, teknologi AI yang membuat asumsi tentang keadaan emosional kemungkinan akan memperburuk kesenjangan gender dan ras di masyarakat kita. Sebagai contoh, laporan UNESCO tahun 2019 menunjukkan dampak merugikan dari gendering teknologi AI, dengan sistem asisten suara “feminin” yang dirancang berdasarkan stereotipe ketergantungan emosional dan ketaatan.
Pengenalan wajah AI juga dapat memperpetuasi kesenjangan rasial. Analisis dari 400 pertandingan NBA dengan dua program perangkat lunak pengenalan emosi yang populer, Face dan Microsoft’s Face API, menunjukkan bahwa mereka cenderung memberikan lebih banyak emosi negatif kepada pemain kulit hitam, bahkan ketika mereka sedang tersenyum. Hasil ini mengonfirmasi penelitian lain yang menunjukkan bahwa pria kulit hitam harus menunjukkan emosi positif yang lebih banyak di tempat kerja, karena mereka diberi stereotipe sebagai orang yang agresif dan mengancam.
Teknologi AI emosional akan semakin masif pada tahun 2023 dan tahun-tahun berikutnya, tetapi jika dibiarkan tanpa pemeriksaan dan tantangan, teknologi ini akan memperkuat bias rasial dan gender sistemis, mereplikasi dan memperkuat kesenjangan di dunia, dan semakin merugikan mereka yang memang sudah termarginalkan.
*** disadur dari sebuah tulisan menarik di Wired.