Algoritma ini boleh dikatakan memberitahu anda jika anda gay atau lurus

CERITA BARU - EP. CERITA SESAMA JENIS, BIAYA PENDIDIKAN DIBAYARIN OM

CERITA BARU - EP. CERITA SESAMA JENIS, BIAYA PENDIDIKAN DIBAYARIN OM
Algoritma ini boleh dikatakan memberitahu anda jika anda gay atau lurus
Algoritma ini boleh dikatakan memberitahu anda jika anda gay atau lurus
Anonim

Dua penyelidik di Universiti Stanford mendakwa telah menghasilkan algoritma yang dapat menentukan seksualiti anda dengan hanya memandang gambar tunggal.

Michal Kosinski dan Yilun Wang meletakkan penemuan mereka ke dalam kajian baru-yang kini dalam bentuk draf dan belum lagi dikaji semula, tetapi telah diterima untuk diterbitkan oleh Jurnal Kepribadian dan Psikologi Sosial . "penemuan memajukan pemahaman kita mengenai asal-usul orientasi seksual dan batasan persepsi manusia, " tulis penyelidik.

Begini caranya berfungsi: Kosinski dan Wang mengangkat 36, 640 foto lelaki dan 38, 593 dari profil temu duga dalam talian dan menyalurkan tembakan menerusi program mereka. Mereka kemudiannya memodenkan program untuk mengambil ciri-ciri seperti berat badan, gaya rambut, lebar rahang, dan panjang hidung-dan sekarang, mereka menuntut bahawa, dengan menyampaikan program dengan foto, ia dapat mengenal pasti seksualiti subjek dengan 81 ketepatan peratus, untuk lelaki, dan ketepatan 74 peratus, untuk wanita. (Apabila program itu disediakan dengan lima imej, masing-masing angka tersebut akan meningkat kepada 91 dan 83 peratus).

"Selaras dengan teori hormon pranatal orientasi seksual, lelaki dan wanita gay cenderung mempunyai morfologi muka, ungkapan, dan gaya dandanan wajah yang jantina, " Kosinski dan Wang menjelaskan penemuan mereka. Dengan kata lain: mereka berhujah bahawa lelaki dan wanita gay mempunyai penampilan yang lebih menonjol dari lelaki dan perempuan lurus.

Cukuplah untuk mengatakan, kajian ini telah menimbulkan lebih daripada beberapa kening. Beberapa jam selepas diterbitkan, GLAAD dan Kempen Hak Asasi Manusia mengeluarkan kenyataan bersama yang mengutuk penyelidikan.

"Pada satu masa, kumpulan minoriti sedang disasarkan, penemuan ini boleh berfungsi sebagai senjata untuk membahayakan kedua-dua heteroseksual yang tidak tepat, dan juga orang gay dan lesbian yang berada dalam keadaan di mana berbahaya, " kata Jim Halloran, GLAAD's ketua pegawai digital. Ashland Johnson, pengarah pendidikan dan penyelidikan awam HRC, menyuarakan sentimen itu: "Stanford harus menjauhkan diri dari sains sampah tersebut dan bukannya meminjamkan namanya dan kredibiliti untuk penyelidikan yang berbahaya dan meninggalkan dunia-dan kes ini, berjuta-juta orang hidup-lebih buruk dan kurang selamat daripada sebelumnya."

Pernyataan itu terus menunjukkan beberapa kelemahan kritikal dalam kajian itu - yang hanya termasuk orang kulit putih, bahawa ia tidak menjadi faktor bagi individu biseksual, dan bahawa penulis tidak mengesahkan umur atau orientasi seksual mana-mana subjek foto-sebelum akan mengatakan bahawa "tajuk utama media yang mendakwa AI dapat memberitahu jika seseorang itu gay dengan melihat satu foto wajah adalah tidak tepat."

Dalam kemas kini untuk kajian abstrak-terutama sekali ditambah pada pagi ini, tiga hari selepas kenyataan GLAAD dan HRC dikeluarkan - kedua-duanya menyatakan bahawa, memandangkan peningkatan penggunaan, oleh kerajaan dan syarikat, algoritma penglihatan komputer untuk menentukan "sifat intim rakyat, "penemuan mereka" mendedahkan ancaman kepada privasi dan keselamatan lelaki dan wanita gay."

Untuk nasihat yang lebih hebat untuk hidup lebih bijak, kelihatan lebih baik, dan berasa lebih muda, ikuti kami di Facebook sekarang!

Ari Notis Ari adalah editor kanan, yang mengkhususkan diri dalam berita dan budaya.