2017-09-26, 10:02 AM
Gaydar,即是gay radar(同性戀雷達),意指透過目測判斷一個人的性取向。
Gaydar的準確度因人而異,有些同性戀者自詡gaydar的準確度100%,單憑眼神已能知道對方是自己的「同類」,又有些女生自命能夠一眼判斷男生是否同性戀。
可是,假如有天起,我們真的能夠單憑樣貌,便可知道對方的性取向,又怎樣呢?
美國史丹福大學的研究人員表示,他們研發了一款新的AI人工智能演算法,通過掃瞄照片,便能分辨相中人的性取向,並宣稱準確度高達91%。
研究人員從美國一個用戶會公開表明性取向的約會網站,下載7.5萬名男女約30萬張的照片,然後用電腦掃瞄各人的五官,利用深度神經網絡抽取照片中的臉部特徵,繼而把這些特徵輸入一套能夠區分性取向的邏輯回歸分析系統。
電腦掃瞄出同性戀者及異性戀者臉部特徵上的差異後,辨識機器便能透過一張相片,分析相中人是否同性戀者。
研究人員聲稱,分辨男同性戀者的準確度有81%,女同性戀者也達73%;假如測試對象的相片增至五張,演算法的準確度更可提升至分別91%和83%。
原來,辨識器是透過臉上的固定特徵(如鼻型)和非固定特徵(如鬍子)來分辨性取向。據知,男同性戀者一般而言下顎較窄,鼻子較長,額頭較寬;女同性總者則有較寬的下顎和較小的額頭。
全球最大的LGBTQ媒體宣傳組織GLAAD和美國最大的LGBTQ人權團體表示,這份研究報告有許多缺陷和不足之處,例如他們沒有比對非白人的臉部特徵,演算法也沒有包括跨性別和雙性戀人士。
而且,假如研究報告成立,這證明人類的性取向早於未出世前已經形成,但這說法一直以來仍未得到證實,尤其女性的性取向較為流動。
道德上,由於社交網站和數據庫收集了大量人民的相片,意味着將來可能有人在不知情的情況下「被出櫃」。在一些同性戀被視為罪行的國家,當權者大有可能濫用此等科技搜捕同性戀者。