「夫妻相」真的存在?- Hugo Sze
我們時不時都會聽到有人稱讚夫妻們愈來愈有「夫妻相」,可能會令人聯想到美滿、和諧的婚後生活,令兩人長相變得相似。過去亦有研究提出,夫妻婚後一段時間,可能會出現外表趨同的現象。但日前發表於科學期刊「自然」(Nature)的研究則顯示,所謂的夫妻相不是後天趨同形成,而是早在選擇伴侶的階段便出現。
早在 80 年代,心理學家便曾探討長期戀愛關係會否令伴侶面貌變得相似。有關研究認為,伴侶同居 25 年後,容貌相似程度明顯增加,這種改變與婚姻的幸福感相關。研究推論,伴侶在共同生活之間,生活方式、戶外活動、飲食以至笑容,都會塑造「夫妻相」。英國「衛報」報道指,以上說法多年來從未經科研證實或反駁,直至近日,史丹福大學電子工程博士生 Pin Pin Tea-makorn 及組織行為學副教授 Michal Kosinski 合著研究,否定婚後夫妻樣貌趨同之說。
該研究透過網絡搜尋引擎、報章的結婚週年紀念報道,以及家譜網站等渠道,擷取 517 對夫婦的照片。通過對比他們新婚以及 20 至 69 年後的照片,判斷過去的研究結論是否成立。Tea-makorn 表示:「人們對此說深信不疑,勾起我們的好奇心。起初我們認為,假如人們的臉會隨著時間推移而趨同,便要看看隨時間過去,他們有哪些面部特徵變得相似。」
研究人員先向參與實驗的人士展示一張「目標人物」的照片。另外 6 張不同人物的照片中,5 張為隨機選出,1 張是目標人物的配偶。研究人員要求參與者就 6 張照片與目標的相似程度作排序,同一時間又以先進的面部辨識系統另作分析。結果顯示,無論是肉眼抑或系統判斷,均反映伴侶們在新婚及婚後 20 至 69 年,面貌均有一定相似度。研究人員認為,他們成功證實了「夫妻相」的存在。
然而,這並不代表樣貌「隨時間趨同」的說法成立。反之,研究表明「沒有找到有關生理外觀趨同假說的證據,配偶的樣貌並沒有隨時間推移愈趨相似」。受驗者肉眼判斷的結果甚至顯示,配偶臉部的相似程度,隨著時間過去會稍微下降;系統的判斷亦顯示,配偶的臉傾向相似,但不會隨時間變得更加相似。
研究認為,伴侶早在關係建立之初,看起來已相較隨機的人相似。報告指:「無論肉眼或系統,為新人的面部相似度排名時,相似度均為一致。」同時,新婚及往後拍攝的照片,在相似度亦沒有顯著差異。Tea-makorn 解釋,人們可能會尋找相貌相似的伴侶,道理與他們尋找具有相近個性或價值觀的人作為伴侶一樣。報告最後提到,「儘管否定過去的外貌假設並不令人振奮。但研究解決了心理學一大難題,使大眾更易理解,是甚麼驅使人們形成並維持長期的浪漫關係。」
原文:CUP
#愛情 #婚姻
「michal kosinski」的推薦目錄:
- 關於michal kosinski 在 BennyLeung.com Facebook 的最讚貼文
- 關於michal kosinski 在 飛碟早餐-唐湘龍時間 Facebook 的最佳貼文
- 關於michal kosinski 在 台灣物聯網實驗室 IOT Labs Facebook 的最佳解答
- 關於michal kosinski 在 Michal Kosinski - YouTube 的評價
- 關於michal kosinski 在 Michał Kosiński michal-kosinski - GitHub 的評價
- 關於michal kosinski 在 On What Facebook Knows - An Interview with the Man Behind ... 的評價
- 關於michal kosinski 在 Michal Kosinski (michalkosinski) - Profile - Pinterest 的評價
- 關於michal kosinski 在 SVOD - Keynote The End of Privacy Prof. Michal Kosinski ... 的評價
- 關於michal kosinski 在 Michal Kosinski, researcher who inspired Facebook data ... 的評價
- 關於michal kosinski 在 Michal Kosinski | Las tendencias políticas están escritas en el ... 的評價
michal kosinski 在 飛碟早餐-唐湘龍時間 Facebook 的最佳貼文
今天的節目聽了嗎?
很重要阿!!!!
早上飛碟早餐主持人問我
Cambridge Analytica 跟 Cambridge大學有沒有關係
讓我補充一下
順便說說Cambridge Analytica的故事
_____________________________
分析70個讚就知道你的政治傾向,你毛不毛?
──University of Cambridge 与 Cambridge Analytica的故事
這故事要從約翰‧洛斯特(John Rust)說起。
洛斯特幾年來很忙,這位曾在印度成長的英國心理學家,發表過無數篇論文,還創辦過心理學期刊《Philosophical Psychology》。他也設計過多款性向測驗如Orpheus、Giotto、RANRA、PSAI等,同時是全球心理測驗標準化的主要推動者之一。
但此刻,大家提到他會談的都不是這些,而是他開啟了今天透過大數據預知、操弄人心的大門。自從接掌劍橋大學心理測驗中心(University of Cambridge Psychometrics Centre)主任之後,洛斯特就發現網路為心理學界所帶來的巨大改變,例如過去得面對面進行的測驗,如今透過網路就能進行;過去需要大量問卷才能取得的背景分析,如今光是靠社群媒體的數據就能掌握。於是,他積極引進不同領域的學者,培養研究生探索這個新興的網路心理學世界。
其中有幾位學生,表現特別突出,例如Michal Kosinski和David Stillwell。他們2008年在臉書上po了一項臉書心理測驗,原本心想臉書上這種測驗很多,也不知道臉友們賞不賞臉。
沒想到,最後回響熱烈,讓他們取得高達好幾千萬筆、史上數量最龐大的心理分析數據。細節暫且不談,總之,這讓他們接下來可以透過這筆數據,進行各種交叉分析。
舉例來說,Kosinski分析了這些臉友們平常讚了哪些內容,結果發現:讚Lady Gaga粉絲頁的人比較樂觀,常讚哲學內容的人則比較悲觀;讚了MAC化妝品的,是同志的機率較高,相反的,讚饒舌樂團Wu-Tang clan的則異性戀居多。
剛開始,各種數據點的相關性仍模糊,也無法用來做任何有效預測。但漸漸的,隨著數據累積,他的預測能力也愈強。比方說,今天只要分析你過去70個讚,就能預測你的政治傾向、性別傾向與膚色,而且準確率高達85%。分析你150個讚,他比你爸媽還了解你;分析300個讚,他會知道更多你老婆老公不知道的事。
(不過實際上有沒有那麼神,大家可以去玩玩看,劍橋大學將他的模型放到網路上: https://applymagicsauce.com)。
Anyway,想也知道這麼驚人的數據力,無論你要選舉或行銷,都會被劍橋大學這門學問吸引。Aleksandr Kogan就是其中之一。Kogan從小在俄羅斯長大,7歲才移民美國,念了UC-Berkeley之後,到香港大學取得phD,2012年加入劍橋,與後來獲聘留在劍橋當助理教授的Kosinski和Stillwell成了同事。2014年,Kogan自己另創Global Science Research,專門設計各種臉書上的心理測驗,很快也蒐集到超過4000萬筆美國人的數據。
除了Kogan之外, 差不多同一時間由美國AI先驅之一、右派富豪Robert Mercer,跟右派媒體人Steve Bannon成立的Cambridge Analytica, 也锁定了劍橋大學的资料庫, 並且積極挖寶挖人(很顯然,Mercer與Bannon替公司取這名字,就是要沾Cambridge大學的光)。他們原本要挖Kosinski,但是沒成功,後來找上Kogan。
接下來的發展,新聞上大家都看到了。從英國脫歐到川普的當選,處處都有Kogan和Cambridge Analytica利用社群媒體──特別是臉書──操弄民意的軌跡。
眼下烽煙四起。不僅美國聯邦交易委員會介入調查,參院要祖克伯去說明,隔著大西洋這頭的劍橋大學也說要弄清楚,Kogan的數據是否來自在校研究成果,同時積極跟Cambridge Analytica用力劃清界線,強調兩者沒有半點關係。Kogan則大聲喊冤,說自己很有分寸,沒有用學校資源圖利,所有在Cambridge Analytica的研究都是合法的。
但合法與否,老實說此刻實在不是你我最關心的,誰都知道在虛擬世界至今其實壓根兒不講法律,就算合法也未必是對的。大家更擔心、也更想問的是:到底自己這些年來,洩漏了多少行蹤在臉書上?到底像Kogan這幫人躲在螢幕背後透過數據,掌握了多少祕密?操控了多少訊息?戲弄了多少人心?
「今天,任何一台電腦,都可以像心理學家那樣,預測你我行為、甚至左右我們的行為。」當初開啟潘朵拉盒子的洛斯特說:「來自臉書的數據如果繼續缺乏管理,是非常危險的一件事。」
危險我們都看到了,下一步呢? 這種恐懼,要怎麼──借用心理學家、諾貝爾經濟學獎得主康納曼的話──來「抹除」(undo)呢? (突然轉入打書模式 XD)
《橡皮擦計畫》: https://goo.gl/yH8csi
michal kosinski 在 台灣物聯網實驗室 IOT Labs Facebook 的最佳解答
看不見最可怕!三種AI偏見,全是人臉惹的禍
數位時代
高敬原
發布時間 2017年12月5日 PM 3點18分
自從蘋果在今年九月推出搭載FaceID的新一代旗艦機iPhone X,「人臉辨識」成為一般大眾熱門討論的話題,不僅在中國出現靠刷臉就能進入的無人商店、台灣Accupass活動通也開發出了可以刷臉觀展的技術,甚至俄羅斯一家人臉辨識新創「VisionLabs」喊出要在15~20年後,讓人臉辨識取代護照查驗。
臉部辨識用於犯罪防治引發歧視問題
雖然人臉技術應用的未來看似多元又方便,但若是應用在涉及人權的犯罪防治工作上,則引發了歧視問題。
2015年,美國佛羅里達州的警方在執行毒品查緝臥底時,暗中拍攝了幾張嫌犯的照片,後來透過臉部辨識軟體搜捕嫌犯,儘管當時許多科技專家認為呈現的結果存有瑕疵,但當局仍逮捕了由軟體辨識出的嫌犯人選,但人臉辨識逮捕嫌犯真得精準嗎?
根據2016年美國喬治城隱私暨技術法律中心公佈的一份調查報告,指出在美國執法機構中,可存取的美國成人人臉辨識資料超過1.17億人,這個數字幾乎是一半的美國成年人都被記錄在資料庫中;同時,美國至少有26州允許執法機構執行人臉辨識搜尋,大約有一半的美國成人因此受到影響,而現階段還沒有針對公民臉部識別數據隱私設立的法律規範,警方不需要任何的證據或理由就可以監控民眾的資料。
這份報告中還提到,臉部識別數據庫會「無意識」的偏向識別黑人,但依據現在的演算法技術,識別黑人的準確度相對較低、較容易出錯,黑人被歸類在「高風險」類別的機率是白人的兩倍,本來應該提供客觀意見的人工智慧(AI)演算法,也如同現行司法系統一樣,並不是完美的生物辨識系統,新技術潛在的偏見,也讓許多民權團體呼籲美國當局應該立法,避免技術被濫用甚至侵犯人權,這樣的狀況讓黑人、少數族群在新的科技時代面臨新的困境。
AI偏見案例層出不窮,全是人臉惹的禍
不只是臉部辨識系統,過去也曾發生過AI演算法延伸出的偏見問題。
2015年Google Photos 把黑人的照片標籤為「大猩猩」,利用同樣的演算法在 Google Search上搜尋照片,「醫生」通常會跟「白人男性」連結、「護士」會跟「女性」連結,將人類潛意識下對於性別、種族的觀念在搜尋結果中產生連結。
AI不經意的學習人類長期以來的偏見,要徹底解決其實並不容易,微軟紐約研究院資深研究員 Hanna Wallach 曾說:「只要機器學習的程式是透過社會已存在的資料訓練,那麼只要這個社會有偏見,機器學習就會重現這些偏見。」
今年九月,史丹佛大學教授 Michal Kosinski在《性格與社會心理學期刊》發表了一份研究,AI 可以根據臉部照片判斷是同性戀或異性戀,且男性性取向的準確率高達91%、女性準確率則是83%;這項研究在當時影發爭議,許多 LGBT團體紛紛跳出來抗議,認為這類軟體極有可能成為迫害人權的工具。
但研究團隊則認為,是政府的監管以及隱私保護規範未能跟上 AI 的發展,就如同人臉辨識也能用於司法判決參考、學校針對入學學生的智商推論、大型活動入場前暴力威脅的判定,AI、人臉辨識技術、數據含有人類的偏見成分,後果當然令人擔憂,史丹佛大學教授Michal Kosinski強調,這份研究的目的不是要判別誰是同志,而是要大家警惕AI所帶來的影響。
為什麼AI會模仿人類的偏見?
為什麼走在時代前端的科技技術也會存在著「偏見」呢?麻省理工學院媒體研究室的研究員Joy Buolamwini認為,這是因為許多人臉辨識背後的演算法,都是由白人男性工程師寫的,而演算法要做出好的決策,就必須仰賴過往的資料所累積的經驗,而工程師也許無意識的讓自身的偏見、判斷影響了演算法的運作。
本月於加州登場的「神經訊息處理系統大會」,有一個組織「Black in AI」專門推廣黑人電腦科學家在AI領域研究的成果,致力於促進研究人員之間的合作,提高黑人在AI領域的參與度。不過也引發部分學者跟研究人員的質疑是否有必要舉辦僅關注黑人科學家研究的活動,在過度追求多元化的政治正確下忽略了技術能力。
「這實際上推動AI的隔離,黑人參加為黑人舉辦的活動,女性參加女性活動。」俄羅斯軟體公司SKB Kontur資料科學家Timofey Yarimov說;另外參與活動的一派意見認為,AI領域確實存在對女性和非白人男性的歧視,但如果「Black in AI」組織只是利用特定族群的困境,來吸引群眾參加活動,那麼只會破壞反對歧視的原則,但無論如何,系統背後的科學家缺乏多元組成,某種程度上勢必也會影響演算法的運作。
不過,人類跟機器最大的不同,在於無法擺脫過往經驗在潛意識中產生對於特定事務的偏見,隨著AI、人臉識別成為未來生活的日常,要讓AI保持客觀、中立的判斷,人類則必須時時警惕自己不要讓AI受到人性弱點的影響,說起來容易,但這也成為人類與AI發展之間不能停止努力的功課。
附圖:人臉辨識並不是完美的生物辨識系統,新技術潛在的偏見,也讓許多民權團體呼籲美國當局應該立法,避免技術被濫用甚至侵犯人權。
人類則必須時時警惕自己不要讓AI受到人性弱點的影響。
資料來源:https://today.line.me/…/%E7%9C%8B%E4%B8%8D%E8%A6%8B%E6%9C%8…
michal kosinski 在 Michał Kosiński michal-kosinski - GitHub 的推薦與評價
AWS Solutions Architect with DevOps mindset. michal-kosinski has 5 repositories available. Follow their code on GitHub. ... <看更多>
michal kosinski 在 On What Facebook Knows - An Interview with the Man Behind ... 的推薦與評價
Michal Kosinski, to get his thoughts on their findings, how the report was received and - importantly - whether he'd personally changed his ... ... <看更多>
michal kosinski 在 Michal Kosinski - YouTube 的推薦與評價
Professor at Stanford. Computational psychologist. Interested in the psychology of AI.Contact me at: [email protected]. ... <看更多>