精品亚洲成a人在线|人妻视频免费人人|2021少妇久久久久久久久久久|亚洲日韩片无码中文字幕

<strong id="g78f3"><menu id="g78f3"><strike id="g78f3"></strike></menu></strong>

播放地址

編碼歧視

記錄片美國2020

主演:Joy Buolamwini  Meredith Broussard  Cathy O&#039;Neil  Silkie Carlo  Zeynep Tüfek?i  Amy Webb  Tranae Moran  Virginia Eubanks  Icemae Downes  Ravi Naik  Deborah Raji  Timnit Gebru  Safiya Umoja Noble  Wolfie O&#039;Neil  Kiri Soares  

導(dǎo)演:莎里妮·坎塔雅

 劇照

編碼歧視 劇照 NO.1編碼歧視 劇照 NO.2編碼歧視 劇照 NO.3編碼歧視 劇照 NO.4編碼歧視 劇照 NO.5編碼歧視 劇照 NO.6編碼歧視 劇照 NO.13編碼歧視 劇照 NO.14編碼歧視 劇照 NO.15編碼歧視 劇照 NO.16編碼歧視 劇照 NO.17編碼歧視 劇照 NO.18編碼歧視 劇照 NO.19
更新時間:2024-02-23 20:43

詳細劇情

  Exploring the fallout of MIT Media Lab researcher Joy Buolamwini’s startling discovery that facial recognition does not see dark-skinned faces accurately, and her journey to push for the first-ever legislation in the U.S. to govern against bias in the algorithms that impact us all.

 長篇影評

 1 ) 不同社會背景下,評判歧視標(biāo)準(zhǔn)也不同

老外好像很在意自己的生物信息被取樣,同時影片中街頭的面部識別的成功率也太低了,這么低的成功率按理說不能用來實踐。影片的出發(fā)點是好的,但眼界過于狹隘,就好像走過頭的黑命貴和女木又。動不動就拿主義的帽子亂扣,也能反映出西方社會的媒體還是井底之蛙。中國的古語早有總結(jié),身正不怕影子斜,沒做虧心事,不怕鬼敲門,心里怕了,就覺得被歧視了,真夠嬌氣的。

 2 ) 編碼歧視

豆瓣的熱評第一把我想說的都說了。這部片子可取的地方在于指出了人工智能潛在的致命缺點,但片子的意識形態(tài)性讓這部片子本身的意義打了折扣。

機器學(xué)習(xí)是一個黑盒子,它依照“多即是好”的原理,從歷史數(shù)據(jù)中學(xué)習(xí),因此它的學(xué)習(xí)過程即使對于創(chuàng)造它的程序員來說,也是一個黑盒子。這就導(dǎo)致了人類只是通過人工智能,在全自動化中復(fù)制自己的現(xiàn)有形象,沒有鑒別,沒有提升。就像片中說的,人工智能可以誤判,但無法被質(zhì)疑,也不被要求承擔(dān)責(zé)任;作為一種唯數(shù)據(jù)論的技術(shù),其設(shè)計目的是追求效率。

因此,就基于數(shù)據(jù)的機器學(xué)習(xí)本質(zhì)而言,其產(chǎn)生的算法將不是中立的。因其通常為權(quán)勢所用(如平臺),機器學(xué)習(xí)其實會造成一種極危險的隱性的編碼歧視,這也是片名的由來。

此外,盲目追求效率的一個弊端是人的物化。人被標(biāo)準(zhǔn)化參數(shù)所肢解,被片面化標(biāo)簽化。在教育系統(tǒng),學(xué)生為標(biāo)準(zhǔn)化的培養(yǎng)體系和打分系統(tǒng)所評估,作為養(yǎng)料被高校挑選,再經(jīng)過下一輪標(biāo)準(zhǔn)化的培養(yǎng),然后作為“人才”輸送入社會,被定義成一張張簡歷,簡歷再經(jīng)過算法的篩查,剩下的簡歷才來到HR手里,再經(jīng)過各種參數(shù)的標(biāo)準(zhǔn)化考核,把人物化為某一價格,體現(xiàn)為薪資待遇。這讓我想起了最近的一部職場喜劇《破事精英》里面對績效的刻畫。

除了人的物化,人工智能還通過機械化,迎合并加深了現(xiàn)代社會對客觀的追求。這種“機器客觀”杜絕了人性的存在。Intelligence without ethics is not intelligence at all. 缺乏倫理道德的人工智能不是智能。人類的主觀判斷力、決策力、反抗力和拒絕的能力,是人性閃耀的光輝,這里有讓我想起了《禪與摩托車維修藝術(shù)》中所提倡的“良質(zhì)”,即不囿于可觀察數(shù)據(jù)和傳統(tǒng)主客觀二分法的對quality的一種本能判斷。

 3 ) 《大數(shù)據(jù)的傲慢與偏見》缺德的“假似道”

本片是凱西·歐尼爾《大數(shù)據(jù)的傲慢與偏見》一書的延展。

這是個演算法包圍現(xiàn)代公民的時代!演算法在幕后影響著我們生活的各種決定,包括我們上什么學(xué)校、能否借到汽車貸款,以及醫(yī)療保險必須支付多少保費,愈來愈多判斷是由數(shù)學(xué)模型,而非某些人所做出。這一切看似公平:因為所有人是根據(jù)相同的規(guī)則評斷,不受偏見影響。

對熱情的“問題解決者”來說,大數(shù)據(jù)像仙境,它搜集資訊、再運用數(shù)學(xué)模型,使我門得以更有效地調(diào)配資源、篩選最優(yōu)的人事物、并做出最好的決定,這些熱情的宣揚者更是四處宣傳大數(shù)據(jù)應(yīng)用的威力。

但是,曾在典型數(shù)據(jù)分析圈內(nèi)工作的凱西·歐尼爾不是上述這種人。

她在《大數(shù)據(jù)的傲慢與偏見》中指出,事實與我們想的恰恰相反!這些數(shù)學(xué)模型不透明、不受管制,即便出錯,受害者往往無法申訴。最令人不安的是,這些模型會“強化歧視”,例如,貧窮學(xué)生在申請學(xué)貸時,可能因自家的郵遞區(qū)號,被審核貸款的數(shù)學(xué)模型視為還款高風(fēng)險者,因而無法獲得貸款……。這類問題會形成惡性循環(huán)——獎勵幸運兒、懲罰遭踐踏的人,創(chuàng)造出危害民主的“有毒雞尾酒”。

歡迎認(rèn)清大數(shù)據(jù)的黑暗面

歐尼爾在《大數(shù)據(jù)的傲慢與偏見》中揭開對我們?nèi)松麟A段有巨大影響的各種黑箱數(shù)學(xué)模型,不管我們愿不愿意,演算法系統(tǒng)都已經(jīng)為我們打上“分?jǐn)?shù)”。

當(dāng)前許多數(shù)學(xué)模型已經(jīng)失控濫用、還自作主張地替教師和學(xué)生評鑒、篩選履歷表、審核貸款、評估員工績效、鎖定目標(biāo)選民、決定假釋名單,以及監(jiān)測我們的健康狀態(tài),決定我們個人及社會的未來。

歐尼爾呼吁:在這個人人都被迫擁有自己在某種演算系統(tǒng)中持有“e化評分”的時代,那些建立模型的人應(yīng)該為他們所創(chuàng)造出來的演算法負(fù)起更多責(zé)任,而政策制定者更應(yīng)該負(fù)起監(jiān)督管理的責(zé)任。

這本重要著作使我們得以提出關(guān)鍵問題、揭露這些“數(shù)學(xué)毀滅性武器”的真相和要求變革。

本片是此書的延展。

法、刑、禮、律……

 4 ) 《編碼歧視》短記

電影主要講人工智能的算法怎么被用來評估每個人在社會系統(tǒng)中的價值以及其中的問題,即算法會復(fù)制甚至加劇這個世界長久以來的偏見,比如比法院會參考一個所謂的“再次犯罪率”的算法給予假釋,“科學(xué)計算”出有色人種的再犯罪率更高;算法被學(xué)校用來評價老師的”附加價值”,被公司用來篩選簡歷,被銀行用來計算信用,結(jié)論是女性更容易被AI HR淘汰,且比男性的金融信用差。以下是電影的幾個觀點:

1)技術(shù)到來總伴隨著不平均。不平均并不是說有錢人比窮人先擁有技術(shù),而是說更具有侵犯性的技術(shù)往往先被用弱勢群體身上做實驗(在紐約,人臉識別門禁率先被房屋出租公司裝在低收入有色人種集中的公寓,并將其制造成一種類似交通攝像頭的罰款工具,用監(jiān)視的圖像作為對租戶違反公寓樓規(guī)定的證據(jù))。

2) 目前人工智能在社會中廣泛應(yīng)用主要有兩種模式:一種是維穩(wěn),一種是獲利。沒有一種為自由和平等而存在的算法。

3)只要連接到網(wǎng)絡(luò)社會,世界上每個人都被算法打著各式各樣的分,你在某些系統(tǒng)中看起來更不可能犯罪,但同時,你也會另一些系統(tǒng)中為同樣的商品付更多的錢。人們談到算法監(jiān)控總愛說中國如何如何,其實本質(zhì)的不同只是中國對這種監(jiān)控毫不掩飾而已。

> We are all grappling every day with algorithmic determinism. [...] We are all being scored. The key difference between the US and China is that China's transparent about it.

4)反烏托邦可能最終不會像《1984》所描述的那樣實現(xiàn),而是像現(xiàn)在一樣,靜悄悄地侵入每個人的生活。哪怕你能躲過看得見的攝像頭,看不見的追蹤和信息收集軟件卻難以避免。這些信息會泄漏你的軟肋,甚至左右你的決定。(比如給奢賭者推送拉斯維加斯的打折機票,比如Facebook按個人的政治傾向有選擇地推送大選投票信息。)

5) 算法設(shè)計的奧義是自動化和高效,但很多時候,人性意味著拒絕服從,拒絕系統(tǒng)定義的價值。如果把自動化作為一切問題的終點,在有的情況下會造成非常不人道甚至是毀滅性的結(jié)果。

6)人工智能的定義到底是什么?這是值得思考的問題。下棋比人類厲害?會分析數(shù)據(jù)?社會對于科學(xué)和技術(shù)的理解其實是由很少數(shù)一部分精英定義的,他們大部分都是白人、男人。

7)正義地使用算法是現(xiàn)在最緊要的人權(quán)問題之一。

紀(jì)錄片試圖代入國際視野,拍攝了英國、南非、香港、和中國大陸的片段。雖然落腳點是對算法廣泛應(yīng)用的質(zhì)疑,但關(guān)于中國的影像始終是“反烏托邦”式的,即便是所謂的“全世界都被監(jiān)視著”這一論點也還是中美二元思維。對全球的描繪只能說是對美國現(xiàn)狀的注腳而已,分析并不到位。

很喜歡電影里的主要人物、也是算法正義聯(lián)盟的創(chuàng)建者Joy Buolamwini,她日常寫一些短詩送給一起努力的合作者,很有感染力。另外,AOC在國會討論一節(jié)短暫出境。

Joy Buolamwini 在電影中念的一首小詩:

collecting data, chronicling our past, often forgetting to deal with gender, race, and class. again, I ask, am I a woman? face by face, the answers seem uncertain, can machines ever see my queens as I view them? can machines ever see our grandmothers as we knew them?

收集數(shù)據(jù),記錄我們的過去,總是忘了去考慮性別、種族和階級。讓我再一次拷問,(在你的眼里)我是女性嗎?一張又一張臉,你的答案似乎難以確定。機器可以看到我所看到的女王嗎?機器可以看到我們所認(rèn)識的祖母嗎?

一些擴展資源:

Weapon of Math Destruction (電影中AJL一員 Cathy O'Neil寫的書)

Twitter and Teargas by Zeynep Tufekci (作者在電影中出鏡)

Algorithmic Justice League (美國的組織,可通過官網(wǎng)郵件訂閱信息)

Big Brother Watch (英國的組織)

 短評

比《監(jiān)視資本主義》稍好一點。

5分鐘前
  • 字母君
  • 較差

完成度非常非常差,首先中斷嚴(yán)重偏題,本身主題是人臉識別技術(shù),但是中間直接跑到大段算法,這是從屬關(guān)系,如果今天是要討論算法,那這個東西就深了去了。然而通篇針對人臉識別,也沒有足夠的論證和論證過程去支撐,大部分只有口號和觀點,如果今天有一個人拍一個關(guān)于人臉識別如何大面積地降低了犯罪率,那完全可以把輿論轉(zhuǎn)向另一邊到,這本應(yīng)是一個需要強調(diào)“寧可錯殺一千,不可放過一個”是錯誤的,但并沒有。而且還選取了中國作為一個對照組,但是對于觀點選取的極度偏頗也使得這個片子的引導(dǎo)性非常強,就不到一個半小時的片子信息密度還這么低,紀(jì)錄片可真好拍

8分鐘前
  • 大肚兜
  • 較差

有關(guān)算法偏見在面孔識別,治安,教育,法律等領(lǐng)域的討論。有趣的是研究算法偏見和推動立法的主角是一色的女性研究者,和social dilemma里面負(fù)責(zé)產(chǎn)品技術(shù)的白男形成了鮮明對比。

10分鐘前
  • cobblest
  • 力薦

Intelligence without ethics is not real intelligence.多數(shù)人可能覺得AI具有前瞻性和先進性,但人工智能基於數(shù)據(jù),而數(shù)據(jù)承載著過去。所以歷史中的一切不平等如種族歧視、性別歧視等也存在於算法中。很典型的一個例子是微軟在推上搞了個bot叫Tay,讓它不斷學(xué)習(xí)推上的數(shù)據(jù),然后不到24小時Tay就變得厭女和歧視猶太人和黑人…看完整個紀(jì)錄片后,問題來了,該如何在一個我們不知道算法如何運作的系統(tǒng)里獲得公平?或許用法律阻擋人臉識別的濫用是第一步,可是下一步呢?

14分鐘前
  • latitude17°
  • 推薦

哈哈哈哈哈這個紀(jì)錄片是蘋果贊助的吧,通篇沒提到蘋果,但是現(xiàn)在用face ID解鎖的人不算少吧

15分鐘前
  • Marionette
  • 很差

90分鐘信息量很大,印象深刻也是杭州那位女士,絲毫不擔(dān)憂信息安全,只覺得什么都刷臉好方便

16分鐘前
  • dikseg
  • 推薦

210415

21分鐘前
  • 威廉
  • 推薦

比較講究的紀(jì)錄片?!拔覀兌荚诒荒槻孔R別監(jiān)控;唯一區(qū)別就是,鐘果對這件事是透明的,而霉果不是?!?大實話給五星!

26分鐘前
  • 耶路撒冷不太冷
  • 推薦

Algorithm Surveillance and Discrimination are universal, there is really no need to attack China that hard.

29分鐘前
  • 淺藍色毛衣
  • 較差

73/100

31分鐘前
  • Jonathan
  • 推薦

有被冒犯到 但不得不說一針見血

35分鐘前
  • popcorn
  • 推薦

此片充分展現(xiàn)了美英自由主義進步政治、多元化、國內(nèi)種族正義斗爭,與他者化中國/中國人的并行并舉。從刻意的無厘頭中文翻譯(只為表明這是“中國”),到對中國制度的想當(dāng)然,到采訪這唯一一個驚世駭俗的奇葩中國人(號稱要感謝信用積分幫助她有效擇友)——紀(jì)錄片最后,美國英雄說,他們和全球反監(jiān)視斗士站在一起,勝利屬于他們。這就很清楚了,“中國”對于這個紀(jì)錄片的主體而言,一開始就在這場斗爭之外。一開始就是他者。一開始就沒有相應(yīng)的人性。是反烏托邦的平行宇宙。用來側(cè)目,用來醞釀,用來自我鞭策。這其實也都無所謂——如果中國不是一個真實的地方,中美關(guān)系不是真實的地緣政治,中國人不是血肉的行在這個地球的人。

38分鐘前
  • Anjali
  • 還行

3.5 算法是黑洞,吸收一切,不在乎邏輯、也不在乎道德。性別歧視、種族歧視、人權(quán)等隱憂經(jīng)由算法包裝后,大搖大擺地橫行。關(guān)于我們郭嘉的部分,些許失實,對我們信用體系和人臉識別之間的理解還是太粗暴了。

41分鐘前
  • 老餅干
  • 推薦

無語了。一個試圖教別人不要有偏見的片子,充滿了偏見的教育………

42分鐘前
  • meownway
  • 較差

That’s brilliant!LON is brilliant.由弱者/研究者視角的解讀,剖析;自由的把BB中的技術(shù)性問題深入背后的道德倫理和哲學(xué)邏輯,那不經(jīng)推敲的。漸強化的規(guī)則對PR的統(tǒng)領(lǐng),賦權(quán)和合規(guī)到秩序、發(fā)展。當(dāng)然這是PR預(yù)期低洼處不會涉及反思的。其中涉及的敏感地也成案例相探討。以是一種特定價值的覺醒和抗?fàn)帯R嗖毁澩瑹o腦而無反思的發(fā)展科技。Cambridge真是永遠好哈哈,AI起源于Dartmouth還蠻意外的…曠視也唉、、、

43分鐘前
  • 錯別字制造機
  • 推薦

HIFF 人臉識別技術(shù)隱含的種族與性別歧視,及其廣泛使用造成的各行業(yè)人權(quán)侵犯問題。人不能被算法反控制。而在大洋彼岸某個大國,所有的公民已經(jīng)接受了時刻被監(jiān)控,還為支付寶人臉識別功能的便捷而感到驕傲……部分觀點還是局限,這種議題哪里缺席討論就哪里誤會加深,有什么辦法呢哎……

47分鐘前
  • 甜水園子溫
  • 推薦

觀點不錯,鏡頭語言豐富,有些地方略顯累贅,在如何抗?fàn)幏矫嬉矝]交代清楚,單方面表達(不過也沒辦法),但主角成就斐然。如果是一部展現(xiàn)如何抗?fàn)幍钠?,少了過程;如果是陳述觀點的,又略顯薄弱。

48分鐘前
  • 疾行慢賞
  • 推薦

大部分美國人,這里特指制片團隊,對于中國的態(tài)度也是coded bias....一群不了解中國情況的家伙們,don't even care enough to get their translation right (把匹配match直接翻譯成比賽也是絕)。不管三七二十一直接把中國打成反面例子,甚至還找了個非典型代表,把信用評分作為交友的依據(jù)...你要討論bias就好好討論,前半部分關(guān)于種族、性別、階級的例子都發(fā)人深省,但中國的部分和你要表現(xiàn)的bias有任何聯(lián)系嗎?算了,反正這片也只是拍給歐美地區(qū)的人看的,讓他們的觀眾爽就好了。夾帶私貨的結(jié)果就是加深了普通觀眾的bias,結(jié)合片名看也是諷刺...PS. 發(fā)行找了個以AI運算出名的平臺,不覺得自相矛盾嗎...

51分鐘前
  • 奶叼
  • 較差

效率和準(zhǔn)確之間做權(quán)衡,經(jīng)濟利益和社會公平之間做權(quán)衡,這樣的權(quán)衡不是留給算法留給科技,還是要留給人類,人類依然充滿歧視,甚至比計算機更甚,所以提出的問題很可能就成了未來都很難有解的問題,先不說能否數(shù)學(xué)與模型化,就問善惡的尺度在哪?日漫《心理測量者》給出的探討或許并不讓人舒服,但最終很可能也只能如此吧。

53分鐘前
  • 雨鳴
  • 推薦

在沒接觸相關(guān)的學(xué)術(shù)探討之前可能會覺得這部片子角度新穎,現(xiàn)在會覺得只是記錄了幾個主人公為發(fā)聲作出的努力,在引導(dǎo)大眾重新審視“人臉識別”/AI/算法技術(shù)上沒有推進。我在想,也許目前傳統(tǒng)紀(jì)錄片形式并不適合去表達這個話題,因為觀眾已經(jīng)適應(yīng)了這個環(huán)境,需要更大的“刺激”才能激發(fā)辯證思考,形式創(chuàng)新尤為重要。比如互動紀(jì)錄片Do Not Track,multimedia project Stealing UR Feelings就用更簡短的篇幅和互動形式讓觀眾自發(fā)地意識到目前算法技術(shù)的問題。

55分鐘前
  • 陽臺上的Bunny
  • 還行

返回首頁返回頂部

Copyright ? 2024 All Rights Reserved