精品亚洲成a人在线|人妻视频免费人人|2021少妇久久久久久久久久久|亚洲日韩片无码中文字幕

<strong id="g78f3"><menu id="g78f3"><strike id="g78f3"></strike></menu></strong>

編碼歧視

記錄片美國(guó)2020

主演:Joy Buolamwini  Meredith Broussard  Cathy O&#039;Neil  Silkie Carlo  Zeynep Tüfek?i  Amy Webb  Tranae Moran  Virginia Eubanks  Icemae Downes  Ravi Naik  Deborah Raji  Timnit Gebru  Safiya Umoja Noble  Wolfie O&#039;Neil  Kiri Soares  

導(dǎo)演:莎里妮·坎塔雅

播放地址

 劇照

編碼歧視 劇照 NO.1編碼歧視 劇照 NO.2編碼歧視 劇照 NO.3編碼歧視 劇照 NO.4編碼歧視 劇照 NO.5編碼歧視 劇照 NO.6編碼歧視 劇照 NO.13編碼歧視 劇照 NO.14編碼歧視 劇照 NO.15編碼歧視 劇照 NO.16編碼歧視 劇照 NO.17編碼歧視 劇照 NO.18編碼歧視 劇照 NO.19
更新時(shí)間:2024-02-23 20:43

詳細(xì)劇情

  Exploring the fallout of MIT Media Lab researcher Joy Buolamwini’s startling discovery that facial recognition does not see dark-skinned faces accurately, and her journey to push for the first-ever legislation in the U.S. to govern against bias in the algorithms that impact us all.

 長(zhǎng)篇影評(píng)

 1 ) 不同社會(huì)背景下,評(píng)判歧視標(biāo)準(zhǔn)也不同

老外好像很在意自己的生物信息被取樣,同時(shí)影片中街頭的面部識(shí)別的成功率也太低了,這么低的成功率按理說不能用來實(shí)踐。影片的出發(fā)點(diǎn)是好的,但眼界過于狹隘,就好像走過頭的黑命貴和女木又。動(dòng)不動(dòng)就拿主義的帽子亂扣,也能反映出西方社會(huì)的媒體還是井底之蛙。中國(guó)的古語早有總結(jié),身正不怕影子斜,沒做虧心事,不怕鬼敲門,心里怕了,就覺得被歧視了,真夠嬌氣的。

 2 ) 編碼歧視

豆瓣的熱評(píng)第一把我想說的都說了。這部片子可取的地方在于指出了人工智能潛在的致命缺點(diǎn),但片子的意識(shí)形態(tài)性讓這部片子本身的意義打了折扣。

機(jī)器學(xué)習(xí)是一個(gè)黑盒子,它依照“多即是好”的原理,從歷史數(shù)據(jù)中學(xué)習(xí),因此它的學(xué)習(xí)過程即使對(duì)于創(chuàng)造它的程序員來說,也是一個(gè)黑盒子。這就導(dǎo)致了人類只是通過人工智能,在全自動(dòng)化中復(fù)制自己的現(xiàn)有形象,沒有鑒別,沒有提升。就像片中說的,人工智能可以誤判,但無法被質(zhì)疑,也不被要求承擔(dān)責(zé)任;作為一種唯數(shù)據(jù)論的技術(shù),其設(shè)計(jì)目的是追求效率。

因此,就基于數(shù)據(jù)的機(jī)器學(xué)習(xí)本質(zhì)而言,其產(chǎn)生的算法將不是中立的。因其通常為權(quán)勢(shì)所用(如平臺(tái)),機(jī)器學(xué)習(xí)其實(shí)會(huì)造成一種極危險(xiǎn)的隱性的編碼歧視,這也是片名的由來。

此外,盲目追求效率的一個(gè)弊端是人的物化。人被標(biāo)準(zhǔn)化參數(shù)所肢解,被片面化標(biāo)簽化。在教育系統(tǒng),學(xué)生為標(biāo)準(zhǔn)化的培養(yǎng)體系和打分系統(tǒng)所評(píng)估,作為養(yǎng)料被高校挑選,再經(jīng)過下一輪標(biāo)準(zhǔn)化的培養(yǎng),然后作為“人才”輸送入社會(huì),被定義成一張張簡(jiǎn)歷,簡(jiǎn)歷再經(jīng)過算法的篩查,剩下的簡(jiǎn)歷才來到HR手里,再經(jīng)過各種參數(shù)的標(biāo)準(zhǔn)化考核,把人物化為某一價(jià)格,體現(xiàn)為薪資待遇。這讓我想起了最近的一部職場(chǎng)喜劇《破事精英》里面對(duì)績(jī)效的刻畫。

除了人的物化,人工智能還通過機(jī)械化,迎合并加深了現(xiàn)代社會(huì)對(duì)客觀的追求。這種“機(jī)器客觀”杜絕了人性的存在。Intelligence without ethics is not intelligence at all. 缺乏倫理道德的人工智能不是智能。人類的主觀判斷力、決策力、反抗力和拒絕的能力,是人性閃耀的光輝,這里有讓我想起了《禪與摩托車維修藝術(shù)》中所提倡的“良質(zhì)”,即不囿于可觀察數(shù)據(jù)和傳統(tǒng)主客觀二分法的對(duì)quality的一種本能判斷。

 3 ) 《大數(shù)據(jù)的傲慢與偏見》缺德的“假似道”

本片是凱西·歐尼爾《大數(shù)據(jù)的傲慢與偏見》一書的延展。

這是個(gè)演算法包圍現(xiàn)代公民的時(shí)代!演算法在幕后影響著我們生活的各種決定,包括我們上什么學(xué)校、能否借到汽車貸款,以及醫(yī)療保險(xiǎn)必須支付多少保費(fèi),愈來愈多判斷是由數(shù)學(xué)模型,而非某些人所做出。這一切看似公平:因?yàn)樗腥耸歉鶕?jù)相同的規(guī)則評(píng)斷,不受偏見影響。

對(duì)熱情的“問題解決者”來說,大數(shù)據(jù)像仙境,它搜集資訊、再運(yùn)用數(shù)學(xué)模型,使我門得以更有效地調(diào)配資源、篩選最優(yōu)的人事物、并做出最好的決定,這些熱情的宣揚(yáng)者更是四處宣傳大數(shù)據(jù)應(yīng)用的威力。

但是,曾在典型數(shù)據(jù)分析圈內(nèi)工作的凱西·歐尼爾不是上述這種人。

她在《大數(shù)據(jù)的傲慢與偏見》中指出,事實(shí)與我們想的恰恰相反!這些數(shù)學(xué)模型不透明、不受管制,即便出錯(cuò),受害者往往無法申訴。最令人不安的是,這些模型會(huì)“強(qiáng)化歧視”,例如,貧窮學(xué)生在申請(qǐng)學(xué)貸時(shí),可能因自家的郵遞區(qū)號(hào),被審核貸款的數(shù)學(xué)模型視為還款高風(fēng)險(xiǎn)者,因而無法獲得貸款……。這類問題會(huì)形成惡性循環(huán)——獎(jiǎng)勵(lì)幸運(yùn)兒、懲罰遭踐踏的人,創(chuàng)造出危害民主的“有毒雞尾酒”。

歡迎認(rèn)清大數(shù)據(jù)的黑暗面

歐尼爾在《大數(shù)據(jù)的傲慢與偏見》中揭開對(duì)我們?nèi)松麟A段有巨大影響的各種黑箱數(shù)學(xué)模型,不管我們?cè)覆辉敢?,演算法系統(tǒng)都已經(jīng)為我們打上“分?jǐn)?shù)”。

當(dāng)前許多數(shù)學(xué)模型已經(jīng)失控濫用、還自作主張地替教師和學(xué)生評(píng)鑒、篩選履歷表、審核貸款、評(píng)估員工績(jī)效、鎖定目標(biāo)選民、決定假釋名單,以及監(jiān)測(cè)我們的健康狀態(tài),決定我們個(gè)人及社會(huì)的未來。

歐尼爾呼吁:在這個(gè)人人都被迫擁有自己在某種演算系統(tǒng)中持有“e化評(píng)分”的時(shí)代,那些建立模型的人應(yīng)該為他們所創(chuàng)造出來的演算法負(fù)起更多責(zé)任,而政策制定者更應(yīng)該負(fù)起監(jiān)督管理的責(zé)任。

這本重要著作使我們得以提出關(guān)鍵問題、揭露這些“數(shù)學(xué)毀滅性武器”的真相和要求變革。

本片是此書的延展。

法、刑、禮、律……

 4 ) 《編碼歧視》短記

電影主要講人工智能的算法怎么被用來評(píng)估每個(gè)人在社會(huì)系統(tǒng)中的價(jià)值以及其中的問題,即算法會(huì)復(fù)制甚至加劇這個(gè)世界長(zhǎng)久以來的偏見,比如比法院會(huì)參考一個(gè)所謂的“再次犯罪率”的算法給予假釋,“科學(xué)計(jì)算”出有色人種的再犯罪率更高;算法被學(xué)校用來評(píng)價(jià)老師的”附加價(jià)值”,被公司用來篩選簡(jiǎn)歷,被銀行用來計(jì)算信用,結(jié)論是女性更容易被AI HR淘汰,且比男性的金融信用差。以下是電影的幾個(gè)觀點(diǎn):

1)技術(shù)到來總伴隨著不平均。不平均并不是說有錢人比窮人先擁有技術(shù),而是說更具有侵犯性的技術(shù)往往先被用弱勢(shì)群體身上做實(shí)驗(yàn)(在紐約,人臉識(shí)別門禁率先被房屋出租公司裝在低收入有色人種集中的公寓,并將其制造成一種類似交通攝像頭的罰款工具,用監(jiān)視的圖像作為對(duì)租戶違反公寓樓規(guī)定的證據(jù))。

2) 目前人工智能在社會(huì)中廣泛應(yīng)用主要有兩種模式:一種是維穩(wěn),一種是獲利。沒有一種為自由和平等而存在的算法。

3)只要連接到網(wǎng)絡(luò)社會(huì),世界上每個(gè)人都被算法打著各式各樣的分,你在某些系統(tǒng)中看起來更不可能犯罪,但同時(shí),你也會(huì)另一些系統(tǒng)中為同樣的商品付更多的錢。人們談到算法監(jiān)控總愛說中國(guó)如何如何,其實(shí)本質(zhì)的不同只是中國(guó)對(duì)這種監(jiān)控毫不掩飾而已。

> We are all grappling every day with algorithmic determinism. [...] We are all being scored. The key difference between the US and China is that China's transparent about it.

4)反烏托邦可能最終不會(huì)像《1984》所描述的那樣實(shí)現(xiàn),而是像現(xiàn)在一樣,靜悄悄地侵入每個(gè)人的生活。哪怕你能躲過看得見的攝像頭,看不見的追蹤和信息收集軟件卻難以避免。這些信息會(huì)泄漏你的軟肋,甚至左右你的決定。(比如給奢賭者推送拉斯維加斯的打折機(jī)票,比如Facebook按個(gè)人的政治傾向有選擇地推送大選投票信息。)

5) 算法設(shè)計(jì)的奧義是自動(dòng)化和高效,但很多時(shí)候,人性意味著拒絕服從,拒絕系統(tǒng)定義的價(jià)值。如果把自動(dòng)化作為一切問題的終點(diǎn),在有的情況下會(huì)造成非常不人道甚至是毀滅性的結(jié)果。

6)人工智能的定義到底是什么?這是值得思考的問題。下棋比人類厲害?會(huì)分析數(shù)據(jù)?社會(huì)對(duì)于科學(xué)和技術(shù)的理解其實(shí)是由很少數(shù)一部分精英定義的,他們大部分都是白人、男人。

7)正義地使用算法是現(xiàn)在最緊要的人權(quán)問題之一。

紀(jì)錄片試圖代入國(guó)際視野,拍攝了英國(guó)、南非、香港、和中國(guó)大陸的片段。雖然落腳點(diǎn)是對(duì)算法廣泛應(yīng)用的質(zhì)疑,但關(guān)于中國(guó)的影像始終是“反烏托邦”式的,即便是所謂的“全世界都被監(jiān)視著”這一論點(diǎn)也還是中美二元思維。對(duì)全球的描繪只能說是對(duì)美國(guó)現(xiàn)狀的注腳而已,分析并不到位。

很喜歡電影里的主要人物、也是算法正義聯(lián)盟的創(chuàng)建者Joy Buolamwini,她日常寫一些短詩送給一起努力的合作者,很有感染力。另外,AOC在國(guó)會(huì)討論一節(jié)短暫出境。

Joy Buolamwini 在電影中念的一首小詩:

collecting data, chronicling our past, often forgetting to deal with gender, race, and class. again, I ask, am I a woman? face by face, the answers seem uncertain, can machines ever see my queens as I view them? can machines ever see our grandmothers as we knew them?

收集數(shù)據(jù),記錄我們的過去,總是忘了去考慮性別、種族和階級(jí)。讓我再一次拷問,(在你的眼里)我是女性嗎?一張又一張臉,你的答案似乎難以確定。機(jī)器可以看到我所看到的女王嗎?機(jī)器可以看到我們所認(rèn)識(shí)的祖母嗎?

一些擴(kuò)展資源:

Weapon of Math Destruction (電影中AJL一員 Cathy O'Neil寫的書)

Twitter and Teargas by Zeynep Tufekci (作者在電影中出鏡)

Algorithmic Justice League (美國(guó)的組織,可通過官網(wǎng)郵件訂閱信息)

Big Brother Watch (英國(guó)的組織)

 短評(píng)

比《監(jiān)視資本主義》稍好一點(diǎn)。

6分鐘前
  • 字母君
  • 較差

完成度非常非常差,首先中斷嚴(yán)重偏題,本身主題是人臉識(shí)別技術(shù),但是中間直接跑到大段算法,這是從屬關(guān)系,如果今天是要討論算法,那這個(gè)東西就深了去了。然而通篇針對(duì)人臉識(shí)別,也沒有足夠的論證和論證過程去支撐,大部分只有口號(hào)和觀點(diǎn),如果今天有一個(gè)人拍一個(gè)關(guān)于人臉識(shí)別如何大面積地降低了犯罪率,那完全可以把輿論轉(zhuǎn)向另一邊到,這本應(yīng)是一個(gè)需要強(qiáng)調(diào)“寧可錯(cuò)殺一千,不可放過一個(gè)”是錯(cuò)誤的,但并沒有。而且還選取了中國(guó)作為一個(gè)對(duì)照組,但是對(duì)于觀點(diǎn)選取的極度偏頗也使得這個(gè)片子的引導(dǎo)性非常強(qiáng),就不到一個(gè)半小時(shí)的片子信息密度還這么低,紀(jì)錄片可真好拍

11分鐘前
  • 大肚兜
  • 較差

有關(guān)算法偏見在面孔識(shí)別,治安,教育,法律等領(lǐng)域的討論。有趣的是研究算法偏見和推動(dòng)立法的主角是一色的女性研究者,和social dilemma里面負(fù)責(zé)產(chǎn)品技術(shù)的白男形成了鮮明對(duì)比。

13分鐘前
  • cobblest
  • 力薦

Intelligence without ethics is not real intelligence.多數(shù)人可能覺得AI具有前瞻性和先進(jìn)性,但人工智能基於數(shù)據(jù),而數(shù)據(jù)承載著過去。所以歷史中的一切不平等如種族歧視、性別歧視等也存在於算法中。很典型的一個(gè)例子是微軟在推上搞了個(gè)bot叫Tay,讓它不斷學(xué)習(xí)推上的數(shù)據(jù),然后不到24小時(shí)Tay就變得厭女和歧視猶太人和黑人…看完整個(gè)紀(jì)錄片后,問題來了,該如何在一個(gè)我們不知道算法如何運(yùn)作的系統(tǒng)里獲得公平?或許用法律阻擋人臉識(shí)別的濫用是第一步,可是下一步呢?

18分鐘前
  • latitude17°
  • 推薦

哈哈哈哈哈這個(gè)紀(jì)錄片是蘋果贊助的吧,通篇沒提到蘋果,但是現(xiàn)在用face ID解鎖的人不算少吧

21分鐘前
  • Marionette
  • 很差

90分鐘信息量很大,印象深刻也是杭州那位女士,絲毫不擔(dān)憂信息安全,只覺得什么都刷臉好方便

26分鐘前
  • dikseg
  • 推薦

210415

30分鐘前
  • 威廉
  • 推薦

比較講究的紀(jì)錄片?!拔覀兌荚诒荒槻孔R(shí)別監(jiān)控;唯一區(qū)別就是,鐘果對(duì)這件事是透明的,而霉果不是?!?大實(shí)話給五星!

31分鐘前
  • 耶路撒冷不太冷
  • 推薦

Algorithm Surveillance and Discrimination are universal, there is really no need to attack China that hard.

32分鐘前
  • 淺藍(lán)色毛衣
  • 較差

73/100

33分鐘前
  • Jonathan
  • 推薦

有被冒犯到 但不得不說一針見血

37分鐘前
  • popcorn
  • 推薦

此片充分展現(xiàn)了美英自由主義進(jìn)步政治、多元化、國(guó)內(nèi)種族正義斗爭(zhēng),與他者化中國(guó)/中國(guó)人的并行并舉。從刻意的無厘頭中文翻譯(只為表明這是“中國(guó)”),到對(duì)中國(guó)制度的想當(dāng)然,到采訪這唯一一個(gè)驚世駭俗的奇葩中國(guó)人(號(hào)稱要感謝信用積分幫助她有效擇友)——紀(jì)錄片最后,美國(guó)英雄說,他們和全球反監(jiān)視斗士站在一起,勝利屬于他們。這就很清楚了,“中國(guó)”對(duì)于這個(gè)紀(jì)錄片的主體而言,一開始就在這場(chǎng)斗爭(zhēng)之外。一開始就是他者。一開始就沒有相應(yīng)的人性。是反烏托邦的平行宇宙。用來側(cè)目,用來醞釀,用來自我鞭策。這其實(shí)也都無所謂——如果中國(guó)不是一個(gè)真實(shí)的地方,中美關(guān)系不是真實(shí)的地緣政治,中國(guó)人不是血肉的行在這個(gè)地球的人。

40分鐘前
  • Anjali
  • 還行

3.5 算法是黑洞,吸收一切,不在乎邏輯、也不在乎道德。性別歧視、種族歧視、人權(quán)等隱憂經(jīng)由算法包裝后,大搖大擺地橫行。關(guān)于我們郭嘉的部分,些許失實(shí),對(duì)我們信用體系和人臉識(shí)別之間的理解還是太粗暴了。

44分鐘前
  • 老餅干
  • 推薦

無語了。一個(gè)試圖教別人不要有偏見的片子,充滿了偏見的教育………

46分鐘前
  • meownway
  • 較差

That’s brilliant!LON is brilliant.由弱者/研究者視角的解讀,剖析;自由的把BB中的技術(shù)性問題深入背后的道德倫理和哲學(xué)邏輯,那不經(jīng)推敲的。漸強(qiáng)化的規(guī)則對(duì)PR的統(tǒng)領(lǐng),賦權(quán)和合規(guī)到秩序、發(fā)展。當(dāng)然這是PR預(yù)期低洼處不會(huì)涉及反思的。其中涉及的敏感地也成案例相探討。以是一種特定價(jià)值的覺醒和抗?fàn)?。亦不贊同無腦而無反思的發(fā)展科技。Cambridge真是永遠(yuǎn)好哈哈,AI起源于Dartmouth還蠻意外的…曠視也唉、、、

51分鐘前
  • 錯(cuò)別字制造機(jī)
  • 推薦

HIFF 人臉識(shí)別技術(shù)隱含的種族與性別歧視,及其廣泛使用造成的各行業(yè)人權(quán)侵犯問題。人不能被算法反控制。而在大洋彼岸某個(gè)大國(guó),所有的公民已經(jīng)接受了時(shí)刻被監(jiān)控,還為支付寶人臉識(shí)別功能的便捷而感到驕傲……部分觀點(diǎn)還是局限,這種議題哪里缺席討論就哪里誤會(huì)加深,有什么辦法呢哎……

54分鐘前
  • 甜水園子溫
  • 推薦

觀點(diǎn)不錯(cuò),鏡頭語言豐富,有些地方略顯累贅,在如何抗?fàn)幏矫嬉矝]交代清楚,單方面表達(dá)(不過也沒辦法),但主角成就斐然。如果是一部展現(xiàn)如何抗?fàn)幍钠?,少了過程;如果是陳述觀點(diǎn)的,又略顯薄弱。

55分鐘前
  • 疾行慢賞
  • 推薦

大部分美國(guó)人,這里特指制片團(tuán)隊(duì),對(duì)于中國(guó)的態(tài)度也是coded bias....一群不了解中國(guó)情況的家伙們,don't even care enough to get their translation right (把匹配match直接翻譯成比賽也是絕)。不管三七二十一直接把中國(guó)打成反面例子,甚至還找了個(gè)非典型代表,把信用評(píng)分作為交友的依據(jù)...你要討論bias就好好討論,前半部分關(guān)于種族、性別、階級(jí)的例子都發(fā)人深省,但中國(guó)的部分和你要表現(xiàn)的bias有任何聯(lián)系嗎?算了,反正這片也只是拍給歐美地區(qū)的人看的,讓他們的觀眾爽就好了。夾帶私貨的結(jié)果就是加深了普通觀眾的bias,結(jié)合片名看也是諷刺...PS. 發(fā)行找了個(gè)以AI運(yùn)算出名的平臺(tái),不覺得自相矛盾嗎...

57分鐘前
  • 奶叼
  • 較差

效率和準(zhǔn)確之間做權(quán)衡,經(jīng)濟(jì)利益和社會(huì)公平之間做權(quán)衡,這樣的權(quán)衡不是留給算法留給科技,還是要留給人類,人類依然充滿歧視,甚至比計(jì)算機(jī)更甚,所以提出的問題很可能就成了未來都很難有解的問題,先不說能否數(shù)學(xué)與模型化,就問善惡的尺度在哪?日漫《心理測(cè)量者》給出的探討或許并不讓人舒服,但最終很可能也只能如此吧。

58分鐘前
  • 雨鳴
  • 推薦

在沒接觸相關(guān)的學(xué)術(shù)探討之前可能會(huì)覺得這部片子角度新穎,現(xiàn)在會(huì)覺得只是記錄了幾個(gè)主人公為發(fā)聲作出的努力,在引導(dǎo)大眾重新審視“人臉識(shí)別”/AI/算法技術(shù)上沒有推進(jìn)。我在想,也許目前傳統(tǒng)紀(jì)錄片形式并不適合去表達(dá)這個(gè)話題,因?yàn)橛^眾已經(jīng)適應(yīng)了這個(gè)環(huán)境,需要更大的“刺激”才能激發(fā)辯證思考,形式創(chuàng)新尤為重要。比如互動(dòng)紀(jì)錄片Do Not Track,multimedia project Stealing UR Feelings就用更簡(jiǎn)短的篇幅和互動(dòng)形式讓觀眾自發(fā)地意識(shí)到目前算法技術(shù)的問題。

1小時(shí)前
  • 陽臺(tái)上的Bunny
  • 還行

返回首頁返回頂部

Copyright ? 2024 All Rights Reserved