導(dǎo)讀:隨著技術(shù)密集型經(jīng)濟(jì)體進(jìn)一步與“黑鏡”融合,最大、最令人毛骨悚然的創(chuàng)新可能是建立在大數(shù)據(jù)經(jīng)濟(jì)之上。 不僅僅是谷歌、Facebook、亞馬遜和硅谷的其他公司在獲取我們的數(shù)字信息,越來越多的公司正在以一種可能對你產(chǎn)生負(fù)面影響的方式,從你的每一個行為中獲取信息以達(dá)到其盈利目的。
隨著技術(shù)密集型經(jīng)濟(jì)體進(jìn)一步與“黑鏡”融合,最大、最令人毛骨悚然的創(chuàng)新可能是建立在大數(shù)據(jù)經(jīng)濟(jì)之上。 不僅僅是谷歌、Facebook、亞馬遜和硅谷的其他公司在獲取我們的數(shù)字信息,越來越多的公司正在以一種可能對你產(chǎn)生負(fù)面影響的方式,從你的每一個行為中獲取信息以達(dá)到其盈利目的。
就連福特公司一向樂觀的未來主義者Sheryl Connelly也對未來感到擔(dān)憂。處在日益加劇的經(jīng)濟(jì)不平等問題、日益擴(kuò)大的數(shù)字鴻溝和持續(xù)的隱私侵犯之間,她說:“這非常像1984年經(jīng)濟(jì)危機(jī)那時候,你不得不時刻提心吊膽?!?/p>
在許多國家,幾乎沒有法律框架來約束個人數(shù)據(jù)的收集和可能的濫用。去年,就在Facebook劍橋分析公司丑聞爆發(fā)的幾個月后,歐洲開始通過其新的通用數(shù)據(jù)隱私管制政策,來應(yīng)對圍繞數(shù)據(jù)收集的新規(guī)則。此后不久,加州通過了美國影響最深遠(yuǎn)的數(shù)據(jù)隱私法,并將于2020年生效。
在過去的一年里,科技行業(yè)的丑聞、失誤以及各種讓人想起創(chuàng)新發(fā)明令人毛骨悚然的一面的東西,都給個人隱私帶來了損害。近期新法律的出現(xiàn),對于個人隱私來說是個重要的勝利。以下是今年值得關(guān)注的一些最新進(jìn)展。
人臉識別
機(jī)場、商店、賭場等場所都在使用人臉識別,有些甚至是實時的,能在龐大而模糊的數(shù)據(jù)庫的幫助下搜索可疑的人。澳大利亞將推出一項全國性的面部掃描系統(tǒng),而在中國,面部識別技術(shù)正用于抓捕在啤酒節(jié)上喝啤酒的罪犯。去年12月,在亞馬遜因出售面部識別服務(wù)面臨批評之際,最引人注目的監(jiān)管呼吁之一,來自一個人工智能的競爭對手。微軟總裁布拉德·史密斯寫道:“我們認(rèn)為,一場逐底的商業(yè)競爭并不會給世界帶來最好的服務(wù),而科技公司將被迫在社會責(zé)任和市場成功之間做出選擇?!?/p>
情感識別
所謂的“情感識別軟件”并不僅僅用于評估求職者,警方也正越來越多地求助于基于人工智能的系統(tǒng),根據(jù)一個人的面部姿態(tài)和聲音來判斷他是否暗含危險。一些專家將這個系統(tǒng)稱為現(xiàn)代版的相面術(shù)。
虛擬人物
當(dāng)Lil Michaela的賬號第一次出現(xiàn)在Instagram上時,她就征服了全世界?,F(xiàn)在我們有了像谷歌的Duplex這樣的電視新聞主播和助理,它可以代表用戶給餐館和發(fā)型師打電話。Duplex的人性化是如此的不可思議,以至于許多人都指控谷歌造假。當(dāng)Fast Company嘗試這項服務(wù)時,它似乎像廣告宣傳的那樣有效。當(dāng)虛擬人被要求從事客戶服務(wù)和類似的工作時,他們也冒著惡化環(huán)境的風(fēng)險。在這樣的環(huán)境中,活人無法區(qū)分虛構(gòu)和現(xiàn)實。
數(shù)字造假
就像虛擬人一樣,圍繞深度偽造的技術(shù)——旨在誘使觀眾認(rèn)為某人說了或做了他沒有做過的事情的視頻——最近已經(jīng)讓位于新技術(shù),比如深度視頻人像和接近照片真實物理位置的模擬。在與美國國防部高級研究計劃局(DARPA)等機(jī)構(gòu)支持的先進(jìn)數(shù)字造假行為進(jìn)行斗爭的同時,一些專家也在對一種不那么復(fù)雜的攻擊發(fā)出警告:虛假數(shù)據(jù)和欺詐性文件的傳播。
人類機(jī)器化
在一個充滿算法建議的世界里,谷歌正在自動完成我們的句子。當(dāng)然,這很方便,但讓我們更接近谷歌認(rèn)為我們應(yīng)該寫的東西,也可能讓我們?nèi)祟愖兊孟駲C(jī)器人。技術(shù)倫理學(xué)家David Polgar表示:“很多預(yù)測分析的核心問題都是關(guān)于我們是否有自由意志。我應(yīng)該選擇下一步,還是谷歌來選擇?如果它能預(yù)測我的下一步,那么這對我來說意味著什么呢?”
同時,Ride-hail司機(jī)和其他在算法指導(dǎo)下的工作人員也面對一個同樣重要的問題。Uberland的作者,Alex Rosenblat寫道:鑒于Uber將員工視為“消費者”的“算法技術(shù)”和促進(jìn)他們成為創(chuàng)業(yè)的企業(yè)家的情況,一個棘手的、未知的、令人不安的問題必須得到回答:如果你使用一個應(yīng)用程序來上班,社會應(yīng)該認(rèn)為你是一個消費者、一個企業(yè)家、還是一個工人?
傳感器監(jiān)控
多年來,公司一直能夠追蹤員工的位置和談話內(nèi)容,但這種追蹤越來越具有入侵性,越來越接近員工的身體。去年,亞馬遜獲得了一項腕帶專利,這種腕帶可以在員工可能要做錯事的時候,利用觸覺反饋來糾正他們。還有一些公司在辦公室周圍部署傳感器,以跟蹤移動和空間利用情況。
智能家居
2018年,智能家居設(shè)備蓬勃發(fā)展,為家庭帶來了更多的攝像頭和面部識別技術(shù)。Facebook推出了門戶網(wǎng)站,谷歌擴(kuò)大了其Home Hub網(wǎng)絡(luò),亞馬遜推出了智能門鈴服務(wù)鈴聲,以此作為其大舉進(jìn)軍我們家庭的一部分。(上周,該公司表示,搭載Alexa的設(shè)備已售出逾1億部。)我們已經(jīng)開始擔(dān)心Alexa捕捉人們對話的能力,但現(xiàn)在該公司正朝著將面部識別技術(shù)整合到其設(shè)備的方向發(fā)展,美國公民自由聯(lián)盟稱這預(yù)示著一個“危險的未來”。當(dāng)然,不僅僅是蘋果、谷歌和亞馬遜在深入我們的家庭:我們的智能電視也在注視著我們。
基因技術(shù)
使用CRISPR等工具進(jìn)行基因組編輯,有望對人類健康帶來不可思議的改善,但它們也帶來了令人難以置信的醫(yī)學(xué)和倫理問題,可能會給它們的潛在好處蒙上陰影。去年10月,我國一名研究人員宣布,他利用CRISPR培育出了新的人類嬰兒,這些嬰兒未來的后代將對艾滋病病毒具有抗性。這導(dǎo)致了全球研究團(tuán)體的廣泛譴責(zé)——在許多國家,種系基因編輯和胚胎植入人類母親的子宮是非法的——但這項研究提醒人們,轉(zhuǎn)基因工具正在擴(kuò)散,并可能在這一過程中給生態(tài)系統(tǒng)帶來重大風(fēng)險。
基因檢測
隨著DNA檢測市場的爆炸式增長——預(yù)計到2020年將增加到3.1億美元——人們對基因數(shù)據(jù)被濫用的擔(dān)憂也與日俱增。許多消費者沒有意識到,他們從DNA檢測公司獲得的基因數(shù)據(jù)可能會與制藥公司等第三方共享,這一細(xì)節(jié)隱藏在晦澀的隱私政策中。這些公司堅稱,只有在用戶同意的情況下,它們才會分享匿名數(shù)據(jù),但監(jiān)管機(jī)構(gòu)可能不會相信:可能是出于對隱私方面的考慮,美國聯(lián)邦貿(mào)易委員會正在調(diào)查一些DNA檢測公司。與此同時,DNA網(wǎng)站也是黑客們垂涎的目標(biāo),這前景更加堪憂:你的基因信息可能會像Equifax事件一樣被泄露。
公眾和隱私倡導(dǎo)者呼吁企業(yè)如何收集數(shù)據(jù)進(jìn)行更多的控制,和更多的法律保護(hù),另外一線希望來自科技公司自己:通過抗議和信件,工人越來越要求雇主對他們的行為和出售的產(chǎn)品的風(fēng)險負(fù)責(zé)。如果沒有嚴(yán)格的規(guī)則,可能那些開發(fā)了令人毛骨悚然的技術(shù)的人,才最有能力來防止它變得危險。