0%
第三部分 大數據時代的管理變革 08 掌控:責任與自由並舉的信息管理

第三部分 大數據時代的管理變革

08 掌控:責任與自由並舉的信息管理

在大數據時代,因為數據的價值很大一部分體現在二級用途上,而收集數據時並未作這種考慮,所以「告知與許可」就不能再起到好的作用了。
●第二,公正原則。具備由第三方專家公證的可靠、有效的演算法系統。
1450年前後,古登堡發明了活字印刷機,在這之前,思想的傳播受到了極大的限制。一方面,書籍大多被封禁在修道院的圖書館里,依照天主教精心制定的規定,被僧侶嚴格看守著,為的是確保並維護其統治地位。在教堂之外,少數幾所大學也收藏了一些書籍,大概幾百本的樣子;15世紀初,劍橋大學圖書館大概有122本大部頭。另一方面,讀寫水平的欠缺也是當時信息傳播受限的一個重要因素。
內部演算法師

大數據洞察

將責任從民眾轉移到數據使用者很有意義,也存在充分的理由,因為數據使用者比任何人都明白他們想要如何利用數據。他們的評估(或者由他們所僱用的專家制定的評估)避免了商業機密的泄露。也許更為重要的是,數據使用者是數據二級應用的最大受益者,所以理所當然應該讓他們對自己的行為負責。

反壟斷法的經驗是,一旦確定了極重要的原則,管理者就要將之付諸行動,以確保保護措施的實施到位。同樣,我們提出了三項策略,包括隱私保護從個人許可到數據使用者承擔責任的轉變,在使用預測分析時考慮個人動因以及催生大數據審計員,也就是演算法師。這都將是大數據時代對信息進行有效、公正管理的基礎。
古登堡的印刷機讓書籍和手冊的大量刊印成為可能。馬丁·路德(Martin Luther)把拉丁語版本的《聖經》翻譯成日常使用的德文,讓越來越多的人可以不通過牧師而直接聆聽上帝的聲音,德語版的《聖經》是當時賣得最好的書,這也讓他更確信《聖經》可以印刷、分發給成千上萬的人。就這樣,信息傳播越來越廣泛。
隨著世界開始邁向大數據時代,社會也將經歷類似的地殼運動。在改變我們許多基本的生活和思考方式的同時,大數據早已在推動我們去重新考慮最基本的準則,包括怎樣鼓勵其增長以及怎樣遏制其潛在威脅。然而,不同於印刷革命,我們沒有幾個世紀的時間去慢慢適應,我們也許只有幾年時間。

管理變革1:個人隱私保護,從個人許可到讓數據使用者承擔責任

管理變革2:個人動因VS預測分析

此外,當人們認為他們受到大數據預測危害——被拒絕手術、被拒絕假釋、被拒絕抵押貸款時,便可以向演算法師諮詢並針對這些決定提起訴訟。

一場管理規範的變革

社會發展出現過很多這種情況,當一個特定領域變得特別複雜和專門化之後,就會催生出對運用新技術的專門人才的迫切需求。在一個多世紀以前,法律、醫學、會計以及工程學領域都經歷過這種轉型。不久前,計算機安全和隱私顧問的突然興起,證實了公司都在遵循由一些組織確立的行業最佳做法,如國際標準化組織,它是為滿足這個領域對準則的需要而自發形成的。
在法庭上,個人對自己的行為負有責任。一番公正的審訊之後,審判員會做出公平公正的判決。然而,在大數據時代,關於公正的概念需要重新定義以維護個人動因的想法:人們選擇自我行為的自由意志。簡單地說,就是個人可以並應該為他們的行為而非傾向負責。
相似的原理應當運用到政府領域之外,比如公司在進行關乎我們個人利益的重大決策時——僱用與解僱,同意按揭或者拒發信用卡。如果他們單純依據大數據預測作出這些決策,特定的防護措施就必須到位。
然而,有了大數據分析,這種追蹤會變得愈發困難。對人們而言,進行預測分析的計算機系統往往過於複雜,根本無法理解。但當計算機按程序設置明確執行一系列指令時,情況就不一樣了。例九九藏書如1954年早期,在IBM將俄文譯成英文的翻譯程序中,人們就能輕鬆理解一個單詞譯成另一個單詞的原因。但是,對於谷歌利用幾十億頁的翻譯數據開發出的翻譯系統,當其將英文單詞「light」譯成「光」而不是「重量輕」時,就不可能清楚地解釋如此選擇的原因,畢竟這個預測分析是基於海量數據和龐大的統計計算之上的。
在這些背景下,我們能看到大數據預測、運演算法則和資料庫有變為黑盒子的風險,這個黑盒子不透明、不可解釋、不可追蹤,因而我們對其信心全無。為了防止這些情況的出現,大數據將需要被監測並保持透明度,當然還有使這兩項得以實現的新型專業技術和機構。它們將為許多領域提供支持,在這些領域里社會需要檢測預測結果並能夠為被其錯誤引導的人群提供彌補方法。
當世界開始邁向大數據時代時,社會也將經歷類似的地殼運動。在改變人類基本的生活與思考方式的同時,大數據早已在推動人類信息管理準則的重新定位。然而,不同於印刷革命,我們沒有幾個世紀的時間去適應,我們也許只有幾年時間。
反壟斷法遏制了權力的濫用。然而令人驚奇的是,這些條例能從一個領域完美轉移到另外一個領域,並且適用於不同類型的網路產業。這種不帶任何偏袒的強有力的規章非常實用,因為它提供的是一個平等的競爭平台,一開始便沒有任何優劣之分。因此,為了促進大數據平台上的良性競爭,政府必須運用反壟斷條例。而且,就像世界上一些大型的數據擁有者那樣,政府也應該公布其數據。令人高興的是,這一切正在發生。
外部演算法師
數據之於信息社會就如燃料之於工業革命,是人們進行創新的力量源泉。沒有大量鮮活的數據和健全的服務市場,這些創新就實現不了。
此外,與目前大多數隱私保護法所要求的不一樣,數據使用者達到了最初目的之後,法律上不再規定必須刪除個人信息。相反,數據使用者被允許較長時間地保存數據,雖然不能永遠。這是一個意義重大的變革,因為,就像我們所知道的,只有開發數據的潛在價值,對數據價值進行最大程度的挖掘,近代「莫里」們才能發展繁榮,並促進自身和社會的同步進步。總之,社會必須平衡二次運用的優勢與過度披露所帶來的風險。
對大數據使用進行正規評測及正確引導,可以為數據使用者帶來切實的好處:很多情況下,他們無須再取得個人的明確同意,就可以對個人數據進行二次利用。相反地,數據使用者也要為敷衍了事的評測和不達標準的保護措施承擔法律責任,諸如強制執行、罰款甚至刑事處罰。數據使用者的責任只有在有強制力規範的情況下才能確保履行到位。
比如說,大數據強烈誘使我們隔離那些被預言將會犯罪的人們,以減少風險的名義對其進行不斷審查,即使他們確實在為尚不需承擔責任的事情接受懲罰。設想一下,「預測警務」的運演算法則鑒定某個青少年在未來五年內很可能犯重罪。結果,當局決定派遣一名社會工作者每月拜訪他一次以對其進行監視,並儘力幫助他解決問題。如果該少年及其親屬、朋友、老師或僱主將這種拜訪視為一種恥辱(這種情況極有可能發生),那麼這就起到了懲罰的作用,的確是對未發生的行為的懲罰。然而,如果這種拜訪完全不被視為懲罰,而只是為了減少問題出現的可能,即作為一種將風險降至最低的方式(在這裏指的是將破壞公共安全的犯罪風險減到最小),情況照樣好不到哪兒去。社會越是用干預、降低風險的方式取代為自己的行為負責,就越會導致個人責任意識的貶值。主張預測的國家是保姆式的國家,而且遠不止如此。否認個人為其行為承擔責任實際上就是在摧毀人們自由選擇行為的權利。
大數據的運作是在一個超出我們正常理解的範圍之上的。例如,谷歌所確定的與流感相關的檢索詞條是通過測試了4.5億個數學模型而得出的。而辛西亞·魯丁最初為判斷沙井蓋是否會著火設read.99csw.com定了106個預測器,因此才能向聯合愛迪生電力公司的經理解釋為何程序要求優先檢查某個沙井蓋。「可解釋性」正如在人工智慧界所稱的一樣,對於不僅想知道「是什麼」更想知道「為什麼」的人類來說非常重要。可是,如果系統自動生成的不是106個預測器,而是601個的話,那該怎麼辦呢?雖然其中大部分都沒有多大用途,但是一旦匯聚起來就能提高模型的準確性,而預測的基礎就會變得驚人地複雜。如此的話,辛西亞·魯丁如何能說服聯合愛迪生電力公司的經理再分配它們本就不多的預算呢?
外部演算法師將扮演公正的審計員的角色,在客戶或政府所要求的任何時候,根據法律指令或規章對大數據的準確程度或者有效性進行鑒定。他們也能為需要技術支持的大數據使用者提供審計服務,還可以為他們證實大數據應用程序的健全性,例如反欺詐技術或者股票交易系統。最後,他們將和政府商議公共領域大數據的最佳使用辦法。

大數據洞察

身處大數據時代,我們必須拓寬對公正的理解,必須把對個人動因的保護納入進來,就像目前我們為程序公正所做的努力一樣。如若不然,公正的信念就可能被完全破壞。

為了管理這些新興行業,美國制定了適應性極強的反壟斷條例。最初是在19世紀為鐵路行業制定的,後來又被應用到了掌管商業信息的其他公司,從20世紀最初十年的國家收銀機公司(National Cash Register),到20世紀60年代的IBM、70年代的施樂公司、80年代的AT&T、90年代的微軟和今天的谷歌。這些公司所開闢的技術成了經濟結構中「信息基礎設施」的核心組成部分,所以為了防止它們壟斷,法律的支持必不可少。
在大數據時代之前,這是明顯而基本的自由權利。事實上,明確到不需要進行說明。畢竟,我們的法律體系就是這樣運作的:通過評判人們過去的行為使之為其行為承擔責任。然而,有了大數據,我們就能預測人的行為,有時還能十分準確。這誘使我們依據預測的行為而非實際行為對人們進行評定。
個人隱私保護從個人許可到數據使用者承擔責任的轉變是一個本質上的重大變革。我們必須將類似範圍內的變革應用到大數據預測中去,以維護人類的自由和責任。
在大數據時代,我們需要設立一個不一樣的隱私保護模式,這個模式應該更著重於數據使用者為其行為承擔責任,而不是將重心放在收集數據之初取得個人同意上。這樣一來,使用數據的公司就需要基於其將對個人所造成的影響,對涉及個人數據再利用的行為進行正規評測。當然,並不是說任何時候都必須非常詳盡。
數十年來,全球範圍內的隱私規範都開始讓人們自主決定是否、如何以及經由誰來處理他們的信息,把這種控制權放在了人們自己手中,這也是隱私規範的核心準則。在互聯網時代,這個偉大的理想往往會演變成「告知與許可」的公式化系統。
●第三,可反駁原則。明確提出個人可以對其預測進行反駁的具體方式(這類似於科學研究中披露任何可能影響研究結果的因素的傳統)。
我們在生產和信息交流方式上的變革必然會引發自我管理所用規範的變革。同時,這些變革也會帶動社會需要維護的核心價值觀的轉變。我們以印刷機的發明導致的信息洪流為例。
如果2004年美國國土安全部配備有一名演算法師,它也許不會生成一份這麼差勁的禁飛名單,竟然把馬薩諸塞州參議員特德·肯尼迪都列入了其中。最近在日本、法國、德國和義大利,演算法師也可以發揮作用,這些國家的很多人認為谷歌的「自動完成」特徵程序誹謗了他們。這是一個生成與姓名相關的普遍搜索詞的程序,它很大程度上依據的是之前的搜索頻率:這些詞條根據數學概率進行排名。如果類似「犯罪」或者「娼妓」這樣的字眼出現在你姓名旁邊,而碰巧被你的業務夥伴或者愛人read.99csw.com看到了,你能不氣瘋嗎?

管理變革3:擊碎黑盒子,大數據演算法師的崛起

保護個人責任也同樣重要。也許這一點很具有吸引力——社會無論何時做出關乎他人的決策時,都不再需要決策者們承擔責任。相反,它會將重心轉移到風險管理上,即評測可能性以及對其進行風險評估。有了所有看似客觀的數據,對我們的決策過程去情緒化和去特殊化,以運演算法則取代審判員和評價者的主觀評價,不再以追究責任的形式表明我們的決策的嚴肅性,而是將其表述成更「客觀」的風險和風險規避,聽起來都是不錯的主意。
甚至,與內部演算法師更類似的職業也同樣存在,即負責確保企業不濫用個人信息的職業人。例如在德國,具有一定規模的公司(有10個或以上人員處理個人信息)必須任命一名數據保護代表。20世紀70年代以來,數據保護代表們逐漸形成了自己的職業道德和團體精神。他們進行定期會面,分享最好的實踐經驗並進行培訓,他們擁有自己專門的媒體和會議,他們也成功地實現了一方面忠於僱主,另一方面忠於自己作為公證人的職責。德國的企業數據保護代表們取得了很大的成功,既充當了企業數據保護監察人,又將信息保密觀念嵌入了整個企業運作過程。我們相信,演算法師同樣也能做到。

大數據洞察

大數據將要求一個新的人群來扮演這種角色,也許他們會被稱作「演算法師」。他們有兩種形式:在機構外部工作的獨立實體和機構內部的工作人員——正如公司有內部的會計人員和進行鑒證的外部審計師。

這些新的專業人員會是計算機科學、數學和統計學領域的專家,他們將擔任大數據分析和預測的評估專家。他們必須保證公正和保密,就像現在的審計員和其他專業人員所做的一樣。他們可以評估數據源的挑選,分析和預測工具的選取,甚至包括運演算法則和模型,以及計算結果的解讀是否正確合理。一旦出現爭議,他們有權考察與分析結果相關的運演算法則、統計方法以及數據集。

目前,計算機系統做出決策的方式是基於程序明確設定所需遵循的規則。這樣,如果它們的決策出錯(這是不可避免的),我們就可以回過頭來找出計算機做出錯誤決策的原因。「為什麼外部感應器遭遇空氣濕度激增的情況時,智能飛行系統使飛機上升了5度?」等。現在的計算機編碼能被解碼、檢查,並且可以解讀其決策依據——無論多麼複雜,至少對於懂得如何解碼的人不存在問題。
在這一章節,我們已經提及了管理上的三個基本轉變。隨著這些轉變的完成,我們相信,大數據的不利影響將會得到控制。然而,隨著尚未成熟的大數據產業的不斷發展,另一個重要的挑戰將會是如何保護極具競爭力的大數據市場。我們必須防止21世紀數據大亨的崛起,它相當於19世紀強盜大亨的現代翻版,那些強盜大亨曾壟斷了美國的鐵路、鋼鐵生產和電報網路。
正如印刷機的發明引發了社會自我管理的變革,大數據也是如此。它迫使我們藉助新方式來應對長期存在的挑戰,並且通過借鑒基本原理對新的隱患進行應對。不過,推進科學技術進步的同時,應確保人類自身的安全。因此,我們不能讓大數據的發展超出我們可以控制的範圍。
●第一,公開原則。因為這將直接影響到個人,所以必須公開用來進行預測分析的數據和演算法系統。
通過保證個人動因,我們可以確保政府對我們行為的評判是基於真實行為而非單純依靠大數據分析。從而,政府只能依法對我們過去的真實行為進行追究,而不可以追究大數據預測到的我們的未來行為;或者,在政府評判我們過去的行為時,也應該防止單純依賴大數據的分析。例如,在對兩家涉嫌操縱價格的公司進行調查時,我們完全可以藉助大數據分析先作出大概判定,然後監管機構再以傳統手段立案和進行調查。不過,當然不能只因為大數據分析預測read.99csw.com它們可能犯罪,就判定其有罪。
如果國家做出的許多決策都是基於預測以及減少風險的願望,就不存在所謂個人的選擇了,也不用提自主行為的權利。無罪,無清白。如此一來,世界不止不會進步,反而在倒退。
這一方式通過限制個人信息存儲和處理的時間而保護了個人隱私,也可以消除「永久記憶」的恐慌——永不磨滅的數字記錄讓人無法告別過去。我們的個人數據就像達摩克利斯之劍一樣懸在頭上,多年之後也會因為一件私事或者一次遺憾的購買記錄而被翻出來再次刺痛我們。時間限制也激勵數據使用者在有許可權的時間內儘力挖掘出數據的價值。這就是我們認為更適用於大數據時代的平衡:公司可以利用數據的時間更長,但相應地必須為其行為承擔責任以及負有特定時間之後刪除個人數據的義務。
為了了解它是如何運用到實踐當中的,我們以第4章提到的數據化個人坐姿信息為例。假設一家公司出售了一項以駕駛員坐姿為特定識別符的汽車防盜技術。然後,它對收集到的信息進行分析,預測駕駛員的注意力狀態(比如昏昏欲睡、醉酒以及生氣),以此向周圍其他駕駛員發出警報以防發生交通事故。根據目前的隱私規範,他可能需要新一輪的告知與許可,因為這樣使用信息是未經駕駛員授權的。但是如今,在數據使用者的責任承擔體系下,他們就會評估預期用途的危險性。如果發現危害性很小,他們就可以著手實施預定計劃並實現提高駕駛安全性的目標。
可是,變革並不止於規範。這種管理規範上的改變也體現了當時更深層次的價值觀轉變。在古登堡時期,人類第一次意識到了文字的力量;最終,也意識到了信息廣泛傳播的重要性。幾個世紀過去了,我們選擇獲取更多的信息而非更少,並且藉助限制信息濫用的規範而不是最初的審查來防止其泛濫。
為了確保給大數據提供一個與早期技術領域情況相當的活躍的市場環境,我們應該實現數據交易,比如通過授權和協同合作的方式。但是,這就引發了一個問題:精心達到平衡的數據獨有權,是否能讓社會大眾從中獲利?雖然聽起來有點挑釁的意味,但是這是否能像知識產權一樣有利於社會呢?誠然,要達到這樣的效果,對於決策者來說,是一個艱難的任務;而對於普通人來說,則充滿了風險。技術發展變幻莫測,無從定論,大數據也無法預測自己的未來。監管人員需要既大胆又細心,而實現這兩者的平衡,可以學習反壟斷法的發展歷史。

大數據洞察

大數據管理的基本支撐是保證我們依然是通過考慮他人的個人責任對其進行評判,而不是藉助「客觀」數據處理去決定他們是否違法。只有這樣,我們才是把其當作人來對待——當作有行為選擇自由和通過自主行為被評判的人。這就是從大數據推論到今天的無罪推定原則。

大數據時代,對原有規範的修修補補已經滿足不了需要,也不足以抑制大數據帶來的風險——我們需要全新的制度規範,而不是修改原有規範的適用範圍。想要保護個人隱私就需要個人數據處理器對其政策和行為承擔更多的責任。同時,我們必須重新定義公正的概念,以確保人類的行為自由(也相應地為這些行為承擔責任)。新機構和專家們需要設計複雜的程序對大數據進行解讀,挖掘出其潛在的價值和結論。他們也要向那些可能受害於大數據結論的人——因之被剝奪了工作、接受醫療或貸款權利的人,提供支持。對已有的規範進行修修補補已經不夠了,我們需要推陳出新。

管理變革4:反數據壟斷大亨

個人為公司工作卻又要保持公正似乎違背常識,但事實上這十分常見。大型金融機構的監管部門是一個例子,許多公司的董事會也是如此,他們是對股東負責而非管理者。許多傳媒公司,包括《紐約時報》、《華盛頓郵報》都會僱用外部監察人來維護公眾信任。他們解決讀者的問題,當他們發現存https://read.99csw.com在不當行為時,也經常公開責難僱主。
伴隨著從核技術到生物工程學其他領域的發展,人類總是先創造出可能危害自身的工具,然後才著手建立保護自己、防範危險的安全機制。在這方面,大數據也和其他領域的新技術一樣,帶來了無法徹底解決的問題。另外,它們也不斷對我們管理世界的方法提出挑戰。而我們的任務是要意識到新技術的風險,促進其發展,然後斬獲成果。
內部演算法師在機構內部工作,監督其大數據活動。他們不僅要考慮公司的利益,也要顧及受到公司大數據分析影響的其他人的利益。他們監督大數據的運轉,任何認為遭受其公司大數據危害的人都會最初與他們取得聯繫。在公布大數據分析結果之前,他們也對其完整性和準確度進行審查。為了扮演好這兩個角色,演算法師首先要做到的就是必須在工作機構內部擁有一定程度的自由和公正。
為實現這一平衡,監管機制可以決定不同種類的個人數據必須刪除的時間。再利用的時間框架則取決於數據內在風險和社會價值觀的不同。一些國家也許會更謹慎,而某些種類的數據也許會更敏感。

大數據洞察

除了管理上的轉變,即從個人許可到數據使用者承擔相應責任的轉變,我們也需要發明並推行新技術方式來促進隱私保護。一個創新途徑就是「差別隱私」:故意將數據模糊處理,促使對大資料庫的查詢不能顯示精確的結果,而只有相近的結果。這就使得挖出特定個人與特定數據點的聯繫變得難以實現並且耗費巨大。

未來的隱私保護法應當區分用途,包括不需要或者只需要適當標準化保護的用途。對於一些危險性較大的項目,管理者必須設立規章,規定數據使用者應如何評估風險、如何規避或者減輕潛在傷害。這將激發數據的創新性再利用,同時也確保個人免受無妄之災。
這種巨變也使得創立新規範來管理活字印刷術所引發的信息爆炸的條件變得成熟。審查和許可條例被創立,用來規範和管理出版物。著作權法的制定為創作者帶來了進行創作的法律和經濟動力。隨後,保護公民言論自由被寫入了憲法。一如既往,權利伴隨著責任產生了。當低俗的報紙踐踏人們隱私權或誹謗其名譽時,法律規範就會出現以保護人們的隱私權並允許他們對文字誹謗提出上訴。
●最重要的是,要確保個人動因能防範「數據獨裁」的危害——我們賦予數據本不具備的意義和價值。
就像醫學、法律和其他行業一樣,我們設想這個新行業會有自己的行業規範。演算法師的公正、保密、資歷以及專業水準可用嚴苛的責任規範來進行強制約束;如果他們不能達到這些標準,就可能被起訴。他們可以調任為審訊中的專家證人,或在審訊中遇到特別複雜的大數據問題時被法官委派為「法院專家」——主要是指某一個學科領域專家為案件審理提供援助。
信息模糊處理聽起來似乎破壞了其解讀價值,但是也並不一定,至少這是一個折中的好辦法。例如,技術政策專家特別提到Facebook將用戶信息向潛在廣告客戶公布就是依靠差別隱私:只能得出大概數量,所以它們不會暴露個人身份。查詢亞特蘭大州對Ashtanaga瑜伽感興趣的亞洲女性,會得出諸如「400左右」這樣的結果而非一個定值。因此,利用這個信息排查到個人是不可能的。
我們將「演算法師」的概念視為是在以市場為導向來解決這些問題,這也就避免了以侵入式的規章來解決問題。他們和20世紀早期為了處理泛濫的財務信息而出現的會計以及審計員一樣,都是為了滿足新需求而出現的。一般人很難理解這樣的數字衝擊,所以必須有一群以一種靈活的自我監管方式組織起來的專業人員去保護大眾的利益。於是,提供專門的金融監管服務的新公司就這樣應運而生。如此一來,這種新類型的專門人才也幫助社會大眾增強了他們對經濟本身的信心。大數據可以也應該從演算法師給予的類似信心提振中獲利。