在算法廣泛滲透到社會各個層面的時代,算法已經成為人的一種新的技術伴侶。一方面,我們需要接受算法的存在,利用它來拓展人自身的能力,享受它所帶來的便利;另一方面,我們又要對這樣一種伴侶帶來的控制和其他風險有足夠的識別與反抗能力。這也就意味著我們需要一種與算法社會相匹配的素養,也可以稱之為算法素養。算法素養的主體既涉及算法的設計開發者,也涉及算法的使用者。本文主要從使用者的角度來分析算法素養的主要目標。
媒介素養理念嬗變對算法素養教育的啟發
從使用者角度看,對算法素養的內涵與目標的設定,或許可以從媒介素養理念的演變中獲得啟發。
20世紀30年代,以英國學者利維斯為代表的一些學者發起媒介素養教育之初,更多的是把大眾媒體及其生產的大眾文化作為一種危險的力量,媒介素養教育的主要目的在于教育公眾“甄辨與抵制”大眾傳媒的錯誤影響和腐蝕。這樣一種思維也被視為“免疫接種”模式。但是,隨著實踐的深入,研究者們意識到,媒介影響無所不在,簡單抵制無濟于事。
1982年,聯合國教科文組織在德國慕尼黑召開的國際媒介教育會議中公布的《媒介素養宣言》指出:我們生活在一個媒介無處不在的社會,與其單純譴責媒介的強大勢力,不如接受媒介對世界產生巨大影響這一事實,承認媒介作為文化要素的重要性。
一些研究者也開始倡導新的媒介素養理念。萊恩·馬斯特曼指出:在媒介教育中,最主要的目的不在于評價好壞,不在于給學生們具體的評價標準,而在于增加學生對媒介的理解——媒介是如何運作的,如何組織的,它們如何生產意義,如何再現“現實”,誰又將接受這種對現實的再現。類似的,很多媒介素養的研究、教育,也都是在超越“保護主義”“賦權”受眾的前提下展開。
從將媒介視為破壞者或敵對者,將媒介素養教育視為“免疫接種”,轉為接受與媒介共存的事實,將受眾視為積極的媒介使用主體,通過媒介素養教育幫助他們認識媒介運作機制,提高利用媒介的能力,媒介素養研究與教育的發展過程以及逐步升華的媒介素養理念,對于我們理解、研究算法素養也是一種重要參照。
當算法及智能機器無可回避,我們只能與之共存,算法素養就是要培養人們與算法的共存能力。從長遠來看,算法素養的培養有很多具體目標,但有兩大基本面向會貫穿始終,那就是算法社會所需要的思維培養和風險教育。
面向新思維培養的算法素養
接受算法的存在,也就意味著要接受算法的基礎——算法思維的挑戰。算法思維源于數學,在今天它也是科學思維中的計算思維的主要體現。計算思維通過約簡、嵌入、轉化和仿真等方法,把一個困難的問題闡釋為如何求解它的思維方法,算法正是如此,它以特定的數據來反映某個對象,以模型來體現解決問題的方案,最終通過數據計算來完成相應任務。算法將模糊的對象變成明晰、精確的數據,將主觀的感受變成客觀的信息,將抽象的原則變成具體的可執行的過程。在信息的篩選、關系的匹配與調節、判斷與決策等方面,算法常常是強大、高效率的,甚至有很多時候是人力難以企及的。
基于計算思維的算法,有自己擅長的領域,技術的發展還在不斷拓展它的應用邊界。今天計算思維也在進入人文社會科學領域,由此也產生了計算傳播學、計算法學等新的交叉研究領域。計算機領域的學者早就開始呼吁計算思維的培養,并認為這是現代社會人人必備的素養。他們也認為普及計算機教育的核心目標之一就是計算思維的培養。只是目前這樣的目標并沒有完全實現。算法的全面應用,為人們理解與運用計算思維提供了契機,這種思維也會成為算法素養的基礎之一。
在更基本的層面上看,算法思維也是一種數據思維,即用數據來描述、解釋客觀或主觀對象、關系以及過程等。在信息時代,這樣一種思維也是必要的。但算法的準確、有效性與數據質量緊密相關,要正確地使用、評價算法,也需要擁有相應的數據素養,即有效且正當地發現、評估和使用信息和數據的意識和能力。
算法素養培養需要直面數據思維、計算思維等算法社會帶來的思維挑戰,但我們也需要意識到,數據化、計算化思維并不能解釋、解決一切問題。如果我們將一切都落實為數據,都用計算來解決,那么世界會變得平面、單調。今天雖然技術的開發者也在嘗試用算法寫新聞、寫詩和小說,創作音樂美術作品,但它們本質上仍是數據化的計算,這永遠不能替代人基于內在動力進行的各種主觀表達。
算法的興起,不應該將我們推向數據主義這樣一個極端,即將數據和算法看作世界萬物、人際關系的存在論基石,一切似乎都可以被歸結為數據和算法的抉擇與更替。相反,算法社會更需要人文思維、人文精神的繁盛。
但我們也需要避免另一個誤區,那就是將算法看作是工具理性的代名詞,似乎強調人文精神就應該摒棄數據思維,放棄算法的應用。事實上數據思維、工具理性與人文思維及精神、價值理性等并不是對立的兩極。算法社會、算法素養的研究需要深入探究它們的融合可能,算法素養的一個發展方向也應是倡導科學與人文兼容的新思維。
面向風險教育的算法素養
算法素養培養的另一個重要面向,是幫助人們認識算法可能帶來的風險,提高防范、對抗風險的能力。
算法帶來的重要風險之一,是人全面數據化后的隱私、安全風險。今天人的數據化,不僅涉及人們主動生產或提供的數據,也涉及大量人們被動提供的數據。人的現實行為、身體或生理數據等也成為收集對象,其中很多是人們不愿意透露甚至是涉及個人隱私的數據。但很多時候,人們不得不接受這樣的數據化,因為這是兌換各種服務或權利的條件。
人的數據的廣泛采集,雖然表面上看給生活帶來了一些新的便利,但往往隱藏著巨大的風險。在法律、制度層面提高對個人信息保護力度的同時,個體自身也需要更多認識數據泄露的途徑與風險,增強自我保護意識。
算法帶來的另一類風險,是對人的“囚禁”。如果算法應用不當或過度,人可能會在認知與決策、消費、社會位置、勞動等多方面成為算法的“囚徒”。今天算法在很大程度上影響著人與信息的連接。算法促成了人與某些信息的匹配,但同時過濾了其他信息。目前算法主要是以個人興趣與行為偏好來進行信息的篩選,但算法模型的準確性,會決定它所推薦信息的有效性,即使算法推薦的信息是有效的,長期在個人興趣的“內循環”中,人們看到的天空也會越來越小。
當然算法也會不斷優化,未來的信息推薦算法或許不會總是將人們封閉在個人的小天地里,甚至可以期待它們會在促進公共傳播方面有所作為,但即使如此,人也不能每時每刻等著算法投喂的信息,成為愚笨的信息“填鴨”。而算法構建的擬態環境,在今天與現實世界仍有很大的距離,即使未來算法的改進會使得擬態環境更接近現實世界,但總是透過算法構建的“界面”去看世界,人仍會離自然、真實的世界越來越遠。
算法對于人決策的影響也在深化,從導航軟件的路線篩選,到內容運營、產品開發,乃至醫生診療、法律裁決,算法正在滲透到各種領域的決策過程。算法基于相應的模型和數據,對與決策相關的對象進行全面分析,并在多種方案中尋找最優可能,某些時候算法決策會優于人的決策。但算法也會出錯,如果不能判斷算法決策的可靠性,人會被算法帶向各種陷阱。即使算法不出錯,把所有決策權都交給算法,人們的判斷力、想象力與決策力會逐步萎縮,人的主體性會越來越無處安放。
算法也在越來越多地左右著人們的消費:一方面,它影響著消費者獲得的商品及其價位;另一方面,它通過數據反饋讓商家更多地算計、控制消費者。算法不僅在滿足著人們的消費需求,也在挖掘、誘導著人們的需求,把人們進一步推向消費主義的沼澤。如《美麗新世界》這部小說所揭示的,人們將沉醉于技術所帶來的舒適而逐漸失去自由。
算法還可能禁錮人們的社會位置,特別是對于本來處于社會劣勢階層的群體而言。在招聘、發放貸款等需要對個人進行評估的情境中,算法應用正在普及,機構因此可能降低風險,但對于被評估的個體來說,他們往往會因現有的社會位置和其他個人背景被打上各種標簽,這些標簽使人們以往的社會位置特性被放大、延續甚至固化,底層向上流動的機會可能被削弱甚至完全剝奪。
近幾年算法歧視、算法偏見問題之所以受到一致批評,也是因為它們在繼承、放大既有社會位置的固化性。算法推薦帶來的信息區隔,也可能會強化人群的圈層區隔。算法對勞動的控制,是另一種囚禁,無論是外賣騎手、網約車司機這樣的體力勞動者,還是在網絡平臺的各種內容生產者。通過算法規則,平臺可以對勞動者進行嚴密控制,這種控制甚至會演變為勞動者的自我約束與激勵,一些勞動者因此變成“永動機”。
評分是算法控制勞動的一種基本機制,人們在網絡空間甚至現實空間的很多行為,也正在被推入評分機制這個軌道。評分機制雖然有助于人們對社會規則的遵守,但是,它也可能助推一些機構權力的濫用,以及個體間相互監督權利的濫用。
算法推動下的評分機制,或許會成為新時代一種重要的規訓力量。相比以往的權力規訓,算法及評分機制的規訓,更為直接、明了,具有更強的結果導向。這種力量既可能來自管理者,也可能來自平臺、算法的設計者,還可能來自他人。算法中隱含的各種規則,也可能內化到人們的自我審查過程中。
雖然算法在各種層面可能帶來囚禁風險,但今天人們對此并不完全了解,甚至渾然不覺,幫助人們認識這些風險,提高反囚禁能力,也正是算法素養培養的重要任務。當然,有些風險并非靠人的抵制、反抗就能消解,而是需要制度層面的變革和算法倫理等的約束。把所有風險都轉嫁到個人,指望算法素養解決一切問題,顯然也是不合理的。
除了上述兩個基本方向之外,算法素養教育還要解決更多具體的問題。但一個基本前提是,如同媒介素養教育,算法素養教育也需要走出“保護”思維,賦權用戶,讓用戶在與各種類型的算法共存的過程中,逐漸學會駕馭算法,學會在算法社會保持人的尊嚴與價值。