歡迎光臨
我們一直在努力

貼上AI標籤的評論區,正在剝奪我們平等言論的自由

自古站著說話都是不會腰疼的,在這樣一個鼓勵質疑的社會氣氛當中,戾氣彷彿成了最好的鼓勵。 去中心化的時代,人人都有麥克風,網絡發言的成本達到了歷史最低。

近期就有一個很典型的例子。 羅永浩“精日沒啥”的言論相繼被北京日報和廣州日報點名批評,微博的評論區“錘粉”“錘黑”的論戰比羅永浩本人的演講還“好看”,但是這種“好看” 是靠著你來我往的言語攻擊而炒起來的熱度。 廣州日報官方微博下面,“小心錘蛆”評論排在熱評的第一位,“智障”“走狗”“SB”的字眼也屢見不鮮。 微博的罵戰如此壯烈讓“路人”都不忍直視,更不談不上理性分析羅永浩是否是精日、精日是什麼的問題。 微博距離中國言論環境下的“公共領域”還差得很遠。

內容管理,要從評論區覓得曲徑通幽處

評論區比內容本身還好看,現在已經不僅僅是網友們的調侃了。 各大社交和問答平台都開始注意到評論區的運營。 此前,為了提高評論審核的效率,有效管理微博評論,微博也開始有所動作,面向頭部用戶和正式會員用戶開通評論審核的功能。 在開放此功能之後,用戶可以對自己微博下的評論實現評論先審後放。

因此,如果把文章本身稱為“第一內容區”的話,那麼評論區儼然已經成為蓬勃發展的“第二內容區”,現在註重評論區的管理開始變得越來重要。 在4月的GMIC大會上,知乎合夥人、高級副總裁李大海透露,在知乎的內容社區當中,AI已經可以開始進行語義識別和語境判斷。 因為單單依賴人工的力量來管理內容,實在不是一個高效的選擇。  

在知乎裡面,現在有一個2歲多的機器人叫“瓦力”,目前這個機器人可以在線上快速響應“答非所問”和“不友善”的內容,減少歧視、惡意貼標籤、辱罵等等低質內容 對用戶的干擾。 但是因為目前NPL自身的局限性以及平台運營存在的相應問題,效果還不太理想。

如果說人工智能算法能夠通過監測人們說話時的聲學特徵,比如發音頻率、聲音高低以及語氣的變化,來識別人類說話的情緒類型是一項很了不起的技術。 那麼直接通過NPL來鑑定人類的說話情緒則是更難上加難的操作。 因為一個髒字不帶,一個敏感詞都沒有的句子,AI很難總結出它們的共同特徵,從而有針對性的挑選出來作為負面言論的代表,真正成為評論區的“清道夫”。

另外,目前知乎的機器學習方式是利用中文語料庫,調動用戶積極對語料進行手動標註來訓練AI,這在機器的監督學習中是必不可少的一步。 但新的技術正在湧現,比如強化學習和in-streamsupervision,數據可以在自然使用過程中獲得標註。

或者,還可以學習科大訊飛建立語音雲平台一樣,引入語料雲平台,這樣可以從其他更廣泛的渠道以更快的速度發現更新的語料。 因為等到中文語料庫中有足夠的新興語料可以讓機器進行學習時,代表這類語料的存在在平台上已經比較廣泛了。 如果此種語料是惡性的,那麼則說明評論的內容生態已經遭到了一定污染。

在評論區,AI與人的關係還值得研究

我們來看看國外的情況。 國外的那些頂級媒體,更早就意識到評論區的重要性並開始用技術對評論區進行管理。 《紐約時報》與Jigsaw合作,並牽頭《華盛頓郵報》、Mozilla基金會成立了The Coral Project,研究如何改進在線評論,並孵化一系列開源工具為各大新聞編輯室提供技術支持。 2015年時,《紐約時報》採用的評論體系會依靠算法對不同用戶的評論進行優先級排序,並且決定哪些用戶的評論可以不用經過較長時間的人工審查就直接發布。

但是,人工智能到底是藍海還是深坑,還需要時間的檢驗。 智能相對論分析師楊甦穎還想在此提出利用人工智能管理評論內容生態的兩個討論點:

1. AI的背後是人,如果人不想解決某個問題,那麼AI也只是噱頭和擺設。 最近,在某草根公眾號中看到一篇文章,討論的是有關喜馬拉雅APP內容付費的問題,該公眾號的主人在喜馬拉雅上傳了自己解讀書籍《烏合之眾》音頻,後來突然因版權投訴而被下 架了。

喜馬拉雅方面的客服稱,“因為已經有解讀該書的付費音頻存在,所以再上傳解讀該書的音頻就算作是侵權”。 對於某一個單一的知識付費內容能不能壟斷市場暫且不論,這個唯一被平台認可的《烏合之眾》付費音頻下面的評論,卻顯示出這個付費內容並不盡如人意。

但是平台不顧聽眾在評論區的反饋,完全沒有用心傳播優質內容的匠心。 如今許多平台都嘗試使用AI進行評論區的管理,但是AI要執行的始終是人的想法,就算AI通過各種識別的功能發現了這個問題,如果人並不想解決這個問題,那麼AI的設立又 還有什麼用處呢?

2. 在評論區,AI通過識別用戶言論來給每一個用戶貼標籤,這一點很難說不是在將每個人的言論權利做一個高矮次序的排列 。 許多用AI來管理評論區的平台,談到技術方面都會說現在可以利用AI對用戶進行標籤,有點兒像所謂的社會信用體系。 但這種看似合理的信用體系背後的問題是:爭了好幾百年來的平等言論權,就這麼被AI再次剝奪了?

站在社會學的角度,我們常常在討論的是標籤對人性的壓抑以及標籤給人帶來的種種痛苦,並思索著如何才能讓社會環境進一步“去標籤化”。 但我們沒注意到的是,AI正在利用我們在網絡留下的數據對我們進行標籤化。 如果,某個人曾經發布過一些負面言論,那麼經過AI的識別判定後,他的言論可能今後永遠只能在評論區的最底部飄蕩。 潛在地,這個人是不是相當於被間接削弱了言論權呢? 你可以發言,但是不會有人看得到。 這也代表了在網絡社區當中的話語權會被進一步中心化。 所以,AI也應該該考慮一下去標籤化的問題,並建立去標籤化的機制。 每個人都有被原諒的機會,但是數據會知道這一點嗎?

技術非但沒有使信息自由流動,反而建立了更加龐大的信息孤島。 在微信當中,只有互為好友的人才能看到在同一個人朋友圈下面的評論互動,這樣的機制在微信當中建立起的無數個不同的小圈子,小圈子之間隔著高高低低的圍牆。 微信雖然幫助我們連接了更多的人,但是卻把父母給隔離了起來。 她/他能夠看到的評論區永遠只有自己一個人,想要通過你的朋友圈了解你的生活,了解你的朋友和外面的世界,但是技術卻阻斷了這麼簡單的念想,他不 知道你平常是怎麼和朋友打趣,甚至不知道你說的佛系。 在評論區看不到更多的解釋,還以為你要去出家,趕緊打個電話過來詢問。

但為了避免你麻煩的解釋過程,技術還可以建立起更多“去麻煩”的機制,比如分組可見。 對於我們而言,我們是在提高自己的生活效率,更好地管理自己的生活。 但是對於父母而言,他們只是被強制削去了知情權,這實際就是剝奪發言權的前一步。

在日常的信息獲取當中,剝奪話語權的方式是很隱晦的, 它通常會先剝奪你的知情權 。 今日頭條的人工智能算法推薦信息,過度迷信算法的精準性,實則把用戶困在它製造的信息孤島上。 由互聯網所打破的信息壁壘,在今日頭條的作用下被重新建立起來,只是這背後更為深刻的是,同質信息的轟炸阻斷了那些沒有主動獲取信息能力的人的上行通道。

在這樣龐大的信息社區當中,平台需要建立自己的人文價值觀和社會責任,一旦當它們的價值開始混亂,錢就會成為唯一的尺度。 人工智能是技術的又一次升級,但是人工智能不能成為一切腐朽舊思想的避難所,不能包庇價值觀的混亂,也不能縱容技術平台對用戶話語權的剝奪。 如何在保護話語權和保護平台社區環境之間尋求一個平衡點,是運用AI管理評論區需要思考的第一個問題。

評論區的“黃金屋”和“顏如玉”在今天是顯而易見的,但平台的內容運營者們想要在這上面使力則還需要繼續探索。 AI幫助進行智能評論區管理是件好事,但在AI的背後還潛藏著太多未解的難題,管理者們一定要帶著問號去利用好AI,讓AI成為內容管理的好幫手。

*文章為作者獨立觀點,不代表虎嗅網立場

本文由 智能相對論 授權 虎嗅網 發表,並經虎嗅網編輯。 轉載此文章須經作者同意,並請附上出處( 虎嗅網 )及本頁鏈接。 原文鏈接https://www.huxiu.com/article/244967.html
未來面前,你我還都是孩子,還不去下載 虎嗅App 猛嗅創新!

未經允許不得轉載:頭條楓林網 » 貼上AI標籤的評論區,正在剝奪我們平等言論的自由