備受關注的抖音算法機制是怎樣的?
4月15日,抖音在北京舉辦“安全與信任中心開放日”活動,證券時報記者在現(xiàn)場獲悉,在抖音的實際應用中,推薦系統(tǒng)采取“人工+機器”協(xié)同的方式進行風險治理,始終有人工運營和治理體系為算法導航;同時,抖音多目標體系算法能主動打破 “信息繭房”,以期實現(xiàn)多元實用可靠的推薦結果。
推薦算法作為人工智能機器學習技術的重要應用場景,本質上是一套高效的信息過濾系統(tǒng)。業(yè)內認為,推薦算法的出現(xiàn),得益于人工智能技術。近二十年來,機器學習尤其是深度學習的進步,讓人工智能大規(guī)模應用于信息分發(fā)成為可能。在信息爆炸時代,推薦算法成為人類與巨量信息相處的主流解決方案。
開放日上,抖音算法工程師劉暢介紹,抖音的推薦算法與國內外大部分內容推薦平臺相似,包含召回、過濾、排序等環(huán)節(jié),重點是學習用戶行為。
記者在現(xiàn)場獲悉,抖音基于用戶行為的推薦方法包含多種技術模型,如協(xié)同過濾、雙塔召回、Wide&Deep模型等。算法可以在完全“不理解內容”的情況下,找到興趣相似的用戶,把其他人感興趣的內容推薦給該用戶。目前,抖音算法已幾乎不依賴對內容和用戶打標簽,而是通過神經(jīng)網(wǎng)絡計算,預估用戶行為,計算用戶觀看這條內容獲得的價值總和,把排名靠前的內容推給用戶。
“用戶長期價值,是抖音推薦算法的‘北極星指標’,也就是我們最核心的業(yè)務目標?!眲潮硎荆兑舾P注用戶長期價值,而非追求平臺的短期數(shù)據(jù)。為此,抖音算法考慮了眾多目標,如完播、評論、點贊、對作者長期消費、分享、跟拍等,力圖計算出更符合用戶長期價值的目標。
為引導算法打破“信息繭房”,抖音算法在多目標建模體系下,設置了專門的探索維度。一是對用戶在平臺上已經(jīng)表現(xiàn)出的興趣,盡可能推薦更多樣的內容,通過多樣性打散、多興趣召回、扶持小眾(長尾)興趣等方法控制相似內容出現(xiàn)的頻次。二是幫助用戶探索更多新興趣,采用隨機推薦、基于用戶社交關系拓展興趣、搜索推薦聯(lián)動、“不感興趣”不再展現(xiàn)等多種方式,讓用戶的主動行為影響推薦系統(tǒng),使推薦更加個性化和多樣化。
算法能學習、預估用戶行為,但因其無法理解內容語義,對內容的理解存在不足,可能導致違法違規(guī)、不良內容被推薦傳播。因此,算法在真實使用場景中,必須由平臺治理對其進行約束和規(guī)范。
以抖音為例,據(jù)抖音生態(tài)運營經(jīng)理陳丹丹介紹,抖音的內容治理體系是“人工參與+機器學習”相結合的模式,并組建了專門的平臺治理團隊為算法設置“護欄”。
抖音平臺治理體系包括異常感知、標準定義、機器識別、人工研判、風險處置等過程。治理流程秉持兩大準則:所有在平臺發(fā)布的內容都會經(jīng)過評估,流量越高的內容評估次數(shù)越多,標準也越嚴格;抖音內容審核采用“人工+機器”相互配合的模式,“機器”負責“寬度”評估所有投稿,“人工”負責“深度”,確保專業(yè)、敏感或疑難等問題盡可能精準研判。
創(chuàng)作者將內容上傳至抖音后,首先進入機器識別環(huán)節(jié)。如果內容被識別出含有高危特征,將被直接攔截;若未命中高危特征但模型判斷有問題,則會送至人工審核;若問題概率較低,則獲得基礎流量進入下一環(huán)節(jié)。視頻被舉報、評論區(qū)出現(xiàn)集中質疑、流量激增等情況出現(xiàn),均可能觸發(fā)“人工+機器”審核。一旦內容在任一環(huán)節(jié)被處置,系統(tǒng)會立即停止進一步推薦和分發(fā)。
針對社會普遍關心的、對用戶造成較多困擾的焦點問題,抖音成立了數(shù)個專項治理團隊,針對詐騙、網(wǎng)暴、虛假擺拍、未成年人保護、網(wǎng)絡水軍、AIGC技術濫用等一系列重大專項風險進行治理。例如,在不實信息治理方面,抖音于近日上線了辟謠卡,遏制不實信息的傳播。
目前,抖音安全與信任中心網(wǎng)站進入試運行階段,正廣泛向用戶、創(chuàng)作者、社會各界征集意見。