2016年美國總統大選期間,社交網絡上充斥著不準確和誤導性的文章。從那以后,科技公司——從Facebook、Google等這樣的大公司到生氣勃勃的初創公司——已經打造了一些工具來打擊錯誤信息(包括許多人稱之為“假新聞”的文章,盡管這個詞被高度政治化了)。大多數公司已求助于人工智能(AI),希望快速且自動化的計算機系統能夠解決這個看起來像互聯網一樣大的問題。
“他們都在使用人工智能,因為他們需要擴大處理規模。”ClaireWardle說。她是哈佛大學約翰肯尼迪政府學院承擔的錯誤信息斗爭項目FirstDraft的負責人。她說,AI可以使那些耗時的步驟(例如,仔細檢查每天在線發布的大量內容并標記出可能虛假的內容)加快。
不過,Wardle說,人工智能無法做出最終的判斷。“對于機器來說,你如何編碼'誤導性的'(misleading)呢?即使是人類也難以定義它。生活是混亂、復雜和微妙的,人工智能要做到理解這一點,還有很長的路要走。”
Facebook曾因未能在2016年對虛假內容采取行動而廣受批評。Facebook稱,它將在今年11月的美國中期選舉中以及全球其他選舉中利用人工智能把打擊虛假內容一事做得更好。Facebook產品經理JimKleban致力于減少網站newsfeed中的錯誤信息,他解釋說Facebook現在使用AI來增強人類智能。AI檢查每天在Facebook上分享的數百萬個鏈接,識別出其中的可疑內容,然后將它們發送給事實核查人員。他說:“在可預見的未來,所有這些系統都需要混合型解決方案。”
當事實核查人員認為一段內容是虛假內容時,Facebook會降低其在用戶的newsfeed中的排序位置。Kleban說,這種方法使虛假內容的被瀏覽次數減少了80%。
Facebook的AI是通過機器學習——AI系統接收大量被標記過的資料的數據,并獨立地尋找出模式的一種技術——進行訓練的。例如,圖像分類AI可能會查看數百萬張標有“貓”或“狗”的照片,而學習到貓和狗的區別特征。但是,訓練AI來識別虛假內容要難得多。
Kleban說,Facebook的AI從內容來源開始,利用各種信號來挑選出包含錯誤信息的文章:“知道某個網頁或網站過去分享過虛假內容,就可以預測它會再次分享虛假內容,這樣的預測往往是很準確的。”虛假內容在網絡上的傳播方式也可能存在一種可識別的模式;Kleban說這是一個活躍的研究領域。至于文本本身,AI沒有能力評估內容的真實性,但它可以找到信號,例如在評論部分有對文本內容表示不信任的表達。
總部位于倫敦的初創公司Factmata正在開發一種采用不同方法的人工智能系統,該公司的知名投資者包括Twitter共同創始人BizStone和Craigslist創始人CraigNewmark。Factmata創始人DhruvGhulati說,公司并不特別關注內容的出版者或他們的聲譽,“我們希望根據內容本身來對內容進行判斷。”
Factmata的系統采用的也是人機合作的混合型方案,雖然其配置是不同的:人是對內容進行標記的專家,做過標記的內容用于AI的訓練。Ghulati說:“像假新聞和宣傳這樣的東西在本質上是差別細微的和主觀的。確實需要專業知識來理解內容的性質并對其進行適當的標記。”通過那些標記過的數據集,Factmata正在訓練其AI識別政治上有偏見的內容、虛假內容和仇恨言論。
該公司目前正致力于互聯網的“后端”,幫助互聯網廣告交易平臺(advertisingexchanges)避免在有問題的內容上投放廣告。將來它可能會對社交網絡有用。Factmata的系統標記了可疑內容并解釋了其可疑之處,但該公司將怎樣處理那些內容的決定權留給了客戶。
一些最初是面向其他新聞目標的公司也加入了競爭。總部位于都柏林的NewsWhip向新聞機構銷售一款基于人工智能的工具,這款工具可以發現熱門內容并預測其傳播情況,從而使新聞團隊能夠快速注意到那些正在像病毒一樣迅速在網上傳播的新聞報道。在法國、英國和德國最近的選舉中,記者們利用該工具發現并揭穿了那些在社交網絡上廣受關注的虛假新聞報道。
總部位于倫敦的Krzana公司用一種定制的實時newsfeed幫助記者發現突發新聞。記者可使用Krzana的基于AI的工具發現四種語言(將來還會有更多種語言)的內容,這些內容是工具根據記者選擇的關鍵詞和搜索詞找出來的。在墨西哥最近的選舉中,一個媒體聯盟使用Krzana的工具快速找到了可能包含錯誤信息的新聞。
Krzana的共同創始人TobyAbel說:“記者是第一批閱讀這些報道的人,而不是等到這些報道被很多人分享后才去讀。如果它們是假的,它們很快就會遭到反擊。”
Abel說AI錯誤信息檢測器本身還不可靠,他同意需要人機合作。他引用了與2018年墨西哥大選有關的一個例子,在這次大選中,一位政治候選人以戲謔的方式回應了對其與俄羅斯的關系的指控:他走到碼頭,宣稱自己正在等他的俄羅斯潛艇。“如果在沒有外部背景和理解的情況下閱讀這篇文章,它看起來就像假新聞。但事實上并非如此。”阿貝爾說。
對于試圖識別虛假內容的人工智能系統來說,諷刺性表達是最棘手的問題之一。各公司也在努力找出圖像、視頻、圖表和其他非文本內容中的錯誤信息。欺騙的可能性似乎無窮無盡,例如,照片可能是合理的,但其標題可能具有誤導性。
總部位于倫敦的非營利性事實核查機構FullFact試圖避開灰色地帶。它正在利用機器學習來改進一種能掃描文本和視頻腳本的工具,尋找經濟趨勢和法律訴訟等主題的、可被事實核查人員核實的事實類報道。FullFact的自動事實核查負責人MevanBabakar表示,該工具還將來自許多不同新聞來源的類似報道聚集在一起。“因此,在每一天的開始,我都會對我的事實核查員們說,'這是排名前五的像野火一樣蔓延的最熱門報道。'”
Factmata的Ghulati表示,今天的AI系統可能還沒有準備好獨立解析復雜的報道或做出關于真相的精細決策,但這并不意味著現在不應該部署它們。“風險在于,你試圖得到假新聞的完美定義,卻永遠得不到答案”,他說,“重要的是要建造一些東西。”
本文的節略版將刊登在2018年9月那一期的印刷版IEEESPECTRUM上。
-
Facebook
+關注
關注
3文章
1432瀏覽量
56241 -
人工智能
+關注
關注
1804文章
48783瀏覽量
246848 -
機器學習
+關注
關注
66文章
8493瀏覽量
134161
原文標題:AI與人聯手,有望使“假新聞”不再猖獗
文章出處:【微信號:IEEE_China,微信公眾號:IEEE電氣電子工程師】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
FX3圖傳過程中異常停止的原因?
【「零基礎開發AI Agent」閱讀體驗】+Agent的工作原理及特點
求助,關于FX3的發送問題求解
光伏“搶裝潮”來襲,你準備好了?嗎?

ADS1298中drdy應該是轉換數據準備就緒的標志輸出吧?
名單公布!【書籍評測活動NO.55】AI Agent應用與項目實戰
一文解析AI技術趨勢
一文解讀Linux 5種IO模型

評論