當前位置:
首頁 > 最新 > 深入臉書、推特、谷歌,為捍衛社交環境,他們都做了點啥?

深入臉書、推特、谷歌,為捍衛社交環境,他們都做了點啥?

【獵雲網(微信號:ilieyun)】7月18日報道 (編譯:Henry)

當您在手機上註冊Facebook時,這款軟體所做的遠不僅是向您提供來自您的朋友和家人的最新動態和照片。在後台,它正在利用手機的陀螺儀來探測您細微的動作,甚至包括您的呼吸。它會記錄您點擊屏幕的速度,甚至可以探測到您手機的握持角度。

這聽起來的確讓人毛骨悚然。其實這些只是Facebook驗證註冊者是人類而不是每天試圖入侵社交網路的數千萬機器人的一些方式。

Facebook的這些做法凸顯了科技公司與機器人入侵者之間愈發激烈的鬥爭,這些機器人入侵者可能導致政治混亂並損害公司的公眾信任。 Facebook並不是唯一的受害者:推特已在周三開始刪除數百萬個屏蔽帳戶,谷歌也正試圖在YouTube上消除惡意釣魚網站。

他們相信,人工智慧將會是他們公司的救贖之路。 Facebook首席執行官馬克·扎克伯格(Mark Zuckerberg)多次指出人工智慧是他在國會和公司F8開發者大會上作證時對其社交網路缺陷的解決方案。 谷歌希望成為人工智慧主導公司,而推特也希望利用這項技術來消滅釣魚網站。

「它已經成為日常生活中的一個基本組成部分,」技術政策類非營利組織Open MIC的執行董事Michael Connor說。 「人工智慧已經改變了我們聽音樂的方式,改變了我們處理醫療問題的方法,甚至改變了我們的駕車方式。」

AI已經被視為可以解決關於互聯網所有麻煩問題的萬靈藥。畢竟,沒有任何一個人或一個團隊可以處理來自數十億用戶的大量數據。但它是如何做到的? CNET將深入了解Google,推特和Facebook如何使用AI來控制如此大規模的濫用行為。

人工智慧最適合用來處理大量數據 ——Facebook,谷歌和推特在這方面沒有任何不足。例如,如果您正在訓練機器人查找假新聞,那麼您將需要會收集大量假新聞帖子,並提供演算法來查找類似的帖子。

這台機器的學習過程其實就像教新生嬰兒對與錯的區別的過程,Sift Science的信託和安全建築師Kevin Lee說。

但是過於隱蔽的濫用行為很難被演算法判斷出來,或者有時候,演算法會將用戶的正常行為判斷為濫用行為,所以人工智慧有時也會出錯。當審核過程透明度很低時,人們會對此持懷疑態度。

但是對付機器學習造成的失誤,我們也有一套處理方法。


網路犯罪分子越來越精明。 當他們在Facebook上創建賬戶時,他們使用的機器人就像蜂巢里的蜜蜂一樣多。這些機器人會使用多種技巧來入侵龐大的社交網路。他們會使用虛假的IP地址,放慢處理速度使之與人類操作速度相近,並使用數字掩碼入侵註冊。

但幸運的是他們仍然無法偽造人類用戶進行註冊。

龐大的社交網路一直依賴外部AI資源以及自己的團隊來幫助它拒入侵機器人於門外。 其中一個AI外部資源來自以色列創業公司Unbotify,兩位Unbotify的知情人員證實,該公司正在與Facebook就檢測機器人項目進行合作。

初創公司產品和運營副總裁Eran Magril表示,Unbotify是依據設備上的行為數據而運行的,例如您註冊帳戶時手機的移動速度。該演算法之所以能夠識別出這些特點,是因為這是根據成千上萬的工作人員不斷點擊搖擺手機測試而設計出來的。機器人雖然可以偽造IP地址,但是它們不能偽造一個真實的人類用戶與設備進行的物理交互。

Magril拒絕透露Unbotify與Facebook的關係,只表示該公司與主要的社交網路正在進行合作。而Facebook也拒絕對Unbotify發表任何評論。

Facebook試圖通過將其內容審核團隊拓展至20,000名員工來抵禦機器人這一禍害。 儘管如此,機器人用戶還是巨大的:5月份,Facebook宣布在2018年的前三個月刪掉了5.83億個假賬戶。此數據闡述了人類在人工智慧中只能扮演配角的原因。

「每天都有數以萬計的賬戶被刪除,」 Lee說。 「絕大多數刪除工作是由AI而不是人類完成的,真是謝天謝地,我們有AI這麼方便的工具。」

Unbotify能夠通過在客戶應用程序中寫入的代碼來檢測這些類型的動作。 Magril強調,該公司不收集私人信息,只收集不包括姓名和個人識別信息的行為數據。但社交網路的前團隊負責人Lee表示,利用行為數據不是Facebook阻止機器人的唯一途徑。

該公司還依靠AI根據一台設備上的帳戶數量以及創建後的賬戶活動來自動判斷帳戶是否是機器人賬戶。他表示,如果一個賬戶註冊後,並在一分鐘內發送超過100個朋友請求,那麼Facebook的人工智標記該帳戶為機器人賬戶。

它也知道一台設備上有多少個不同的帳戶。Lee說,大部分時間,欺詐者都會在一台設備上擁有多個殭屍賬戶。而通常情況下,正常用戶一般會在多個設備上擁有一個Facebook帳戶。

Facebook也依靠AI來阻止假新聞。此功能是將一些經常引起演算法的關鍵內容列為問題內容來實現的。

今年3月,該社交網路表示,他們正在擴大其事實核查計劃,在核查一系列的模因宣傳之後,審核內容將包括圖像和視頻,而不是惡作劇文章。其檢查員將與法新社(Agence France-Presse)和美聯社等新聞機構合作。

根據創始人Or Levi的說法,這些事實檢查正在使用AdVerif.ai的AI工具。它會查找已標記的圖像並執行反向圖像搜索,以查看該圖像發布的其他位置,以及該圖像顯示的內容是否被修改過。例如,以前Facebook已經抓住了一張NFL(美式橄欖球聯盟)運動員燒毀美國國旗的假圖片。 AdVerif.ai記錄了該圖像,並反向搜索它的起源,同時能夠告訴檢查員這是張被修改出來的圖片。

Levi說:「我們每天都在審核數百到數千張照片。我們到原始圖像,然後發現其中的大部分都能確定該圖像是被修改過的。」

Facebook News Feed產品專家Sara Su在周三的新聞發布會上表示,Facebook依靠第三方事實檢查員來幫助其篩選惡作劇內容和虛假信息。

Su 說「當你構建機器學習分類器來識別某些特別虛假惡劣的內容時,你會需要大量的訓練數據。在這種情況下,來自我們第三方事實檢查者的評級是這些分類器真正重要的基礎事實來源。」


與Facebook不同,Twitter更傾向於人類與AI一起扮演重要的角色。這是因為他們認為在言論自由和健康對話之間必須保持微妙的平衡。

然而,騷擾是困擾推特的最大問題之一,首席執行官Jack Dorsey對該問題的解決做出了一次又一次的承諾,但實際上仍未解決。推特上流行的釣魚行為非常猖獗,據報道,它甚至在2016年阻礙了推特與迪士尼之間的交易。

雖然推特也使用AI來阻止機器人註冊入侵,但它試圖保留開放平台,這意味著它不能完全依賴AI來處理釣魚行為。推特的健康產品經理David Gasca在接受採訪時說,雖然垃圾郵件對推特的AI來說很容易就能追蹤和刪除,但騷擾卻不同。

在採取任何行動之前,每個問題帖子總會被用戶看到。

Gasca表示:「自動規則在某些情況下發揮作用,但在其他情況下,會產生很多細微差別,特別是在推特上,各種形式的對話都有各種背景內容。」

通常,數百萬的推特用戶可以幫助培訓其人工智慧的能力。推特公司收集有關帳戶靜音、屏蔽、報告、轉發、喜歡或回復的頻率的信息。

自動規則在某些情況下發揮作用,但在其他情況下,會產生很多細微差別

例如,AI可以識別被其他50個人屏蔽的帳戶,並將其標記提交給推特的版主以獲得更快的處理。

這意味著推特的AI檢查對每個人都不同——取決於你進行交流的用戶以及你忽略的用戶。 AI能夠區分正面和負面的交互,並且特別有助於改進推特的用戶體驗。

Gasca 表示:「你屏蔽的用戶和我屏蔽的用戶肯定不同,這樣子就可以為每個用戶的閾值和容差創建模型。」

如果你不斷屏蔽其他用戶,推特的演算法之後就會開始過濾掉之後推送中的類似內容。這樣子你就再遇到你不喜歡的內容了。

Gasca表示,自推特實施這一新方法以來,新互動的屏蔽率下降了40%。

「這是一項龐大的人工智慧項目,此項目能夠在簡單的提示之後預測特定用戶是否會屏蔽某個陌生人。」加斯卡說。


人們很容易忘記,以其視頻內容而聞名的YouTube也是一種獨創的社交網路形式,在其評論部分釣魚內容也同樣泛濫。 這就是為什麼YouTube使用由Alphabet"s Jigsaw開發的Perspective AI管理檢查工具,也同時提供給用戶使用。

Perspective旨在篩選惡意評論,以對付網上大量的騷擾信息。AI會自動標記它判定會危害對話內容的評論,並提交給版主選擇是否要刪除這些評論。

Jigsaw產品經理CJ Adams表示,AI需要檢查數百萬條評論並將其提供給成千上萬幫助標記它們的人。團隊們對每一條評論進行判定,告訴AI該評論是垃圾信息、騷擾信息或者是淫穢內容。

該演算法從標籤標記中得到學習改進,並在實際操作中進行類似的應用。Adams說,Perspective不會自動刪除,而是讓人們做最後的決定。

Adams表示:「它也會犯錯誤,所以AI不適合自主決策,但它帶來的幫助就像是把大海撈針的範圍縮小到手中一把乾草這麼小一樣。」

Perspective通過在合作網站上的評論中獲得其訓練數據,比如紐約時報和維基百科。這與2017年的首次亮相時的能力相去甚遠,當時AI還無法區分垃圾信息和體育網站上的騷擾信息。之所以能夠取得這一進展,是因為對系統提出的許多意見,使其進行了進一步的學習改進。Adams表示,它現在知道「大都會隊(一支紐約橄欖球隊)差勁」並不總是意味著有人受到攻擊。

Perspective依賴於不斷地接受培訓學習,以並保護自己免受釣魚內容的侵害。當人工智慧首次啟動時,Adams說「大量的濫用行為」都來自4Chan(類似論壇的一個討論區),這些內容一直在試圖欺騙AI演算法。

「他們會輸入可怕的東西並說它沒有問題,企圖重新訓練我們的AI並欺騙它,」他說。但是Perspective的團隊已經在採取行動了,團隊判定認為這些評論是不符合規範的。

所以它終還是幫助了谷歌AI發展,使它能夠利用這些數據來阻止以後的釣魚內容。

「我們得到的是這樣大量的濫用內容,這些對於我們來說反而是很好的訓練材料,」 Adams說。「所以我們最後還是應該對你們4Chan表示『感謝』。」


科技公司可能對AI有很高的評價,但這並不意味著AI沒有風險。在7月4日,根據Facebook的AI演算法判斷《獨立宣言》的部分內容存在仇恨言論,而錯誤地刪除了一個帖子。雖然這篇文章因強烈反對而被迅速恢復,但其他許多被誤刪帖子的人就沒有那麼幸運了。

無論對一個多麼強大的AI來說,誤刪帖子都是一個嚴肅的挑戰。哪怕只有1%的出錯概率,想想Facebook上有20億用戶,YouTube上有10億用戶,這結果是仍有數以千萬計的有害內容或機器人賬戶在逍遙法外。

數字公民聯盟關於恐怖主義內容和社交媒體的報告的首席研究員Eric Feinberg說:「即使AI劫持了99%,也有1%的有害內容被人們所接觸,其後果將是來自現實世界的攻擊。」

他的團隊在12月和1月發現了55個ISIS賬戶並向Facebook報告。Feinberg表示,Facebook並沒有刪除其中的24個賬戶,聲稱它並沒有違反Facebook的服務條款,即使這些賬戶是在發布支持恐怖主義的內容。

科技公司了解這些問題,但也認識到他們的審核工具已經不能應付平台上的問題了。 一旦你接觸到了這麼多用戶,濫用的可能性就會隨之上升。

在這麼大的規模下,儘管會出現失誤,AI是處理問題的唯一方法。科技公司希望演算法能夠從中進一步學習並改進。

「Facebook實際上無法聘請足夠的人來做這件事,」Lee說。他將人工智慧與工業革命的轉變進行了類比。「你必須依賴機器。並不是所有東西都是要親手完成的,雖然那也沒關係。」


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 獵雲網 的精彩文章:

BAT搶灘AI醫療
李豐:美元港幣加息,和獨角獸的寒冬

TAG:獵雲網 |