據(jù)外媒Techspot報道,人們可以使用許多方法來處理圖像和視頻,因此谷歌通過發(fā)布更易于發(fā)現(xiàn)篡改的在線內(nèi)容的工具來為最糟糕的情況做準(zhǔn)備。隨著2020年美國總統(tǒng)大選的臨近,科技巨頭們正在尋找不同的方式來對抗假新聞,錯誤信息以及在大型社交和搜索平臺上傳播deepfakes視頻的情況。
以谷歌為例,它一直在準(zhǔn)備防御措施以應(yīng)對假新聞浪潮。但是,這家搜索巨頭希望通過其Jigsaw子公司采取更為主動的方法,該方法使用最近發(fā)布的名為Assembler的平臺來幫助事實檢查人員和新聞記者在圖像有機會在線傳播之前迅速對其進行驗證。
這些工具是免費的,并且雖然公認(rèn)是“早期實驗平臺”的一部分,但它們是一個很好的起點,其中包括來自加州大學(xué)伯克利分校,那不勒斯菲里德里克第二大學(xué)和馬里蘭大學(xué)的學(xué)者的貢獻。
匯編程序的工作方式是將幾種機器學(xué)習(xí)算法組合在一起,這些算法擅長查找顏色和噪聲圖案,噪聲圖案中的不一致之處以及查看各種圖像
Assembler擅長檢測圖像中最常用的篡改技術(shù),例如播放亮度或復(fù)制和粘貼紋理或?qū)ο笠匝谏w某物或某人。它帶有一個分?jǐn)?shù),該分?jǐn)?shù)代表圖片可能被篡改或以任何其他方式更改的可能性,類似于Adobe的About Face AI。該項目的另一個目標(biāo)是微調(diào)可以發(fā)現(xiàn)使用StyleGAN創(chuàng)建的 deepfakes,StyleGAN是一種能夠產(chǎn)生令人信服的假想面孔的算法。
Jigsaw首席執(zhí)行官Jared Cohen在博客文章中解釋說,該公司“觀察到虛假信息以被用于操縱選舉,發(fā)動戰(zhàn)爭和破壞公民社會的方式的發(fā)展。” 這種認(rèn)識導(dǎo)致決定開發(fā)用于阻止這些嘗試的技術(shù)。
在撰寫本文時,Assembler具有七個不同的工具,記者和其他人可以使用它們來發(fā)現(xiàn)遭篡改的圖像。但是,Jigsaw研究者Santiago Andrigo和Andrew Gully告訴《紐約時報》,匯編程序不是靈丹妙藥,作為一個生態(tài)系統(tǒng),匯編程序需要隨著時間的推移快速發(fā)展和改進。
這就是Jigsaw還發(fā)布了一個名為“ The Current”的網(wǎng)絡(luò)出版物的原因,該出版物將持續(xù)不斷地展示正在進行的有關(guān)檢測錯誤信息活動的研究。Cohen表示:“我們的主要動機是創(chuàng)建一個場所,使人們可以訪問許多在處理此問題的第一線的專家,獨立研究人員和組織的工作?!?/p>
人們可以使用許多方法來處理圖像和視頻,因此谷歌通過發(fā)布更易于發(fā)現(xiàn)篡改的在線內(nèi)容的工具來為最糟糕的情況做準(zhǔn)備。隨著2020年美國總統(tǒng)大選的臨近,科技巨頭們正在尋找不同的方式來對抗假新聞,錯誤信息以及在大型社交和搜索平臺上傳播deepfakes視頻的情況。
以谷歌為例,它一直在準(zhǔn)備防御措施以應(yīng)對假新聞浪潮。但是,這家搜索巨頭希望通過其Jigsaw子公司采取更為主動的方法,該方法使用最近發(fā)布的名為Assembler的平臺來幫助事實檢查人員和新聞記者在圖像有機會在線傳播之前迅速對其進行驗證。
這些工具是免費的,并且雖然公認(rèn)是“早期實驗平臺”的一部分,但它們是一個很好的起點,其中包括來自加州大學(xué)伯克利分校,那不勒斯菲里德里克第二大學(xué)和馬里蘭大學(xué)的學(xué)者的貢獻。
匯編程序的工作方式是將幾種機器學(xué)習(xí)算法組合在一起,這些算法擅長查找顏色和噪聲圖案,噪聲圖案中的不一致之處以及查看各種圖像中像素的屬性。
Assembler擅長檢測圖像中最常用的篡改技術(shù),例如播放亮度或復(fù)制和粘貼紋理或?qū)ο笠匝谏w某物或某人。它帶有一個分?jǐn)?shù),該分?jǐn)?shù)代表圖片可能被篡改或以任何其他方式更改的可能性,類似于Adobe的About Face AI。該項目的另一個目標(biāo)是微調(diào)可以發(fā)現(xiàn)使用StyleGAN創(chuàng)建的 deepfakes,StyleGAN是一種能夠產(chǎn)生令人信服的假想面孔的算法。
Jigsaw首席執(zhí)行官Jared Cohen在博客文章中解釋說,該公司“觀察到虛假信息以被用于操縱選舉,發(fā)動戰(zhàn)爭和破壞公民社會的方式的發(fā)展。” 這種認(rèn)識導(dǎo)致決定開發(fā)用于阻止這些嘗試的技術(shù)。
在撰寫本文時,Assembler具有七個不同的工具,記者和其他人可以使用它們來發(fā)現(xiàn)遭篡改的圖像。但是,Jigsaw研究者Santiago Andrigo和Andrew Gully告訴《紐約時報》,匯編程序不是靈丹妙藥,作為一個生態(tài)系統(tǒng),匯編程序需要隨著時間的推移快速發(fā)展和改進。
這就是Jigsaw還發(fā)布了一個名為“ The Current”的網(wǎng)絡(luò)出版物的原因,該出版物將持續(xù)不斷地展示正在進行的有關(guān)檢測錯誤信息活動的研究。Cohen表示:“我們的主要動機是創(chuàng)建一個場所,使人們可以訪問許多在處理此問題的第一線的專家,獨立研究人員和組織的工作?!?/p>
據(jù)了解,Google的技術(shù)孵化器Jigsaw發(fā)布了一個名為Assembler的實驗平臺,以幫助記者和前線事實檢查人員快速驗證圖像。
其匯編程序結(jié)合了學(xué)術(shù)界現(xiàn)有的幾種技術(shù)來檢測常見的操縱技術(shù),包括更改圖像亮度和將復(fù)制的像素粘貼到其他地方以掩蓋某些東西,同時保留相同的視覺紋理。它還包括一個檢測器,該檢測器可以發(fā)現(xiàn)使用StyleGAN創(chuàng)建的深層偽造品,StyleGAN是一種可以生成逼真的假想面孔的算法。這些檢測技術(shù)會輸入到主模型中,該模型會告訴用戶圖像被操縱的可能性有多大。
眾所周知,偽造圖像是更難驗證的事情,尤其是隨著人工智能操縱的興起。隨著信息的傳播速度和規(guī)模的擴大,新聞記者和事實檢查者作出反應(yīng)的機會窗口也在迅速縮小。
匯編程序是與受控媒體作斗爭的重要一步,但它并未涵蓋許多其他現(xiàn)有的操縱技術(shù),包括用于視頻的操縱技術(shù),隨著生態(tài)系統(tǒng)的不斷發(fā)展,團隊需要對其進行補充和更新。它仍然作為與通常分發(fā)篡改圖像的渠道分開的平臺而存在。專家建議,像Facebook和Google這樣的技術(shù)巨頭將這些類型的檢測功能直接整合到其平臺中。這樣,可以在上傳和共享照片和視頻時幾乎實時地執(zhí)行此類檢查。
也有其他方法可以考慮。例如,一些初創(chuàng)公司正在采用驗證技術(shù),該技術(shù)可以在拍攝照片時記住照片中像素的位置,但這也帶來了挑戰(zhàn)。最終,技術(shù)修復(fù)還遠(yuǎn)遠(yuǎn)不夠。數(shù)字偽造最棘手的方面之一并不是偽造圖像本身。而是它們存在的想法,可以很容易地調(diào)用它們來質(zhì)疑真實媒體的準(zhǔn)確性。這是挑戰(zhàn)的類型,也將需要社會和政策解決方案。