<rp id="m92yg"></rp>
  • <th id="m92yg"></th>
      <tbody id="m92yg"><pre id="m92yg"><i id="m92yg"></i></pre></tbody>

      <s id="m92yg"><object id="m92yg"><listing id="m92yg"></listing></object></s><dd id="m92yg"><center id="m92yg"></center></dd>
      <rp id="m92yg"></rp>
      <ol id="m92yg"></ol>
      <rp id="m92yg"><ruby id="m92yg"></ruby></rp>

      您的位置:首頁 >教育 > 正文

      “換臉”也逃不過數字偵探法眼

      2018-08-10 16:24:05 來源: 字號:

      由人工智能技術合成的虛假視頻已達到幾可亂真的水平,美國國防部設立的研究項目現已開發出識別這些虛假視頻的首批工具。

      制作虛假視頻的最常見技術是使用機器學習技術將一個人的臉換到另一個人的臉上。由此產生的視頻,也被稱為深度偽造(Deepfake)視頻,不僅制作簡單而且逼真度驚人,經熟練的視頻編輯人員進行進一步調整后,還可使其看起來更加真實。

      深度偽造視頻使用了被稱為“生成建?!钡臋C器學習技術,其允許計算機在生成具有統計相似性的假實例之前從真實數據中學習。最新的深度偽造技術擁有兩個神經網絡——生成對抗網絡(GAN),其共同工作可產生更有說服力的虛假視頻。

      美國國防高級研究計劃局(DARPA)為此設立了“媒體鑒證”項目,以開發能識別深度偽造視頻的工具。該項目最初旨在實現現有鑒證工具的自動化,但最近將重點轉向了人工智能生成的虛假視頻。項目負責人馬修·特魯克表示,研究人員已在GAN操縱的圖像和視頻中發現了微妙的線索,從而使其能夠檢測到變化的存在。

      紐約州立大學奧爾巴尼分校呂思偉教授領導的團隊開發了一種非常簡單的識別技術。研究人員在觀察深度偽造視頻時發現,GAN技術生成的人臉很少眨眼,其一旦眨眼,眼球運動很不自然。這是因為,深度偽造視頻是基于對靜止圖像的訓練生成的,而靜止圖像的眼睛一般來說都是睜著的。

      參與DARPA媒體鑒證項目的其他團隊也在探索自動捕捉深度偽造視頻的類似技巧,如奇怪的頭部動作、特別的眼睛顏色等。

      達特茅斯大學數字鑒證專家漢尼·費瑞德認為,視頻偽造者和數字偵探之間的人工智能博弈才剛剛開始,機器學習系統經訓練后往往可超越新的鑒證工具。呂思偉表示,熟練的偽造者可通過收集顯示一個人眨眼的圖像來繞過他的眨眼工具,但其團隊目前已經開發出一種更有效的新技術,要比偽造技術略勝一籌。(馮衛東)

      [責任編輯:]

      版權與免責聲明: ①本網凡注明“稿件來源:本網原創”的所有作品。轉載請必須同時注明本網名稱及鏈接。 ②如若本網有任何內容侵犯您的權益,請及時撥打電話156零零572229,qq:345024六四0,本站將會在24小時內處理完畢,且不收取任何費用。 ③本網部分內容轉載自其他媒體,目的在于傳遞更多信息,并不代表本網贊同其觀點或證實其內容的真實性。不承擔此類 作品侵權行為的直接責任及連帶責任。
      [打印] [收藏] [關閉頁面] [發給好友]
      免费a级黄毛片

      <rp id="m92yg"></rp>
    1. <th id="m92yg"></th>
        <tbody id="m92yg"><pre id="m92yg"><i id="m92yg"></i></pre></tbody>

        <s id="m92yg"><object id="m92yg"><listing id="m92yg"></listing></object></s><dd id="m92yg"><center id="m92yg"></center></dd>
        <rp id="m92yg"></rp>
        <ol id="m92yg"></ol>
        <rp id="m92yg"><ruby id="m92yg"></ruby></rp>