首頁 > 科技 > > 正文
2019-08-08 15:27:46

SFU學生的AI解決方案可以屏蔽視頻偷窺者

如果您是房主,您可能會依賴智能家居安全系統讓您高枕無憂 - 但如果第三方在您不知情的情況下攔截和查看活動會怎么樣?

“當您將視頻或智能家居系統流上傳到安全提供商時,圖像本身就很明顯,保存圖像數據的服務器可以識別您的身份,”SFU工程科學博士生Saeed Ranjbar Alvar說。“當我們上傳到谷歌或Facebook時,我們會看到這一點,并且它會使用自動面部識別軟件建議照片中的人物。智能家居安全系統也是這樣做的,以保護我們免受入侵者的侵害。“

Ranjbar Alvar和博士生Hyomin Choi正在提出一種隱私屏蔽解決方案,該解決方案使用人工智能(AI)來保護流媒體視頻中的無辜主體,同時不影響視頻對安全提供商和執法部門的實用性。

在最近涉及谷歌Nest和亞馬遜環的隱私泄露事件中,未經授權的用戶查看了數千名毫無戒心用戶的家庭監控視頻,并暴露了使用不受保護的智能監控系統的風險。幾天前,這次在美國海關和邊境保護局的分包商處發生的類似違規事件表明,這種黑客攻擊的后果不僅僅是個人 - 它可能對國家和國際安全產生影響。

為了創建他們的解決方案,Ranjbar Alvar和Choi開發了一種計算機視覺算法,當視頻上傳到智能家居系統中使用的存儲平臺,甚至是用戶的個人Google云端硬盤時,可以對圖像進行加密。

“我們創造的是一種加擾數據的方式,這樣我們人類就無法識別視頻中的人,而沒有正確的權限來解鎖它,但是軟件仍然可以區分它們,”Choi說。

他們在電氣電子和工程師協會的多媒體和信號處理兩個會議的會議記錄中發表了這項研究。IvanBaji?教授在SFU工程科學學院的多媒體實驗室監督該項目。

Ranjbar Alvar和Choi修改了視頻壓縮算法,以便將內容模糊并加擾到人眼。然后,他們應用機器學習技術來訓練人工智能模型,以識別與人臉相對應的視頻數據流(稱為比特流)的部分。由此產生的視頻在很大程度上對人類來說是荒謬的,但人工智能系統可以在其中找到人臉并跟蹤他們在視頻中的活動。

因此,在開發的AI模型的幫助下,人類主持人仍然可以確定人類主體的存在,但實際上無法看到它們的樣子。對于像Nest和Ring這樣的設備,房主的隱私將保持不變,而安全提供商可以應用該軟件來判斷是否允許占用者或是入侵者。黑客或潛在的偷窺者只能看到亂糟糟的廢話。

學生的模型目前能夠以與典型的面部識別掃描儀相同的方式識別對象的面部。在未來,他們希望提高其識別動作和姿勢的能力 - 例如摔倒的人或群體拳頭 - 用于各種公共安全和個人安全應用。與此同時,當前模型還可用于保護個人照片被黑客入侵的用戶的隱私。

“我們可以看到這項技術也被用于出租車,輔助生活設施和許多其他視頻需要足夠有用的地方進行分析,但主題應該具有隱私性,”研究信號處理和機器學習的Baji?說。多媒體。

“直到最近,大多數人對他們的隱私都相當松懈,”他說。“但這種情況正在發生變化,人們要求公司更加認真地對待我們每天訪問的技術。”

Ranjbar Alvar對此表示贊同,“隱私是數字世界的一個大問題。我希望這項研究可以成為解決方案的一部分,這樣我們就可以保護人們免受他們可能甚至沒有意識到的這些入侵。“

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯系我們修改或刪除,多謝。

相關推薦

种植红头k赚钱吗 平特一肖规律公式 国内股票指数 河北十一选五任三技巧 天津时时彩开奖结果 幸运农场开奖结果 北京快三什么时候开 辽宁11选5一个号最多多少期没出 七乐彩怎样选号 北京快3和值开奖结果 大乐透玩法介绍