摘要:據(jù)媒體報(bào)道,韓國今年年內(nèi)將在首爾市場安裝內(nèi)置人工智能(AI)軟件的攝像頭,用來檢測潛在犯罪。該方案由韓國國家級研究機(jī)構(gòu)首爾電子與電信研究所(ERTI)執(zhí)行,他們將在7月前在首爾市The Seocho District區(qū)內(nèi)安裝3000臺AI攝像頭。
據(jù)媒體報(bào)道,韓國今年年內(nèi)將在首爾市場安裝內(nèi)置人工智能(AI)軟件的攝像頭,用來檢測潛在犯罪。該方案由韓國國家級研究機(jī)構(gòu)首爾電子與電信研究所(ERTI)執(zhí)行,他們將在7月前在首爾市The Seocho District區(qū)內(nèi)安裝3000臺AI攝像頭。
用攝像頭來監(jiān)控公共場所一事并不稀奇,但這種形式并不夠先進(jìn),經(jīng)常有犯罪事件發(fā)生后,我們想通過攝像頭錄像尋找嫌疑人總是很難。這次首爾該地區(qū)所采用的AI攝像頭在這一點(diǎn)上就有了很大的改善。

與普通攝像頭不同的是,這些攝像頭將使用AI系統(tǒng)處理路人的位置、時間和行為模式,例如自動測量路人是否正常行走,或者跟蹤某人,還能檢測路人是否戴帽子、面具、眼睛以及隨身攜帶的東西,比如有很大可能被用來犯罪的袋子或其他危險物品。AI系統(tǒng)會利用這些數(shù)據(jù)來預(yù)測犯罪發(fā)生的概率。如果概率超過一定值,攝影頭會提醒地區(qū)附近的警署派人前往。

但是,這也引發(fā)了一些人的擔(dān)憂。眾所周知,如今科技迅速發(fā)展,人臉識別、人工智能技術(shù)已經(jīng)深入到了日常生活的方方面面,也因此讓不少人患上了“攝像頭焦慮癥”。

出現(xiàn)這種情況的原因就是人臉識別等技術(shù)管理不規(guī)范,而且全球早已爆出多起人臉識別盜取用戶隱私信息的事件。就國內(nèi)市場上銷售的家庭智能攝像頭而言,有機(jī)構(gòu)統(tǒng)計(jì),近八成產(chǎn)品存在用戶信息泄露、數(shù)據(jù)傳輸未加密、APP未安全加固、代碼邏輯存在缺陷、硬件存在調(diào)試接口、可橫向控制等安全缺陷。
而不法分子可以輕易控制這些存在缺陷的智能攝像頭,對安裝攝像頭的家庭或公司進(jìn)行監(jiān)控甚至網(wǎng)上直播。所以,這也導(dǎo)致了很多人對AI攝像頭敬而遠(yuǎn)之。

有人可能會說,私人場合不用AI攝像頭不就好了,公共場合還能抓捕罪犯,不是挺好的么?這里我們可以聯(lián)系之前在微博上曾引起熱議的一組課堂上學(xué)生課堂行為分析的視頻截圖來分析。照片中,攝像頭通過計(jì)算機(jī)視覺算法獲取學(xué)生的課堂表現(xiàn),并以標(biāo)簽的形式計(jì)算出“聽講、閱讀、舉手,趴桌子、玩手機(jī)、睡覺”等動作次數(shù)。如果有孩子因?yàn)閯幼鬟^度,最后機(jī)器就會得出一個綜合結(jié)論:她這是個有問題的孩子。

同樣的事情放在火車站、商場等公共場所,想必誰也不愿意因?yàn)閹е此蒲b著危險物品的袋子就被工作人員盯上。技術(shù)發(fā)展是件好事,可是在AI技術(shù)籠罩下,如何保護(hù)個人隱私倍感無力的神經(jīng)是個問題。你怎么看呢?
注:本文由今日商訊獨(dú)家原創(chuàng),未經(jīng)授權(quán),禁止轉(zhuǎn)載或引用。
編輯/卞慧靜