蘋果分析圖片的技術原理
蘋果公司的負責隱私的主管Erik Neuenschwander近期詳細介紹了該公司CSAM(兒童性虐待圖片)掃描系統(tǒng)中內(nèi)置的一些細節(jié),以減少外界對此功能的疑慮。
上周蘋果宣布將推出一系列的防止兒童色情犯罪功能,其中最有爭議的,他們將會掃描用戶的云端相冊,并將其數(shù)據(jù)與相關數(shù)據(jù)庫中的關鍵部分對比,如果符合并且經(jīng)過人工確認后,會向相關部門報告。
CSAM檢測系統(tǒng)也因此引發(fā)爭議。作為回應,蘋果公司提供了許多如何在不危及用戶隱私的情況下掃描CSAM的詳細信息。
在接受外媒TechCrunch采訪時,蘋果公司隱私負責人Erik Neuenschwander表示,該系統(tǒng)從一開始想到了防止政府過度干預和濫用。
一方面,該系統(tǒng)僅適用于美國,第四修正案的保護措施已經(jīng)防止非法搜查和扣押。另外,他適配iOS 15系統(tǒng),如果沒有更新iOS,也無法進行;第三,它不能針對個人用戶提供特定的更新,只是將指紋數(shù)據(jù)(也就是部分關鍵特征)與政府或相關部門提供的數(shù)據(jù)庫比對。不在國家失蹤和受虐兒童中心提供的數(shù)據(jù)庫中的圖像也不會被標記。
蘋果公司也有人工審核流程。如果iCloud帳戶被標記為疑似收集非法CSAM材料,蘋果公司團隊將審查該數(shù)據(jù),以確保機器是正確判斷的。
“所以這個假設(指的是濫用此功能)需要跳過很多條件,包括讓蘋果公司改變其內(nèi)部流程以引用,或者更改CSAM數(shù)據(jù)庫,我們不相信人們能夠在此基礎上在美國提出這個要求”
此外,Neuenschwander補充說,該系統(tǒng)僅在用戶啟用了iCloud照片時才有效。蘋果隱私負責人表示,如果用戶不喜歡該系統(tǒng),“他們可以選擇不使用iCloud照片,這樣系統(tǒng)的任何部分都無法運行”。
在上周,蘋果公司也曾明確表示,它將拒絕任何政府組織試圖修改或將系統(tǒng)用于CSAM以外的用途:“Apple將拒絕任何這樣的要求,我們以前曾面臨類似要求,這些會降低用戶的隱私,因此堅決拒絕了。我們將來還會繼續(xù)拒絕他們。這項技術僅限于探測存儲在iCloud中的相關圖片,我們不會同意任何政府擴展它用途的請求。”
- 中國聯(lián)通發(fā)布全球最長距離大模型異構混訓成果
- 瓴盛科技陷入破產(chǎn)危機:手機SoC芯片競爭太殘酷
- 2024年中國獨角獸企業(yè)榜單:量子科技三家公司不變
- 邁入智算云新時代:聯(lián)通云宣布AI全棧升級
- 四大通信央企2024年度業(yè)績考核全A
- 人工智能支持的邊緣設備安全:構建下一代邊緣網(wǎng)絡安全體系
- 工信部謝存:截至6月底,搭載開源鴻蒙系統(tǒng)產(chǎn)品超11.9億臺
- 工信部謝存:截至6月底,5G基站總數(shù)達到455萬個 5G移動電話用戶達11.18億戶
- 人工智能在制造業(yè)的應用為何現(xiàn)在至關重要?
- 美國移動市場整合最新動態(tài):T-Mobile收購UScellular遭強烈反對
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。