国产电影精品一区-日韩专区一区-亚洲小说欧美激情另类,亚洲精品在线观看视频,欧美性生交大片免费看app麻豆,久久99国产精品二区不卡

蘋果回應解釋放棄兒童性虐待材料(CSAM)檢測計劃的原因

業界
TIME
2023-09-01 08:40
IT之家
分享

  IT之家 9 月 1 日消息,蘋果公司在遭到媒體、非營利機構和消費者的諸多反對之后,于去年 12 月宣布,iCloud 云服務停止兒童性虐待材料(CSAM)檢測計劃。

  這項檢測計劃于 2021 年 8 月開始測試,主要會檢測存儲在 iCloud 的 CSAM 圖像資料,但自推出以來備受爭議。

  Illustration: Jacqui VanLiew

  蘋果最初表示,CSAM 檢測將在 2021 年底之前在 iOS15 和 iPadOS15 的更新中實現,但該公司最終根據 "客戶、宣傳團體、研究人員和其它方面的反饋" 推遲了這項功能。

  一家名為 Heat Initiative 的兒童安全組織本周告知蘋果公司,正組織一項活動,要求公司從 iCloud 中“檢測、報告和刪除”CSAM,并要求為用戶提供更豐富的工具,來向蘋果公司舉報 CSAM 內容。

  IT之家援引 Wired 報道,蘋果公司罕見地回應了 Heat Initiative,蘋果公司用戶隱私和兒童安全總監 Erik Neuenschwander 在回應中概述了放棄開發 iCloud CSAM 掃描功能的原因:

  

兒童性虐待材料是令人憎惡的,我們致力于打破使兒童易受其影響的脅迫和影響鏈。 不過掃描每個用戶私人存儲的 iCloud 數據,會成為數據竊賊發現和利用創造新的威脅載體。 而且這種方式會導致很多預期之外的嚴重后果,例如掃描一種類型的內容為批量監控打開了大門,并可能產生跨內容類型搜索其他加密消息傳遞系統的愿望。

  蘋果公司此前在關閉 CSAM 計劃時表示:

  

在廣泛征求專家意見,收集我們去年提出的兒童保護舉措的反饋后,我們正加大對 2021 年 12 月上線的 Communication Safety 功能的投資。我們決定不再推進我們之前提出的 iCloud 照片的 CSAM 檢測工具。 兒童可以在沒有公司梳理個人數據的情況下得到保護,我們將繼續與政府、兒童倡導者和其它公司合作,幫助保護年輕人,維護他們的隱私權,讓互聯網成為兒童和我們所有人更安全的地方。

  《沉寂 1 年多后,蘋果宣布 iCloud 放棄兒童性虐待材料(CSAM)檢測計劃》

THE END
免責聲明:本文系轉載,版權歸原作者所有;刊載之目的為傳播更多信息,如內容不適請及時通知我們。

相關熱點

  新華社記者白陽  9月,一批重要新規開始施行。推進無障礙設施建設,讓殘疾人、老年人生活“無礙”;法律援助案件辦理更加便民利民,對困難群體的保障更加有力……法治更...
互聯網
  近日,住房城鄉建設部、中國人民銀行、金融監管總局聯合印發了《關于優化個人住房貸款中住房套數認定標準的通知》,推動落實購買首套房貸款“認房不用認貸”政策措施...
房產

相關推薦

1
3