Appleが「iPhoneの画像やメッセージをスキャンして児童性的虐待コンテンツを探す仕組み」を諦めた理由とは?

2017-08-24_00h03_35 ガジェット総合
Appleは2021年8月にiPhone内の写真やメッセージをスキャンして児童虐待性的コンテンツ(CSAM)を削除する機能の実装予定を発表していましたが、iPhone内の情報スキャンはユーザーのプライ

リンク元

コメント

タイトルとURLをコピーしました