Appleが「iCloudフォトに性的児童虐待の画像がないかをチェックするシステム」の実装を破棄

2017-08-24_00h03_35 ガジェット総合
Appleは、ユーザーがiCloudに保存している写真をスキャンして性的児童虐待のコンテンツ(CSAM)が含まれていないかを検出する計画を発表していましたが、これに対して反対の声が多く挙がりました。A

リンク元

コメント

タイトルとURLをコピーしました