画像:EFF

Appleは、オペレーティングシステムに変更を加える計画を発表しましたそれは大規模なプライバシーの悪夢のように聞こえます。業界で懸念を表明している同社は、子供を保護し、児童性的虐待資料(CSAM)の拡散を制限するためにそうしていると主張しています。

「私たちは、コミュニケーションツールを使用して子供を募集および悪用する捕食者から子供を保護し、児童性的虐待資料(CSAM)の拡散を制限したいと考えています」と同社は書いています。この取り組みには、メッセージの新しい安全機能、iCloudでのCSAMコンテンツの検出、Siriと検索での拡張ガイダンスが含まれます。

AppleM1のAMDVP:強力なシングルスレッドパフォーマンスとZen 3 CPUと同等ですが、非常に競争力のあるロードマップがあります

2つの主な懸念事項は次のとおりです。

Appleは、iCloud Photosにアップロードされたすべての写真をスキャンして、全米行方不明・搾取児童センター(NCMEC)が管理している既知のCSAMのデータベース内の写真と一致するかどうかを確認するスキャン機能を追加する予定です。
また、子アカウント(未成年者が所有するように指定されたアカウント)によって送受信されたすべてのiMessage画像をスキャンして、性的に露骨な内容を探します。子供が未成年の場合、Appleは、性的に露骨な写真を送受信しようとすると警告を発し、親に通知します。

これらのアップデートは、iOS 15、iPadOS 15、watchOS 8、macOSMontereyのアップデートで今年後半に導入される可能性があります。

Appleは子供たちを保護するためにセキュリティとプライバシーを分解していますが、子供たちをさらに危険にさらす可能性があります

iPhoneメーカーは、NCMECによって収集された200,000の性的虐待画像でトレーニングされたneuralMatchアルゴリズムを使用して、画像をスキャンして既知のCSAM画像を検出することを計画しています。 レポートによると、iCloudにアップロードされたすべての写真に「安全バウチャー」。特定の数の写真が疑わしいとマークされた場合、Appleはすべての写真を復号化し、違法な場合はNCMECに渡すことを許可します。

Appleは、これはユーザーのプライバシーを念頭に置いて行われていると主張しています。

「システムは、クラウドで画像をスキャンする代わりに、NCMECやその他の児童安全組織が提供する既知のCSAM画像ハッシュのデータベースを使用してデバイス上で照合を実行します」と同社は書いています。 「Appleはさらに、このデータベースを、ユーザーのデバイスに安全に保存される読み取り不可能なハッシュのセットに変換します。」

WhatsAppがついにビューワンスモードをロールアウトします

ただし、セキュリティ研究者は、この取り組みを支持する一方で、Appleが世界中の政府にユーザーデータへの効果的なアクセスを可能にしていることを懸念しています。これは、すべてのバックドアの場合と同様に、Appleが現在計画しているものを超える可能性があります。 。このシステムは、児童の性的虐待を検出することを目的としていますが、ユーザーの知らないうちに他のテキストや画像をスキャンするように適合させることもできます。

「それは私たちの電話とラップトップの分散型一括監視につながるので、それは絶対にぞっとするような考えです。」-UoCのロスアンダーソン。

Appleは、ユーザーのプライバシーの最前線にいると誰もが信じるようにするのが好きですが、米国政府のためにこのバックドアを作成すると、政府は他のテクノロジー企業に独自の要求をするようになります。これは現在米国で行われていますが、他の政府がテクノロジー企業から同様のより的を絞った要求を正当に行う道を開いています。

世界中のセキュリティ研究者は、他に証明されない限り、すべてのAppleユーザーが犯罪者になっているため、これが事実上Appleのプライバシーの終焉である理由について書いています。

データベースが「テロリスト」コンテンツ「「有害だが合法」コンテンツ」を含むように拡張されるまでにどれくらいかかると思いますか?州固有の検閲?

—サラジェイミールイス(@SarahJamieLewis) 2021年8月5日

「その監視を暗号化の任意の数の層にラップして、それを口に合うようにすることができます。最終結果は同じです」と、OpenPrivacyのエグゼクティブディレクターであるSarahJamieLewis氏は書いています。

「そのプラットフォーム上のすべての人は潜在的な犯罪者として扱われ、令状や理由なしに継続的なアルゴリズムによる監視の対象となります。」

Electronic Frontier Foundationは、この動きを「私生活への裏口。”

「子供の搾取は深刻な問題であり、Appleはそれと戦うためにプライバシー保護の姿勢を曲げた最初のテクノロジー企業ではない」とデジタル著作権会社は書いている。どれだけうまく設計されているか。

「しかし、その選択はユーザーのプライバシー全体にとって高額になります。Appleは、その技術的実装が提案されたバックドアのプライバシーとセキュリティをどのように維持するかを詳細に説明できますが、結局のところ、完全に文書化されていても、慎重に考え抜かれた、狭い範囲のバックドアはまだバックドアです。」-EFF

新機能は、政府が干渉しなくても懸念されており、クィアの子供たちにとって生命を脅かす可能性があります。ハーバード大学のCyber​​lawClinicのKendraAlbertは、これらのアルゴリズムが移行写真を含むLGBTQ +コンテンツを過大評価するだろうとツイートしました。 「「女性が乳首を見せている」場合は、友達にあなたの写真をテキストメッセージで送ってください」と、アルバートツイート 。

「性的に露骨な」コンテンツのフィルターがLGBTQ +コンテンツを過大評価していることを示す研究が山ほどあります。この「機能」は、多くの奇妙な子供たちを同性愛嫌悪の両親に送り出します。 https://t.co/zRCrLNdGss

— Eva(@evacide) 2021年8月5日

>

ジョンズホプキンスの暗号学教師であるマシューグリーンは、AppleがE2E以外の写真でこの発売を開始しているため、ユーザーのプライバシーを損なうことはないと思われると述べました。 E2E写真をスキャンすることが目標ではなかった場合。」これらのシステムが、レビューできない「問題のあるメディアハッシュ」のデータベースにどのように依存しているかを忘れないでください。

これらの画像は、Appleが開発している新しいハッシュ関数よりもはるかに単純なハッシュ関数を使用した調査からのものです。それらは、機械学習を使用してそのような衝突を見つける方法を示しています。 https://t.co/N4sIGciGZj

—マシューグリーン(@matthew_d_green) 2021年8月5日

Greenはまた、Appleがプライバシーを重視する企業であるという考えが彼らに多くの良い報道と消費者の信頼をもたらした一方で、それは FBIのためにiCloudバックアップを暗号化する計画を破棄しました

Appleは、これらの新しい変更の詳細をこのドキュメントで共有しています。 Appleは善意を持っているかもしれませんが、iPhoneメーカーはセキュリティとプライバシーの約束を破っているだけでなく、個人データへのこのアクセスを悪用しないために政府に頼るようにユーザーを投げかけています。これは良い実績がありません。 。

EFFが言うように、Appleが行っているのは滑りやすい坂道だけではなく、「外部からの圧力がわずかに変化するのを待つだけの完全に構築されたシステム」です。

Categories: IT Info