Apple社【iPhone・iCloud】「性的画像・児童虐待画像取り締まり」噂の真相とは!?

2020東京オリンピック終了間際、盛り上がりを見せるオリンピック関連の話題に混じって、SNSで騒然となった話題があります。

それは「Apple社が、iPhone・iCloud内の画像データを検閲し、場合によってはアカウントの凍結があり得る!?」というものです。

これが事実であれば、わたしたちはSNSサービスや個人ブログなどに画像を投稿しなくても、プライベート情報が企業によって閲覧されてしまうことに繋がります。

あからさまなプライバシーの侵害。こんなことがいくら巨大企業とはいえ、行うことが許されるのでしょうか?

とはいえ、ここまでのことを行わなければいけない社会の側面というものも実際に存在します。

今回は、この内容についての「真相」を綴っていきたいと思います。

真相「プライバシーは守られない」

もったいぶらずに、今回の件についての真相を発表します。

結論として「iPhone・iColud内の画像に関するプライバシーは守られない」と考えた方が良いです。

今後、iPhone内に画像を保存したり、iCloudを利用するのであれば、扱うデータは万人から観られてもかまわないものにする必要があるということになります。

そもそも「そのような画像を撮らない」というのが、iPhone・iCloudユーザーにとっては、意識として必要になってくるのではないでしょうか。

そもそもどのような機能が追加されるのか?

2021年8月現在において、Apple社が「この機能をすぐに実装する」というものではありません。

機能というのは「Apple社がAIまたは人間により、iPhone・iCloudユーザーの画像ファイルを検閲し、問題のある画像が検出された場合、ユーザーに対しての注意、もしくはアカウントの凍結を行う」という内容です。

この内容を聞いて、たいへん困惑する方もいれば、喜ぶ方も多いでしょう。

大きく賛否が別れる内容ですので、Apple社としては「実行は決まっている」としても、機能の詳細な仕組みの決定についてはじっくり時間をかけて検討していくようです。

機能追加の原因は?

Apple社の英断ともいえるこの機能の追加について、ことの発端は「児童虐待画像の撲滅」にあります。

さかのぼれば、インターネットが普及し始めた頃からはじまった「児童虐待画像」についての問題。

「遊びで撮影したヌード画像が流出してしまい、いじめや恐喝に発展した」

「児童ポルノの動画販売システムが確立され、多くの児童が犠牲となった」

最近でいえば、2021年4月に起こった、北海道旭川市での中学生女子凍死事件も、児童虐待画像が悲劇を生み出した原因のひとつでした。

また、現在進行形として、闇社会では「ヌードで借金を返済」というシステムが横行しています。

債務者がお金での返済の代わりに、ヌード画像や淫らな画像・動画を融資相手にデータ送信し、それを一般に公開することで、広告費などを借金の返済にあてるというものです。

その画像や動画に「高価になるから」という理由で、実の息子や娘の児童虐待動画が利用されているというケースもあり、家庭内盗撮なども、マスメディアではあまり公開されていませんが、大きな社会問題となっております。

多くの人にとって、あまり身近ではないかもしれませんが、当該者やその周囲の人間にとっては、地獄そのものといっても良い「児童虐待画像」「児童ポルノ」問題。インターネットの歴史は、これらとの戦いの歴史といっても過言ではありません。

ひとりの人間として、社会人として、様々なことに意思判断をするこが出来づらい児童期の少年少女を守るため、これ以上の犠牲者を生まないため、Apple社はiPhone・iCloud内の検閲を行うことを実行すると決めました。

児童虐待画像とは?

まず児童とは?

各種法令に準ずる形として、一般的に「18歳未満」の年齢にあたる者がこれにあたります。

児童という書き方をしているので、あたかも幼稚園児以下の年齢や、いっても小学生くらいと思われてしまうかもしれませんが、赤ちゃんから高校生までを「児童」と指します。

次に虐待画像とは?

大きな線引きとして、衣服や下着を着用していない肌の露出が極めて多い画像になります。水着においても、デザインによってはこれに該当します。

洋服を着用していても、一部、性器やお尻、女性であれば胸などのデリケートゾーンを露出をしている画像もこれに該当します。また、下着が洋服の隙間から見えてしまっている画像も場合によっては該当します。

次の線引きとして、暴力を受けている。性的虐待を受けている。惨めな姿を晒されている。などがあります。

この機能との向き合い方

Appleが始める新機能 「Apple社がAIまたは人間により、iPhone・iCloudユーザーの画像ファイルを検閲し、問題のある画像が検出された場合、ユーザーに対しての注意、もしくはアカウントの凍結を行う」

明確な名前が決まっていないので、再びこの長い文言を引用させて頂くのですが、この機能について反感をもつ方は多いと思います。

「プライバシーの侵害ではないか!!」まさに、その通りだと思います。

ですが、その個人のプライバシーを守ることにより、同時に多くの児童が危険に晒されて、地獄をみていることも理解してください。

1900年代に自動車が一般普及化し、同時に多発した自動車による被害を解消するための道路交通法が作られたように、新しい科学テクノロジーの普及により、新たなルールが敷かれようとしているわけです。

勘違いのプライバシー侵害

「プライバシーの侵害だ!!」と発言する方たちの多くに「息子や娘の成長記録・観察を目的としてのハダカの画像をiPhone内に残しておくのが違反だというのか?」という意見があります。

なるほどとも思うのですが、そのような発言をする方たちは、息子さんや娘さんが、将来「大人」になることをご存知ないのでしょうか? また、いくら血のつながった息子や娘とはいえ、それぞれ人権がある、あなたとは別人の「個人」であるということを理解していないのでしょうか?

立場を変えて、現在「父・母」として、幼少の息子や娘さんをお持ちの方のお父さんやお母さんが「自分の娘や息子の成長記録として」 どのようなカタチでも良いので撮影し、 20代や30代である自分の息子や娘のハダカの画像をご自身のスマホの中に保存していたら、どう思われます?

理由はどうであれ、自分自身以外が所有するスマホの中に、自分のハダカの画像が存在することは、本人を悩ませる大きな問題となります。

あたりまえのように「息子や娘の成長記録」などと銘打って、自分以外のハダカの画像を撮影・保存する行為は、人権侵害であるということを理解しましょう。

どうしても、子供のハダカを記録として残しておきたいのであれば、忘れられない記憶としてアタマの中にだけ留めておくのがよろしいかと思います。

また、どうしても「成長観察」という目的として記録したいのであれば、きちんとした学術書・論文として作成し、しかるべき機関に提出、保管してもらいましょう。

インターネットに繋がるデータは万人のものであるという意識

プライバシーの侵害だ!! と、思われる方も多いですが、プライバシーを侵害されないようにするためにも、iPhoneをはじめ、スマホの中やクラウドサービス上に、侵害されては危険なプライバシーを置くことは危険です。

Appleが始めようとしている、新機能 「Apple社がAIまたは人間により、iPhone・iCloudユーザーの画像ファイルを検閲し、問題のある画像が検出された場合、ユーザーに対しての注意、もしくはアカウントの凍結を行う」 は、むしろプライバシーを侵害するのではなく、プライバシーを守ってもらうための機能といっても良いでしょう。

いくらセキュリティが堅牢となっているとはいえ、インターネットに繋がっている限り、全てのデバイスに保存されているデータは、インターネットを経由して誰にでも見られてしまうと思った方が賢明です。

検閲のために、Apple社が個人のiPhoneの中にある画像を閲覧しなくても、ハッキングによりデータを見られる可能性は往々にしてあります。

ハッキングされずとも、スマホ内にダウンロードしたアプリからスマホ内の画像を抽出されて、不特定多数のユーザーに散布されるなんてこともありえます。

それが、アプリ作成者の故意である場合もあれば、使用しているユーザーの操作ミスにより起こってしまうこともありえます。

実際わたしの友人(春日エリ)も、新しくダウンロードした画像関連のアプリを、わけもわからず操作していたらハダカの画像が、一般公開としてアップロードされてしまっていたという経験があります。

この時は、わたしも同じアプリをダウンロードしていて、そのハダカ画像が一般向けに公開されていることに気付いて、早い段階で対応できました。

以上のようにスマホ内の「画像データ」に、プライバシーを侵害してしうような画像が存在すること自体が、実は危険だったりするのです。

Apple社の見解

さて、今後iPhoneやiCloud内に、画像の検閲を行う機能を搭載するApple社。

アップルのインテリジェントシステムエクスペリエンス担当副社長 セバスチャン・マリノー・メス(Sebastien Marineau-Mes)が、開発スタッフに向けた進言からわかるのは、あくまでこの機能はユーザー個人の画像全てを検閲・閲覧し、それらひとつひとつに言及するようなものではないということです。

つまり、関係のない部分については「見えて」しまってはいるけれど「注視」しているわけではないということですね。

コンビニエンスストアに買い物に行ったとき、買い物をしている最中に店員さんから姿を見られたり、監視カメラで撮影されていることを「プライバシーの侵害」とは呼びませんよね?

「子供のための保護機能の拡張(Expanded Protections for Children)」は、そんなコンビニの店内で買い物をしている最中に、取り忘れたクリーニングのタグが服についていることを「こっそり」店員さんが耳打ちしてくれるようなものです。

「あなたの画像ファイルに、児童虐待画像っぽいものがあるのですが、大丈夫ですか?」と。

外出する際に、近所へ行くとしてもある程度着飾って出掛けるように、iPhoneをはじめスマホの中や、データ保管用のクラウド内も「他人から見られてもOK」という意識に移行していかなければいけない時代に突入しています。

そして、同時に「他人から見られたらNG」な画像を撮影しない・作らない、ということも必要になってきます。

もしそれが「どうしてもいやだ」というのであれば?

例えるのであればそれは、なにかしらの理由をつけてクルマや電車といった交通機関に乗るのがどうしてもいやだと言っているのと同じようなことです。そういう方は、自転車や徒歩といった科学のチカラを使わない交通機関で移動するしかないでしょう。

言い替えるなら、スマートフォンを使わない生活に移行する。ということです。また、インターネットも使用しない方が良いでしょう。

再び自動車・クルマを例えに出してしまいますが、日本には1955年~1964年頃に「交通戦争」と呼ばれる、年間に1万人以上もの交通事故死者数が出る時代がありました。

ちょうど東京オリンピックの開催に向けて、高度経済成長期となった時期で、オリンピックに使用する競技場などさまざまな建築物が新設され、それに伴って大型車の交通量が増加し、トラックの運転席から見ずらい小さな子供たちが交通事故の犠牲者の中心となっていました。

これにより、自動車メーカーは自動車のブレーキなど安全装置の強化を行ったり、スピード規制や車線規制など道路交通法の改正や見直し、更には罰則の強化が行われました。

クルマやスマホに限らず、人間が暮らしやすくなったり、経済を急激に成長させたりする科学技術の普及は、同時にこれまで起こり得なかった犠牲を生み出していきます。

この「交通戦争」という言葉を借りるのであれば、現在のこの世界は「児童虐待画像戦争」の真っ只中です。

インターネットの誕生・普及とともに、同時に生まれてしまった影の部分としての「児童虐待画像戦争」

これを鎮静させるための大きな一歩として、Apple社は動き、続いて多くのスマートフォンメーカーも賛同していくことでしょう。

なによりもいま、わたし達が優先して行わなければいけないことは「児童虐待画像」「児童ポルノ」により、国内だけでも年間で2,000人近い児童が被害に遭い、いじめを受けたり、犯罪に巻き込まれたり、自殺に追いやられているという事実を知り、理解することです。