Dropbox がユーザーのアカウントを削除しました...赤ちゃんの写真のせいですか?
昨日、RedditのDropboxサブで興味深いスレッドを読みました。 簡単に言うと、赤ちゃんの写真が原因でユーザーのアカウントが停止されたそうです。
ユーザーの赤ちゃんの写真がCSAM(児童性的虐待素材)としてタグ付けされていたようです。
問題の写真はまだ見ていませんが、ユーザーに疑いの余地を与え、CSAM目的で作成されたものではないと仮定しましょう。おそらく、何らかの自動画像審査ツールが写真の内容をスキャンし、フラグを付けたのでしょう。
言い換えれば、何らかのコードが写真を見て判断を下したということだが、これは一見すると不合理だ。
私も子供たちの裸の写真を持っている
実はそんなに珍しいことじゃないんです。娘が生まれた直後の写真があるんですが、なんとトップレスなんです。お風呂で遊んでいる子供たちの写真もあります。
人間の終わりのない堕落を考えれば、CSAM のような写真を消費する人がいることは間違いありませんが、それらは本当に法的にそのように分類されるのでしょうか?
「新生児」をグーグルで検索したら、髪にピンクのリボンをつけた可愛い女の赤ちゃんがベビーベッドの中で半裸になっている写真が何ページにもわたって見つかった。もっとグーグルで検索すれば全裸の写真も見つかると思う。
私は専門家ではありませんが、私の理解は次のとおりです。
- 新生児の入浴中や病院での写真など、一般的な家族写真は CSAM ではありません。
- これらは、性的ではなく、無邪気で、典型的な親の記録として理解されています。
- 写真が何らかの形で意図的に性的なものである場合、それはまったく別のことです。たとえば、性器に焦点を当てている、ポーズを示唆している、テキストを添えているなどです。
あなたはDropboxの言いなり
大手テック系クラウドサービスにはすべて「当社の裁量でサービスを終了できる」という条項があり、通常、請求を停止することだけが義務となっています。大手テック系は、自社のサービスは絶対確実であるというモデルで運営しているようで、機械による決定に対して人間が異議を申し立てることはほぼ不可能です。
ところで、Dropbox はなぜあなたのプライベート写真をスキャンするのでしょうか?
このスレッドのユーザーは諦めかけているようです。願わくば、彼もしくは彼女がこれらの写真のバックアップを他に持っていることを願います。子供を産むことができない知性の判断によって、これらの写真が永遠に失われてしまうのは残念ですから。