古い話ですみません。10月9日の朝日新聞に、「ポルノや殺人、画像見て判別 増えるネット投稿、適否監視といたちごっこ」という記事が載っていました。
・・・世界中からネット上に投稿される残忍な動画やポルノ写真などを、一つずつ手作業で取り除く下請けの仕事が世界で広がっている。市民の目に触れないようにするためだが、投稿量は増える一方で、残忍な画像を大量に見るうちに病気になる例も出ている・・・
・・・今年に入り、FB上で殺人など犯罪の様子を動画で投稿する事例が相次いだ。FBは自社のガイドラインをもとに、4500人態勢でチェックする体制をとっていたが、コンテンツモデレーターを約3千人増員すると発表した・・・
詳しくは記事を読んでいただくとして。このような作業がなされているとは、知りませんでした。
「広告収入で支えられているソーシャルメディアなどにとって、暴力映像やポルノがあふれれば、ブランドイメージにかかわる」ので、ソーシャルメディア会社などが、削除をしているのです。
「裸の赤ちゃんの写真でも家族がお風呂に入れているなら児童ポルノとは言えない。魚釣りや狩猟の写真なら動物虐待とは言えない。文脈の中で写真を判断する必要があります」。なるほど、まだ人工知能(AI)では、判断できないのですね。
・・・メディアによると、世界で20億人が使うフェイスブック(FB)に投稿される写真は1日約3億5千万件。動画は毎日約5億人が見ている・・・
気の遠くなるような数字です。