NSFWメディア識別機能


#1

NSFW系メディアをアップロードする時にNSFWがONになっていないというような事が度々問題になっているのでもういっそ作ってしまえば良いのでは?と思いました。


#2

https://github.com/KnzkDev/mastodon/issues/110
でも同じことを書いています。

初期の頃に出たアイデアは

メディアアップロード

投稿

NSFWの可能性があれば自動でNSFWを有効にする

というものでしたがこれだと他鯖では全く意味が無いので

メディアアップロード

識別

NSFWの可能性があれば警告を表示

投稿

というものを考えています。

基本的には

  • ローカルに対しては警告を表示
  • 連合から流れてくる画像には対応インスタンスで自動NSFW

という感じで処理出来ればベストかと。


#3

ただGithubでも書いているようにAWSのRekognitionなどを使おうと考えているのでもちろん有料になります。
そのため管理者側でOn/Offを設定出来るようにしないと本家に投げるにしても厳しいものがあります。


#4

ここに書いといてアレなんですが手伝える人がいればGithubのほうでお願いします。


#5

アイデア系はここに投げてもらっても構いません。


#6

Twitterで相撲の画像が不適切な画像だと判別されて話題になったのを思い出しました。
どんなサービスを利用しても最終的にはまだまだ人の目が必要かなと思います。

  • オープンになっているNSFW候補を自動でレポートする機能
  • 管理者がNSFWを後付けする機能

が現実的な所かなと思います。


#7

すみません、ちょっと一旦クローズします。


#8