児〇画像 | おっちゃんねる

おっちゃんねる

ここはおっちゃんの憩いの場 (´・ω・`)

Top / 詳細

児〇画像

2023年05月26日
17

10. 名無しのおっちゃん

2023年05月27日 14時58分 ID:01df2f82d9 (1/3) ID抽出 返信

たぶんだが規制は厳しくなると思う。
というのもAIが発達すると実際に撮られたものか生成されたものか判別できなくなる(現になってきている)けど、そうなると児ポ画像所持してる人間を逮捕した時に「これはAIで作られた架空のものです」って言われた場合、判別がつかない以上は逮捕や起訴はできない。
すると警察や政治家は判別する技術を磨いたり法整備するよりは「全部逮捕してしまえ」の方がずっと楽であるから、恐らくそうする。

しかしそもそも猥褻というもの自体の定義が非常に曖昧で「公序良俗」であるとか「羞恥心」というような人によって価値観の異なる概念によってしか定義されていないので、果たしてAIで生成された児ポ画像に対して裁判官がどのような法に基づいてどう判断するかは、有罪になるのか無罪になるのかは本当に匙加減の問題ではある。

12. 名無しのおっちゃん

2023年05月27日 16時31分 ID:01df2f82d9 (2/3) ID抽出 返信

確かアイコラで捕まった事例もあったはず。
あの辺りは公開あるいは頒布という点が罪に問われてたかと思う。

以下、ちょっと調べてみた感じだと…

児ポの単純所持(医療用等の目的を含まない所持)を取り締まるようになったのは2014年から。法律の運用上は「(児ポ法では)実物の被写体の年齢やその存在そのものを確認せずに逮捕し送検することができる」らしい。であるならばAIの生成した画像であっても逮捕要件は整うことになる。そんなバカな。俗に言う三号ポルノの曖昧さもあり、かなり粗雑な法律であることは間違いない。

ただ実際は取り締まる側としてはかなり強引に持っていかないと取り締まれないのが現状であり、同時にかなり強引な手段で取り締まられる危険性があるのが現状。

14. 名無しのおっちゃん

2023年05月27日 18時45分 ID:01df2f82d9 (3/3) ID抽出 返信

実例では職質からスマホ画像確認されてアウトってのがあって、それが児ポ法での逮捕第一号だそうな。

コメントを投稿する


カテゴリー一覧

おっちゃんねる