児〇画像 | おっちゃんねる

おっちゃんねる

ここはおっちゃんの憩いの場 (´・ω・`)

Top / 詳細

児〇画像

2023年05月26日
17

1. 名無しのおっちゃん

2023年05月26日 10時14分 ID:1898c6a2c2 (1/1) ID抽出 返信

演者が18才であれば児ポ風のAV作ってもOK。

それならAIで生成した、どうみても未成年の裸画像だったらどうなるの?
被害者は存在しないから今のところ日本では合法ポルノなのか。

2. 名無しのおっちゃん

2023年05月26日 12時12分 ID:283d47cc77 (1/1) ID抽出 返信

東京都では「非実在青少年」なる謎の言葉が造られたことがあってな…
いや、今でもあるか。意味はよくわからんがたぶんダメってことだろう。

3. 名無しのおっちゃん

2023年05月26日 12時13分 ID:8bfa59f5e8 (1/1) ID抽出 返信

権力の強い団体や政治家が逮捕しろと要求すれば
違法行為が無くても警察は自由に逮捕できる

例えばWinny開発者の通称47氏は
当時の法律には何も違反してなかったが逮捕された

逆に飯塚幸三のような権力者は
人を二人轢き殺しても逮捕されない

ちなみに警察だけでなく
裁判でも同様に違法か合法かは関係なく有罪にする事ができるし
逆に無罪にもできる

なぜなら日本の裁判制度では判事が証拠を却下するときに
何故却下したのかの説明責任が無いから
さらに判事を指名できる制度もある

なので判事に金を払えば勝てる
相手がどんな証拠を出そうと説明なしに却下ができるから

これがアメリカだと
証拠を却下する時は必ず合理的な理由を説明しないとならない
アメリカは法治国家だからね


日本を法治国家だと信じてる間抜けは
日本の法制度は中国と同じ人治国家レベルだと理解しないとならない



で、そんな国でAIロリ画像が違法か合法かなんて論じるのは無意味
潰したくなったら逮捕するってだけなんだから

4. 名無しのおっちゃん

2023年05月26日 13時41分 ID:3d2f680acd (1/2) ID抽出 返信

まあそう遠からず(あるいは既に?)、閉じたローカル環境下で本物と遜色ないその手の画像は生成できるようになるだろうな。いくら禁止したところで、個人で勝手にやってる分には逮捕のしようがない。ネット上で公開はできないだろうが、同好の士が集まって閉じたコミュニティを形成してれば手の出しようはないだろうしな。

5. 名無しのおっちゃん

2023年05月26日 14時08分 ID:42b219a354 (1/1) ID抽出 返信

児ポ所持の波動を感じ取った警察官がPCの中身を見せてもらいに来るかもしれない

6. 名無しのおっちゃん

2023年05月26日 18時04分 ID:91af6b6ee7 (1/3) ID抽出 返信

>>4
俺はAI環境作ったスレを立てたが
ローカル版のStuble diffisionで結構簡単にできるぞ
Automatic1111ってプロジェクトで作られた完全ローカルで動くやつ

あれはベースになるモデルと呼ばれるファイルと
Loraと呼ばれる生成結果を少し操作するファイルを組み合わせて生成するんだけど

数千枚の画像にタグ付けして学習させるベースモデルと比べて
Loraファイルは数十枚くらいでも使い物になるのが作れるのよ

そして学習環境もフリーであるので個人でも1〜2週間もあれば作れる
自分で作らなくてもAIデータの配布サイトがあるので
大抵の性癖はLoraを誰かが作ってる

7. 名無しのおっちゃん

2023年05月26日 18時05分 ID:91af6b6ee7 (2/3) ID抽出 返信

例えば大量のグラドル画像を学習させたモデルファイルに
おっぱいポロリだけ学習させたLora
バイブに騎乗位してるポーズを学習させたLora
妊婦の体型を学習させたLora
現実の誰か幼い顔のアイドルを学習させたLora

これを組み合わせると

そのアイドルが8歳くらいの外見で
妊婦腹になって(腹の大きさも自由に設定できる)
巨乳になっておっぱいポロリして
膣から精液を流しながら
床に置いたバイブに騎乗位で跨がって
泣きながら優しい笑顔を作ってカメラ目線で喘いでる

みたいな実写画像が作れるのよ
つうかどこまで変なのが作れるか試してたら実際作れたんだわ
ダウンロードしたモデルとLoraだけで


んで、モデルファイルを二次元用のものにすれば二次元でその絵が出るし
実写ベースのモデルなら実写で出るのよ

この技術は大抵のロリコンには福音になるんじゃないかね?
なにせ現実の人間に一切迷惑がかからない

8. 名無しのおっちゃん

2023年05月26日 18時06分 ID:91af6b6ee7 (3/3) ID抽出 返信

Webで生成サービスやってるのはエロ禁止が厳しいけど
ローカル環境なら自由にいくらでも作れるので
環境構築と作り方の勉強だけは必要だけどね

ソフトはすべてフリーで揃う
ハードは
VRAMが8〜12GBくらいのミドルクラスのGeForce(xx60番台以上)と
最新世代で一番安いCPU(画像生成はGPUにしか負担はかからない)と
メモリ64GBくらいのPCがあれば
例に上げたエロ画像は1枚40〜50秒で作れる

乱数を使ってバッチで作れば
寝てる間に1000枚でも2000枚でもロリエロ画像が作れるので
朝にでも確認すればいい

いやーこれはもっと広めれば児ポ犯罪なんて半減するんじゃないかな

9. 名無しのおっちゃん

2023年05月26日 19時54分 ID:3d2f680acd (2/2) ID抽出 返信

言ってることは半分くらいしか分からんがもう出来るのね。こうやって勝手にやってる分には規制のしようもないわな。その環境丸ごとパッケージにしたものもすぐに登場するだろうし、エロコンテンツ界隈ももはや風前の灯火か。まあこういう事実が明るみに出ればいつもの如くフェミさん方がブチ切れて規制しようとするだろうが、流石に今回は無理だろうな。

10. 名無しのおっちゃん

2023年05月27日 14時58分 ID:01df2f82d9 (1/3) ID抽出 返信

たぶんだが規制は厳しくなると思う。
というのもAIが発達すると実際に撮られたものか生成されたものか判別できなくなる(現になってきている)けど、そうなると児ポ画像所持してる人間を逮捕した時に「これはAIで作られた架空のものです」って言われた場合、判別がつかない以上は逮捕や起訴はできない。
すると警察や政治家は判別する技術を磨いたり法整備するよりは「全部逮捕してしまえ」の方がずっと楽であるから、恐らくそうする。

しかしそもそも猥褻というもの自体の定義が非常に曖昧で「公序良俗」であるとか「羞恥心」というような人によって価値観の異なる概念によってしか定義されていないので、果たしてAIで生成された児ポ画像に対して裁判官がどのような法に基づいてどう判断するかは、有罪になるのか無罪になるのかは本当に匙加減の問題ではある。

11. 名無しのおっちゃん

2023年05月27日 15時03分 ID:235d78fce1 (1/1) ID抽出 返信

議論の参考にどうぞ。
1980年代に出版された少女ヌード写真集を参考にしてPhotoshopで絵を描きCG画集をつくった。
そして2013年に、児童ポルノ画像34点を含むCG画集2冊を製造・販売した疑いで逮捕・起訴された。
https://www.buzzfeed.com/jp/kazukiwatanabe/cg-jipo-2sin-hanketu

Prompt-Free Diffusion: Taking "Text" out of t2i Diffusion Models
http://arxiv.org/abs/2305.16223
呪文なしで参照画像だけで生成する奴(事前学習モデル)
CLIP埋込みをSeeCoderに置換
参考絵を入れControlNetで構図指示すれば無詠唱で2枚めできる
ref-onlyより一貫性維持?
https://twitter.com/forasteran/status/1661962812518969349

12. 名無しのおっちゃん

2023年05月27日 16時31分 ID:01df2f82d9 (2/3) ID抽出 返信

確かアイコラで捕まった事例もあったはず。
あの辺りは公開あるいは頒布という点が罪に問われてたかと思う。

以下、ちょっと調べてみた感じだと…

児ポの単純所持(医療用等の目的を含まない所持)を取り締まるようになったのは2014年から。法律の運用上は「(児ポ法では)実物の被写体の年齢やその存在そのものを確認せずに逮捕し送検することができる」らしい。であるならばAIの生成した画像であっても逮捕要件は整うことになる。そんなバカな。俗に言う三号ポルノの曖昧さもあり、かなり粗雑な法律であることは間違いない。

ただ実際は取り締まる側としてはかなり強引に持っていかないと取り締まれないのが現状であり、同時にかなり強引な手段で取り締まられる危険性があるのが現状。

13. 名無しのおっちゃん

2023年05月27日 17時59分 ID:500e8e0c1e (1/1) ID抽出 返信

現状では販売や公開をしたらアウト、しなけりゃセーフって感じかな。厳密には製造がアウトでも個人で自給自足してる分には取り締まりようがないしな。それを取り締まるとすると、警察が個人のHDDの中身を検閲できるように法改正しなけりゃならん。

14. 名無しのおっちゃん

2023年05月27日 18時45分 ID:01df2f82d9 (3/3) ID抽出 返信

実例では職質からスマホ画像確認されてアウトってのがあって、それが児ポ法での逮捕第一号だそうな。

15. 名無しのおっちゃん

2023年05月27日 20時10分 ID:bc890dc61f (1/1) ID抽出 返信

職質されたらスマホの中身全部見せんといかんの!?この国怖すぎ。まあそもそもとしてスマホの中身なんて全部GoogleかApple、その他アプリ開発者に筒抜けなんだから、そんなとこにヤバいもん保存すんなよとも思うが。

16. 名無しのおっちゃん

2023年05月27日 20時19分 ID:9c3507472c (1/1) ID抽出 返信

流石に盗撮の疑いで、とかじゃないの?
何もなしにスマホの中を確認されたくはない

17. 名無しのおっちゃん

2023年05月27日 21時01分 ID:d2a930b380 (1/1) ID抽出 返信

パスを掛けとけば大丈夫だよ

違法アップだったかで逮捕されたやつが
PCのデータ全部暗号化してて、
パスワードを教えないから復号化できずに証拠不十分で起訴されなかった事件があったはず

コメントを投稿する


カテゴリー一覧

おっちゃんねる