ウソばかりの時代 AIでフェイク画像が進化 

 Ford.Tord.Tさんの写真より修整

 政治家や新聞、テレビ局も証拠の捏造、偽装などウソばかりつく時代ですから、もう街やネットにはウソがあふれています。
 先日NHKのクローズアップ現代でも、卒業アルバムの写真から、好きだった女の子の猥褻写真をAIソフトで作り、本人にも見せた愚劣な犯罪も取り上げていました。
 Googleピクセルで画像の合成や修正が無料でカンタンにできるわけですから、有料ソフトで、卑猥な合成であたかも本物のようなフェイク画像や動画をつくるのも、それほど難しい時代ではないわけです。話は少しそれますが、私は卒業アルバムをもう持っていません。家もそうスペースがないし、転勤も多かったですし、早めの終活です。偉大な家長でもない限り、写真や賞状、トロフィーなんか残された者はそうありがたくもないです。若い頃の思い出とか、当時の友達の写真も、時間が経過してから今さらみて懐かしむ行為というのは、私は好きではありません。

 話がそれましたが、卒業アルバムやスナップなどそういうものが犯罪に使われたと聞いてからでも少なくとも数年は経過します。その後、技術や蓄積された知見も進み、悪質なものがフリーや有料で出回っています。昔は写真の現像技術や機材、場所も必要でそれでも稚拙なレベルでしたが、今はパソコンで素人でも慣れればかなり巧妙で、本人が気づかぬうちに裸を撮られたと勘違いするほどの出来ですし、作られたとはいえそれを見た本人はショックも大きい話です。

 アイコラともいう以前から芸能人のものも巧拙あるものの出回っています。
 一般人の卒業アルバムで好きな人の性欲を思いを浮かべるのは自由ですが、具体的なものにして、本人を傷つけるのは愚かな犯罪です。タチの悪い犯罪につながるソフトは手に入らないようにすればと思うのですが、そうも行きません。個人の自覚、倫理観に委ねるしかありません。最悪、もう卒業アルバムも顔写真NGなどという時代になるのかもしれません。

 防犯カメラなどの証拠画像も、ドラマなどではよくフェイク画像が使われたりします。巧妙度合いは高まるでしょう。

 30年以上昔、ある女性芸能人が整形を重ねたと噂される熟年の写真集を出して、それを別の男性タレントに「改造人間」と揶揄され面白おかしく辛辣に語られ、裁判を起こされた訴訟騒動がありました。今だと、それほど珍しくもない年齢でのヌード写真集はざらにありますし、整形も大学生の就職でさえ多くの割合で行われています。タレントの写真集など、もはや整形やダイエットをしなくても、カメラやデジタルの技術で修正できる時代になってきています。一時期リベンジポルノというのも問題になりましたが、そこまでの関係にない、ただ卒業アルバムや遠くから撮った写真を入手して、元恋人のようにポルノ写真が作れるのですから、そんなものを流されたら当人はたまりません。

 作られた画像の裸を見て「私ではない」と泣き叫ぶ人もいれば、作られた美しい肢体の裸像の写真集を「私のカラダ」と誇らしげに宣伝する人もいるわけです。

 もはや、真実は分かりにくい時代です。AIの写真も最初は丸わかりの感じでしたが、今は本物とかなり区別は難しい精巧なものができてきています。著作権以上にAIでできたパーソナリティが人権を訴えてきそうです。

 
 

コメントを残す

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください