コラム

AI加工は写真と言えるのか——実験写真家がセルフポートレートで考えた「写真の境界線」

私は40年以上にわたりセルフポートレートを撮り続けているが、今回はその最新バージョンとAIを使ったセルフポートレートを紹介することにより、写真と写真ではないものの境界線について考えてみたい。

61歳、街中で「パルクール」に挑戦(合成)

ではまず最新のセルフポートレート「パルクール編」をご覧いただこう。パルクールというのは、街中で障害物を飛び越えたり、よじ登ったりするアクロバットのような競技のことだ。それに61歳の私が挑戦した。

まあ独学なのでパルクールには全然見えないかもしれないがその点はご容赦いただきたい。そして、種明かしをしておけば、この写真は盛ってある。盛る前の写真は以下のようなものだ。

元の写真は公園で撮影し、その写真を切り抜いて街中の写真に合成してみた。なぜこのようなことをしたのかと問われても深い意味はない。中学生が教科書にイタズラ書きをするようなものなので、「コンセプトは?」とか聞かないで欲しい。強いて言えば、役に立たないくだらない写真を撮るのがコンセプトだ。

ではなぜパルクールなのか? 最初は以下のような写真を撮影した。これは私が実験写真家として世界で初めて4回転アクセルに成功した時の写真だ。

できはそんなに悪くないと思うのだが、なんか躍動感がないよね。なぜならこの写真は実際には飛んでいないからだ。

ただ階段の上に立っているところを無理やり空中に合成したので、動きのない写真になってしまった。

そして次は実際に飛んだものを合成しようと思い、ジャンプの練習をして撮影に望んだのが、今回のパルクールシリーズというわけだ。練習の結果、盛らないでもそこそこ飛べるようになったのだが、年寄りがあんまり無理をしちゃいかんなと、ちょっと反省をしている。

さて、このようなくだらない写真ではあるが、少し技術解説をしておくと、カメラは小さな三脚に載せ、下からアオリ気味に撮影した。カメラにはケーブルレリーズをつけ、アシスタントである実験写真家ジュニアが連写した。

シャッタースピードを1/1,000秒にしたので、白衣の動きなども止めることができた。反省点としては、ちょっとバックがうるさかったな。バックにはなにもないほうが切り抜きがしやすい。

AIで新たなセルフポートレートを生み出す

次にAI等の技術を使って、以前撮影したセルフポートレートに手を加えてみたい。まずはAIの実力を試してみよう。ここで使ったのはMidjourney(ミッドジャーニー)という人工知能プログラムだ。ヒントとなるプロンプトから画像を生成してくれる。

このプロンプトは単語でも文章でも構わない。イラストではなく写真のようなリアルなものにしたい、というような文章を加えれば、写真のようなイメージを生成してくれる。

白衣を着た実験写真家のイメージを生成するために次のようなプロンプトを入力してみた。

「Small fat Japanese man with camera in hand, light white coat worn by a researcher, very small round dark brown glasses, photorealistic, 40 years old, He's in a retro science room, shot on Kodak Gold 200, intricate, delicate, hyper-detailed, ultra photorealistic, high definition, cinematic, color grading, 8k」。

そして出来上がったのが次のようなイメージ。

なんか不思議なイメージではあるが、こんなものが簡単に生成できるというのは凄い。皮膚や髪の質感描写もうまいし、カメラも本物みたいだ。どこの国のものは分からないけど、なかなかおもしろいデザインだから一台欲しいな。将来的にはこういうものが3Dで生成でき、オブジェクトとして出力できるようになるのだろうか?

この写真はただテキストから生成したものなので自分には似ていなかったが、Midjourneyでは元写真にプロンプトを追加して加工することもできる。そこで今度は昔撮影した写真を加工して甦らせてみたい。次の写真は20歳の頃に撮影したものだ。本人は精一杯可愛くしたつもりだったのだが、ちょっと納得できない出来だった。俺はもっとカワイイぞ、という思いもあり封印してきた写真だ。

そこでこの写真を元にして、もっと可愛くしてくれるようにMidjourneyに頼んでみた。プラスしたプロンプトは「cute, real」だ。そして生成されたのが次の画像。

お前は誰だ! いや俺の中から生まれてきたんだから、お前呼ばわりはかわいそうか。マルチバースの俺の姿は彼女なのかもしれない。なんかセーターにできそこないのトトロみたいなもんが張り付いてるが、これがキュートの正体なのか?

Midjourneyは同時に4パターンの写真を生成するが、次のようなバージョンもあった。

もはや人間ですらない。なぜこうなった? そうか、キュートというキーワードがワンちゃんになったのか。俺の前世はワンちゃんだったのかもしれないな。自分が思いもつかなかったようなイメージを生成してくれるという意味ではおもしろいけど、ちゃんとコントロールするのはなかなか難しい。

元写真を可愛くするという目的の場合、このMidjourneyは向いていないのかもしれない。そこで今度は巷の女子が使っているiPhoneアプリのFaceAppを使ってみた。これは若い女の子達が写真を盛るために使っているものだから間違いないだろう。そしてエディットしてみたのが以下の画像だ。トトロちゃんからはだいぶ進化した。

この写真を見た娘が、自分がエディットすると言って加工してくれたのが以下の写真。使用アプリはiPhoneの「Ulikeユーライク:ナチュラルに盛るビューティカメラ!」というアプリだ。顔や鼻を小さくする、目を大きくする等の加工がされているが、私とは着眼点が違うようだ。プリクラで盛ることが当たり前で育った世代とは感覚もかなり違うということだな。参考になります。

次の写真は25歳の時に撮影したセルフポートレートだ。実験写真家になるため会社を辞め、その決意表明として、髪と眉毛を剃って撮影した。一人、アパートの一室で頭を振り回しながらリモコンでシャッターを切った。後年「手ブレ増幅装置」を考案してブレ写真を撮影したが、実はこのころからブレ写真を撮影していたということだ。

この写真を元に加工してみたい。イメージはターミネーターの金属男だ。ブレてる男が金属のマテリアルになったらカッコいいんじゃないだろうか。写真にプロンプト「Metallic human, liquid, splatter, glitter, silver」を添えて生成してみたのが次の画像。

チガーう。Who are you! 坊主頭で口を空けてるとこは合ってるけど、なぜ裸の女性なの? やっぱMidjourneyはこういうことには向いてないのだろうか。

元写真の活かし方などもコントロールできるみたいだが、言葉だけでイメージを生成するというのはなかなか難しいな。そこでMidjourneyではテクスチャの素材を作り、Ostagramでそのテクスチャとミックスしてみることにする。

まずMidjourneyに抽象画を次のプロンプトで描いてもらった「Abstract paintings with a touch of Van Gogh, yellow and blue」。こういうのはなかなかうまい。

この抽象画をOstagramを使ってブレたセルフポートレート写真と合体させてみる。Ostagramは2つの写真を合体させるのが得意で、一時期パスタ顔の人物写真などが流行ったが、あのアプリだ。ただ、著作権の問題などもあるので、Midjourneyの抽象画を素材としたというわけだ。

そして合成してみたのがこの写真。これはいいな。こんなふうに自分で描くことはできない。36年前に撮影したセルフポートレートが今、AIの力を借りて再生することができた。

まだプロンプトの使い方など全然わかっていないが、このAIによる画像生成には大きな可能性を感じた。もう少しプロンプトを工夫したり、Photoshopと組み合わせたりすれば、いろいろおもしろいことができそうだ。

もともと私は偶然性のようなものを写真の中に入れたいと思っているが、自分では全然考えていなかったような発想が出てくるのがおもしろい。実験写真家としてはもう少し深堀りしてみたいところだ。

結論…AIによるエディットは写真なのか?

さて、これらの写真を見て「こんなもんは写真じゃない」と思う人も多いんじゃないだろうか。まあ自分でもワンちゃんのイメージなんかは写真だと言い張るつもりはない。

しかしAI加工を使ってみて、“写真とは何か”という定義はなかなか難しいなと思った。

たとえば、Photoshopで加工した写真は写真と呼べるのだろうか? エディットした時点で写真ではないという意見の人もいるが、私はエディットに対して寛容だ。フィルムの時代から色や明るさの調整はあったし、合成テクニックもあった。「JPEG撮って出し」が正しい姿だと言う人もいるが、カメラ内で色や明るさの調整はされているし、レンズ補正などの変形処理もある。つまり、カメラで記録された写真には元々エディットの工程が含まれているわけだ。

一方で最近はAIを使った補正というものもある。たとえば画像内の邪魔なものを消す場合に、AIが周囲の画像から類推したイメージを作り出している。あるいは画像の拡大をする際にAIが類推して緻密に描写してくれるような技術もある。これなんかはAIが新たなものを生成してるんだから、Midjourneyのような画像生成ツールと変わりないとも言える。

そしてこういった技術が一般的になれば、画素数の足りない画像をブラウザやプリンタがAIで自動的に補完してくれるようにもなるだろう。自分が知らないところでAIにより補完された写真は、その瞬間に写真ではないものになってしまうのだろうか?

自分の知らない所でAI加工されていたとしても、それを知ることは困難だ。となれば、写真か写真か否かの判断は見た目でするのだろうか? しかしAIが生成した本物にしか見えない画像は写真と呼べるのだろうか?

いままで写真にこだわってずうっとやってきたが、実は今、その定義はなし崩し的に変わろうとしているのかもしれない。ただ、「これは写真じゃない!」などと拒絶反応を起こさず、自分の興味のままに実験をしてゆきたいものだ。

おまけ…宙玉にオールドレンズを

決意のセルフポートレートから幾年、私が実験写真家として考案した撮影技法に「宙玉レンズ」がある。これにどんなレンズが使えるのかと聞かれることがよくあるのだが、基本としてはフィルターネジがあれば取り付け可能だ。ただ、直径20mmの透明球を大きく写すためにはマクロレンズや接写リングを使う必要がある。

先日、ニコンのAi-S Nikkor 35mm F2という古いレンズを使って撮影してみたのだが、けっこう写りが良くてびっくりした。決して、AIの話でAiレンズのことを思い出したわけではない。

玉のエッジがくっきり写っているが周囲のボケはきれい。光条も美しい。
上の写真を撮影した機材。ニコン Z 5、Ai-S Nikkor 35mm F2、SHOTEN NF-NZ、Fマウント接写リング、ZENJIX 宙玉レンズボール、宙玉エクステンションチューブ

昔のレンズのいいところは鏡筒に絞りリングがあって、絞りをレンズ側でコントロールできるところだ。最近のレンズの場合は電子接点があってカメラ側から絞りをコントロールするので、接写リングを間に入れる場合も電子接点付きのものが必要になる。

しかし電子接点なしの接写リングというのは1,000円ぐらいで入手可能だ。安く接写できるようになるところが魅力と言える。またミラーレスカメラ用に新たに開発されたレンズは古いタイプのレンズと比べ、レンズから宙玉までの距離を開けなければならない傾向にある。宙玉エクステンションチューブが短くて済む分、安く、軽くなる点もいい。宙玉自体も工作可能なので、興味のある方はぜひお試しを。

(うえはらぜんじ)実験写真家。レンズを自作したり、さまざまな写真技法を試しながら、写真の可能性を追求している。著作に「Circular Cosmos まあるい宇宙」(桜花出版)、「写真がもっと楽しくなる デジタル一眼レフ フィルター撮影の教科書」(共著、インプレスジャパン)、「こんな撮り方もあったんだ! アイディア写真術」(インプレスジャパン)、「改訂新版 写真の色補正・加工に強くなる〜Photoshopレタッチ&カラーマネージメント101の知識と技」(技術評論社)などがある。撮影や工作に関する情報は上原ゼンジ写真実験室にまとまっている。