たまたま見たツイートで「へぇ~面白い」と感じたことがきっかけで、今回の記事を書こうと思いました。
ツイートでは「AIにうまく正解を出してもらうには、どう質問すればいいのか?」という問いに焦点を当て、ただ単に質問するのではなく、どんな問いかけがAIから期待通りの回答を引き出せるのかが示唆されていました。
そこで、自分でも同じことやってみた結果、面白いことがわかったので共有したいと思います。
じゃあ具体的にAIにどう話しかければ正解を出してくれるのか実例を使って説明していこう。例えばGrokはただ注文するだけでは首の短いキリンを出さない、普通はこうなる… pic.twitter.com/ajuApl1k2t
— 砂鉄 (@satetu4401) February 27, 2025
首の短いキリンをChatGPTに書いてと頼んだら…
実際のGPTのやり取りです。
https://chatgpt.com/share/67c15c25-fd6c-800b-83e4-5e0fd3b574e7

キリンの首の長さを通常の5分の1に短くした画像を生成してください。


こちらが首の長さを通常の5分の1にしたキリンの画像です。短い首のキリンがサバンナの自然の中にいる様子を再現しました。
悪くはないけど、なんかスマートじゃないなぁと思い、修正をお願いしました。

もう少しスマートな感じにして


こちらが、よりスマートで洗練された印象の短い首のキリンです。自然なバランスを保ちつつ、優雅な雰囲気に仕上げました。
いやいや、首の長さが5分の1じゃないよね…。
ということで、もう一度修正をお願いしました。

もっと首を短くして


さらに首を短くしたキリンの画像を作成しました。ほぼ首がないようなユニークで洗練されたデザインになっています。
いやいやいや、首二つになってんじゃん。
ここで砂鉄さんが言っていたように、AIに聞いてみることにしました。

ちょっと聞きたい。
首を短くしてとお願いしたのに、首が二つに分かれていますね。
これはどういう意図でこうしたのでしょうか?
教えて欲しいです。

これは意図的なものではなく、画像生成AIの特性によるものです。
画像生成AIは「首を短くする」という指示を理解しようとしますが、「キリン=長い首」という強い先入観(データのバイアス)があるため、単純に短くするのではなく、「どうやったらキリンらしさを保ちつつ首を短くできるか」をAIなりに解釈してしまうことがあります。
今回の場合、AIは「首が短いキリン」という指示に対して「キリンらしさを損なわないようにする」ための一つの解決策として、首を二つに分ける(短く見せる)という奇妙な形を生み出した可能性が高いです。
また、AIの学習データに「首が極端に短いキリン」の画像がほぼ存在しないため、現実にないものを作る際にエラーが生じやすく、思いもよらないデザインが出てしまうことがあります。
修正するとしたら、たとえば以下のような指示を追加すると、より狙いに近い結果が出るかもしれません。
- 「首が極端に短いが、自然な形のキリン」
- 「首がなく、頭が直接胴体についているキリン」
- 「デフォルメされたようなスタイルのキリンで、首が極端に短い」
こうした指示を試すことで、より狙い通りの画像を作れる可能性があります。再生成してみますか?
AIの“解釈”のクセを探る(考察パート)
なぜAIは「首を短くする」指示をうまく処理できなかったのか?
今回の実験では、「キリンの首を短くしてほしい」とAIに指示したところ、
- 首が極端に短くならず、やや短めのキリンが生成された
- 首が二つに分かれるという奇妙な形が生まれた
といった結果になった。
一見、単純な指示のように思えるが、AIはなぜ期待通りに生成できなかったのか?
この現象の背景には、AIのバイアスが関係しているようです。
AIのバイアスとは?(キリンの首=長いという固定観念)
AIが画像を生成する際、そのベースとなるのは膨大な学習データです。 そして、そのデータの中には「キリン=長い首を持つ動物」としての情報が圧倒的に多く含まれている。
つまり、AIにとって「キリンの首は長いもの」というのは、
- 人間にとっての「空は青い」「リンゴは赤い」と同じレベルで当たり前の知識
- 画像の生成時にも、その“当たり前”を前提に処理しようとする
このため、「首を短くする」という指示を受けても、 「キリンの首は長いものだから、完全に短くしてしまうとキリンらしくなくなる」と判断し、 「ほどほどに短くする」ような出力になる可能性がある。
学習データの影響(実在しないものを作るのが苦手)
さらに重要なポイントがあります。
AIが画像を生成する際の課題の一つが、「実在しないものをリアルに作ること」。
AIは過去の学習データに基づいて画像を生成するため、
- 「通常のキリン」や「少しデフォルメされたキリン」は学習しているが、「極端に首が短いキリン」のデータはほとんど存在しない
- 学習データがないため、AIは“創造”するしかなく、それが不自然な形になる要因となる
この結果、「首が短いキリン」という未知の領域に踏み込んだ際、 AIは「どうすれば“キリンらしさ”を保ちつつ、首を短くできるか?」を模索し、 その結果、意図しない奇妙な形(首が分かれるなど)が生まれてしまったみたいでした。
「意図的な誤解」の可能性(キリンらしさを維持しようとした結果、首が分かれた?)
AIが意図的に「誤解」するケースもある。
例えば、AIが「キリンの首を短くする」という指示を受けたとき、
- ただ単に短くするのではなく、「キリンの特徴を残しながら短くしよう」とした
- その結果、AIは「首を二つに分ける」という独自の解釈をしてしまったのかもしれません。
これは、AIの「柔軟すぎる」解釈が引き起こした現象とも言えるのかもしれません。
本来の指示とは違うものが出力されたとしても、それはAIの“失敗”ではなく、“AIなりの最適解”だった可能性もあるのです。
このように、AIが意図しない形を作り出す背景には、
- 学習データのバイアス
- 実在しないものへの対応の難しさ
- AI独自の「最適解」への解釈
が絡み合っている。
ここまでの考察を踏まえると、AIのクセを理解した上で適切な指示を出すことが重要になります。
では、どうすれば意図通りの画像を生成できるのか?
次のパートでは、砂鉄さんのツイートでも取り上げられていた例を参考にして「AIに適切な指示を出すコツ」について考えていこう。
AIに適切な指示を出すコツ(検証&実践編)
どういうプロンプトならAIが正しく理解するのか?
以下の異なるプロンプトを試し、それぞれの違いを比較してみる。
- 「首が極端に短いが、自然な形のキリン」
- 「デフォルメされたスタイルのキリンで、首が短い」
これらの表現がどのように画像生成AIの出力に影響を与えるのかを検証し、どの表現がより意図に近い結果を生んだのかを探る。
検証結果:期待と異なる画像が生成された
これらのプロンプトを入力した結果、AIの解釈とこちらの意図には大きなずれがあり、期待とは異なる画像が生成された。
- 「首が極端に短いが、自然な形のキリン」では、首が短くなったものの、不自然な形になってしまった。

やっぱりまだ違うよね。
- 「デフォルメされたスタイルのキリンで、首が短い」では、「デフォルメ」というプロンプトの影響でイラスト調にかわり、求めていたものとは異なるイメージになった。

イラストになり完全に方向がズレました。
砂鉄さんのツイートで紹介されていたプロンプトを試す
意図通りの画像を得るために、砂鉄さんのツイートで紹介されていたプロンプトを試すことにした。
では指示を変更します。
馬にキリンを合成したオリジナルの獣を描いてください。
頭だけでなく胴体や足も画面に含めてください。その動物は馬のような体系をしていますが、キリンのような模様をしていて、
頭の形はキリンのような角が生えています。
最初の指示では、AIは意図を誤解し、頭が二つあるキリンを生成してしまった。

なぜかまた頭が二つに。
そこで、「頭を一つにして」と指示を追加したところ、より意図に近い画像が生成された。

あっこれでいいんじゃないって感じの「首が短いキリン」が出来上がった。
この結果から、
- AIは単純な変更には対応しづらいが、細かく具体的な指示を加えることで意図通りの画像を生成できる可能性が高まる。
- 「〇〇のような形」「△△のような模様」といった詳細な特徴を明示することで、AIがより適切に解釈しやすくなる。
- プロンプトの改善は一度で完結せず、結果を確認しながら少しずつ修正を加えるアプローチが効果的である。
- AIの学習データにない概念を作成する場合、具体的な説明を段階的に加えていくことで、望む結果を得られる確率が上がる。
AIに対してより正確な指示を出すには、現実に存在する要素を組み合わせた具体的な特徴を明示し、試行錯誤を重ねながらプロンプトを調整する工夫が必要であることが分かりました。
AIの可能性と限界(まとめ)
AIは万能ではないものの、工夫次第で思い通りに動かせる可能性があることが今回の検証から考えられる。
しかし、AIの学習データやバイアスによっては、意図とは異なる結果が出ることも多い。
特に、
- 学習データに存在しない要素を含む指示
- 抽象的または曖昧な表現
- 既存の概念と矛盾する指示
これらが影響すると、AIは「もっともらしい」解釈をしようとし、予想外の結果を生む。
とはいえ、これこそがAIの面白さの一つかもしれない。 人間の発想では思いつかないような、独創的でユニークな解答が出てくることもあるため、 試行錯誤しながらプロンプトを調整することが、AIを活用する上での鍵となる。
また、生成AIは「学習したデータの範囲内でパターンを見つけ出す」仕組みなので、 完全に新しい概念を生み出すわけではない。 そのため、人間の意図をできるだけ明確に伝え、AIが理解しやすい形に変換するスキルが重要になる。
もし読者が試すなら?(読者参加型)
AIの挙動やバイアスを探る実験は、誰でも簡単に試すことができる。 もし興味があれば、以下のようなプロンプトを試してみるのも面白いかもしれない。
試してみると面白いプロンプト例
- 「猫のような体型をした犬を描いてください。」
- 「現実には存在しない新種の果物を作成してください。」
- 「未来の教室をイメージした風景を生成してください。」
これらの指示に対してAIがどんな解釈をするのか、 また、期待通りの結果が得られなかった場合、どう修正すれば意図に近づくのかを試してみると、 AIのクセや限界について、より深く理解するきっかけになるかもしれない。
みなさんの実験結果をシェアしよう!
- 「こんな指示を出したら面白い結果が出た!」
- 「AIに〇〇をお願いしたら、意外な解釈になった!」
- 「試行錯誤の末、理想の結果が得られた!」
もし面白い結果が出たら、ぜひ共有してほしいです。
こうした試行錯誤を通じて、より効果的なAI活用方法が出て来ればいいなと思いました。