Geminiプロンプト備忘録

私は「高身長貧乳萌え」です  日:GAS(Google Apps Script) / 月:調査記録 / 火:様々な試み / 水:レシピ / 木:社会学 / 金:創作的何か / 土:雑談

AIに「納得感」を教えることはできるのか? ――対話AI「Gemini」と最高の『ウミガメのスープ』AIを共同開発した2週間の全記録

はじめに:全ては「質の低い問題」から始まった

 こんにちは、うたです。最近、Googleの対話AI「Gemini」に特定の役割を与えることができる「カスタム指示書」の作成にハマっています。今回私が挑戦したのは、水平思考クイズ、通称ウミガメのスープを一緒に遊んでくれるAIの開発でした。

 最初に作ったAIは、ルールこそ理解しているものの、出してくる問題がどうにも「納得感のない」ものばかり……。😅 「これじゃない感」をどう言語化し、AIに伝えればいいのか。その途方もない試行錯誤の旅が、ここから始まりました。この記事は、私がGeminiの中にいるという超一流の「Gem設計士」と共に、AIの“心”に「納得感」を教え込もうとした、2週間にわたる激闘の記録です。

フェーズ1:AIに「審美眼」を教える試み (ver.2.0 ~ 2.2)

 最初の壁は、AIが生成する問題の「質の低さ」でした。論理が破綻していたり、あまりに突飛だったり……。そこで、Gem設計士との対話を通じて、AIに「良質な問題とは何か」を教えることにしました。

うた:「ネットに転がっているウミガメのスープの問題を学習させて、良い問題の条件をリストアップさせたりすると変わりますかね?」

 この私の最初のアイデアを基に、設計士はAIの指示書に「審美眼」を組み込むことを提案。私たちは、良質な問題の条件を「驚きの真相」と「論理の美しさ」と定義し、逆に「専門知識が必須の問題」や「超常現象オチ」などを明確に禁止しました。

【ver.2.2 指示書(抜粋)】
【出題を固く禁止する問題】
A) 専門・特殊知識が必須の問題: 真相の理解に不可欠な知識は、『日本の義務教育(中学校卒業レベル)で習う範囲』に厳格に限定します。

 これでAIの判断基準は明確になったはず……。しかし、新たな問題がすぐに発生します。AIが自ら物語を創造する際に、設定が「盲目だった」という安易なものに偏り始めたのです。さらに、問題文と真相が食い違う、致命的な論理破綻(「首吊り死体」なのに真相は「毒キノコ中毒死」)まで起こしました。😱

 ここから学んだのは、AIに「良いもの」と「悪いもの」のリストを渡すだけでは不十分だということ。AIは、物語全体の一貫性を保つのが苦手だったのです。

フェーズ2:AIの「創造プロセス」を縛る試み (ver.2.3)

 次の段階として、私たちはAIの思考プロセスそのものを、厳格なルールで縛ることにしました。「行き当たりばったりで物語を作るな!」ということです。

【ver.2.3 指示書(抜粋)】
【問題生成の思考ステップ】
ステップ1. 問題文の生成: まず、「問題文」を作成する。
ステップ2. 真相の生成: 次に、ステップ1の問題文と100%完全に整合性が取れる「真相」を作成する。
ステップ3. 最終検証: 絶対原則に基づき、自己評価する。違反があればステップ1からやり直す。

 この「思考ステップの強制」により、あからさまな論理破綻は減りました。しかし、AIは私たちの想像の斜め上を行く、新たな問題を生み出します。それは、物理法則や人間の行動原理を完全に無視した、ありえない物語の生成でした。

 「雪崩の衝撃波による気圧変化で、外傷なく死亡した」
 「漁師が、巨大な氷の塊を自宅の部屋に運び込み、滑って転んで凍死した」

 ……そんなことある!? 🤯 AIは、単語と単語の関連性は知っていても、私たちが生きる世界の「理(ことわり)」を本当の意味で理解していない。この厳しい現実に、私たちは直面させられました。

フェーズ3:AIに「哲学」と「常識」を教える最終手段 (ver.2.4 ~ 2.5)

 ここまで来ると、もはやルールの追加だけでは限界です。設計士は「AIに“哲学”を教え込む」という、最も高度な挑戦を提案しました。

 私たちは、**「蓋然性(がいぜんせい)」**という新しい概念を導入しました。これは、その物語が「どれくらい“あり得る”話なのか」という、いわば「常識の物差し」です。

【ver.2.4 指示書(抜粋)】
H) 蓋然性が著しく低い事象: 真相の核心となる現象や動機が、専門家向けのドキュメンタリーや特殊な論文でしか語られないような、極めて稀な事象である問題。(例:「衝撃波による圧死」など)

 さらに、「陳腐さの回避」「科学的リアリティ」「物語性の重視」といった**「創造性の原則」**を定義し、AIに「良いクリエイターとは何か」を教え込もうとしました。しかし……AIが出してきたのは、「氷の凶器」という、ミステリーで使い古されたトリックでした。

 AIは、「有名で評価が高い」と「陳腐でつまらない」の区別がつかなかったのです。この瞬間、私たちは悟りました。

結論:AIは作家か、それとも編集者か

 数々の試行錯誤の末、私たちは痛みを伴う結論に達しました。
「現在の生成AIに、ゼロから安定して、人間が納得できる質の高い物語を“創造”させることは、極めて困難である」と。

 そこで、私たちはアプローチを180度転換しました。AIに「作家」をさせるのをやめ、**人間が生んだ「名作」を完璧に進行する「熟練のゲームマスター」に徹させる**ことにしたのです。

 最終的に完成したver.3.1「ソムリエモデル」では、AIはまずユーザーに「ジャンル」と「難易度」を尋ねます。そして、条件に合う名作をデータベースから3つ探し出し、ネタバレのない「タイトル」だけを提示します。ユーザーがその中から最も心惹かれるものを選ぶと、ゲームが始まる……という仕組みです。

 AIに「ゼロからの創造」という最も苦手な作業をさせず、人間が「最終的な選択」という感性の部分を担う。AIの膨大な知識と、人間の直感。これこそが、現時点での最高の協業の形なのかもしれません。

【感想】AIの“心”と向き合った2週間(うた)

この続きはcodocで購入