実施できる人: チームメンバー
対象プラン: Free、Starter、Business、Enterprise
対応プラットフォーム: ブラウザー、デスクトップ、モバイル
MiroのフローやサイドキックでAIアクションを実行する際に、「モデルを選択する」機能を使用すると、タスクに最も適した大規模言語モデル(LLM)を指定することができます。
例えば、画像生成の場合、Stable Diffusion 3.5 LargeやGemini 2.5 Flash Image(Nano Banana)を使用するかどうかを選択できます。
選択はタスクの複雑さや具体性に基づいて行うことがあるかもしれません。
💡 Miro フローとサイドキックには、各タスクに事前に選ばれたデフォルトのLLMが含まれています。どのモデルを選択するか不明な場合は、デフォルトモデルを使用するのが最適な出発点です。 デフォルトモデルには「おすすめ」というラベルが表示されます。
モデルセレクターは、次のフローとサイドキックの一部としてのみ利用可能です:
- サイドキックおよびフロー内の文書と画像フォーマット
- サイドキックのメインロジック
- フロー内の指示ブロック
この記事では、フローとサイドキック用のモデルを選択する方法と、一般的なタスクに適したLLMを選択するための情報を提供します。
独自のモデルを選択する
フロー
フロー内の文書、画像、指示ブロックには、それぞれ独自にモデルを選択できる入力ボックスがあります。
以下の手順に従ってください。
- キャンバスに文書、画像、または指示ブロックを追加します。
- 入力ボックスの右上にあるデフォルトモデル名、例えば
AWS | Claude 3.5をクリックすると、利用可能なモデルのリストにアクセスできます。 - モデルを選択します。
フローの作成やフローUXについて詳しくは、フローをご覧ください。
サイドキック
サイドキックを作成または編集する際に、モデル(上級)セクションが表示され、サイドキック処理、画像生成、文書生成に使用するモデルを選択できます。
サイドキックについて詳しくは、(サイドキック)[link-to-article]を参照してください。
モデルの違い
大規模言語モデル(LLM)は通常、能力が高いがリソースを多く消費するモデル、最適モデル、そして最も速いが能力の低いモデルを含むモデルファミリーの一員です。
例えば、GPT-5ファミリーには、GPT-5、GPT-5-mini、GPT-5-nanoがあります。
最も速いが能力が低いモデルは、低レイテンシーに理想的です。
推論モデルと非推論モデル
LLMの主な区別点は、推論モデルと非推論モデルの違いです。
推論とは、モデルがより高品質な回答を提供するために時間をかけることを指します。
✏️ 推論が常に最も正確な結果を意味するわけではありません。多くの反復出力が必要な場合、高い推論能力が最も効率的であるとは限りません。
顧客に向けた文書の作成や優先順位付け、大量の情報を処理する必要がある複雑なタスクには、推論モデルが最適です。
文法チェックや翻訳、テキストの再フォーマットといった単純なタスクには、非推論モデルが最も効率的です。
以下の表には、推論および非推論モデルが示されています。
| 推論能力 | モデル |
|---|---|
| 推論 | GPT-5、GPT-5-mini、GPT-5-nano、Claude Sonnet 4、Claude Sonnet 4.5、Gemini 2.5、Gemini 2.5 Flash、o3、o4-mini |
| 非推論 | GPT 4o、GPT-4o-mini、GPT-4.1、GPT-4.1-mini、Claude Sonnet 3.7、Claude Sonnet 3.5、Gemini 2.5 Flash Lite |
スタイル
それぞれのLLMは独自の「スタイル」を持っています。異なるモデルを試す中で、特にブランディングや雰囲気といった面で、要件に合った出力スタイルを見つけることができるかもしれません。
💡 古いモデルほど、特にクリエイティブで型破りな出力において、より独特なスタイルを持っています。
タスクに応じたAIモデルの選択
| タスク | モデル | 説明 |
|---|---|---|
| ブレインストーミング | GPT-4o、o3、o4-mini、Sonnet 3.7 | 発散的な思考や、機能のアイデア出し、遊び心のあるトーン、「クリエイティブなエッジ」に最適です。例えば、代替の見出しやマイクロコピーのバリエーションとしてテキストを生成するのに使用します。 |
| 優先順位付けとスコアリング | GPT-5、Claude Sonnet 4.5、Gemini 2.5 | 一貫性のあるスコアリングと明確な理由付けのための最高の推論モデルです。例えば、バックログのRICE/MoSCoWやトレードオフの解説、ロードマップティアに使用します。 |
| 統合と調査 | GPT-5, GPT-5-mini, Claude Sonnet 4.5, GPT-4.1, Claude Sonnet 3.7, Gemini 2.5 Flash | 中程度から高度な複雑タスクのために使用します。例として、メモからパーソナを生成したり、データおよび知識ベースから洞察を得たりすることがあります。 |
| スキーマと変換 | GPT-5-mini, GPT-5-nano, GPT-4.1, Sonnet 3.7, Gemini 2.5 Flash, Gemini 2.5 Flash Lite | フォーマット変更は通常、複雑な推論を必要としないため、最適化されたバージョンを使用すると結果が速く得られますが、大きなコンテキストを扱う際には、後期のモデルファミリーを使用して一貫性を確保してください。ノート → 文書、文書 → テーブル、仕様 → ダイアグラム |
| 迅速なテキスト編集 | GPT-4o-mini, Gemini 2.5 Flash Lite, GPT-5-nano, Claude 3.7 | 最速のオプション。文法や翻訳、明瞭性のための書き直しなど、単純なテキスト編集に最適です。 |
画像生成のためのモデルの選択
Miro がサポートするすべての大規模言語モデル(LLM)は、テキストと画像を処理できますが、ほとんどのモデルは画像を生成することができません。
画像生成には、Gemini 2.5 Flash Image(Nano Banana)が特に優れており、一般的な指示を画像に変換することができます。
ほとんどのLLMは具体的な指示ではなく、画像の説明を期待しています。例えば、「おかしな帽子をかぶった犬の絵」といった説明に対し、「犬のおかしな画像を作成する」という指示を受けることになります。Nano Bananaは具体的な指示に基づいて画像を生成することができます。
✏️ 既存の画像に対するターゲット編集にはNano Bananaを使用してください。その他のモデルは既存の画像をスタイルの参考として使うことができます。
速度や出力品質に関しては、LLM間で大きな違いはありません。各ユースケースにおいて、異なるモデルを試すことで自分の好みに最も合ったものを見つけてください。