Miro AI モデレーションを使用すると、会社の管理者は害を及ぼす可能性のあるまたは不適切なテキストを含む可能性があるプロンプトのフィルターレベルを調整できます。組織全体で Miro AI のモデレーション感度を設定し、憎悪、性的コンテンツ、暴力、自傷行為を含むコンテンツをフィルターすることができます。これにより、Miro AI の使用を組織の要件、方針、リスク許容度に合わせることができます。
✏️ 組織が独自の LLM プロバイダーを接続する場合(たとえば、OpenAI との直接インテグレーション)、モデレーションセレクターは無効化され、以前に選択されたレベルはそのインテグレーションには適用されません。
モデレーションレベル
Miro AI モデレーションを使って、組織全体で Miro AI コンテンツを管理しましょう。フィルターレベルを Strict、Default、Minimal に設定して、ブロックするプロンプトを制御できます。以下の表で各レベルをすばやく比較し、その後の詳細セクションでさらにガイダンスを得てください。
| レベル | その機能 | 最適な用途 | トレードオフ |
|---|---|---|---|
| 厳格 | デフォルトに加えて 低から中程度のリスクがある コンテンツをブロックします。 |
厳格に規制されている組織、 教育機関。 |
誤検知が増加し、 過度なフィルタリングの可能性。 |
| デフォルト (推奨) |
中度から 重度の有害 コンテンツをブロック。 |
ほとんどの ビジネスユースケース。 |
境界線上の コンテンツが通過する可能性があります。 |
| 最小 | 深刻な有害コンテンツのみを ブロックします。 |
クリエイティブ/ゲーム/メディア 環境。 |
軽度から中程度の危害への さらなる露出。 |
✏️ ほとんどの組織にはデフォルトがおすすめです。多くの人が不適切または有害と考えるコンテンツをフィルタリングしながら、幅広い使いやすさを維持します。
厳重レベル
フィルタリング対象
デフォルトレベルに加えて低から中程度のリスクのコンテンツ(例えば、微妙なまたは暗号化されたヘイトスピーチ、性的に魅惑的なコンテンツ、非グラフィックな暴力、または非直接的な自傷行為の言及)をフィルタリングします。
使用する時期:
- 規制対象の産業またはリスク回避型の組織ポリシー
- 教育または青少年向けプログラム
- リスク耐性が低いパイロットプロジェクト
トレードオフ:
- 偽陽性や境界線上のプロンプトが増える可能性がある
- ユーザーの摩擦を軽減するための指導が必要
デフォルトレベル(推奨)
フィルタリングする内容
中程度から重度の有害コンテンツ(明示的なヘイトスピーチ、露骨な性的コンテンツ、暴力的な画像、自傷を促す内容)。
使用する時期:
- 安全性と使いやすさのバランスを求めるほとんどの組織
トレードオフ:
- 文脈的または境界線上のプロンプトが通過する可能性がある
最小限レベル
フィルタリングする内容
重度の有害コンテンツのみ。
使用する時期:
- ゲームやメディアなど、表現の幅を必要とするクリエイティブチーム
- 明確なエスカレーションパスを持つ内部アイデア出し
トレードオフ:
- 出力において低度から中度の有害コンテンツにより多くさらされる可能性
監査とコンプライアンス
モデレーションレベルの変更は、旧値、新値、変更者、変更日時を含め、組織の監査ログに記録されます。詳細は、監査ログに関するドキュメントをご覧ください。
ベストプラクティス
- 最初はDefaultから始め、パイロットフィードバックとエスカレーションレビューに基づいて調整してください。
- Strictは、許可されるプロンプトに関する明確な内部ガイダンスと組み合わせることで、誤検知を減らします。
- Minimalが必要な場合、チームが問題のある出力をエスカレーションまたは報告するタイミングを定義してください。
- 主要な方針や規制の更新後に設定を見直してください。
- AIモデレーションの概要
- モデレーションレベル
- 厳密レベル
- デフォルトレベル(推奨)
- 最小限レベル
- 監査とコンプライアンス
- ベストプラクティス