Miro AI モデレーションを使って、会社の管理者は潜在的に有害または不適切な内容の出力を避けるためのフィルターレベルを調整できます。 Miro AI モデレーションの感度を組織全体で制御し、憎悪、性的内容、暴力、自己傷害などのカテゴリをフィルタリングできます。これにより、Miro AI の利用を組織の要件、方針、および許容リスクに合わせることができます。
注意: 組織が独自の LLM プロバイダーを接続している場合(例えば、OpenAI の直接インテグレーション)、モデレーションセレクターは無効化され、そのインテグレーションに対して選択済みのレベルは無視されます。
前提条件
- Enterprise Guard アドオンがあることを確認します。
- 設定したい組織の管理者であることを確認します。
- ガバナンスとポリシーの要件を確認し、適切な開始レベルを選択します。ほとんどの組織にはデフォルトが推奨されます。
Miro AI モデレーションレベルを設定または更新する
- Miro で組織の設定を開きます。
- Miro AI › モデレーションに移動します。
- レベルを選択します:
- 厳格: デフォルトでブロックされるすべてのコンテンツに加えて、低から中程度のリスクコンテンツ(例: 微妙または暗号化された憎悪、性的ほのめかしを含むコンテンツ、非グラフィック暴力、非明示的な自傷行為の言及)をブロックします。
- デフォルト(推奨): 中程度から深刻に有害なコンテンツ(例: 明示的な憎悪、明示的な性的内容、グラフィックな暴力、自傷行為の奨励)をブロックします。
- 最小限: 深刻に有害なコンテンツのみをブロックします。
- 確認をクリックします。
変更は組織内の全員に即時適用され、監査ログに記録されます。
モデレーションレベルの検証 (任意)
- パイロットグループに対して典型的なプロンプトをテストしてもらい、過剰または不足のフィルタリングを報告してもらいます。
- 変更後の一週間、誤検知や欠落についてサポートまたはエスカレーションチャネルを監視します。
ヒントとベストプラクティス
- デフォルトから始め、パイロットフィードバックやエスカレーションレビューに基づいて調整してください。
- ユーザーが多くのプロンプトがブロックされたと報告した場合、デフォルト(厳格から)またはミニマル(デフォルトから)を試し、許容されるプロンプトの例を公開してください。
- 境界線上のコンテンツが通過してしまった場合は、厳格に移行し、摩擦を減らすために内部ガイダンスを追加してください。
- ポリシー、規制、またはユースケースの変更後にレベルを再検討してください。
トラブルシューティング
モデレーションコントロールが無効になっています
カスタム LLM インテグレーションが接続されています。選択ツールを再有効化するにはそれを切断してください。接続中は、以前に選択されたレベルはそのインテグレーションに対して無視されます。
誤検出(false positive)が多すぎる
Strict → Defaultへの変更を検討し、使用可能な例を共有してください。監査ログで最近の変更を確認し、タイミングを確かめます。
有害コンテンツへの曝露
レベルがMinimalでないことを確認してください。リスク許容度に応じてDefaultまたはStrictを検討します。
ユーザーがなぜプロンプトがブロックされたか分からない
選択したレベル、プロンプトの例、エスカレーション経路を指し示す社内ガイダンスを公開してください。