Avec la modération Miro IA, les admins d’entreprise peuvent ajuster les niveaux de filtrage des prompts qui pourraient contenir du texte potentiellement nuisible ou inapproprié. Vous pouvez définir la sensibilité de la modération Miro IA à l’échelle de l’organisation pour filtrer le contenu, y compris la haine, le contenu sexuel, la violence et l’automutilation. Cela vous aide à aligner l’utilisation de Miro IA sur les exigences, les politiques et la tolérance au risque de votre organisation.
✏️ Si votre organisation connecte son propre fournisseur de LLM (par exemple, une intégration directe avec OpenAI), le sélecteur de modération est désactivé et tout niveau précédemment choisi est ignoré pour cette intégration.
Niveaux de modération
Contrôlez le contenu de Miro IA dans toute votre organisation grâce à la modération de Miro IA. Définissez le niveau de filtrage sur Strict, Par défaut ou Minimal pour déterminer quels prompt sont bloqués. Consultez le tableau ci-dessous pour comparer rapidement les niveaux, puis plongez dans les sections détaillées pour plus de conseils.
| Niveau | Fonctionnalité | Meilleur pour | Compromis |
|---|---|---|---|
| Strict | Bloque par défaut + contenu à risque faible à modéré. |
Organisations fortement réglementées, éducation. |
Plus de faux positifs; risque de sur-filtrage. |
| Par défaut (recommandé) |
Bloque le contenu modérément à hautement nuisible . |
La plupart des cas d’usage entreprises . |
Certains contenus limites peuvent passer . |
| Minimal | Bloque uniquement le contenu sévèrement nuisible. |
Contextes créatifs/jeux/médias . |
Plus d’exposition à des dommages faibles à modérés. |
✏️ Le niveau par défaut est recommandé pour la plupart des organisations. Il filtre le contenu que la plupart des gens considèrent inapproprié ou nuisible tout en maintenant une large utilisabilité.
Niveau strict
Ce qu’il filtre
Tout le contenu du niveau "Défaut" plus le contenu à risque faible à modéré (par exemple, discours haineux subtil ou codé, contenu à connotation sexuelle, violence non graphique, ou mentions non explicites d’automutilation).
Quand l’utiliser
- Industries réglementées ou politiques organisationnelles averses au risque
- Programmes éducatifs ou axés sur la jeunesse
- Essais pilotes avec une faible tolérance au risque
Compromis
- Plus de faux positifs et de prompts limites bloqués
- Nécessite des directives pour réduire les frictions des utilisateurs
Niveau défaut (recommandé)
Ce qu’il filtre
Contenu modérément à sévèrement nuisible (discours haineux explicite, contenu sexuel explicite, violence explicite, encouragement à l’automutilation).
Quand utiliser
- La plupart des organisations recherchant un équilibre entre sécurité et facilité d’utilisation
Compromis
- Les prompts contextuels ou limitrophes peuvent passer
Niveau minimal
Ce qu’il filtre
Seulement le contenu sévèrement nuisible.
Quand utiliser
- Équipes créatives nécessitant une expression plus large (jeux, médias)
- Idéation interne avec des voies d’escalade claires
Compromis
- Exposition accrue à des contenus nuisibles de faible à moyenne gravité dans les résultats
Audit et conformité
Les modifications du niveau de modération sont consignées dans le journal d’audit de l’organisation, incluant la valeur précédente, la nouvelle valeur, qui a effectué le changement et quand il a eu lieu. Pour plus d’informations, consultez notre documentation sur les journaux d’audit.
Bonnes pratiques
- Commencez avec le niveau par défaut, puis ajustez en fonction des retours des pilotes et des examens d’escalade.
- Associez le niveau strict avec des directives internes claires sur les invites acceptables pour réduire les faux positifs.
- Si vous avez besoin du niveau minimal, définissez quand les équipes doivent escalader ou signaler les résultats problématiques.
- Revoyez vos paramètres après les mises à jour majeures des politiques ou des réglementations.
- Aperçu de la modération par l’IA
- Niveaux de modération
- Niveau strict
- Niveau par défaut (recommandé)
- Niveau minimal
- Vérification et conformité
- Bonnes pratiques
REMARQUE : Miro IA fonctionne uniquement avec le contenu qui est réellement visible sur le canevas Miro, y compris le contenu rendu à l’intérieur des widgets d’intégration comme les intégrations de Confluence, Jira ou les systèmes de business intelligence (BI). Miro IA n’appelle pas ces API externes, mais peut accéder aux documents complets, aux projets ou aux ensembles de données derrière les widgets pour certaines, mais pas toutes, les intégrations. Miro IA utilise le contexte visuel, par exemple le traitement de type reconnaissance optique de caractères (OCR), pour analyser le contenu rendu sur le canevas, et utilise cette vue limitée pour le traitement, tandis que les données sources restent régies par les outils externes eux-mêmes. Exceptionnellement, les flux n’accèdent pas au contenu du tableau rendu.