Mit der Miro KI-Moderation können Unternehmens-Admins die Filterstufen für Eingabeaufforderungen einstellen, die potenziell schädliche oder unangemessene Texte enthalten könnten. Du kannst die Empfindlichkeit der Miro KI-Moderation für die gesamte Organisation festlegen, um Inhalte zu filtern, einschließlich Hass, sexueller Inhalte, Gewalt und Selbstverletzung. Dies hilft dir, die Nutzung von Miro KI mit den Anforderungen, Richtlinien und der Risikotoleranz deiner Organisation in Einklang zu bringen.
✏️ Wenn deine Organisation ihren eigenen LLM-Anbieter verwendet (zum Beispiel eine direkte OpenAI-Integration), ist der Moderationsauswahl deaktiviert und alle zuvor gewählten Stufen werden für diese Integration ignoriert.
Moderationsstufen
Steuere Miro AI-Inhalte in deinem Unternehmen mit der Miro AI-Moderation. Stelle die Filterstufe auf Streng, Standard oder Minimal ein, um zu bestimmen, welche Prompts blockiert werden. Sieh dir die Tabelle unten an, um die Stufen schnell zu vergleichen, und tauche dann in die detaillierten Abschnitte für weitere Anleitungen ein.
| Stufe | Funktion | Am besten geeignet für | Kompromisse |
|---|---|---|---|
| Streng | Blockiert Standard + Niedrig- bis moderat riskante Inhalte. |
Stark regulierte Organisationen, Bildung. |
Mehr falsch-positive Ergebnisse; möglicherweise Überfilterung. |
| Standard (empfohlen) |
Blockiert mäßig bis stark schädliche Inhalte. |
Die meisten Geschäftsbereiche . |
Einige grenzwertige Inhalte könnten durchgehen. |
| Minimal | Blockiert nur schwer schädliche Inhalte. |
Kreative/Spiel-/Medien kontexte. |
Mehr Exposition gegenüber geringem bis mäßigem Schaden. |
✏️ Standard wird für die meisten Organisationen empfohlen. Es filtert Inhalte, die die meisten Menschen als unangemessen oder schädlich empfinden, und bewahrt dabei eine breite Benutzerfreundlichkeit.
Striktes Niveau
Was es filtert
Alles wie bei „Default“ plus Inhalte mit geringem bis mittlerem Risiko (zum Beispiel subtiler oder codierter Hassrede, sexuell anzügliche Inhalte, nicht-grafische Gewalt oder nicht explizite Erwähnungen von Selbstverletzung).
Wann zu verwenden
- Regulierte Branchen oder risikoaverse Organisationsrichtlinien
- Bildungsprogramme oder Jugendprogramme
- Pilotprojekte mit geringer Risikotoleranz
Kompromisse
- Mehr falsch-positive und blockierte Grenzfälle
- Erfordert Anleitung zur Reduzierung von Nutzungsbarrieren
Empfohlene Stufe (Default)
Was sie filtert
Mäßig bis stark schädliche Inhalte (expliziter Hassrede, explizite sexuelle Inhalte, grafische Gewalt, Ermutigung zu Selbstverletzung).
Wann zu verwenden
- Die meisten Organisationen, die ein Gleichgewicht zwischen Sicherheit und Benutzerfreundlichkeit suchen
Kompromisse
- Kontextbezogene oder grenzwertige Prompts können durchkommen
Minimales Niveau
Was es filtert
Nur stark schädliche Inhalte.
Wann zu verwenden
- Kreative Teams, die einen größeren Ausdrucksraum benötigen (Spiele, Medien)
- Interne Ideenfindung mit klaren Eskalationspfaden
Kompromisse
- Höhere Exposition gegenüber gering- bis mäßig schädlichen Inhalten in den Ausgaben
Audit und Compliance
Änderungen des Moderationsniveaus werden im Audit-Protokoll der Organisation erfasst, einschließlich des vorherigen Werts, des neuen Werts, wer die Änderung vorgenommen hat und wann sie erfolgte. Für weitere Informationen siehe unsere Dokumentation zu Audit-Protokollen.
Best Practices
- Starte mit Standard und passe dann basierend auf Pilotfeedback und Eskalationsüberprüfungen an.
- Kombiniere Strikt mit klaren internen Richtlinien zu akzeptablen Prompts, um Fehlalarme zu reduzieren.
- Falls du Minimal benötigst, definiere, wann Teams problematische Ergebnisse eskalieren oder melden sollen.
- Überprüfe deine Einstellung nach wesentlichen politischen oder regulatorischen Änderungen neu.
- Überblick über KI-Moderation
- Moderationsstufen
- Strikte Stufe
- Standardstufe (empfohlen)
- Minimale Stufe
- Überprüfung und Compliance
- Best Practices
HINWEIS: Miro AI arbeitet nur mit Inhalten, die tatsächlich auf dem Miro-Canvas sichtbar sind, einschließlich Inhalten, die in Integrations-Widgets wie Einbettungen aus Confluence, Jira oder Business-Intelligence-Systemen gerendert werden. Miro AI ruft diese externen APIs nicht auf, kann aber auf die vollständigen Dokumente, Projekte oder Datensätze hinter den Widgets für einige, aber nicht alle Integrationen zugreifen. Miro AI verwendet visuelle Kontextdaten, zum Beispiel eine optische Zeichenerkennung (OCR-artige Verarbeitung), um den auf dem Canvas gerenderten Inhalt zu analysieren und nutzt diese eingeschränkte Sichtweise zur Verarbeitung, wobei die Quelldaten weiterhin von den externen Tools verwaltet werden. Ausnahmen bilden Flows, die keinen Zugriff auf gerenderten Board-Inhalt haben.