Quién puede hacerlo: Miembros del equipo
Qué planes: Free, Starter, Business, Enterprise
Qué plataformas: Navegador, Escritorio, Móvil
Cuando realizas acciones de IA con Miro Flows y Sidekicks, "Selecciona tu propio modelo" te habilita a especificar el modelo de lenguaje grande (LLM) más apropiado para la tarea.
Por ejemplo, para la generación de imágenes, puedes decidir si usar Stable Diffusion 3.5 Large o Gemini 2.5 Flash Image (Nano Banana).
Tu elección puede depender de la complejidad o especificidad de tu tarea.
💡 Miro Flows y Sidekicks incluyen un LLM predeterminado preseleccionado para cada tarea. Cuando no estás seguro de qué modelo seleccionar, usar el modelo predeterminado es el mejor comienzo. El modelo predeterminado se muestra con una etiqueta de "Recomendado".
El selector de modelos está disponible solo como parte de Flows y Sidekicks para lo siguiente:
- Documentos y formatos de imágenes en Sidekicks y Flows
- Lógica principal de Sidekicks
- Bloque de Instrucciones en Flows
Este artículo explica cómo seleccionar tu propio modelo para Flows y Sidekicks, y ofrece información para ayudarte a elegir un LLM para tareas comunes.
Seleccionar tu propio modelo
Flujos
Los Documentos, imágenes y Bloques de Instrucción en un Flujo tienen un cuadro de instrucción donde puedes seleccionar tu propio modelo.
Sigue estos pasos:
- Añade un Documento, imagen o Bloque de Instrucción al lienzo.
- Para acceder a la lista de modelos disponibles, en la parte superior derecha del cuadro de instrucción, haz clic en el nombre del modelo predeterminado. Por ejemplo,
AWS | Claude 3.5. - Selecciona un modelo.
Para saber más sobre cómo crear Flujos y la experiencia de usuario con Flujos, consulta Flujos.
Compañeros de IA
Al crear o editar Sidekicks, verás la sección de Modelo (avanzado), y puedes seleccionar qué modelo quieres usar para el procesamiento de Sidekick, la generación de Imágenes y la generación de Documentos.
Para saber más sobre los Sidekicks, consulta (Sidekicks)[link-to-article].
Cómo se diferencian los modelos
Un modelo de lenguaje grande (LLM) usualmente es parte de una familia de modelos que incluye modelos muy capaces pero que consumen muchos recursos, modelos óptimos, y los modelos más rápidos pero menos capaces.
Por ejemplo, la familia GPT-5 incluye GPT-5, GPT-5-mini, y GPT-5-nano.
Los modelos más rápidos pero menos capaces son ideales para bajas latencias.
Razonamiento y no razonamiento
Un diferenciador principal entre los LLMs es el razonamiento frente a los modelos sin razonamiento.
Razonamiento significa que el modelo toma más tiempo para proporcionar una respuesta de mayor calidad.
✏️ El razonamiento no siempre significa el resultado más preciso. Si requieres muchas iteraciones de salida, un alto razonamiento puede no ser el más eficiente.
Para tareas complejas, como la creación de documentos dirigidos al cliente, la priorización y tareas que requieren procesar un gran volumen de información, un modelo de razonamiento es la mejor opción.
Para tareas simples, como revisar la gramática, traducir o reformatear texto, un modelo sin razonamiento es la opción más eficiente.
La siguiente tabla muestra algunos modelos de razonamiento y sin razonamiento.
| Capacidad de razonamiento | Modelos |
|---|---|
| Razonamiento | GPT-5, GPT-5-mini, GPT-5-nano, Claude Sonnet 4, Claude Sonnet 4.5, Gemini 2.5, Gemini 2.5 Flash, o3, o4-mini |
| Sin razonamiento | GPT 4o, GPT-4o-mini, GPT-4.1, GPT-4.1-mini, Claude Sonnet 3.7, Claude Sonnet 3.5, Gemini 2.5 Flash Lite |
Estilo
Cada LLM tiene un "estilo" único. A medida que experimentas con diferentes modelos, puedes notar que un estilo de salida particular se ajusta a tus necesidades, ya sea por branding, vibra o preferencia.
💡 Los modelos más antiguos tienen un estilo más distintivo, especialmente para resultados creativos y originales.
Seleccionar tu modelo de IA por tarea
| Tarea | Modelos | Descripción |
|---|---|---|
| Lluvia de ideas | GPT-4o, o3, o4-mini, Sonnet 3.7 | Ideales para pensar de manera divergente, generar ráfagas de ideas para funciones, tono juguetón y "borde creativo". Se utilizan para generar texto, como titulares alternativos y variantes de microtextos, por ejemplo. |
| Priorización y puntuación | GPT-5, Claude Sonnet 4.5, Gemini 2.5 | Los mejores modelos de razonamiento para puntuaciones consistentes y justificaciones claras. Por ejemplo, RICE/MoSCoW en backlog, análisis de compromisos y niveles de roadmap. |
| Síntesis y investigación | GPT-5, GPT-5-mini, Claude Sonnet 4.5, GPT-4.1, Claude Sonnet 3.7, Gemini 2.5 Flash | Úsalo para tareas de complejidad media a alta. Por ejemplo, para generar perfiles a partir de notas y obtener conocimientos a partir de bases de datos y de conocimientos. |
| Esquema & transformación | GPT-5-mini, GPT-5-nano, GPT-4.1, Sonnet 3.7, Gemini 2.5 Flash, Gemini 2.5 Flash Lite | El cambio de formato generalmente no requiere un razonamiento complejo, por lo que las versiones optimizadas ofrecerán resultados más rápidos. Sin embargo, mantente con las generaciones más recientes de modelos para asegurar consistencia al tratar con contextos amplios. notas → documentos, documento → tabla, especificación → diagrama) |
| Ediciones rápidas de texto | GPT-4o-mini, Gemini 2.5 Flash Lite, GPT-5-nano, Claude 3.7 | Opciones más rápidas. Mejores para ediciones de texto simples, como gramática, traducción, y reescrituras para mayor claridad. |
Seleccionando modelos para generación de imágenes
Todos los modelos de lenguaje grande (LLM) que Miro admite pueden procesar texto e imágenes. Sin embargo, la mayoría no pueden generar imágenes.
Para la generación de imágenes, Gemini 2.5 Flash Image (Nano Banana) es excepcionalmente competente en convertir tus instrucciones generales en una imagen.
La mayoría de los LLMs esperan una descripción de la imagen, no instrucciones específicas. Por ejemplo, "una pintura de un perro con un sombrero gracioso" como descripción, en lugar de "crear una imagen graciosa de un perro" como instrucción. Nano Banana puede generar imágenes basadas en instrucciones específicas.
✏️ Usa Nano Banana para ediciones específicas a una imagen existente. Otros modelos pueden usar una imagen existente como referencia de estilo.
En cuanto a la velocidad o calidad de salida, hay poca diferencia entre los LLM. Como en cada caso de uso, puedes experimentar con diferentes modelos para encontrar cuál se adapta mejor a tus preferencias.