Kto może to zrobić: Członkowie zespołu
Które abonamenty: Free, Starter, Business, Enterprise
Na których platformach: Przeglądarka, Desktop, Mobile
Kiedy wykonujesz działania AI z Miro przepływami i współpracownikami AI, funkcja Wybierz Własny Model umożliwia określenie najbardziej odpowiedniego dużego modelu językowego (LLM) dla zadania.
Na przykład, do generowania obrazów możesz zdecydować, czy użyć Stable Diffusion 3.5 Large czy Gemini 2.5 Flash Image (Nano Banana).
Twój wybór może zależeć od złożoności lub specyfiki twojego zadania.
💡 Miro Flows i współpracownik AI zawierają domyślnie wybrany model LLM dla każdego zadania. Jeśli nie jesteś pewien, który model wybrać, najlepiej zacząć od domyślnego modelu. Domyślny model oznaczony jest etykietą Recommended.
Selektor modeli jest dostępny tylko w ramach Flows i współpracownika AI dla następujących:
- dokumentów i formatów obrazów we Flows i współpracowniku AI
- Głównej logiki współpracownika AI
- Bloku instrukcji w Flows
Ten artykuł wyjaśnia, jak wybrać własny model dla Flows i współpracownika AI, oraz dostarcza informacji, które pomogą wybrać LLM do powszechnych zadań.
Wybieranie własnego modelu
Przepływy
Dokumenty, obrazy i Bloki instrukcji w przepływie mają pola prompt, gdzie możesz wybrać własny model.
Postępuj zgodnie z tymi krokami:
- Dodaj dokument, obraz lub blok instrukcji na planszę.
- Aby uzyskać dostęp do listy dostępnych modeli, kliknij nazwę domyślnego modelu w prawym górnym rogu pola prompt. Na przykład,
AWS | Claude 3.5. - Wybierz model.
Aby dowiedzieć się więcej o tworzeniu przepływów i interfejsie użytkownika przepływów, zobacz Przepływy.
Współpracownicy AI
Podczas tworzenia lub edycji współpracowników AI, zobaczysz sekcję Model (zaawansowany), gdzie możesz wybrać, jaki model chcesz użyć do przetwarzania, generowania obrazów i dokumentów.
Aby dowiedzieć się więcej o współpracownikach AI, zobacz (współpracownicy AI)[link-to-article].
Jak różnią się modele
Duży model językowy (LLM) to zazwyczaj członek rodziny modeli, która obejmuje modele zdolne, ale wymagające zasobów, modele optymalne oraz najszybsze, ale mniej zdolne modele.
Na przykład rodzina GPT-5 obejmuje GPT-5, GPT-5-mini i GPT-5-nano.
Najszybsze, ale najmniej zdolne modele są idealne do zastosowań wymagających niskiego opóźnienia.
Modele z rozumowaniem i bez rozumowania
Główna różnica pomiędzy LLM polega na modelach z rozumowaniem i bez rozumowania.
Rozumowanie oznacza, że model potrzebuje więcej czasu na dostarczenie odpowiedzi wyższej jakości.
✏️ Rozumowanie nie zawsze oznacza najdokładniejszy rezultat. Jeśli potrzebujesz wielu iteracji wyników, wysoki poziom rozumowania może nie być najefektywniejszy.
Dla złożonych zadań, takich jak tworzenie dokumentów dla klientów, ustalanie priorytetów i zadania wymagające przetwarzania dużych ilości informacji, model z umiejętnością rozumowania jest najlepszym wyborem.
Dla prostych zadań, takich jak sprawdzanie gramatyki, tłumaczenie czy formatowanie tekstu, model bez rozumowania jest najefektywniejszym wyborem.
Poniższa tabela pokazuje niektóre modele rozumujące i nierozumujące.
| Zdolność do rozumowania | Modele |
|---|---|
| Rozumowanie | GPT-5, GPT-5-mini, GPT-5-nano, Claude Sonnet 4, Claude Sonnet 4.5, Gemini 2.5, Gemini 2.5 Flash, o3, o4-mini |
| Bez rozumowania | GPT 4o, GPT-4o-mini, GPT-4.1, GPT-4.1-mini, Claude Sonnet 3.7, Claude Sonnet 3.5, Gemini 2.5 Flash Lite |
Styl
Każdy model LLM ma unikalny "styl". Eksperymentując z różnymi modelami, możesz zauważyć, że określony styl wyjściowy odpowiada Twoim wymaganiom, czy to pod względem marki, klimatu, czy preferencji.
💡 Starsze modele mają bardziej wyrazisty styl, szczególnie dla kreatywnego, niestandardowego wyniku.
Wybór modelu AI według zadania
| Zadanie | Modele | Opis |
|---|---|---|
| Burza mózgów | GPT-4o, o3, o4-mini, Sonnet 3.7 | Świetne do myślenia dywergencyjnego, impulsu idei na funkcje, zabawnego tonu oraz "kreatywnej przewagi". Używaj do generowania tekstów, takich jak alternatywne nagłówki i warianty mikrokomunikatów, na przykład. |
| Priorytetyzacja i ocenianie | GPT-5, Claude Sonnet 4.5, Gemini 2.5 | Najlepsze modele do rozumowania dla spójnego oceniania i przejrzystych uzasadnień. Na przykład w odniesieniu do RICE/MoSCoW w backlogu, analiz kompromisów i warstw roadmapy. |
| Synteza i badania | GPT-5, GPT-5-mini, Claude Sonnet 4.5, GPT-4.1, Claude Sonnet 3.7, Gemini 2.5 Flash | Użyj do zadań o średniej do wysokiej złożoności. Na przykład do generowania person z notatek i wyciągania wniosków z danych i baz wiedzy. |
| Schematy i transformacje | GPT-5-mini, GPT-5-nano, GPT-4.1, Sonnet 3.7, Gemini 2.5 Flash, Gemini 2.5 Flash Lite | Zmiana formatów zazwyczaj nie wymaga złożonego rozumowania, więc zoptymalizowane wersje dadzą wyniki szybciej, jednak trzymaj się późniejszych generacji modeli, aby zapewnić spójność przy dużych kontekstach. (notatki → dokumenty, dokumenty → tabele, spec → diagramy) |
| Szybkie edycje tekstu | GPT-4o-mini, Gemini 2.5 Flash Lite, GPT-5-nano, Claude 3.7 | Najszybsze opcje. Najlepsze do prostych edycji tekstu, takich jak korekta gramatyczna, tłumaczenie oraz przeredagowywanie dla większej przejrzystości. |
Wybór modeli do generowania obrazów
Wszystkie modele językowe (LLM), które wspiera Miro, mogą przetwarzać tekst i obrazy. Jednak większość z nich nie generuje obrazów.
Do generowania obrazów, Gemini 2.5 Flash Image (Nano Banana) doskonale przekłada ogólne instrukcje na obraz.
Większość LLM oczekuje opisu obrazu, a nie konkretnych instrukcji. Na przykład „obraz psa w zabawnym kapeluszu” jako opis kontra „stwórz zabawny obraz psa” jako instrukcja. Nano Banana jest w stanie generować obrazy na podstawie szczegółowych instrukcji.
✏️ Używaj Nano Banana do ukierunkowanych edycji istniejącego obrazu. Inne modele mogą używać istniejącego obrazu jako odniesienia stylu.
Pod względem szybkości czy jakości wyników różnice między LLM-ami są niewielkie. Jak w każdym przypadku użycia, możesz eksperymentować z różnymi modelami, aby znaleźć ten, który najlepiej odpowiada Twoim preferencjom.