Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Niezależna analiza modeli AI i dostawców usług hostingowych - wybierz najlepszego dostawcę modelu i API dla swojego przypadku użycia
Mistral wydał Mistral Small 4, model o otwartych wagach z hybrydowym rozumowaniem i wejściem obrazowym, uzyskując 27 punktów w Indeksie Sztucznej Analizy Inteligencji.
MistralAI's Small 4 to model mieszanki ekspertów o 119 miliardach parametrów, z 6,5 miliardami aktywnych parametrów na token, wspierający zarówno tryby rozumowania, jak i nie-rozumowania.
W trybie rozumowania Mistral Small 4 uzyskuje 27 punktów w Indeksie Sztucznej Analizy Inteligencji, co stanowi poprawę o 12 punktów w porównaniu do Small 3.2 (15) i teraz znajduje się wśród najbardziej inteligentnych modeli, jakie Mistral wydał, przewyższając Mistral Large 3 (23) i dorównując własnościowemu Magistral Medium 1.2 (27). Jednakże, ustępuje otwartym wagom o podobnej liczbie parametrów, takim jak gpt-oss-120B (wysoki, 33), NVIDIA Nemotron 3 Super 120B A12B (Rozumowanie, 36) i Qwen3.5 122B A10B (Rozumowanie, 42).
Kluczowe wnioski:
➤ Tryby rozumowania i nie-rozumowania w jednym modelu: Mistral Small 4 wspiera konfigurowalne hybrydowe rozumowanie z trybami rozumowania i nie-rozumowania, zamiast oddzielnych wariantów rozumowania, które Mistral wydał wcześniej w swoich modelach Magistral. W trybie rozumowania model uzyskuje 27 punktów w Indeksie Sztucznej Analizy Inteligencji. W trybie nie-rozumowania model uzyskuje 19 punktów, co stanowi poprawę o 4 punkty w porównaniu do swojego poprzednika Mistral Small 3.2 (15).
➤ Bardziej efektywny tokenowo niż rówieśnicy o podobnej wielkości: Przy ~52M tokenach wyjściowych, Mistral Small 4 (Rozumowanie) używa mniej tokenów do uruchomienia Indeksu Sztucznej Analizy Inteligencji w porównaniu do modeli rozumowania, takich jak gpt-oss-120B (wysoki, ~78M), NVIDIA Nemotron 3 Super 120B A12B (Rozumowanie, ~110M) i Qwen3.5 122B A10B (Rozumowanie, ~91M). W trybie nie-rozumowania model używa ~4M tokenów wyjściowych.
➤ Natywne wsparcie dla wejścia obrazowego: Mistral Small 4 to model multimodalny, akceptujący wejście obrazowe oraz tekstowe. W naszej ocenie multimodalnej, MMMU-Pro, Mistral Small 4 (Rozumowanie) uzyskuje 57%, wyprzedzając Mistral Large 3 (56%), ale ustępując Qwen3.5 122B A10B (Rozumowanie, 75%). Żaden z modeli gpt-oss-120B ani NVIDIA Nemotron 3 Super 120B A12B nie wspiera wejścia obrazowego. Wszystkie modele wspierają tylko wyjście tekstowe.
➤ Poprawa w zadaniach agentowych w rzeczywistym świecie: Mistral Small 4 uzyskuje Elo 871 na GDPval-AA, naszej ocenie opartej na zbiorze danych GDPval OpenAI, która testuje modele w rzeczywistych zadaniach w 44 zawodach i 9 głównych branżach, z modelami produkującymi dokumenty, arkusze kalkulacyjne i diagramy w pętli agentowej. To więcej niż podwójne Elo Small 3.2 (339) i bliskie Mistral Large 3 (880), ale za gpt-oss-120B (wysoki, 962), NVIDIA Nemotron 3 Super 120B A12B (Rozumowanie, 1021) i Qwen3.5 122B A10B (Rozumowanie, 1130).
➤ Niższy wskaźnik halucynacji niż modele rówieśnicze o podobnej wielkości: Mistral Small 4 uzyskuje -30 w AA-Omniscience, naszej ocenie niezawodności wiedzy i halucynacji, gdzie wyniki wahają się od -100 do 100 (wyższe jest lepsze), a ujemny wynik wskazuje na więcej błędnych niż poprawnych odpowiedzi. Mistral Small 4 uzyskuje lepszy wynik niż gpt-oss-120B (wysoki, -50), Qwen3.5 122B A10B (Rozumowanie, -40) i NVIDIA Nemotron 3 Super 120B A12B (Rozumowanie, -42).
Kluczowe szczegóły modelu:
➤ Okno kontekstowe: 256K tokenów (wzrost z 128K w Small 3.2)
➤ Ceny: 0,15 USD / 0,6 USD za 1M tokenów wejściowych/wyjściowych.
➤ Dostępność: Tylko API pierwszej strony Mistral. Przy natywnej precyzji FP8, 119 miliardów parametrów Mistral Small 4 wymaga ~119 GB do samodzielnego hostowania wag (więcej niż 80 GB pamięci HBM3 na pojedynczym NVIDIA H100).
➤ Modalność: Wejście obrazowe i tekstowe z wyjściem tylko tekstowym.
➤ Licencjonowanie: Licencja Apache 2.0.

10,62K
SkyReels V4 zajmuje pierwsze miejsce w kategorii Tekst na Wideo z Dźwiękiem w Arenie Wideo Analizy Sztucznej, wyprzedzając Kling 3.0 i Veo 3.1!
SkyReels V4 to najnowszy model generacji wideo od @Skywork_ai, oznaczający znaczną zmianę w porównaniu do ich wcześniejszych modeli skoncentrowanych na awatarach, przechodząc do pełnego systemu generacji wideo multimodalnego wspierającego wejścia Tekst, Obraz, Wideo i Dźwięk. Model generuje wideo o długości do 15 sekund w rozdzielczości 1080p z natywnym wsparciem dźwięku.
SkyReels V4 również dobrze radzi sobie w innych modalnościach, zajmując drugie miejsce w kategorii Tekst na Wideo bez Dźwięku, czwarte miejsce w kategorii Obraz na Wideo z Dźwiękiem oraz siódme miejsce w kategorii Obraz na Wideo bez Dźwięku.
Model jest wyceniany na 7,20 USD za minutę z dźwiękiem i 8,40 USD za minutę bez dźwięku, co stawia go poniżej Kling 3.0 1080p Pro (~20 USD/min z dźwiękiem) i Veo 3.1 (24 USD/min z dźwiękiem), chociaż z wyższą ceną niż Grok Imagine, który kosztuje 4,20 USD/min z dźwiękiem.
SkyReels V4 jest dostępny za pośrednictwem strony internetowej @SkyReels, z aplikacją webową i dostępem do API. SkReels V4 Omni zostanie wkrótce wydany.
Zobacz poniżej przykłady generacji SkyReels V4 w Arenie Wideo Analizy Sztucznej 🧵

338
Najlepsze
Ranking
Ulubione
