Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Thomas Wolf
Medgründer i @HuggingFace - åpen kildekode og åpen vitenskap
Så stolt over å se Hugging Face FineWeb drive noen av de beste LLM-ene der ute.
Oppdaget det nettopp i den nye GLM 4.5-teknologirapporten (den ferske åpen kildekoden llm-agentmodellen som konkurrerer med Claude 4, Grok 4, o3) og hørte om det i mange andre tilfeller:
Åpen deling av verktøy og kunnskap for å bygge SOTA AI-modeller er et kjerneoppdrag hos @huggingface. Vi mener det er viktig å garantere mangfold i feltet og forhindre for mye maktkonsentrasjon i hendene på bare noen få selskaper.
Stor gratulasjon til FineWeb-teamet! 🎉
6,18K
Et sett med veldig fine modeller for kanten utgitt denne uken
- Jan lanserer en 4B-modell optimalisert for å kjøre agentiske oppgaver lokalt - overgår Perplexity Pro på flere evalueringer
- LiquidAI lanserer multimodale modeller for tekst + bilde med en 450M og en 1.6B versjoner optimalisert for lav latens

👋 Jan12. aug., 15:55
Vi introduserer Jan-v1: 4B-modellen for nettsøk, et åpen kildekode-alternativ til Perplexity Pro.
I våre evalueringer leverer Jan v1 91 % SimpleQA-nøyaktighet, noe bedre enn Perplexity Pro mens den kjører helt lokalt.
Brukstilfeller:
- Nettsøk
- Dyp forskning
Bygget på den nye versjonen av Qwens Qwen3-4B-Thinking (opptil 256k kontekstlengde), finjustert for resonnement og verktøybruk i januar.
Du kan kjøre modellen i Jan, llama.cpp eller vLLM. For å aktivere søk i januar, gå til Innstillinger → eksperimentelle funksjoner → På, deretter Innstillinger → MCP-servere → aktivere en søkerelatert MCP som Serper.
Bruk modellen:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Takk til @Alibaba_Qwen-teamet for Qwen3 4B Thinking & @ggerganov for llama.cpp.
10,69K
OpenAI-teamet har laget mat! GPT-OSS er et beist
Velkommen tilbake folkens, det er flott å ha dere i åpen kildekode-fellesskapet igjen. Spent på å se hva folk vil bygge på toppen av gpt-oss.
På den personlige siden har det vært en glede å jobbe med OpenAI-teamet og venner de siste månedene, de har vært utrolig mottakelige for tilbakemeldingene fra fellesskapet. Jeg tror det gjorde modellen enda bedre for mange brukstilfeller.
Nå kan du prøve det på

10,91K
AI-lesing i lang form er tilbake, og vi har nettopp sluppet den ultimate sommerlesningen.
Inspirert av slike som Stripe Press, er vi stolte av å kunngjøre den første boken fra HF Press: en nøye utformet PDF-utgave i boklengde av Ultra-Scale Playbook.
Over 200 tette sider for å lære det grunnleggende og avanserte av:
- 5D-parallellitet (DP, TP, PP, EP, FSDP)
-Null
- Blink oppmerksomhet
- Data-/kommunikasjonsoverlapping og flaskehalser
Alle med tilgjengelige teoriintroer og 4,000+ skaleringseksperimenter.
Alt du trenger å vite for å trene din egen DeepSeek V3 eller LLama 5 :)
Gratis å laste ned med ditt HF PRO-abonnement ✨
Få den på:

50,29K
Jeg husker at jeg ble så imponert da jeg la til transformatorene XL-modellen av Yang Zhilin som den tredje modellen i transformatorbiblioteket tidlig i 2019
ikke overrasket over at han nå sender vanvittig imponerende ting med Moonshot AI
det er en lang historie jeg burde fortelle en dag, men på en måte var dette lille Google-teamet blant de første som virkelig forsto kraften i å skalere treningsdata
14,8K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til