Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Qwen
Offene Grundlagenmodelle für AGI.
LightX2V bietet Day-0-Unterstützung für Qwen-Image-Edit-2511 – kombiniert eine 47%ige Geschwindigkeitssteigerung des Frameworks mit CFG + 4-Schritt-Destillation (↓25× Rechenleistung) für eine massive 42,55× End-to-End-Beschleunigung!⚡️ Ein großes Dankeschön an @XHPlus_

Ruihao GongVor 6 Stunden
🚀 42,55x Geschwindigkeitssteigerung!
LightX2V bietet sofortige Unterstützung für @Alibaba_Qwen das neue Qwen-Image-Edit-2511!
🔥 47% Geschwindigkeitssteigerung des Frameworks
⚡️ CFG+4-Schritt-Destillation (↓25x Rechenleistung)
📈 42,55x totale Beschleunigung
Repo:
Modell:

37
🚀 Einführung von Qwen-Image-Edit-2511 — ein großes Upgrade gegenüber 2509, das deutlich stärkere Konsistenz und leistungsfähigere Bildbearbeitung in der realen Welt bietet.
✨ Was ist neu in 2511:
👥 Stärkere Konsistenz bei Gruppenfotos und komplexen Szenen
🧩 Eingebaute beliebte Community-LoRAs — keine zusätzliche Anpassung erforderlich
💡 Verbesserte Generierung von Industrie- und Produktdesigns
🔒 Reduzierte Bilddrift mit dramatisch verbesserter Charakter- und Identitätskonsistenz
📐 Verbesserte geometrische Logik, einschließlich Konstruktionslinien und strukturellen Bearbeitungen
Von identitätserhaltenden Porträtbearbeitungen bis hin zu hochauflösenden Mehrpersonenfusionen und praktischen Ingenieur- und Design-Workflows bringt 2511 die Bildbearbeitung auf die nächste Stufe.
👉 Probier es jetzt aus:
🎨 Qwen Chat (Bildbearbeitung):

23
Freue mich, mit SGLang an Rollout Routing Replay (R3) zusammenzuarbeiten – jetzt live! 🎉

LMSYS OrgVor 23 Stunden
SGLang + Miles: Rollout Routing Replay (R3) ist jetzt live! 🎉
Wir freuen uns, bekannt zu geben, dass SGLang und Miles jetzt Rollout Routing Replay (R3) für stabiles Reinforcement Learning Training auf MoE-Modellen unterstützen!
Das Training von MoE-Modellen mit RL war notorisch instabil und führte oft zu katastrophalen Zusammenbrüchen. Das Problem? Routing-Inkonsistenz zwischen Inferenz- und Trainings-Engines. R3 behebt dies, indem es die Experten-Routing-Entscheidungen während der Inferenz aufzeichnet und sie während des Trainings wieder abspielt.
Die Auswirkungen sind erheblich: drastisch reduzierte Diskrepanz zwischen Training und Inferenz durch Wiederverwendung der Inferenz-Routing-Entscheidungen, was einen Trainingszusammenbruch verhindert. R3 unterstützt vollständiges verteiltes Training mit DataParallel Attention und allen Parallelisierungsstrategien, unterstützte Modelle sind unter anderem Qwen3-30B-A3B, deepseek_v2 usw.
Probieren Sie es aus und lassen Sie uns Ihre Ergebnisse wissen! 🚀

34
Top
Ranking
Favoriten
