Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Awni Hannun
@apple IA
Awni Hannun repostou
Apresentando o Marvis-TTS 🔥🚀
Um novo modelo de TTS local que @lllucas e eu construímos para eficiência, acessibilidade e desempenho em tempo real diretamente em dispositivos de consumo como Apple Silicon, iPhones, iPads e muito mais.
Os modelos TTS tradicionais geralmente exigem entradas de texto completo ou sacrificam os recursos em tempo real, Marvis inverte o roteiro. Ele transmite pedaços de áudio à medida que o texto é processado, criando uma experiência verdadeiramente conversacional.
Chega de pausas estranhas ou pausas não naturais - Marvis lida com todo o contexto do texto de forma inteligente para fornecer um discurso coerente e expressivo.
Comece hoje:
> pip install -U mlx-audio
23,48K
Awni Hannun repostou
Escalabilidade linear obtida com várias instâncias do DeepSeek v3.1. 4x Macs = 4x taxa de transferência.
2x M3 Ultra Mac Studios = 1x DeepSeek @ 14 tok/seg
4x M3 Ultra Mac Studios = 2x DeepSeek @ 28 tok/seg
O DeepSeek V3.1 é um modelo de parâmetro 671B - portanto, em sua quantização nativa de 8 bits, ele requer ~ 700 GB de memória para executar o modelo. O EXO coloca metade das camadas em cada dispositivo, combinando sua memória. O EXO usa MLX distribuído com interconexão TB5, otimizado para Apple Silicon.
Se precisarmos de uma taxa de transferência mais alta, adicionar mais dois dispositivos nos permitirá atender a mais usuários de uma só vez. @exolabs lida com tudo isso perfeitamente - adicionando mais dispositivos ao cluster para dimensionamento linear conforme necessário.
O novo EXO 1.0 será de código aberto em breveTM
87,82K
Awni Hannun repostou
Tem um Mac com um chip M? Agora você pode treinar o Gemma3 270m localmente como um modelo multilíngue de incorporação ou reclassificação usando nosso projeto mlx-retrieval. Ele permite que você treine Gemma3 270m localmente a 4000 tokens/s no M3 Ultra - essa é realmente a velocidade utilizável. Implementamos algumas práticas padrão para treinar um modelo eficaz de incorporação ou reclassificação somente decodificador com MLX: LoRA total/parcial, InfoNCE, acúmulo de gradiente e carregador de dados de streaming. Além disso, integração MTEB para loops de avaliação de trem.

29,38K
Awni Hannun repostou
mlx-vlm v0.3.3 está aqui gr
Novos modelos:
- @LiquidAI_ LFM2-VL
- @Zai_org GLM-4.5V
- @cohere Command-A-Vision
Alterações:
- Novo kernel para grid_sample
- Corrija a compatibilidade do kernel de interpolação bicúbica com o macOS < 15 - Corrija a herança de configuração Muito obrigado a todos os amigos incríveis da @lmstudio: @ostensiblyneil, @mattjcly e christian-lms. Introdução: > pip install -U mlx-vlm
Por favor, deixe-nos uma estrela:

8,32K
Awni Hannun repostou
mlx-audio v0.2.4 está aqui 🔥🚀
Novos modelos:
- ÍndiceTTS
- Voxtral
Alterações:
# Python
- Suporte a vários modelos para o Visualizer
- Correção do salvamento obsoleto no MLX-LM
- Corrigir codec mimi
- Atualização do carregamento do CSM para o estilo TFMS
# Rápido
- Use URL personalizado para Kokoro
- Guia de solução de problemas
- Adição do tokenizer Misaki G2P para Kokoro
Muito obrigado a todos os incríveis colaboradores: @lllucas, @ivanfioravanti, @adrgrondin, Senstella, Sam e Kinkadius!
Começar:
> pip install -U mlx-audio
Por favor, deixe-nos uma estrela ⭐:

2,03K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável