FLUX.1 Kontext ficou SUPERCHARGED! @NVIDIA_AI_PC aceleração do TensorRT oferece inferência 2x mais rápida em GPUs RTX. A quantização reduz a memória de 24 GB para 7 GB (FP4), mantendo a qualidade. Variantes BF16/FP8/FP4 prontas para produção agora em @huggingface