FLUX.1 Kontext tem SUPERCHARGED! @NVIDIA_AI_PC aceleração TensorRT oferece inferência 2x mais rápida em GPUs RTX. A quantização reduz a memória de 24GB para 7GB (FP4), mantendo a qualidade. Variantes BF16/FP8/FP4 prontas para produção já disponíveis @huggingface