Este conteúdo não está disponível no idioma selecionado.

Chapter 3. Known issues


  • When you deploy a model on an NVIDIA T4 accelerator using the Red Hat AI Inference Server 3.1 container image with --enable-chunked-prefill enabled, any chat or text completion query causes the model inference to crash and restart. To workaround this issue, remove the --enable-chunked-prefill flag when you deploy the model.
Red Hat logoGithubredditYoutubeTwitter

Aprender

Experimente, compre e venda

Comunidades

Sobre a documentação da Red Hat

Ajudamos os usuários da Red Hat a inovar e atingir seus objetivos com nossos produtos e serviços com conteúdo em que podem confiar. Explore nossas atualizações recentes.

Tornando o open source mais inclusivo

A Red Hat está comprometida em substituir a linguagem problemática em nosso código, documentação e propriedades da web. Para mais detalhes veja o Blog da Red Hat.

Sobre a Red Hat

Fornecemos soluções robustas que facilitam o trabalho das empresas em plataformas e ambientes, desde o data center principal até a borda da rede.

Theme

© 2026 Red Hat
Voltar ao topo