Questo contenuto non è disponibile nella lingua selezionata.

Chapter 3. Known issues


  • When you deploy a model on an NVIDIA T4 accelerator using the Red Hat AI Inference Server 3.1 container image with --enable-chunked-prefill enabled, any chat or text completion query causes the model inference to crash and restart. To workaround this issue, remove the --enable-chunked-prefill flag when you deploy the model.
Torna in cima
Red Hat logoGithubredditYoutubeTwitter

Formazione

Prova, acquista e vendi

Community

Informazioni sulla documentazione di Red Hat

Aiutiamo gli utenti Red Hat a innovarsi e raggiungere i propri obiettivi con i nostri prodotti e servizi grazie a contenuti di cui possono fidarsi. Esplora i nostri ultimi aggiornamenti.

Rendiamo l’open source più inclusivo

Red Hat si impegna a sostituire il linguaggio problematico nel codice, nella documentazione e nelle proprietà web. Per maggiori dettagli, visita il Blog di Red Hat.

Informazioni su Red Hat

Forniamo soluzioni consolidate che rendono più semplice per le aziende lavorare su piattaforme e ambienti diversi, dal datacenter centrale all'edge della rete.

Theme

© 2026 Red Hat