Questo contenuto non è disponibile nella lingua selezionata.

Distributed Inference with llm-d


Red Hat AI Inference 3.4

Architecture, components, and deployment of Distributed Inference with llm-d for scalable LLM serving on Kubernetes

Abstract

Learn about Distributed Inference with llm-d, a Kubernetes-native framework for serving large language models at scale.

Red Hat logoGithubredditYoutubeTwitter

Formazione

Prova, acquista e vendi

Community

Informazioni su Red Hat

Forniamo soluzioni consolidate che rendono più semplice per le aziende lavorare su piattaforme e ambienti diversi, dal datacenter centrale all'edge della rete.

Rendiamo l’open source più inclusivo

Red Hat si impegna a sostituire il linguaggio problematico nel codice, nella documentazione e nelle proprietà web. Per maggiori dettagli, visita il Blog di Red Hat.

Informazioni sulla documentazione di Red Hat

Legal Notice

Theme

© 2026 Red Hat
Torna in cima