Ce contenu n'est pas disponible dans la langue sélectionnée.

Chapter 6. Running a distributed workload


6.1. Distributing training jobs with Ray

In previous sections of this tutorial, you trained the fraud model directly in a notebook and then in a pipeline. In this section, you learn how to train the model by using Ray. Ray is a distributed computing framework that you can use to parallelize Python code across multiple CPUs or GPUs.

This section demonstrates how you can use Ray to distribute the training of a machine learning model across multiple CPUs. While distributing training is not necessary for a simple model, applying it to the example fraud model is a good way for you to learn how to use Ray for more complex models that require more compute power, such as multiple GPUs across multiple machines.

In your notebook environment, open the 8_distributed_training.ipynb file and follow the instructions directly in the notebook. The instructions guide you through setting authentication, creating Ray clusters, and working with jobs.

Optionally, if you want to view the Python code for this section, you can find it in the ray-scripts/train_tf_cpu.py file.

For more information about TensorFlow training on Ray, see the Ray TensorFlow guide.

Retour au début
Red Hat logoGithubredditYoutubeTwitter

Apprendre

Essayez, achetez et vendez

Communautés

À propos de la documentation Red Hat

Nous aidons les utilisateurs de Red Hat à innover et à atteindre leurs objectifs grâce à nos produits et services avec un contenu auquel ils peuvent faire confiance. Découvrez nos récentes mises à jour.

Rendre l’open source plus inclusif

Red Hat s'engage à remplacer le langage problématique dans notre code, notre documentation et nos propriétés Web. Pour plus de détails, consultez le Blog Red Hat.

À propos de Red Hat

Nous proposons des solutions renforcées qui facilitent le travail des entreprises sur plusieurs plates-formes et environnements, du centre de données central à la périphérie du réseau.

Theme

© 2025 Red Hat