Ce sont les détails de base que j'ai pu trouver.
Linux
ROCm prend en charge les principaux frameworks ML tels que TensorFlow et PyTorch, avec un développement continu pour améliorer et optimiser l'accélération des charges de travail.
Il semble que le support soit uniquement pour les systèmes Linux.( https://rocmdocs.amd.com/en/latest/Installation_Guide/Installation-Guide.html )
ROCm soutient les principaux frameworks ML comme TensorFlow et PyTorch, avec un développement continu pour améliorer et optimiser l'accélération des charges de travail. basé sur HIP
Heterogeneous-Computing Interface for Portability (HIP) est un dialecte C++ conçu pour faciliter la conversion des applications CUDA en code C++ portable. Il fournit une API de style C et un langage de noyau C++. L'interface C++ peut utiliser des modèles et des classes au-delà de la frontière hôte/noyau. L'outil HIPify automatise une grande partie du travail de conversion en effectuant une transformation source à source de CUDA à HIP. Le code HIP peut s'exécuter sur du matériel AMD (via le compilateur HCC) ou NVIDIA (via le compilateur NVCC) sans perte de performance par rapport au code CUDA original.
Le port ROCm de Tensorflow est https://github.com/ROCmSoftwarePlatform/tensorflow-upstream et leur Docker est https://hub.docker.com/r/rocm/tensorflow
Mac
Ce site support pour macOS 12.0+( comme ils l'affirment)
Tests effectués par Apple en octobre et novembre 2020 sur un système Mac Pro de série à 3,2 GHz et 16 cœurs, basé sur Intel Xeon W, avec 32 Go de RAM, une carte graphique AMD Radeon Pro Vega II Duo avec 64 Go de HBM2 et un SSD de 256 Go.
Vous pouvez maintenant tirer parti de tensorflow-metal d'Apple. PluggableDevice dans TensorFlow v2.5 pour un entraînement accéléré sur les GPU Mac directement avec Metal.