Azure Cloud Administration

In dieser Community Gruppe geht es um alles Wissenwerte zum Thema Azure Cloud Administration

GPUs vs CPUs for deployment of deep learning models

Florian J. Deinhard
Die Wahl des richtigen Hardwaretyps für Deep-Learning-Aufgaben ist ein viel diskutiertes Thema. Eine naheliegende Schlussfolgerung ist, dass die Entscheidung von der jeweiligen Aufgabe abhängig sein sollte und auf Faktoren wie Durchsatzanforderungen und Kosten basieren sollte. Es ist allgemein anerkannt, dass für das Deep-Learning-Training GPUs aufgrund ihrer signifikanten Geschwindigkeit im Vergleich zu CPUs verwendet werden sollten. Aufgrund ihrer höheren Kosten wird jedoch für Aufgaben wie Schlussfolgerung, die nicht so ressourcenintensiv wie Training sind, angenommen, dass CPUs ausreichend sind und aufgrund ihrer Kosteneinsparungen attraktiver sind. Wenn Inferenzgeschwindigkeit jedoch ein Flaschenhals ist, bietet die Verwendung von GPUs sowohl aus finanziellen als auch aus Zeitgründen beträchtliche Vorteile. In einem früheren Tutorial und Blog Deploying Deep Learning-Modelle auf Kubernetes mit GPUs, bieten wir Schritt-für-Schritt-Anleitungen vom Laden eines vortrainierten Convolutional Neural Network-Modells zum Erstellen einer containerisierten Webanwendung, die im Kubernetes-Cluster mit GPUs gehostet wird Azure Containerdienst (AKS).

Im Anschluss an diese früheren Arbeiten bieten wir hier einen detaillierten Vergleich der Implementierungen verschiedener Deep-Learning-Modelle, um die auffälligen Unterschiede in der Durchsatzleistung von GPU- gegenüber CPU-Implementierungen aufzuzeigen, um zumindest in den Szenarien den Beweis zu erbringen Geprüfte GPUs bieten besseren Durchsatz und Stabilität bei geringeren Kosten.

hier gelangen Sie zu dem ausführlichen Beitrag:
https://azure.microsoft.com/en-us/blog/gpus-vs-cpus-for-deployment-of-deep-learning-models/

Neueste Mitgliederaktivitäten

Diesen Community Beitrag weiterempfehlen