von Florian J. Deinhard
Forum: Allgemeines
Sprache in einem Container ausführen
Ein paar Probleme in einem Container lösen KI-Entwickler derzeit. Eines dieser Probleme betrifft die Kontrolle, wie und wo ihre Daten entweder lokal, in der Cloud oder vor Ort verwendet werden. Diese Art von Flexibilität ist für viele Unternehmen sehr nützlich.
Ein weiterer Vorteil ist die Kontrolle der Skalierung, unabhängig davon, ob es sich um eine Skalierung oder eine Verkleinerung handelt. Dies ist besonders wichtig, wenn AI-Modelle regelmäßig aktualisiert werden. Durch die Steuerung der Skalierung planen Sie die richtige Bandbreite basierend auf Ihren Anforderungen. Daher können Sie die KI direkt neben Ihrer Anwendungslogik ausführen und sind sehr schnell und skalierbar, und zwar mit der Zuverlässigkeit und Qualität, die ein Container bietet.
In unten verlinktem Blog wird beschrieben, wie Sie mit Language Understanding in einem Docker-Container auf Ihrer lokalen Dev-Box beginnen:
https://azure.microsoft.com/en-us/blog/getting-started-with-cognitive-services-language-understanding-container/