https://www.cntk.ai/
https://github.com/Microsoft/CNTK
Ein Grund, warum man das Framework lokal laufen lassen musste, ist sicherlich die Tatsache dass es für seine Berechnungen sehr stark auf GPU´s statt auf CPU´s setzt. Spätestens seit WPA2-Schlüssel unter Verwendung von GPU´s erfolgreich geknackt werden konnten sind die Vorteile von GPU´s für bestimmte Berechnungen weitläufig bekannt.
Microsoft hat nun, im Rahmen des sog. "Projektes Catapult" massiv in GPU´s für die Azure Rechenzentren investiert. Microsoft ordnet diese auf sog. FPGA´s (Field Programmable Gate Arrays) an, die teilweise programmierbar sind.
Satya Nadella sagte dazu, dass die Microsoft-Cloud-Infrastruktur damit zu einem Supercomputer für künstliche Intelligenz wird. In einer Demonstration ließ man Leo Tolstois Buch "Krieg und Frieden", das rund 1.440 Seiten umfasst, automatisiert vom russischen ins Englische übersetzen. Die vier FPGA´s erledigten das acht Mal schneller als ein System mit vier 24-Kern CPU´s.
Doug Burger, Distinguished Engineer bei Microsoft, meinte dazu, dass mit der kompletten in Azure verbauten Infrastruktur alle Wikipedia Artikel in unter 100 ms übersetzt werden könnten.
Die Technik kommt bei Microsoft bereits für BING und Cortana zum Einsatz. "Project Catapult" arbeitet bereits seit 2011 bei Microsoft an der FPGA Technologie.
https://www.microsoft.com/en-us/research/project/project-catapult/
There is an answer
http://www.heise.de/newsticker/meldung/Zahlen-bitte-Das-27-Damen-Problem-ist-geloest-3332513.html
Es wäre interessant, das mal auf der Azure Hardware zu testen!