Microsoft Azure Vernetzung beschleunigt sich dank benutzerdefinierte Hardware

Microsoft Azure Vernetzung beschleunigt sich dank benutzerdefinierte Hardware

Die Vernetzung von virtuellen Maschinen in Microsoft Azure wird eine ganze Menge schneller dank einiger neuer Hardware zu erhalten, die Microsoft über seine ausgerollt hat Flotte von Rechenzentren.

Das Unternehmen gab am Montag bekannt, dass es Hunderttausende von FPGAs (Field-Programmable Gate Arrays) über Server in 15 Ländern und fünf Kontinenten im Einsatz hat. Die Chips wurden in einer Vielzahl von First-Party-Dienste von Microsoft zum Einsatz, und sie beginnen jetzt Azure auf der Unternehmens-Cloud-Plattform zu beschleunigen Vernetzung.

Neben der Vernetzung Geschwindigkeiten zu verbessern, die FPGAs ( die auf benutzerdefinierten sitzen, Microsoft gestalteten Boards Azure-Servern verbunden) kann auch die Geschwindigkeit der Maschine-Lernaufgaben und andere wichtige Cloud-Funktionalität zu verbessern verwendet werden. Microsoft hat nicht genau gesagt, was der Inhalt der Platten umfassen, die nicht offenbart, dass sie ein FPGA, statischen RAM-Chips und gehärtete digitale Signalprozessoren halten.

[Die Woche im iPhone Hüllen: Überprüfen Sie die erste Ernte von iPhone aus 7 und iPhone 7 Plus-Fälle, die Sie kaufen können]

Microsofts Implementierung der programmierbaren Hardware ist wichtig, wie die zuvor zuverlässig Anstieg der CPU-Geschwindigkeiten weiter zu verlangsamen. FPGAs können eine zusätzliche Geschwindigkeitsschub in Rechenleistung für die jeweiligen Aufgaben zur Verfügung stellen, die sie konfiguriert habe zu arbeiten, auf der Zeit Abholzen es Dinge zu tun, nimmt wie den Fluss des Netzwerkverkehrs zu verwalten oder Text zu übersetzen.

Mit Microsoft sucht jedes Quäntchen Leistung aus der Computer-Hardware und Platzbedarf zu drücken, dass es bereits mit anderen Spielern in der Cloud-Markt zu konkurrieren, diese Hardware konnte das Unternehmen einen Vorteil verschaffen.

Accelerated Networking, ein neues Feature verfügbar am Montag in der Beta, ist ein Beispiel für die Funktionen, die ein FPGA-Bereitstellung ermöglicht. Zwischen zwei VMs, dass beide haben es aktiviert ist, können Benutzer geben Geschwindigkeiten von bis zu 25Gbps und Latenz von etwa 100 Mikrosekunden, ohne Aufpreis.

Der Accelerated Networking Ankündigung kommt nur eine Woche nach Oracle seine zweite enthüllt -Generation Infrastruktur-as-a-Service-Angebot an Open World, die auch off-Server verfügt, softwaredefinierte Vernetzung verbesserte Leistung zu fahren.

Azure CTO Mark Russinovich, sagte mit der FPGAs war der Schlüssel zu Azure nehmen helfen Vorteil der Netzwerk-Hardware, die es in seinen Rechenzentren setzen. Während die Hardware könnte 40Gbps Geschwindigkeiten unterstützen, bewegte tatsächlich, dass die gesamte Netzwerkverkehr mit den verschiedenen Software-Defined Networking-Regeln, die angebracht sind, um es eine enorme Menge an CPU-Leistung hat.

„Das ist einfach nicht wirtschaftlich“ sagte er in einem Interview. „Warum diese CPUs wegnehmen von dem, was wir an Kunden in virtuellen Maschinen verkaufen können, wenn wir möglicherweise, dass abgeladen in FPGA haben könnte? Sie konnten diesen Zweck als auch zukünftige Zwecke dienen, und uns mit FPGAs in unserem Rechenzentrum vertraut . Es wurde für uns ein ziemlich klarer Sieg. „

das Projekt die Idee von Doug Burger, einem aufstrebenden Ingenieur in Microsoft Research Neue Erfahrungen und Technologien (Next) Gruppe ist. Burger begann das FPGA-Projekt mit Codenamen Katapult, im Jahr 2010. Das Team zunächst mit Bing zu arbeiten begann, und dann erweitert zu Azure. Diese Arbeit führte zu der zweiten, aktuellen Design von Microsofts FPGA-Hardware-Layout.

Eine FPGA-Karte zu jedem neuen Azure-Server zugewiesen ist und an seiner NIC (Network Interface Card) verbunden ist, PCIe-Bus und die top- of-Rack-Netzwerk-Switch. Das heißt, es ist möglich, für jedes FPGA mit anderen zu sprechen, und Microsoft kann viele FPGAs in seinen Rechenzentren für große Aufgaben, mit geringer Latenz zu nutzen. Das ist besonders wichtig für massive Maschine-Learning-Anwendungen.

„Wenn wir 1000 FPGAs zu einem einzigen [tief neuronales Netz] zuordnen möchten wir können“, sagte Burger. „Wir diese Art von Maßstab zu bekommen.“

Das Maßstab große Mengen an Rechenleistung zur Verfügung stellen kann. Wenn Microsoft Azure gesamten FPGA-Bereitstellung verwendet die englischsprachige Wikipedia zu übersetzen, es wäre nur ein Zehntel einer Sekunde dauern, sagte Burger bei Ignite auf der Bühne.

Microsoft nicht das einzige Unternehmen, um benutzerdefinierte Silizium Drehen ist für diese Art von Arbeit. Google enthüllt früher ein Tensor Processing Unit in diesem Jahr, dass einige Maschinenlernaufgaben in seiner Cloud zu beschleunigen angenommen hat. Die TPU ist ein Application-Specific Integrated Circuit oder ASIC -. Auf einem speziell entwickelten Chip

Google ASICs wegen der Geschwindigkeit und Effizienz anstelle von FPGAs eingesetzt. Also, warum Microsoft FPGAs wählen?

Die Branche viel zu schnell bewegt, für ihn eine bestimmte ASIC sicher sein, wird tun, was im Laufe der Zeit getan werden muss, sagte Burger. Während nur die neu programmierbar Hardware in einem FPGA würde für die Leistung nicht groß sein, können die gehärteten SRAM und DSP-Chips auf dem FPGA-Board bestimmte Anwendungen zu beschleunigen, die Performance-Lücke schrumpft.

„Ich bin nicht die Steuerpfad nach unten für drei Jahre bequeme Verriegeln und sagen: „ich weiß, was jetzt zu tun ‚“, sagte Burger.

im Moment ist Accelerated Networking nur für DS15v2 Instanzen in Azure West Central USA und Westeuropa erhältlich Regionen. Es ist nur kompatibel mit Windows Server 2012 R2 und Windows Server 2016 Technical Preview 5, obwohl Microsoft plant, bald mit Linux-Instanzen zu arbeiten.

In der Zukunft wird die beschleunigte Vernetzung Dienst Azure anderen virtuellen Maschine erweitern Arten und Betriebssysteme. Es wird aus gehen ein Opt-in-Erweiterung ein freies Wesen zu sein, Opt-out profitieren, die standardmäßig zu erhöhen verfügbaren Geschwindigkeiten Vernetzung.

Blick in die Zukunft, hat Microsoft sagte, dass die FPGAs gesetzt wird, um Einsatz in maschinellen-Learning-Anwendungen. Burger sagte, das Unternehmen Code für seine kognitive Leistungen eingerichtet hat in einem FPGA-beschleunigte Modus ausgeführt werden, so dass diese nächste sein kann.

„Das wird eine Reise sein, wie wir diese Fähigkeit für die Kunden aussetzen „, sagte Russinovich. „Ich denke, das erste, was wir reden über das Tun [vertieftes Lernen] ist, wo wir die Modelle zu trainieren und dann Kunden, um sie auf CPUs oder GPUs in unserem Rechenzentrum laufen lassen. In Zukunft werden sie in der Lage sein, das zu laufen Scoring auf FPGAs und möglicherweise auch Modelle selbst trainieren, wenn sie auf den FPGAs zu wollen. Aber wir sind einen weiten weg ab. „

Für Burger, einer der größten Fragen wird sein, was die richtige Mischung aus FPGAs und CPUs ist innerhalb einer Azure Rechenzentrum. Auch wenn Microsoft Hunderttausende von FPGAs bereits eingesetzt hat, sind sie nicht genug die Bedürfnisse des Unternehmens als mehr Teams sie beginnen mit gerecht zu werden.

„Die CPUs sind wichtig und wird auch weiterhin für alle wichtig zu sein Software und alle diese Produkte und Dienstleistungen, die wir haben „, sagte er. „Aber ich denke, für Anwendungen, die große Durchbruch im Maßstab von Nicht-CPU-Technologien kommen wird.“

q , q

Zusammenhängende Posts:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.