Bossie Awards 2016: Das beste Open-Source-Rechenzentrum und Cloud-Software

Bossie Awards 2016: Das beste Open-Source-Rechenzentrum und Cloud-Software

View larger image Die besten Open-Source-Datencenter und Cloud-Software

Container, Microservices, verteilte Cluster … als Arbeit schreitet fort, um die traditionelle Anwendung Stack stürzen, zerlegen die Stücke, und binden sie zusammen Wieder durch APIs, alles scheint kleiner und größer zu werden zur gleichen Zeit. Willkommen in der neuen, einfacheren und komplexeren Welt der Infrastruktur als Code. Und wenn wir sagen „Code“, natürlich verstehen wir Open Source-Code.

[InfoWorld enthüllt die Bossies: Die besten Open-Source-Produkte des Jahres. aufrechtzuerhalten Die besten Open-Source-Anwendungen. aufrechtzuerhalten Die beste Open-Source-Netzwerk-und Sicherheitssoftware. aufrechtzuerhalten Die besten Open-Source-Anwendung Entwicklungstools. aufrechtzuerhalten Die besten Open-Source-große Daten-Tools. aufrechtzuerhalten Bleiben Sie mit dem InfoWorld Linux-Bericht auf Open Source. ]

Zurück Weiter Bossie Awards 2016: Das beste Open-Source-Rechenzentrum und Cloud-Software Vergrößern Docker

Die Bedeutung des Dockers und der neuen Generation von Containerisierungswerkzeugen, die nachgefolgt sind, ist unmöglich zu übertreiben. Docker wird schnell zu einer ausgereiften Technologie, mit Unterstützung in allen wichtigen Betriebssystemen – es ist sogar in Microsoft ® s nächste Server-Betriebssystem und VMware Tools installiert. Es wird auch von öffentlichen Clouds unterstützt, und es wird eine Schlüsseltechnologie in den kommenden hyperconverged Infrastrukturplattformen.

Docker besteht aus einer Gruppe von miteinander verbundenen Open-Source-Projekten. Die Kerndocker-Engine ermöglicht das Erstellen und Testen von Bildern vor dem Bereitstellen in Ihrem Rechenzentrum oder in der öffentlichen Cloud. Kitematic bietet eine Benutzeroberfläche für laufende Container. Weitere Tools im Docker-Stack ermöglichen die Bereitstellung von Containern über virtuelle oder Bare-Metal-Infrastrukturen: Machine verarbeitet Provisioning, Compose definiert Anwendungen aus mehreren Containern.

Docker ist eine grundlegende Technologie für das moderne Rechenzentrum, die Werkzeuge, Laufzeit und APIs zur Verfügung stellt, um Microservices zu erstellen, zu hosten und zu verwalten. Mit Docker als Endpunkt für einen Build-Prozess und im Rahmen einer kontinuierlichen Entwicklung und kontinuierliche Integration Strategie, können Sie einfach schieben Sie einen neuen Container, wenn Sie Änderungen vornehmen. Simon Bisson

– Simon Bisson

Userspaces auf Host-Servern. Wenn Sie Dienstleistungen schnell errichten und sie im Maßstab und bei hoher Dichte ausführen möchten, suchen Sie nicht weiter als Container. Jedoch benötigen Sie auch Werkzeuge wie Kubernetes, um alle beweglichen Teile zu koordinieren, helfen, Service-Interaktionen zu verwalten und behandeln Skalierung.

Kubernetes ist vielleicht am besten verstanden als ein Rechenzentrum-Betriebssystem. So wie Windows oder Linux die Allokation von Ressourcen in einer einzelnen Maschine verwaltet, verwaltet Kubernetes den Lebenszyklus von containerisierten Diensten und Anwendungen über einen Cluster von Maschinen. Es erlaubt Ihnen, Dienste in logische Anwendungen zu gruppieren und sie in einem Rechenzentrum zu implementieren, um sicherzustellen, dass Ressourcen bei Bedarf verfügbar gemacht werden und die Auslastung der Auslastung so hoch wie möglich gehalten wird.

Wenn Sie Container im Maßstab betreiben, Sie müssen etwas wie Kubernetes brauchen. Durch die Verwaltung von IP-Adressen und DNS bietet Ihnen Kubernetes auch einen Weg zum Umgang mit der Service Discovery sowie zum Ausgleichen der Last über Services als Applikationsskalen. Kubernetes hilft auch, Anwendungen zu heilen, Dienste nach Bedarf neu zu starten und Workloads weg von überladenen Servern und Hosts zu verschieben. Sie finden Kubernetes, die auf häufig verwendeten Cloud-Plattformen wie AWS und Azure sowie Google Cloud unterstützt werden. Das macht es zu einem nützlichen Werkzeug, um von einem Cloud-Provider zu einem anderen zu wechseln, was Ihnen ein tragbares Framework für Ihre Container und Dienste bietet.

– Simon Bisson

Zurück Weiter Zoom Mesos

Als “ verteilter Systemkernel ” Oder ein Rechenzentrum Betriebssystem, ist Mesos entworfen, um die Ressourcen für die Bereitstellung von Cloud-Anwendungen auf der Skala zu verwalten, mit Unterstützung für Zehntausende von Knoten. Mesos kann mit jedem beliebigen Cloud-Anbieter und mit jedem Betriebssystem arbeiten, so dass Sie es verwenden können, um Linux- und Windows-Berechnungsinstanzen zu verwalten.

Mit Mesos können Sie Richtlinien definieren, die verarbeiten, wie Ressourcen an Anwendungen geliefert werden Services, mit Anwendungen unterstützt und überwacht von Mesos Agenten, die als lokale Scheduler. Agents berichten über verfügbare Ressourcen auf dem Host des Mesos-Masters, der diese Ressourcen für Anwendungen bereitstellt. Anwendungen können Teilangebote von Ressourcen akzeptieren oder warten, bis alle benötigten Ressourcen verfügbar sind. Ein wichtiges Merkmal von Mesos ist seine direkte Unterstützung für Anwendungen, die auf einer Skala wie Hadoop und Spark laufen. Mesos macht es möglich, massive Analyse-Cluster, die Skalierung mit Abfrage Komplexität, so können Sie MapReduce und andere Algorithmen über extrem große Datensätze zu bauen. Da Mesos Applikationskontrolle über das Scheduling vermittelt, hilft es sicherzustellen, dass Verarbeitungsaufgaben an die Hosts gesendet werden, in denen sich die benötigten Daten befinden.

Daher ist Mesos ein anwendungsorientierter Ansatz zur Verwendung von Compute-, Netzwerk- und Speicherressourcen Können große Datencluster effizienter arbeiten. Jobs können mit wenigen Ressourcen gestartet und gewachsen werden, sobald mehr verfügbar sind, oder sie können verzögert werden, bis die genauen Ressourcen, die sie benötigen, verfügbar werden, wobei die Daten-Lokalität ausgenutzt wird, anstatt Daten zwischen Hosts abzurufen und dem Netzwerkverkehr in einer öffentlichen oder einer privaten Umgebung hinzuzufügen Wolke.

– Simon Bisson

</ Sie lassen Sie packen VMs auf Hypervisoren, sowie Container auf Bare-Metal-Hosts.

CoreOS ist eine der populärsten Optionen, ein selbstaktualisierendes Linux-Betriebssystem, das es ermöglicht, die von einer zentralen Management-Plattform bereitgestellten Container zu minimieren Unterstützt sowohl Docker- als auch Rkt-Container. Als zentraler Teil des sogenannten GIFEE-Stacks (Google Infrastructure for Everyone Else) ist CoreOS eines von vielen Tools, die durch das eigene Infrastrukturmanagement von Google inspiriert werden. Sie können es neben Tools wie Kubernetes und Etcd, um Cluster von Servern, zusammen mit Software-definierten Netzwerk-Tools wie Flannel zu verwalten.

Als Betriebssystem ist CoreOS deutlich abgestreift. Sie finden nicht alle Tools und Dienste, die in andere Linuxs gepackt werden. Stattdessen gibt es nur eine grundlegende Benutzerland mit Tools, um Remote-Verwaltung von Container-Services zu ermöglichen. Alles andere wird nach Bedarf in Containern eingesetzt – inklusive Sprachlaufzeiten. Da alle Applikationsmerkmale vom Betriebssystem entkoppelt sind, ist es möglich, Updates zu automatisieren und Lasten an andere Clustermitglieder weiterzugeben, da die Hosts direkt von den eigenen CoreOS-Aktualisierungsservern aktualisiert werden.

Mit CoreOS können Sie Schritt zurück von der Verwaltung Ihrer Container-Hosts und konzentrieren sich auf die Anwendungen und Dienste, die Sie ausgeführt werden. „http://images.techhive.com/images/article/2016/09/bos16-etcd-100683257-gallery.idge.jpg“> View larger image Etcd

Moderne Cloud-Anwendungen sind weg von traditionellen monolithischen Stacks zu viel mehr skalierbare Architekturen, Gebäude-Anwendungen von Clustern von Microservices. Es ist ein Ansatz, der eine neue Reihe von Problemen bringt: Wie können wir alle diese Dienste verwalten, ihre Konfigurationen beibehalten und die Ermittlung neuer Service-Instanzen ermöglichen, während sie implementiert werden?

Das ist Wo Etcd ins Spiel kommt. Etcd wird zum Grundstein für Konsistenz und Service-Zuverlässigkeit in einem Cluster von Maschinen. Sie können Etcd verwenden, um Konfigurationswerte zu haltenFür die Bereitstellung von Informationen, die verwendet werden können, um schnell neue Service-Instanzen zu konfigurieren oder Dienste zu erlauben, ihre Details zu registrieren, um die Ermittlung zu vereinfachen. Anwendungen können Daten in Schlüsseln, die in Verzeichnissen angeordnet sind, speichern, dann beobachten Sie entweder eine einzelne Taste oder ein ganzes Verzeichnis für Änderungen. Etcd ist schnell, in der Lage, Tausende von Schriften pro Sekunde pro Instanz, mit dem Raft-Konsensus-Algorithmus zu unterstützen Um Protokolle zwischen einer führenden Instanz und ihren Anhängern zu teilen. Es hat eine einfache HTTP-API, die über gemeinsame Tools wie Curl adressiert werden können, so dass es einfach in Ihre eigenen Anwendungen und Dienste zu bauen. Sie finden auch Etcd in populären Projekten wie Kubernetes und Cloud Foundry verwendet.

– Simon Bisson

Zurück Weiter Bossie Awards 2016: Das beste Open-Source-Rechenzentrum und Cloud-Software Atomic Host

Traditionell Server-Betriebssysteme sind in der Regel schlecht geeignet für Container-Anwendungen. Große Betriebssysteme, die mit Funktionen und Diensten aufgebläht sind, sind Anathemen für Microservices, die einen einfachen, sicheren und schnell implementierbaren Host benötigen. Eine neue Generation von Betriebssystemen zielt darauf ab, die Situation zu beheben und liefert leichte Host-Betriebssysteme, die als stabile und konsistente Grundlage für Container dienen sollen. Eine Option ist Atomic Host – basierend auf Red Hat Enterprise Linux, CentOS oder Fedora – mit einem definierten Produktlebenszyklus, der Ihnen ein (relativ) unveränderliches Host-Betriebssystem bietet, das auf allen Cloud-Servern bereitgestellt werden kann. Atomic Host wurde auf das nackte Minimum gestrippt, mit nur die Komponenten benötigt, um Container-Anwendungen laufen.

Updates für Atomic Host werden in einem Schritt heruntergeladen und bereitgestellt, und sie können zurückgesetzt werden, wenn sie vorhanden sind Auf Ihre aktuellen Container-Builds wirken. Das Betriebssystem hat die Möglichkeit, “ super-privilegierte ” Container, um Anwendungen Zugriff auf den Host zu gewähren, so dass Sie Systemverwaltungswerkzeuge neben Ihren Anwendungscontainern bereitstellen können. Kernel-Namespaces und andere Sicherheitstools verbessern auch die Containerisolation, so dass sichergestellt wird, dass Code in einem Container einen anderen Einfluss hat.

Neben dem Atomic Host-Betriebssystem bietet Red Hat eine sichere Registrierung für Container-Images mit rollenbasierter Unterstützung

– Simon Bisson

Prev Next Bossie Awards 2016: Das beste Open-Source-Rechenzentrum und Cloud-Software Sehen Sie größeres Bild Consul

In einer Welt, in der microservices dynamisch über variable Infrastruktur laufen, herauszufinden, wo jeder Service derzeit wohnt, wird schwieriger als hartcodierte IPs.

Consul ist ein verteiltes System, das alle Ihre Dienste verfolgt und sie über eine einfache REST-API verfügbar macht . Jeder Dienst registriert sich mit Consul beim Start, und Konsul kümmert sich um den Rest. Sie können sogar Health Checks auf Services konfigurieren, die Consul nach einem von Ihnen festgelegten Zeitplan ausführen wird. Auf diese Weise können Sie sicher sein, dass Consul wird Ihre Anwendung die Standorte der nur gesunde Dienstleistungen geben, wenn Sie danach fragen.

Wenn Sie sich auf externe Dienstleistungen, die sich selbst registrieren können, können Sie einfach verwenden Die REST API, um ihre bekannten Standorte zu katalogisieren. Dies ermöglicht eine einheitliche Anwendungserfahrung, unabhängig davon, wer die beherrschenden Dienste in Betracht zieht. Neben der Service-Discovery bietet Consul einen flexiblen Key-Value-Store mit optionaler Sperrung und einen Mechanismus für Leader-Wahlen.

– Jonathan Freeman

Zurück Weiter Siehe Größeres Bild Vault

Vault, wie der von HashiCorp gebildete Konsul, ist ein Werkzeug für die Verwaltung von Geheimnissen. Ob es sich um API-Token, Datenbank-Anmeldeinformationen oder andere sensible Informationen handelt, bietet Vault einen einfachen Mechanismus zur Verschlüsselung dieser Geheimnisse. Während ein Verschlüsselungsdienst für Geheimnisse sicherlich impo istRtant, Vault wird noch interessanter, wenn man sich dynamische Geheimnisse. Dynamische Geheimnisse sind Geheimnisse, die vor ihrer Verwendung nicht existieren und automatisch abgelaufen sind, so dass sie wesentlich sicherer sind als langlebige, leicht geteilte Passwörter.

Vault kann konfigurieren, um dynamische Geheimnisse zu erzeugen Ihre Anwendungen auf Anfrage, ob Sie Zugriff auf eine PostgreSQL-Instanz oder einen S3-Bucket erhalten. Wenn die Anwendung Anmeldeinformationen an eine Postgres-Instanz anfordert, erstellt Vault einen nagelneuen Benutzer in der Datenbank und gibt diese Anmeldeinformationen an Sie zurück. Dynamische Geheimnisse malen ein viel hübscheres sicheres Zugriffsbild als das Verteilen von statischen Passwörtern für alle Ihre Anwendungen.

Dynamische Geheimnisse, Wenn Kennwörter Sie müssen, kann Vault konfiguriert werden, um verschlüsselte statische Geheimnisse zu konsulieren oder auf Festplatte beharren. Oder Sie können die Persistenz vollständig überspringen und die Vault-Verschlüsselungs-APIs freigeben, sodass Ihre Entwickler eine schlampig gehärtete Verschlüsselung als Dienst anbieten können, sodass sie nicht selber kodieren müssen.

– Jonathan Freeman

> Vorherige Nächste Bossie Awards 2016: Das beste Open-Source-Rechenzentrum und Cloud-Software Zoom Habitat

Dizzied von der Pandora ’ s Box, die Sie eröffnet haben, um den Docker zur Produktion bereitzustellen? Müde, ältere Software-Implementierungen völlig anders als Ihre internen Softwareprojekte behandeln zu müssen? Es könnte Zeit sein, um Habitat, eine neue Anwendung Management-Tool von Chef. Habitat hilft Entwicklern beim Management von App-Level-Komplexitäten, lange bevor sie die Produktion schlagen.

Habitat packt Ihre Anwendung mit all ihren Abhängigkeiten zusammen mit einem Supervisor-Prozess. Dieser Supervisor-Prozess kümmert sich dann um die Inbetriebnahme, Konfiguration und Service-Erkennung von Anwendungen. Supervisors Klatsch Anwendungsstatus im gesamten Cluster, so können Sie leicht Roll-out-Konfigurationsänderungen und sogar Overlay-Führer-Nachfolger Topologien über die bestehenden Anwendungen. Habitat wird Ihre Legacy-Software in der gleichen Weise zu packen, so dass Sie eine Standard-Schnittstelle, um mit allen Anwendungen zu interagieren. Habitat kann Ihre Anwendung als Tarball, ein Docker-Container oder ein Application Container Image für das Ausführen auf rkt exportieren, so dass Sie unabhängig davon, wie Sie es ausführen, abgedeckt werden.

– Jonathan Freeman

Zurück Weiter Bossie Awards 2016: Das beste Open-Source-Rechenzentrum und Cloud-Software Zoom Fluentd

Eine der großen Herausforderungen bei verteilten Systemen ist die Verwaltung vieler Protokolldateien. Sie können Zeit für die Zusammenstellung von Protokolldateien von jeder einzelnen Microsoft-Instanz, jedem Container und jeder VM in Ihrer Cloud-Infrastruktur verteilen oder eine einheitliche Protokollierungsschicht zum Sammeln, Sortieren und Speichern dieser Daten für eine spätere Analyse implementieren.

Fluentd ist eine häufig verwendete Datenlogging-Schicht mit einer großen und wachsenden Community von Entwicklern sowie Unterstützung von Key-Cloud-Dienstleistern, einschließlich Amazon und Microsoft. Für Microsoft ist es eine Schlüsselkomponente der plattformübergreifenden Operations Management Suite und wird von der neu erschlossenen PowerShell unterstützt.

In der Umgebung von Fluentd werden Plugins und Hilfsprogramme gemeinsam genutzt Logging-Plattformen, um Daten zu extrahieren, zu filtern und die Ergebnisse an ein geeignetes Speicher- oder Analyse-Tool weiterzuleiten. Die Daten werden im JSON-Format umstrukturiert, so dass sie von Endpoint-APIs verarbeitet werden können.

Das Ergebnis ist ein schnelles und leistungsstarkes Tool, das bei der täglichen Arbeit helfen kann und auch formatierte Daten bereitstellt Die von spezialisierten Systemen zur Überwachung oder Sicherheitsanalyse verwendet werden. Ein großer Benutzer ist Line, der die Protokolldaten direkt in Hadoop-Cluster verlagert, um Echtzeit-Analysen des Messaging-Dienstes durchzuführen, auf den derzeit rund 600 Millionen Nutzer zugreifen.

– Simon Bisson

Zurück Weiter Bossie Awards 2016: Das beste Open-Source-Rechenzentrum und Cloud-Software Vergrößern Prometheus

Das Verwalten von Cloud-Systemen im Maßstab bedeutet auchÜberwachung bei der Skalierung, Sammeln von Zeitreihendaten über mehrere Systeme und Dienste hinweg.

Das Herz von Prometheus ist ein Zeitreihendatenmodell, das Schlüssel / Wert-Paare verwendet, um Daten aus den Anwendungen und Diensten zu speichern.

Prometheus, ein Systemmonitoring und Warnservice, der Teil der Cloud Native Computing Foundation ist Mit einer benutzerdefinierten Abfragesprache für die Erfassung gesammelter Daten. Sie können mehrere Prometheus-Knoten implementieren, um verschiedene Aspekte eines Cloud-Services zu überwachen, da jeder Knoten unabhängig arbeitet und Ergebnisse an ein grafisches Dashboard liefert. Es ist auch ein experimentelles Werkzeug für die Verwaltung und Bereitstellung von Warnungen.

Prometheus ist vielleicht am besten geeignet, um Microservices-Umgebungen zu überwachen, wo seine Fähigkeit, Überwachungsziele durch Service Discovery zu finden, eine wesentliche Voraussetzung wird. Prometheus kann Metriken aus instrumentalem Code kratzen oder sie über ein Push-Gateway empfangen, das Daten aus kurzlebigen Jobs sammeln kann, beispielsweise auf einer serverlosen Rechenplattform wie AWS Lambda oder Azure Functions. Während Prometheus Instrumentationsbibliotheken anbietet, die Ihrem Code hinzugefügt werden können, gibt es auch Werkzeuge für den Export von Daten von gängigen Cloud-Plattformen wie AWS und Mesos.

Andere Prometheus-Tools arbeiten direkt mit JVMs Dienstleistungen wie Cassandra ohne zusätzliche Codierung. Andere Dienstleistungen setzen Prometheus Metriken nativ aus. Zum Beispiel arbeiten Kubernetes und Etcd direkt mit Prometheus.

– Simon Bisson

Für alle, die Anwendungen und Dienste ausführen Ist es schwer, Deployments zu verwalten und es ist schwieriger, Anwendungen von einem Provider zu einem anderen zu migrieren. Durch die Kombination von Einsatz- und Betriebswerkzeugen in einem einzigen, codegesteuerten Framework zielt Flynn darauf ab, die Kosten und Risiken zu reduzieren, die mit dem Bauen von In-the-Cloud-Anwendungen verbunden sind.

Flynn ist im Grunde eine Open Source PaaS, die ’ S entwickelt, um Mikrodienste und ihre Daten Host, ob diese Daten relational oder NoSQL. Dank eines modularen API-basierten Ansatzes können Sie Ihre Anwendungen einfach implementieren und verwalten und dann in eine Build-Pipeline integrieren. Apps sind in Container eingebaut, die dann auf Hostcomputern und VMs bereitgestellt werden.









App-Komponenten werden von Flynn s Service Entdeckung Funktionen, die IP-Adressen an Container liefern und DNS verwenden verwenden Einfachheit. Weitere Elemente von Flynn behandeln den Aufbau und die Bereitstellung von Hochverfügbarkeitsdiensten sowie Load-Balancing-Verbindungen über Servicecluster hinweg. Datenbanken können schnell bereitgestellt werden, und sie werden automatisch gesichert.

Das Team hinter Flynn bietet diverse Support-Pläne an, obwohl es immer die Möglichkeit gibt, immer wieder die Möglichkeit zu haben, einen A / B-Test für virtuelle Infrastrukturen durchzuführen Um die Unterstützung der Gemeinschaft über GitHub und IRC zu nutzen. Flynn bietet die Leichtigkeit Entwickler verlangen mit der Skalierbarkeit und Zuverlässigkeit Unternehmen benötigen. Kein Wunder, dass die Gemeinde wächst.

– Simon Bisson

Das Herz des modernen Internets ist der Webserver. Der ehrwürdige Apache sitzt immer noch an der Spitze der Charts, aber er wird durch eine schnellere und vielseitigere Alternative herausgefordert: Nginx.

Nginx ist schnell, sicher und einfach zu konfigurieren und zu verwalten Arbeiten sowohl als Web-Server und als Reverse-Proxy, die eine Last-Balancing Frontend für Web-Services bieten kann. Out of the Box kommt Unterstützung für Standards wie HTTP / 2 und IPv6, sowie integrierte Web-Seite Komprimierung. Zusätzliche Funktionen können durch Module hinzugefügt werden, die von Nginx eigenen Entwicklern und von Drittanbietern erhältlich sind.

Die Verbesserung der Website-Leistung war von Anfang an ein Ziel, und Nginx ist wirklich für Geschwindigkeit gebaut. Die zugrundeliegende ereignisgesteuerte Architektur bedeutet, dass der Server eine beträchtliche Anzahl von Verbindungen (10.000 plus) verarbeiten kann, während er nur wenige Megabyte Speicher verwendet. Diese Leistung ist ein wichtiger Enabler von High-Density-Cloud-Services, wo mehrere Container-Server könnenDie auf einer einzigen virtuellen Maschine ausgeführt werden.

Weitere Leistungsverbesserungen umfassen integriertes Media-Streaming für gängige Formate. Eine kommerzielle Version, Nginx Plus, fügt Unterstützung und mehr Sicherheitsmerkmale hinzu, einschließlich einer Webanwendung-Firewall.

– Simon Bisson

Zurück Weiter Bossie Awards 2016: Das beste Open-Source-Rechenzentrum und Cloud-Software Zoom Neo4j

Die Freigabe von Neo4j 3.0 Anfang dieses Jahres war mit Geschwindigkeit, Flexibilität und Effizienz verpackt. Das erste Detail zu beachten ist, dass Unternehmenskunden die Möglichkeit haben, einen neuen Speichertreiber zu verwenden, der das Adressraum-Limit von 34 Milliarden Knoten entfernt. Chancen sind dies doesn ’ t gelten für Sie, aber wenn Sie auf massives Wachstum planen und neo4j als eine tragfähige Option fragen müssen, sollte dies einige Ihrer Bedenken beruhigen. Sie haben auch die Option Um das neue Bolt-Binärprotokoll anstelle der HTTP-API zu verwenden, um jeden letzten Tropfen Effizienz aus Ihrem Netzwerk herauszuquetschen. Von einem betrieblichen Standpunkt aus, werden Sie erleichtert zu hören, dass Sie nicht mehr jonglieren eine Handvoll von Eigenschaften-Dateien. Ab diesem Release wurden alle Eigenschaftendateien zu einem einzigen Standort zusammengefasst, um eine einfachere Verwaltung von Bereitstellungen zu ermöglichen, unabhängig davon, ob sie in Ihrem Rechenzentrum, in der Cloud oder lokal für die Entwicklung ausgeführt werden. Es gibt noch mehr in dieser Version verpackt, also lesen Sie in den Release-Notizen und greifen Sie eine Kopie, um mit zu spielen.

– Jonathan Freeman

Prev Next Bossie Awards 2016: Das beste Open-Source-Rechenzentrum und Cloud-Software Siehe Ubuntu Server

Ubuntu ist am besten als Desktop-Linux-Distribution bekannt, aber selbstverständlich ist er auch als Server verfügbar, wobei der Schwerpunkt auf dem Aufbau und der Ausführung von privaten Clouds liegt. Zur Unterstützung der Unternehmensadoption ist Ubuntu Server in einer Langzeit-Supportversion und in Versionen für alle wichtigen Serverarchitekturen einschließlich ARM64 verfügbar. Es ist auch als Gastbetriebssystem auf allen großen öffentlichen Clouds zertifiziert.

Wenn Sie an den Aufbau einer OpenStack Private Cloud denken, ist Ubuntu Server auf der kurzen Liste der zu betrachtenden Betriebssysteme, da es Unterstützung beinhaltet Für den LXD-Container-Hypervisor und die JuJu-Version von OpenStack, die automatisch in LXD-Containern eingesetzt werden kann. LXD ist vielleicht am besten gedacht als eine offene Version von Microsoft Hyper-V-Container, mischen Container-Unterstützung mit Hypervisor-ähnliche Isolation. Sie sind nicht auf die Verwendung von LXC-Containern auf LXD beschränkt, da es auch Unterstützung für Docker gibt.

Weitere Hauptmerkmale des Ubuntu Servers, dass Booy Cloud-Implementierungen neue Unterstützung für das zuverlässige ZFS-Dateisystem beinhalten Sowie ein Data Plane Development Kit (DPDK), eine Kernel-Netzwerktechnologie, die es Anwendungen ermöglicht, direkt mit der Netzwerk-Datenebene zu arbeiten, um direkt auf Pakete zuzugreifen und diese zu manipulieren. Während DPDK den Netzwerk-Stack komplett macht, ist es in der Lage, wichtige Netzwerkfunktionen zu vereinfachen und zu beschleunigen, was für den Aufbau hochdosierter Cloud-Services wichtig ist.

– Simon Bisson

Zurück Weiter Bossie Awards 2016: Das beste Open-Source-Rechenzentrum und Cloud-Software PowerShell anzeigen

Microsoft PowerShell ist der jüngste Teilnehmer auf der Liste unserer Gewinner, obwohl es schon lange her ist. Das ist, weil es vor kurzem den Übergang von proprietären Technologie zu Open Source, zusammen mit einer Reihe von Werkzeugen für den Aufbau und die Verwaltung Ihrer PowerShell-Skripte.

Entworfen als Skriptsprache für die Systemverwaltung ist PowerShell ein Framework Zum automatisieren von Aktionen auf Dienste auf Systemebene, zum Einpacken von Dienst-APIs und Dateien in “ Cmdlets ” Die aus einer vertrauten Kommandozeile laufen. Sie müssen ein neues Docker-Image für einen Webdienst bereitstellen? Wenn Sie ein geeignetes PowerShell-Cmdlet erstellt haben, benötigen Sie nur einen Remote-Endpunkt, einige Variablen und ein Image, das bereitgestellt werden kann. Es wird sofort über einen Satz von Front-End-Servern ausgeführt. Dieser Satz von Cmdlets kann auch von Tools wie Chef und Jenkins verwaltet werden, so dass Sie einen Host für automatisierte Operationen.

Don ’ t Fehler PowerShell für eine alteRnative für Bash oder andere Unix-Shells. It ’ s ein leistungsfähiges Werkzeug in seinem eigenen Recht, aber sein Fokus ist auf Betrieb Aufgaben. Wir sollten erwarten, dass PowerShell weiterhin auf Windows Server und Microsoft ’ s eigenen Plattformen zu bieten. Aber durch die Erweiterung von PowerShell auf Linux und Unix und durch das Hinzufügen von SSH zu den PowerShell-Remotfähigkeiten hat Microsoft die Grundlage dafür geschaffen, um ein Werkzeug zu werden, mit dem heterogene Anwendungen auf Cloud-Skalen verwaltet werden können.

Um PowerShell zusammen mit der Fluentd-Logging-Engine zu nutzen, da das Unternehmen in den nächsten Jahren seine Cloud-basierte Service Management-Plattform erweitert.

– Simon Bisson

Zurück Weiter Bossie Awards 2016: Das beste Open-Source-Rechenzentrum und Cloud-Software GitLab

Sie können eine moderne Entwicklungsoperation ohne ein verteiltes Versionskontrollsystem ausführen. Open-Source-Tools wie Git und Mercurial teilweise erfüllen die Notwendigkeit, aber von selbst diese Tools beschränken Sie auf Kommandozeilen-Interaktionen. Dies ist, wo gehostete Tools wie GitHub und Bitbucket kommen, aber beide sind Quelle und ihre Straßenkarten wurden etwas undurchsichtig in der Vergangenheit. GitLab ist eine Open-Source-Alternative zu GitHub und Bitbucket mit überzeugenden Features, einem aggressiven Entwicklungszyklus und einem spannenden Roadmap.

GitLab ist nicht nur eine Open-Source-Version, die bei Standardfunktionen wie Browsing- Überprüfen von Zusammenführungsanforderungen und Übermitteln von Problemen. Es hat Unterstützung für vertrauliche Fragen, denn wenn Sie eine sensible oder sicherheitsrelevante Frage an ein Open-Source-Projekt senden möchten. Es ermöglicht Ihnen, ein Emblem-Label abonnieren, so dass Sie eine Benachrichtigung erhalten, wenn das Etikett zu einem Problem hinzugefügt wird. Brauchen Sie einen konfigurierbaren Kanban-Problem-Tracker? GitLab hat Sie abgedeckt.

– Jonathan Freeman

Zurück Weiter Zurück Weiter 1 von 18

Strong> Nächste Slideshow Bossie Awards 2016: Das beste Open-Source-Rechenzentrum und Cloud-Software Bossie Awards 2016: Die besten Open-Source-Anwendungen

q , q

Zusammenhängende Posts:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.