LoadBalancerBlog.de

Der deutschsprachige KEMP Technologies Blog - Aktuelles rund um
Load Balancing und Application Front End Appliances

Subscribe

[Read this site in English]

Fehler in der Multi-Cloud beheben

Mai 18, 2016 Von: Kieran Daly Kategorie: Allgemeines zu Load Balancing

Einem Problem in der Multi-Cloud-Umgebung auf den Grund zu gehen, kann einem Kopfzerbrechen bereiten. Thomas Kurz, Regional Director Germany, Austria & Switzerland bei KEMP Technologies, bietet IT-Administratoren Schmerzlinderung/Abhilfe

Einem Problem bei der Applikationsperformance in den heutigen Private-, Public- oder Multi-Cloud-Umgebungen auf die Spur zu kommen, kann eine zeitaufwändige Herausforderung darstellen. Application-Delivery-Controller (ADCs) eignen sich dafür, die Applikationsperformance zu skalieren sowie zu erhalten; außerdem gewährleisten sie den Zugriff auf Server- und Applikationsebene. Doch nachdem Anwendungen und Komponenten über zahlreiche Netzwerke, Cloud-Dienste und Standorte verstreut sind, kann Netzwerküberlastung ebenso für die Probleme verantwortlich sein wie der Server selbst.

Paketerfassungs- und Netflow-Tools können diagnostische Hilfe und Entlastung liefern, aber diese Lösungen erfordern relativ viel Zeit, Expertise und Geduld. Will man Ursachen in einer hybriden und einer Multi-Cloud-Umgebung aufspüren, so muss man oftmals auf mehrere On-premise-, Netzwerk- und Cloud-basierte Tools sowie -Informationen stützen. In der Zwischenzeit werden nicht nur IT-Ressourcen beansprucht, Ausfälle und verminderte Leistungsfähigkeit können auch die Produktivität und den Umsatz beeinträchtigen.

Doch es gibt noch einen anderen Weg. Einige der aktuell aufkommenden ADCs liefern nicht nur ein zentralisiertes ADC-Management-Tool über die verschiedenen Cloud- und Rechenzentrumsumgebungen hinweg, sondern berücksichtigen auch die Informationen des SDN OpenFlow-Protokolls und die damit einhergehende Netzwerksichtbarkeit sowie Automatisierung. Durch das enge Zusammenspiel mit SDN-Controllern können ADC-Management-Tools die Applikationsperformance nicht nur auf Server-, sondern auch auf Netzwerkebene erhöhen.

Das Diagramm zeigt, wie eine SDN-fähige ADC-Architektur ein Applikationsperformance-Problem lösen kann, indem die Netzwerkauslastung ermittelt wird. In diesem Beispiel hat das SDN-fähige ADC-Tool eine Traffic-Überlastung zwischen VBR (variable bit rate oder Class B Quality of Service) 2 und 3 auf Port 2-3 bis 3-2 im Pfad zu den von ihm gemanagten Servern entdeckt. Nachdem es die Überlastung entdeckt hat, instruiert das Tool den SDN-Controller, um den Datenverkehr automatisch über eine andere weniger verstopfte Route weiterzuleiten, den Engpass zu umgehen und die Applikationsperformance zu verbessern. Die IT-Abteilung ist so gut wie gar nicht eingebunden. Netzwerkbezogene Anwendungsprobleme werden adressiert sowie in Sekunden oder Minuten gelöst, noch bevor sie sich auf das Geschäft auswirken. Das ist eine überraschend einfache und schnelle Lösung für ein anscheinend komplexes Problem.

NFV und SDN: Zaubermittel für höhere Verfügbarkeit?

Mai 13, 2016 Von: Kieran Daly Kategorie: NFV, SDN

 

Die Verfügbarkeit geschäftskritischer Anwendungen ist ein Dauerbrenner in Unternehmen. Gemischte bzw. hybride Multi-Cloud- und On-Premise-Implementierungen haben heutige IT-Landschaften noch komplexer gemacht. Umso besser, wenn es neue Wege gibt, in der flexibleren und anfälligeren Welt Ausfälle zu vermeiden. Intelligentes Application-Delivery-Controlling auf Basis von SDN und NFV ist der Schlüssel zu einer positiven Kundenerfahrung.

Immer mehr Service-Provider setzen zunehmend auf Online- und On-demand-Angebote, um sowohl geschäftliche als auch private Anwender zu beliefern. Ob es um Sport, Musik oder Entertainment geht: Musik- und Video-Streaming brauchen hohe Qualität und Ausfallsicherheit. Doch immer wieder gehen Streaming-Dienste in die Knie, wenn die Zugriffe entsprechend hoch sind. Videokonferenzdienste in Unternehmen, webbasierte Lösungen für Customer-Relationship-Management (CRM) oder Amazons AWS Cloud sind oft genug geschäftskritisch. Ein Ausfälle wäre daher mehr als geschäftsschädigend. Doch viel zu oft kommt es dazu: Im Februar 2015 erlitt der Streaming-Dienst Amazon Prime Instant Video einen mehrstündigen Ausfall. Und im Juli waren rund zehn Online-Dienste von Apple nicht mehr erreichbar. Im September traf es dann den VoIP-Messenger Skype. Die Liste ließe sich beliebig fortsetzen. Doch wie können sich die Anbieter vor solch unpopulären Ausfällen schützen?

Neue und traditionelle Inhalte-Anbieter nutzen üblicherweise eine Kombination von Cloud- und On-premise-basierter Technologie für ihre Services. Doch diese unterliegen Grenzen, insbesondere wenn die Kundennachfrage sehr hoch ist. Ein erfolgversprechenderer Ansatz ist der Einsatz neuester Technologie für die Bereitstellung von Inhalten und Applikationen. Die Zauberworte heißen hier Netzwerkvirtualisierung (NFV) und softwaredefiniertes Networking (SDN). Sie versprechen ein geringeres Risiko sowie zuverlässige Nutzererfahrung und konstante Qualität.

Traditionell verwendet QoE (Quality of Experience) ein statisches und manuell konfiguriertes Verfahren, um damit Datenpakete in Switches im ganzen Netzwerk zu verwalten. Eine von KEMP Technologies entwickelte dynamische Lösung für das Problem beeinflusst direkt die QoE-Regeln. Sie liefert in Echtzeit Instruktionen innerhalb des Netzwerkes, die auf den sich ändernden Bedingungen und den Bedürfnissen der Anwendungen basieren.

Neue adaptive SDN-fähige QoE-Technologie nutzt auf der Ebene der Netzwerkinfrastruktur intelligente Funktionen im Zusammenspiel mit applikationszentrischem Load Balancing und Quality-of-Service-Kontrollen. Ziel ist, den Datenverkehr durch das SDN-Netzwerk zu steuern. Durch diese Art der Priorisierung lässt sich i.d.R. die Unterbrechung eines Videostreaming-Signals vermeiden. Derart die Nutzererfahrung zu verbessern, ist aber nur ein Element der Strategie, eine höhere Verfügbarkeit zu erreichen. Mindestens ebenso wichtig ist es, NFV und SDN zusammen mit Load Balancern einzusetzen.

Warum es sinnvoll ist, den ganzen Weg zu gehen

Load Balancer verteilen die Zugriffe der Anwender auf virtualisierte Server und Applikationen. Virtuelle bzw. intelligente Load Balancer reduzieren nicht nur die Anzahl physischer Ressourcen, sondern sorgen als Application-Delivery-Controller (ADC) bei geschäftskritischen Anwendungen zudem für Hochverfügbarkeit.

SDN trennt Netzwerkfunktionen wie z.B. Routing und Switching von der darunterliegenden Hardware. So lässt sich das Netzwerk enger mit virtualisierten Rechenzentren verzahnen. NFV virtualisiert Netzwerkfunktionen wie ADCs und WAFs (Web Application Firewalls) und macht diese so für die übrige virtuelle Infrastruktur leichter erreichbar. Außerdem bietet es ein Framework für die Verknüpfung mehrerer Netzwerkdienste. Werden diese virtuellen Appliances in einer Hypervisor-Umgebung platziert, schafft man eine zentral programmierbare Infrastruktur. Sie senkt die Kosten, da weniger Geräte angeschafft und gewartet werden müssen.

Auch die Verfügbarkeit profitiert. Allein schon deswegen, weil in virtualisierten Umgebungen nicht mehr einzelne Geräte, sondern IT-Instanzen übergreifend und zusammenfassend konfiguriert werden. Dank der geringeren Anzahl an Netzgeräten und automatisierter Befehle via Orchestrierung muss der Netzwerkmanager nicht mehr zahllose Appliances anpassen, die jeweils Fehler vervielfachen können. Es genügt, wenn er wenige Modifikationen an der virtualisierten Netzwerkinfrastruktur vornimmt.

Parallel zur geringeren manuellen Intervention sinken auch die Anforderungen an das Netzwerkmanagement. Übernimmt der SDN-Controller das Gros der Änderungen, besteht weniger Interventionsbedarf bei Routineaufgaben. Doch SDN-Controller bzw. Orchestrierungseinheiten können nicht prüfen, ob das Programmierte gültig und fehlerfrei ist. Sie geben lediglich Befehlssätze an Switches weiter oder konfigurieren komplexe Diensteverkettungen. Daher ist der Netzadministrator noch immer wichtig: Er überprüft die Eingaben auf Korrektheit und überwacht den Netzverkehr im laufenden Betrieb auf ungewöhnliche Vorgänge hin.

Leistungsmerkmale ergänzen sich

SDN und NFV müssen grundsätzlich nicht gemeinsam eingeführt und verwendet werden. Gerade wenn man aber das Optimum an Verfügbarkeit und Flexibilität herausholen will, sollte man dies tun, da sie sich kongenial ergänzen. Die alleinige Einführung von SDN würde das Netzwerk weiterhin an Geräte binden. Das kollidiert aber mit der Idee, Netzwerkintelligenz in Software zu integrieren. Die ADC-Integration mit Hilfe von SDN steuert erheblich mehr Intelligenz zum Datenstrom bei, so dass der SDN-Controller schneller Entscheidungen treffen kann. Da viel mehr Informationen zur Verfügung stehen, kann er außerdem die optimale Verbindung für die Anwendung ermitteln und auswählen.

Während ein SDN-Controller einen sehr netzwerkzentrierten Blick auf eine Infrastruktur hat, sind Level 7 ADCs sehr anwendungszentrisch. Die Kombination dieser Software-Intelligenz ermöglicht echte informationsbasierte Entscheidungen. So kann ein Netzwerkpfad zu einem bestimmten Host-Rechner in einem Pool applikationszentrischer virtueller Maschinen derjenige mit der geringsten Last sein. Ein SDN-Controller allein würde auf Grund dieser Information die erforderlichen Datenströme anstoßen, um eine bestimmte Client-Anfrage an dieses Ziel abzusetzen. Aufgrund seines begrenzten Sichtfeldes würde ihm aber die Information fehlen, dass z.B. das Zielsystem nicht optimal funktioniert. Abläufe könnten blockiert sein, was zu einem vorübergehenden Fehler führte. Wegen unterbrochener Verbindungen zum Verzeichnisdienst könnte auch die Authentifizierung gestört sein. Da diese Informationen nicht in die Entscheidung einfließen würden, wäre die Nutzererfahrung schlechter, als man erwarten würde.

NFV ist kompatibel mit dem noch jungen Standard OpenFlow, wodurch dessen Vorzüge zum Tragen kommen. Mit ihm kann man aus der Infrastruktur heraus Paketweiterleitung und Routing-Entscheidungen voneinander trennen. Dadurch ist es möglich, die Kommunikationskette innerhalb der Plattform für zusätzliche Funktionen wie Load Balancing, Edge Security oder Application Delivery zu öffnen. Benötigte Funktionen können à la carte eingesetzt werden, um einen bestimmten Dienst flexibel und automatisiert bereitzustellen. Das Resultat ist eine verkürzte ‚Time-to-market’. Eine dafür ausnahmslos benötigte Schlüsselfunktion ist Load Balancing. Das Loslösen von Funktionen, wie das Trennen von Load Balancing von der Hardware, liegt in der Natur von NFV. Anforderungen an Skalierbarkeit und Verfügbarkeit in Rechenzentrums-Umgebungen lassen sich so einfacher erfüllen.

Höhere Flexibilität + einfachere Wartung = höhere Verfügbarkeit

 Moderne IT-Umgebungen aus Cloud- und On-Premise-Elementen stellen für das Netzwerkmanagement eine Herausforderung dar. Wer die Virtualisierung der Infrastruktur weiter vorantreiben will, setzt auf SDN. Doch auch bei softwaredefinierten Netzwerken muss noch die Lücke zwischen den unteren Netzwerk-Layer-Informationen, zu denen ein SDN-Controller Zugang hat, und den Anwendungsinformationen, die ein ADC zeigt, geschlossen werden. NFV-Dienste wie ADCs stellen Informationen über den Zustand einer Anwendung, über Nutzerzugriffe sowie die Leistung von Anwendungsinstanzen bereit. Sie bieten sich an, um den SDN-Controller über Metriken zu informieren, die normalerweise nicht ‚sichtbar’ wären. Daraus resultiert eine bessere Entscheidungsfindung, wenn SDN-Controller und ADCs über definierte Schnittstellen interagieren.

Der Umbau des Unternehmensnetzwerkes hin zu einer Kombination aus SDN und NFV stellt sicherlich eine Herausforderung für die IT-Abteilung dar. Angesichts der zu erwartenden Vorteile wie einer größeren Flexibilität und vereinfachten Wartung – aber insbesondere auch einer höheren Verfügbarkeit – lohnt sich dieser Schritt. Der Zaubertrank, wird er in Maßen und Schluck für Schluck zu sich genommen, dürfte die gewünschte Wirkung entfalten.

 

Content Switching in der Public Cloud

April 27, 2016 Von: Kieran Daly Kategorie: Allgemeines zu Load Balancing

“Ich möchte meine Web-Applikation in die Public Cloud verlagern. Sie besteht jedoch aus verschiedenen Technologien, die nicht in einer einzelnen Lösung angeboten werden.” Diese Aussage hört man oft, wenn Unternehmen ihre Lösungen in die Public Cloud migrieren möchten, um die Betriebskosten (TCO) zu senken, dabei aber fürchten, dass die Plattform die komplexe Anwendung nicht unterstützt. Zu einem gewissen Teil ist diese Aussage richtig. Die meisten Public-Cloud-Angebote verfügen über keine einheitliche Plattform, um diese kundenspezifischen Applikationen abzubilden. Die Technologien werden zwar in der Public Cloud offeriert, doch benötigen wir eine Art Bindeglied, um die Teile zu „verknüpfen“, so dass sie als einheitliche Lösung wahrgenommen werden.

Der virtuelle LoadMaster von KEMP übernimmt solch eine Aufgabe und lagert mit Features wie modernem Content Switching die verschiedensten geschäftskritischen Web-Applikationen in die Cloud aus. Der KEMP LoadMaster fungiert quasi als Klebstoff, um diese Technologien zu verbinden. Indem sie die Regeln zum Abgleich von Inhalten und zur Header-Modifikation anwenden, können die User eine URL anklicken und werden direkt an mehrere Backend-Dienste weitergeleitet. So sieht der Anwender immer dieselbe URL in seinem Browser, hat aber Zugriff auf PaaS-, IaaS-, SaaS-Dienste bzw. jede Kombination davon.

Nehmen wir an, Sie haben eine Website auf Basis von .NET, Java und WordPress und Sie müssen diese für Mobilgeräte optimieren. Da es in Azure keinen einheitlichen Dienst gibt, der die nötigen Funktionen bietet, müssen wir vier verschiedene Dienste bemühen.

Content Switching in der Public Cloud Fig 1

Jeder Dienst wird mit einer einzigen URL erstellt, die auf .azurewebsites.net endet. Und obwohl Sie auch eine externe Domäne anbinden können, funktioniert dies nicht für vier verschiedene Dienste. Hier kommt der KEMP LoadMaster für Azure ins Spiel. Ihre externe Domäne wird auf den KEMP LoadMaster Virtual Service (beispielsweise www.kempdemo.com) verweisen und den Traffic an den passenden auf REGEX (Regular Expressions) basierenden Dienst weiterleiten.

Content Switching in der Public Cloud Fig 2

Zunächst müssen wir den Traffic identifizieren, und dafür bedarf es der LoadMaster Content-Matching-Regeln. Im folgenden Beispiel verwenden wir Navigationspfade, um festzulegen, welcher Dienst genutzt werden soll. Demnach wird alles mit /java an die Java Web App, /mobile an die mobile App etc. geleitet. Außerdem besteht die Möglichkeit, innerhalb der Matching-Regeln auch Markierungen zu setzen. Dies ermöglicht es uns, andere, auf den abgeglichenen Inhalten basierende Regeln auszulösen.

Content Switching in der Public Cloud Fig 3

Im nächsten Schritt kreieren wir vier Header-Modifikationsregeln, um die URL zu ändern, die verwendet wird, um die Verbindung zu den Azure-Applikationen herzustellen. Wie zuvor erwähnt, wurde die Azure-Applikation mit einer einzigen URL erstellt, die auf .azurewebsites.net endet. Da Azure mandantenfähig ist, bedarf es dieser URL, um Zugriff auf die passende Website zu erhalten. Im Rahmen unserer Header-Modifikationsregeln nutzen wir die gesetzten Markierungen (wie unter Optionen beschrieben), um die URL zu ändern, die zurück an die Azure Server geleitet wird. Auf der Grundlage unserer zuvor geschaffenen Content-Matching-Regeln wird alles mit dem Pfad /java als 1 gekennzeichnet und somit der Header in http://KEMP-java.azurewebsites.net umgeändert. Dies ist nur ein einfaches Beispiel, aber es gibt zahllose Wege, um die REGEX-basierten Content-Switching-Regeln im KEMP LoadMaster zu nutzen und so an jede Lösung anzupassen.

Mit dem modernen Content-Switching ist der virtuelle LoadMaster von KEMP in der Lage, das fehlende Bindeglied auf dem Weg in die Cloud zu liefern.

Testen Sie das Content-Switching auf www.tryazuremarketplace.com und erhalten Sie einen Azure Pass oder eine Mini-Drohne.

 

 

Prä-Authentifizierung mit AAD-Domänen-Diensten

April 07, 2016 Von: dquaid Kategorie: Allgemeines zu Load Balancing

In dem Maße, wie sich die Cloud funktional weiter entwickelt, müssen wir die von uns genutzten Produkte kontinuierlich daraufhin überprüfen, welche neuen Vorteile sie uns bieten. Microsoft hat vor kurzem eine Vorabversion seines Azure Active Directory Domain Service (AAD) angekündigt. Mit diesem Dienst lassen sich nun beispielsweise virtuelle Maschinen, die in einer Infrastructure-as-a-Service (IaaS)-Umgebung laufen, ohne Domain-Controller an eine Active Directory Domain anbinden. Er ermöglicht es auch, über Gruppenrichtlinien das Management der virtuellen Serverinfrastruktur zu zentralisieren. Solche Erweiterungen sind ein großer Schritt in Richtung einer funktionsreichen Umgebung, die wir in der Public Cloud erwarten.

Beim Aufbau eines AAD-Domänen-Dienstes müssen Sie ein virtuelles Netzwerk auswählen, mit welchem Sie diesen verknüpfen. Sobald der Domänen-Service aktiviert ist, erhalten Sie innerhalb des gewählten virtuellen Netzwerkes zwei IP-Adressen. Diese können als DNS-Server in den Einstellungen der Netzwerkkarten verwendet werden, sowohl für die virtuellen Maschinen als auch für Lösungen von Drittanbietern, wenn die Vorteile der Prä-Authentifizierung genutzt werden.

Prä-Authentifizierung mit AAD-Domänen-Diensten 1

KEMPs virtuelles LoadMaster Edge Security Pack (ESP) ermöglicht die sichere Publikation von Applikationen, Single-Sign-on, Anwendungsintegration und flexible Authentifizierungsoptionen. ESP wurde ursprünglich als Ersatz für Microsofts Threat Management Gateway auf den Markt gebracht und hat sich rasch zu einem Muss für KEMP-Kunden gemausert. Die Lösung wurde über die Jahre funktional weiterentwickelt, um die Anforderungen der Kunden immer besser abzudecken. Einige der neuesten Ergänzungen sind:

  • Verschachtelte erlaubte Active-Directory-Gruppen
  • Traffic-Steuerung von Active-Directory-Gruppen
  • Multi-Domain-Authentifizierung

 

Prä-Authentifizierung mit AAD-Domänen-Diensten 2
KEMPs LoadMaster ESP Feature erlaubt es Administratoren, Single-Sign-on-Domänen zu schaffen, um die Prä-Authentifizierung für LDAP-Verzeichnisdienste, RSA-Verschlüsselung und Radius- Authentifizierung und ähnliches zu nutzen. KEMPs Edge Security Pack kann Nutzer authentifizieren und Gruppenmitgliedschaften prüfen, bevor sie Zugang zu den Backend-Workloads erhalten. Mit der Einführung der AAD-Domänen-Dienste kann KEMPs virtueller LoadMaster Nutzer direkt für diesen Dienst authentifizieren.

Verzahnen Sie den AAD Domänen-Service mit Microsoft Azure Active Directory Connect. Synchronisieren Sie Ihr on-premise installiertes Active Directory mit Azure Active Directory Connect und lassen Sie die Anwender sich mit Ihren Workloads in Azure mit dem gleichen Benutzernamen und Passwort authentifizieren. Ein Mehrwert ist, dass all dies ohne die Notwendigkeit einer Site-to-Site-VPN-Konnektivität erfolgt.

Prä-Authentifizierung mit AAD-Domänen-Diensten 3

Damit Workloads erfolgreich in die Public Cloud verlagert werden können, muss dies transparent geschehen. Je mehr Funktionen in die Public Cloud verlagert werden, desto transparenter und einfacher wird es, diese Applikationen zu migrieren.

Weitere Informationen zum virtuellen LoadMaster für Azure von KEMP: https://kemptechnologies.com/azure

Weitere Informationen zum KEMP Edge Security Pack: https://kemptechnologies.com/esp

 

 

 

Skype for Business Server 2015: 15 wichtige Überlegungen vor der Implementierung in Ihrer Umgebung

März 29, 2016 Von: dquaid Kategorie: Allgemeines zu Load Balancing

Skype for BusinessSkype for Business hat den Lync Server 2013 in Microsofts Messaging-Portfolio abgelöst. Es kombiniert die Funktionen der vorherigen Version von Skype mit dem Lync Server. Ziel ist, die Kommunikations- und Messaging-Plattform von Microsoft mit einer erstklassigen Komponente zu ergänzen. Skype for Business verbindet die bewährte native Skype-Nutzererfahrung mit den Funktionen des Lync Servers. Dazu gehören Sicherheit, Compliance, Collaboration, Rollen und Zuständigkeiten sowie Verwaltbarkeit. Die neue Plattform unterstützt hybride Umgebungen mit Office 365 und lässt sich sowohl on-premise als auch in der Cloud betreiben. Im folgenden Beitrag gehen wir auf die 15 Aspekte ein, die Sie vor der Implementierung des Skype for Business Server 2015 in Ihrer Organisation in Betracht ziehen sollten.

  1. Erwägen und evaluieren Sie sowohl die Installation vor Ort als auch in der Cloud. Prüfen Sie, welche Methode Ihre Anforderungen in Bezug auf geschäftliche, rechtliche sowie Messaging-, Compliance- und Nutzer-Belange am besten abdeckt. Eine weitere Option ist die hybride Implementierung, mit der Sie von den Vorteilen beider Methoden profitieren. Auch kann man zunächst mit einer on-premise-Installation starten und eventuell später in eine hybride oder vollständig Cloud-basierte Umgebung wechseln, sollten sich die Anforderungen verändern oder der Bedarf steigen.
  2. Skype for Business ist als Standard- und Enterprise-Version erhältlich. Beide bieten die gleichen Funktionen, wobei die Standardversion keine Hochverfügbarkeit gewährleistet und nur eine begrenzte Anzahl von Anwendern unterstützt. Klären Sie daher, ob Sie Hochverfügbarkeit benötigen, bevor Sie eine Lizenz beantragen.
  3. Planen Sie Hochverfügbarkeit ein, indem Sie mehrere Instanzen an Front-end-, Edge-, Director-, Mediation- und Video-Interoperability-Servern implementieren. Konfigurieren Sie diejenigen Dateiserver für hohe Verfügbarkeit, die Besprechungsinhalte und Adressbuchinformationen speichern. Hier sollten Sie verteilte Dateisysteme einsetzen.
  4. Planen Sie ein Notfallkonzept ein und konzipieren Sie die Lösung so, dass im Disaster-Recovery-Fall, sprich einem Ausfall des Hauptstandortes, automatisch ein anderes Rechenzentrum einspringt. Stellen Sie sicher, dass für die Client-Anbindung und Serverreplikation am Notfallstandort genügend Bandbreite vorhanden ist, so dass die Nutzererfahrung auch im Notfall angemessen bleibt.
  5. Sorgen Sie mit Hilfe von SQL-Mirroring oder SQL-Clustering für jeden von Skype for Business genutzten SQL-Server für hohe Verfügbarkeit.
  6. Nutzen Sie das Skype for Business 2015 Planungstool, um Ihre Umgebung zu planen und konzipieren – und so alle geschäftlichen und technischen Anforderungen abzudecken. Lassen Sie bei Ihrer Planung auch künftiges Wachstum nicht außer Betracht.
  7. Sorgen Sie bei Front-End-Pool-Servern für Lastausgleich, indem Sie Hardware-Load-Balancer oder DNS Round-Robin für die Client-Anbindung verwenden. Kommt die Hardware-Variante für die Front-End-Server zum Einsatz, dann sollten Sie diese auch für die Edge-Server nutzen. Das Gleiche gilt für DNS Round-Robin.
  8. Denken Sie auch über den Einsatz eines Reverse-Proxy nach, wenn es darum geht, HTTPS URLs für Meeting- und Einwahl-Dienste sowie Services für Office Web Apps, Erkennung etc. an Clients zu publizieren, die mit den Front-end-Servern verbunden sind. Nutzen Sie mehrere Front-end-Server, dann sollten Sie Hardware-basierte Load Balancer für den HTTPS Traffic verwenden. Diese können wie ein Reverse-Proxy fungieren. Ebenso könnte Microsoft Application Request Routing (ARR) als Reverse-Proxy eingesetzt werden.
  9. Kommt Skype for Business in einer virtuellen Umgebung zum Einsatz, dann sollte der virtuelle Server die Failover-Funktionalität der Virtualisierungsplattform nutzen können.
  10. Office Web Apps ist eine neue optionale Server-Implementierung, die Browser-basierte Versionen von Word, PowerPoint, Excel und OneNote von Web- und Skype-Clients bereitstellt. Gewährleisten Sie Redundanz für Office-Web-Apps-Server und nutzen Sie Hardware-Load-Balancer für den Lastausgleich der Client-Anfragen sowohl interner als auch externer User.
  11. Nutzen Sie verschiedene öffentliche IP-Adressen, um über Port 443 SIP-, Audio-, Video- und Webkonferenz-URLs an Edge-Server zu publizieren. Es kann auch eine einzelne IP-Adresse verwendet werden, jedoch steigt die Komplexität, wenn man den Port durch Firewalls hinweg konfiguriert.
  12. Verwenden Sie eine einzelne IP-Adresse, um über Reverse-Proxy publizierte HTTPS- Protokolle für Meetings, Einwahl, Erkennung und externe Webpräsenz zu publizieren. Doch nutzen Sie unterschiedliche öffentliche IP-Adressen, um den Office-Web-App-Server vom Internet aus zu publizieren.
  13. Identifizieren Sie die Standorte, an denen Enterprise-Voice benötigt wird, und planen Sie hierfür entsprechende Bandbreite im Netzwerk sowie redundante Leitungen ein. Sorgen Sie auch für eine sorgfältige Planung in Bezug auf die Konfiguration und das Management der Verbindungen zum öffentlichen Telefonnetz zwischen den Standorten und das Zusammenspiel mit dem Skype for Business Mediation Server.
  14. Sowohl auf den internen als auch den externen DNS-Servern sind verschiedene DNS-Eingaben für SRV-, A- und CName-Aufzeichnungen erforderlich. Hierfür bedarf es der entsprechenden Rechte, entweder gleich bei der Aufzeichnung oder bei Bedarf zu einem späteren Zeitpunkt. Außerdem gilt es, verschiedene Firewall-Ports zu konfigurieren, um externe Clients mit den Edge-Servern zu verbinden. Auch müssen die Ports zwischen den Edge-Servern und dem internen Unternehmensnetzwerk offen sein. Hier ist das Netzwerk- und Security-Team gefragt.
  15. Microsoft unterstützt das Server-Upgrade für Skype for Business von Lync 2013 aus. Wenn Ihre aktuelle Lync-Umgebung gut funktioniert, reduziert dies den Konzeptionsaufwand und die Implementierungszeit. Verwenden Sie sowohl Lync 2010 als auch Lync 2013 Server, dann sollten Sie vollständig auf Lync 2013 umstellen, bevor Sie alle Server an Skype for Business anpassen.

Ziehen Sie in der Planungsphase einer Skype for Business-Implementierung sowohl die geschäftlichen als auch die technischen Anforderungen ins Kalkül. Sie sollten die aktuelle Infrastruktur verstehen, die Anforderungen evaluieren, die Lösung entwerfen, eine Testumgebung aufbauen sowie dokumentieren – und schließlich in den Live-Betrieb überführen. Wir hoffen, dieser Beitrag liefert Ihnen wertvolle Ansätze für die Planung, Konzeption und Implementierung von Skype for Business in Ihrem Unternehmen.

Neues FW-Release 7.1-32a veröffentlicht!

Februar 02, 2016 Von: tkurz Kategorie: Allgemeines zu Load Balancing, KEMP Howtos, Tipps & Tricks, Load Balancing Grundlagen

Planmäßig wurde das nächste Release der KEMP LoadMaster Serie veröffentlicht. Seit vorigen Mittwoch ist V7.1-32a, als FinalRelease, als Download verfügbar.
Hier die wichtigsten Änderungen und Features:
(Weiterlesen…)