R&M, der weltweit tätige Schweizer Entwickler und Anbieter von Verkabelungssystemen für hochwertige Netzwerkinfrastrukturen mit Sitz in Wetzikon, plädiert für eine erweiterte und differenzierte Betrachtung des Cloud Computing. Der private und geschäftliche Datenverkehr wächst unvermindert weiter. Hinzu kommen Internet of Things, 5G und Mobilität. Sie verursachen ein zusätzliches exponentielles Wachstum des IP Traffic und verlangen Ultra Low Latency auch an entlegenen Standorten. «Wir erwarten, dass die heute weltweit entstehenden Hyperscale Data Center den Netzwerk-, Computing- und Speicher-Bedarf in wenigen Jahren nicht mehr flächendeckend erfüllen können», sagt R&M CMO Andreas Rüsseler. Deshalb muss neue Computing Power am Netzwerkrand, der Edge, die grossen, zentralen Data Center ergänzen und unterstützen. Für R&M eine natürliche Folge des Datenwachstums.
«Provider und Netzbetreiber, Städte und Versorger, Industrie, Medien und Transportwesen können rechtzeitig die nötigen Infrastrukturen für die Peripherie aufbauen, wenn sie jetzt damit beginnen», so Andreas Rüsseler. Zu den nötigen Infrastrukturen zählt R&M eine verstärkte Glasfaser-Verkabelung in der Fläche und die Installation dezentraler Micro Data Center. R&M versteht Micro Data Center als «autonome, automatisierbare und robuste Lösung, die so leistungsfähig sein muss, dass sie in der Cloud eine tragende Rolle übernehmen kann». Mit Telco Edge präsentierte R&M auf der Data Centre World 2018 in London ein visionäres, vollautomatisiertes Modell.
Die ganze Autobahn wird zum Data Center
Ein eindrucksvolles Anwendungsbeispiel für Edge Computing ist der Strassenverkehr der Zukunft. Das Szenario basiert auf Informationen der deutschen Forschungsgesellschaft Fraunhofer. Wenn Autos voll automatisiert und sicher fahren sollen, müssten sie innerhalb von 0,1 Millisekunden reagieren können. Der Informationsaustausch mit der Umgebung, mit Antennen, Sensoren und anderen Fahrzeugen müsste nahezu in Lichtgeschwindigkeit erfolgen. Das erfordert neben dem künftigen 5G-Mobilfunk ein Glasfaser-Netzwerk entlang der Strasse. Alle 15 Kilometer müssten Server bzw. Micro Data Center an den Strassen oder Basisstationen stehen, um die Interaktion nahezu latenzfrei zu gewährleisten und die wichtigsten Daten vor Ort zu verarbeiten. Der Datenaustausch über entfernte Cloud Data Center wäre mit den typischen 1 bis 2 Millisekunden Latenz zu langsam, um den Verkehr unfallfrei zu steuern. «Die Cloud könnte im Hintergrund alle Verkehrsdaten, die nicht zeitkritisch sind, zusammenführen, analysieren und speichern. Aber draussen am Edge gilt: null Toleranz für Latenz, bedingungslose Verfügbarkeit», sagt Andreas Rüsseler.
Latenz, Hyper-Interaktivität und dezentrale Intelligenz spielen bei vielen weiteren Anwendungen in der digitalisierten Welt eine Rolle. Zu nennen sind industrielle Fertigung, Industrial Ethernet und Robotik, 5G- und Video-Kommunikation, Smart Grids, das Internet of Things (IoT) mit Milliarden von Endgeräten sowie Blockchain-, KI- und AR-Anwendungen. Edge Computing kann nach Überzeugung von Andreas Rüsseler all diese Aufgaben unterstützen. Es verkürzt den Pfad zwischen dem Erfassen, Sammeln, Analysieren und dem Rückkoppeln der Intelligenz in die Netzwerke.
Eine weitere treibende Kraft für den Aufbau von Edge-Infrastrukturen ist die schiere Masse der Daten. Auch hier mag der Autoverkehr als Beispiel dienen. Laut Data Economy Magazine kann ein «connected Car» heute bereits 25 Gigabyte Daten pro Stunde in die Cloud senden. Morgen generieren autonom fahrende Autos zehnmal so viele Daten. «Das sind bisher kaum vorstellbare Massen. Die müssen zunächst nah am Ort des Geschehens, an der Strasse prozessiert werden. Auch dazu brauchen wir Edge Data Center. Die ganze Autobahn wird zum Data Center», meint Andreas Rüsseler.
Analog zum Strassenverkehr erzeugen und nutzen Industrie, Tourismus, Handel, Gesundheitswesen, Finanzdienstleistungen, Verbraucher, 5G Mobilfunk und IoT zunehmend mehr Daten. Andreas Rüsseler: «Nahezu alles, was wir im Alltag tun, erzeugt Daten. Die müssen transportiert, gesichert, abgerufen und ausgewertet werden … In der Summe wächst eine Masse heran, die sich in einigen Jahren nur noch durch Lastverteilung bewältigen lässt.» Das zentralisierte Cloud-Konzept mit relativ langen und teuren Übertragungswegen kann durch Edge Data Center an der Peripherie komplementär erweitert werden. R&M verweist in diesem Zusammenhang auf eine Analyse von Gartner und Maverick Research aus dem Jahr 2017. Ihr Fazit: «Der Erfolg des Digital Business wird sich am Edge entscheiden, nicht in der Cloud.»
Anforderungen an Edge und Micro Data Center
Das Beispiel Strassenverkehr gibt erste Hinweise darauf, welche Anforderungen an Edge und Micro Data Center und ihre Standorte zu stellen sind. Andreas Rüsseler sagt: «Da draussen herrschen zum Teil rauhe Bedingungen.» Um Risiken zu minimieren, sollten die Einsatzorte klug gewählt werden. Zwar sollten Edge-Lösungen möglichst robust und wartungsfrei sein. Sie sollten sich autonom und ohne Fachpersonal betreiben lassen. Dennoch müssen gesicherte Räume oder Container bereitgestellt werden, die Micro Data Center vor Manipulationen, Umwelteinflüssen und elektromagnetischen Belastungen schützen.
«Installation und Betrieb am Edge müssen so einfach wie möglich gestaltet sein. Für Connectivity und IT gilt das Plug & Play Prinzip. Wenn es heute darum geht, die Cloud und damit die Revolution des Business an entlegene Standorte zu bringen, möchte niemand mehr über die Planung von Rechenzentren im alten Stil nachdenken», erläutert R&M Data Center Market Manager Dr. Thomas Wellinger.
Weitere Kriterien aus Sicht von R&M:
- Micro Data Center müssen sich überall direkt an Glasfaser- bzw. Breitbandnetze anschliessen lassen. Die Anschlusstechnik sollte selbsterklärend konstruiert sein.
- Verkabelung und IT sollten maximal verdichtet, einheitlich, vollständig, fertig konfiguriert geliefert werden (Configure to Order).
- Klimaresistente, geschlossene und geschirmte Bauweise.
- Integrierte Kühlung, Brand- und Staubschutz, Schalldämmung, USV, Zugriffskontrolle, Fernüberwachung.
Automatisiertes Infrastruktur-Management (AIM), um Verkabelung und IT-Assets remote zu überwachen und zu dokumentieren. - Schränke oder Container sollten sich verketten und stapeln lassen, um die Infrastruktur nach Bedarf skalieren zu können.
Paradigmenwechsel in der Netzwerkplanung
«Der Edge-Trend führt zu einem Paradigmenwechsel in der Art, wie wir Netze entwerfen, bereitstellen und überwachen müssen», ergänzt R&M Data Center Market Manager Dr. Thomas Wellinger. Beispielsweise wären spezifische Sicherheits-, Connectivity- und Bandbreiten-Anforderungen zu berücksichtigen. Infrastrukturen müssten dafür ausgelegt werden, Computing Power über die Fläche verteilen zu können und Software Defined WAN zu unterstützen. Die Infrastruktur-Provider müssten ihre Businessmodelle anpassen. «Vom Edge bis zum Hyperscale Data Center darf es keine Bottlenecks geben», empfiehlt Andreas Rüsseler.
Als Standorte für Edge Data Center eignen sich nach Einschätzung von R&M insbesondere die Basisstationen von Mobilfunk-Providern. Denn mit Einführung der 5G-Technologie werden Mobilfunkantennen zu Schleusen für riesige Datenmengen. Ebenso kommen Hubs bzw. Kopfstationen der Kabel- und Telekommunikationsnetze infrage, Stationen der Energie- und Wasserversorger, Windkraftwerke und Solarparks, Bahnhöfe und Autobahn-Raststätten, Fabrikgelände oder grössere gewerblich genutzte Gebäude. «Viele Unternehmen könnten ältere Enterprise Data Center durch leistungsstarke Edge Data Center ersetzen. Die lassen sich multifunktional nutzen – für Private und Hybrid Cloud, als Ressource für externe Nutzer oder sogar als Heizung», lautet ein Tipp von R&M.
Dezentrale Mini oder Micro Data Center und sichere Connectivity am Edge of Cloud bieten nach Ansicht von R&M weitere Vorteile:
- Sie verbinden IoT Devices zuverlässig auf kurzen Wegen und lassen sich leicht skalieren, wenn lokale IoT-Netzwerke wachsen.
- Sie können das Rückgrat einer Smart City-Infrastruktur bilden.
- Sie können Cloud-Dienste und geschäftskritische Prozesse vor Ort replizieren oder bandbreiten-intensive Anwendungen wie mobiles HD Video puffern.
- Wenn Cloud-Verbindungen stocken oder ganz ausfallen, arbeiten die Netzwerke, Server, Speicher und Geräte am Edge weiter.
- Edge Data Center können geo-redundante Gruppen bilden, wenn sie ausreichend vernetzt sind, und so die Sicherheit und Verfügbarkeit der Cloud flankieren oder sogar Angriffe abfangen.
Andreas Rüsseler betont abschliessend: «Das exponentielle Wachstum von Daten aus den unterschiedlichen und flächendeckend verbreiteten Anwendungen und Geräten zwingt uns, die heutigen Netzstrukturen zu überdenken. Schwache Teilnetzwerke können die gesamte Kommunikationskette verlangsamen.» Engpässe bei Netzschnittstellen, Übertragungs- und Rechenkapazitäten sind auf allen Ebenen zu vermeiden, um einen reibungslosen Datenverkehr garantieren zu können. «Die Trennung zwischen den Teilnetzwerken vom Cloud Data Center über Festnetz und Mobilfunk bis zur Gebäudeverkabelung wird nach und nach aufgehoben. Es wird zu einer Verschmelzung der Netze kommen», prognostiziert Andreas Rüsseler. Er weist auf neuartige Glasfaser-Verkabelungslösungen hin, die dabei helfen, Engpässe aufzulösen und Netzstrukturen für die Zukunft aufzubauen. Diese Lösungen für Data Center, WAN, Backhaul, Zugangsnetze, FTTH und Gebäudeverkabelung sind extrem skalierbar. Sie lassen sich leicht installieren, warten und erweitern. Zudem bieten sie Möglichkeiten, das Netzwerkmonitoring zu automatisieren.
Hyperscale und Edge ergänzen sich
Neben dem Trend zum Edge Computing entwickelt sich auch das Hyperscale-Segment im laufenden Geschäftsjahr dynamisch weiter. So die Beobachtungen von R&M. Andreas Rüsseler fordert erneut: «Edge Computing und die zentralen Cloud-Infrastrukturen lassen sich nur zusammen entwickeln. Sie müssen sich ergänzen.»
Digitale Geschäftsmodelle wie Virtualisierung und Software Defined Data Center erfordern immense, anpassungsfähige Computing-Ressourcen in der Cloud, Speicher-Kapazitäten und hohe Übertragungsgeschwindigkeiten. Diese Bedürfnisse des Marktes lassen sich mit dem Konzept der Hyperscale Data Center nachhaltig, flexibel, agil und ausfallsicher bedienen. Hyperscale Data Center entstehen derzeit vorwiegend an strategisch wichtigen Orten und Internetknoten oder an Orten mit preiswerter Energieversorgung.
Das Konzept basiert auf Hyperkonvergenz sowie auf massiv und frei skalierbaren, hoch verdichteten Architekturen. Eine Masse an Glasfasern und Connectivity muss von Anfang an vorhanden sein, um Engpässe zu vermeiden. Typischerweise werden High Count Fiber-Kabel mit mehr als 4000 Glasfasern benötigt, um den Connectivity-Bedarf zu decken. Mit der 2017 lancierten Building Entrance Facility BEF-60 bietet R&M eine Innovation für diese Aufgabe. Die Kapazität des Schranks liegt bei 23.040 Spleissungen auf 60 Schubladen. Der BEF-60 dient als Eintrittspunkt für Hyperscale Data Center mit skalierbaren Spine- und Leaf-Topologien.
Mit der Ultra High Density-Plattform Netscale setzt R&M zudem einen Massstab für die Dichte von Glasfaser-Ports innerhalb der Data Center. Mit bis zu 120 Ports pro Höheneinheit im 19’’ Rack erreicht dieses Patchfeld die höchste Dichte unter allen bekannten Produkten. Modulare Switches mit hoher Portdichte bilden wichtige Bausteine für den Aufbau von Cloud-Infrastrukturen in Hyper Scale Data Center. Für effizientes, fehlerfreies Adressieren vertikaler und horizontaler modularer Switches hat R&M den Netscale Blade Cabling Manager (BCM) entwickelt. Er führt Kabel direkt von den Switch-Ports zu den Patchpanel-Ports, die sich unter, über oder neben dem Switch befinden. Dadurch kann schrankseitig auf ein Kabelmanagement verzichtet werden.
Hyperscale Data Center unterhalten Hunderttausende von Glasfaser-Steckverbindungen in sensiblen Betriebsumgebungen. Diese Mengen lassen sich nicht mehr auf traditionelle Weise administrieren. Sie müssen voll automatisiert überwacht werden, um die Betriebssicherheit garantieren zu können. Eine Lösung dafür ist das intelligente Infrastruktur-Managementsystem R&MinteliPhy. Es besteht aus Sensorleisten zur Überwachung der Steckverbindungen, einer Appliance zur Konzentration und Übertragung der Signale sowie dem Server mit Administrations-, Monitoring- und Planungsfunktionen. R&MinteliPhy lässt sich für Controlling und Asset-Management einsetzen, für die Abbildung des Digital Twins der Infrastruktur sowie für Analysen, Audits, 3D-Visualisierung, DCIM und die Entwicklung von Risikoszenarien. Es unterstützt also nicht nur das technische Management, sondern auch das Management der Compliance und Ökonomie.