Technologieexperten von Equinix haben sich kürzlich zusammengesetzt, um ihre Ansichten über die voraussichtlich wichtigsten Technologie- und Infrastrukturtrends für das angebrochene Jahr und darüber hinaus auszutauschen.
Das Ergebnis der Diskussionen sind hier zusammengefasst:
Cloud-native Infrastrukturen werden überwiegen
Es ist kein Geheimnis, dass traditionelle IT-Infrastrukturen nicht für die Anforderungen der heutigen digitalen Geschäfte ausgelegt sind.
Das digitale Business basiert zunehmend auf modernen Software-Stacks sowie dem umfassenden Einsatz von Open-Source- und Cloud-nativen Technologien. Vereinfacht ausgedrückt steht Cloud-native für einen Ansatz in der Softwareentwicklung, der Cloud-Computing-Technologien und -Grundsätze, Microservices, API-First, Container und DevOps sowie damit verbundene Funktionen wie Container-Orchestrierung (z. B. Kubernetes), Service-Mesh (z. B. Istio) und unveränderliche Infrastrukturen einschliesst.
Zusammen ermöglichen es diese Technologien Unternehmen, schnell skalierbare Anwendungen, die global verteilt und bereitgestellt werden können, zu erstellen, zu orchestrieren und auszuführen. Meist kommen hierfür hybride Multi-Cloud-Architekturen zum Einsatz. Allerdings geht eine verteilte Bereitstellung mit höheren Anforderungen an Latenz, Verfügbarkeit, Leistung und Agilität einher. Diese Anwendungen sind ausserdem in hohem Masse auf eine Infrastruktur angewiesen, die Funktionen für die automatische Provisionierung, Autoskalierung und automatische Fehlerbehebung per Software bietet.
Digitale Infrastruktur ist für Unternehmen wichtiger denn je. In der digitalen Transformation wurden Entwicklungsschritte von mehreren Jahren praktisch in Monaten zurückgelegt und dieser Trend wird sich noch beschleunigen. So prognostiziert IDC: „Bis Ende 2021 werden 80 Prozent der Unternehmen auf Grundlage der gemachten Erfahrungen Mechanismen etablieren, die es ihnen erlauben, doppelt so schnell wie vor der Pandemie auf Cloud-zentrierte Infrastrukturen und Anwendungen umzustellen“. Das führt zu einer grundlegenden Änderung der Art und Weise, wie traditionelle Infrastrukturen konzipiert werden.
Moderne digitale Infrastrukturen (Rechenzentrum, Netzwerk und Hardware) sollten sich vollständig durch APIs abstrahieren und durch Software verwalten lassen. Dieser Ansatz erlaubt es Applikationsentwicklern, verteilte Infrastrukturen in derselben Geschwindigkeit wie sonst Software bereitzustellen und zu managen, so dass sie sich auf das Wesentliche konzentrieren können: die Entwicklung innovativer Anwendungen. Solche Abstraktionen machen den Einsatz eines Echtzeit-Monitorings des Infrastrukturstatus ebenso notwendig wie die Entwicklung programmatischer Schnittstellen, über die der gewünschte Status deklarativ definiert werden kann – und zwar für jede Komponente oder eine beliebige Kombination von Komponenten, durchgängig von der Digital Edge bis zur Multi-Cloud.
Mit einem solchen Framework laufen die Bereitstellung und das Management einer verteilten Infrastruktur auf den Aufbau eines adaptiven verteilten Systems mit geschlossenem Regelkreis hinaus. Der einzige Weg, dies effektiv zu erreichen, ist der Einsatz von Software und offenen Technologien.
Unsere Vision einer Software-definierten Infrastruktur ist, dass alles, was automatisiert werden kann, durch Software automatisiert wird. Gerade die Option, Workloads zu virtualisieren und/oder zu containerisieren und von den zugrundeliegenden physischen Geräten zu abstrahieren, hat zu Paradigmenwechseln wie „Infrastructure as Code“ und „Immutable Infrastructure“ geführt. Denn so sind eine schnelle Bereitstellung von Infrastrukturressourcen sowie kürzere Implementierungszeiträume gewährleistet – vor allem in hybriden Multi-Cloud-Umgebungen.
Im Jahr 2021 wird also die Akzeptanz und die Verbreitung Cloud-nativer Technologien über praktisch alle Layer des Infrastruktur-Stacks sowie für die digitale Infrastruktur-Orchestrierung von der Edge bis zur Multi-Cloud-Umgebung zunehmen.
„Edge-First“ wird Innovationen beschleunigen
Laut den renommierten Analysten Nick Jones und David Cearley, beide Vice Presidents von Gartner, werden „… bis 2023 mehr als 50 Prozent der von Unternehmen generierten Daten ausserhalb des Rechenzentrums oder der Cloud erstellt und verarbeitet werden, im Vergleich zu weniger als 10 Prozent im Jahr 2019“. Denn in einer Welt, in der Menschen zunehmend am Rand der digitalen Netzwerke leben und arbeiten, verändert sich die IT in einer noch nie erreichten Geschwindigkeit. Dieser Trend führt weg von den zentralen Rechenzentren zu einer verteilten, direkt vernetzten Infrastruktur mit Standorten an der Digital Edge in unmittelbarer Nähe zu den Datenquellen und -nutzern.
Ob es um Videokonferenzen geht, um Kollaborations-Tools, Streaming-Services, Spiele oder Fahrgemeinschaften – immer mehr moderne Anwendungen sind heute von Grund auf für eine automatisierte und flexible Bereitstellung an der Digital Edge konzipiert. Am Rand der digitalen Netzwerke muss also ein aus unterschiedlichen Quellen zusammengeführtes grosses Datenvolumen schnell verarbeitet werden. Zudem müssen dort viele Applikationen und Microservices mit geringen Latenzen untereinander verbunden sein, um die bestmögliche Nutzungsqualität bieten zu können. Die Bereitstellung verteilter Anwendungen über mehrere Standorte und Infrastrukturebenen hinweg, von der Edge bis zur Multi-Cloud, erfordert daher ein gründliches Verständnis und eine Bewertung der einhergehenden architektonischen Trade-offs. Beispiele hierfür sind das Design von Verfügbarkeitszonen, verteilte Service Meshes, das Traffic-Management, Daten-Pipelines, Sicherheit, Caching oder das Status-Management (zustandslos versus zustandsabhängig).
Darüber hinaus werden mit der Verlagerung des Computings und der Daten an die Digital Edge neue spezifische Anforderungen an die Infrastrukturen entstehen. Hierzu zählen Vorgaben für Kapazitäten und Verfügbarkeit einschliesslich der relevanten Stellflächen, Stromverbrauch, Netzwerke, Rechen- und Speicher-Hardware sowie der Bedarf an Modularität und Erweiterbarkeit, Multi-Tenancy, vollautomatisierten Betrieb (NoOps) und rechenzentrumsübergreifenden Verfügbarkeitszonen. Dies alles und einiges mehr muss berücksichtigt und gleichzeitig optimiert werden.
2021 wird von einer anhaltenden Dynamik bei Edge-First-Implementierungen und zahlreichen Technologieinnovationen im gesamten Infrastruktur-Stack geprägt sein. Denn es gilt die zunehmende Komplexität einer zuverlässigen Skalierung und Orchestrierung verteilter Infrastrukturen am Rand der Netzwerke zu bewältigen.
5G wird von einer Infrastruktur an der Digital Edge profitieren
5G stellt einen wichtigen technologischen Wendepunkt dar. Wir gehen davon aus, dass 5G in naher Zukunft für den Mobilfunk das sein wird, was Breitband für das Festnetz war.
2021 wird damit zu dem Jahr, in dem sich Unternehmen bei der Planung ihrer Infrastrukturbereitstellung mit 5G beschäftigen. Leistungsstarke 5G-Funktionen erfordern allerdings eine physische Infrastruktur, die sich optimaler Weise in die Digital Edge erstreckt. Durch die Platzierung von Anwendungen und „Fixed-End“-IT-Umgebungen in unmittelbarer Nähe zum 5G-Zugang und zu den Kernfunktionen von Rechenzentren mit umfangreichem Netzwerkangebot und Präsenzen zahlreicher Cloud-Provider, können Unternehmen von den Vorteilen dieser leistungsstarken neuen Technologie profitieren. Die Kombination aus einer neuen digitalen Infrastruktur und bestehenden Makro-Edge-Rechenzentren wird so zu einem leistungsstarken Architekturmodell, das in der Lage ist, enorme Datenvolumen und verteilte Rechenressourcen mit geringen Latenzen bereitzustellen. Dies ermöglicht neue Ansätze für innovative Anwendungen, die den technologischen Fortschritt nutzen.
Als Zugangstechnologie zu Netzwerken steht 5G für eine verbesserte Flächenabdeckung, grössere Zuverlässigkeit, höhere Bandbreiten und eine gesteigerte Sicherheit. Mit 5G werden signifikante Verbesserungen der Verfügbarkeit, Kapazität und Leistung in die mobile Kommunikation Einzug halten – mit 100-mal höheren Datenraten (mehrere Gbit/s), minimierten Latenzzeiten in den Funknetzen (bis zu 1 ms) und hoher Gerätedichte. Dieser Fortschritt eröffnet neue Chancen und einzigartige Optionen, unter anderem in der Robotik, für Drohnen und autonome Fahrzeuge, in der Telemedizin und für ein taktiles Internet.
Es wird nicht einfach werden, die konkrete Vision von 5G zu erfüllen und die volle Leistungsfähigkeit dieser Technologie zu nutzen. Da der Ausbau der 5G-Netze weltweit zügig voranschreitet, hängt der Erfolg von der Realisierung eines umfassenden digitalen Ökosystems aus Produzenten und Verbrauchern ab. Eine ebenso wichtige Rolle spielt die Optimierung der multivariablen Funktionen der zugrundeliegenden Infrastruktur, etwa in puncto Spektrum, Funkzugangsnetze, Edge-Rechenzentren, Transportnetzwerke, Hardware und Interconnection.
Heute können etwa 80 Prozent der US-Bevölkerung in Städten und Metropolregionen mit Equinix-Rechenzentren über Netze mit Roundtrip-Zeiten von 10 Millisekunden verbunden werden. Diese Makro-Edge-Rechenzentren weisen ein umfangreiches Angebot an direkten Zugängen zu Public Clouds, Netzwerken, digitalen Inhalten und Unternehmen auf, was die Basis für den direkten, lokalen Transfer von 5G-Traffic schafft. Dies bietet dem „Fixed-Side“-Ökosystem eine effiziente Anbindung an das 5G-Netzwerk.
5G-fähige Anwendungen müssen mit Ressourcen verbunden werden, die über das Internet, über Public und Private Clouds oder über Edge-Computing-Workloads bereitgestellt werden – vorzugsweise in der Nähe der User Plane Function (UPF). Daher ist das Network Slicing eine besonders spannende Fähigkeit von 5G. Es bietet die Voraussetzungen für neue Geschäftsmodelle und Anwendungen, da es Netzwerkarchitekten erlaubt, verschiedene Komponenten im selben physischen Netzwerk per Interconnection direkt miteinander zu verbinden, um spezifische Anforderungen an Latenz, Durchsatz und Sicherheit zu erfüllen.
Erweiterte 5G-Anwendungsfälle erfordern vor ihrer Skalierung eine grundlegende Änderung der zugrundeliegenden Infrastruktur.
Für Equinix beginnt die Realisierung von 5G mit dem Einsatz der bestehenden Infrastruktur und ihrer vorhandenen Funktionalität. Parallel sollten jedoch die künftigen Anwendungsfälle identifiziert und geplant werden, die von einer möglichen Expansion der Infrastrukturimplementierung über physische Standorte bis hin zur Digital Edge profitieren können. Wir sind davon überzeugt, dass Rechenzentren und physische Infrastrukturen für 5G modern, skalierbar, flexibel, vernetzt, neutral und mandantenfähig sein sollten.
KI wird sich verteilen und die Digital Edge erobern
Künstliche Intelligenz (KI) ist sicherlich keine neue Idee, aber mit den Fortschritten im Bereich des maschinellen Lernens, speziell beim Deep Learning, ist KI heute in der Lage, praktisch jede Branche zu verändern – und zwar in einem Masse, wie es die Elektrizität vor über 100 Jahren tat. Laut IDC werden bis 2022 rund 80 Prozent der Unternehmen, die zu einem hybriden Geschäftsmodell wechseln, das Vierfache in KI-fähige und sichere Edge-Infrastrukturen investieren, um ihre geschäftliche Agilität zu wahren und Erkenntnisse in Echtzeit zu nutzen.
Die Rechenleistung, die für die grössten KI-Trainings notwendig ist, steigt exponentiell und verdoppelt sich fast alle dreieinhalb Monate. Die Effizienz der KI-Algorithmen verzweifacht sich alle 16 Monate4. Diese Werte übertreffen die Prognosen des Mooreschen Gesetzes deutlich. Durch die signifikante Steigerung der Effizienz von Hardware und Algorithmen wird es möglich, dass mehr KI-Workloads mit weniger Hardware und weniger Verarbeitungsressourcen ausgeführt werden können. Im 2021 und den folgenden Jahren wird sich diese Entwicklung noch verstärken, wodurch die Akzeptanz und Verbreitung von KI branchenübergreifend steigt.
Für einen typischen KI-Workflow werden grosse Datenmengen gesammelt und für die Modellierung vorbereitet. Die Trainingsmodelle werden dann für Vorhersagen oder Inferenzen verwendet und können iterativ feinabgestimmt werden. Die Public Cloud ist dabei traditionell ein attraktiver Ort für die Bereitstellung von KI-Services, da KI-Algorithmen und -Trainings am besten mit grossen Datensätzen und automatisch skalierbaren Computing-Clustern arbeiten.
Bei immer mehr KI-Anwendungen ist jedoch eine dezentrale Bereitstellung an der Digital Edge notwendig. In diesem Fall machen es die hohen Anforderungen an Latenzzeiten, Leistung, Datenschutz und Sicherheit notwendig, dass einige KI-Daten und die Verarbeitung – sowohl für die Inferenz als auch für das Training – zur Erstellung und Nutzung in unmittelbarer Nähe zu Nutzern und Datenquellen platziert sind.
Wenn es darum geht, KI-Trainings-Workloads an der Digital Edge auszuführen, gibt es Überlegungen und Alternativen, die in Betracht gezogen werden sollten. Diese tangieren die Bereiche Energie, Leistung, Datenschutz, Datensicherheit, Aggregation, Data Gravity und Einfachheit. Ähnlich verhält es sich bei der Inferenz an der Digital Edge, bei den Überlegungen zu Latenzen, Verfügbarkeit, Geräteressourcen, Datenschutz, Datensicherheit und Aggregation anzustellen sind.
Im Jahr 2021 wird es zum vermehrten Einsatz von KI an der Digital Edge kommen, sowohl für KI-Trainings als auch für aufbereitetes Wissen. Einher gehen wird dies mit erweiterten As-a-Service-Funktionen für die Automatisierung der Bereitstellung von Infrastrukturen und die Orchestrierung von hybriden Multi-Cloud-KI-Umgebungen.
Rechenzentren verfolgen das Ziel der Klimaneutralität
Durch die Verschärfung der weltweiten Klimakrise hat sich für führende Unternehmen der Fokus verlagert. Für ihre Nachhaltigkeitsziele steht nicht mehr die Vermeidung negativer Auswirkungen im Mittelpunkt, sondern das Erreichen positiver Veränderungen. Immer mehr Unternehmensstrategien decken sich mit den Zielen des Pariser Klimaschutzabkommens und sind darauf ausgerichtet, die CO2-Emissionen der globalen Wirtschaft zu senken.
IDC geht davon aus, dass „… bis 2025 rund 90 Prozent der G2000-Unternehmen wiederverwendbare Materialien in den Lieferketten für IT-Hardware einfordern, für ihre Zulieferer das Ziel der Klimaneutralität setzen und eine Senkung des Energieverbrauchs als Voraussetzung für Geschäftsbeziehungen festschreiben“. Bis heute streben viele Betreiber von Rechenzentren an, ihren Energieverbrauch und die entsprechenden CO2-Emissionen durch Designinnovationen und einen effizienteren Energieeinsatz zu senken. Etliche Betreiber sind aber auch schon einen Schritt weiter und haben sich zum Einsatz von 100 Prozent erneuerbaren Energien und zur CO2-Neutralität verpflichtet, wobei einige den Green Deal der Europäischen Union (EU), der eine vollständige CO2-Neutralität von Rechenzentren bis 2030 fordert1, als Massstab sehen. Im 2021 wird die Digitalwirtschaft voraussichtlich weiter und mit höherer Geschwindigkeit expandieren. Rechenzentrumsbetreibern kommt dabei nicht nur eine Schlüsselposition zu, sondern sie sehen sich auch in die Pflicht genommen, positiv zum Umweltschutz beizutragen.
Entsprechend werden wir im Jahr 2021 die ersten grossen Projekte sehen, die Versorgungsnetze und Nachhaltigkeit als Kernthema haben.
Es gibt eine Vielzahl von potenziellen Möglichkeiten, wie Rechenzentrumsbetreiber die Umweltbelastungen reduzieren können. Eine indirekte Massnahme ist etwa die Förderung der Entwicklung von Hosting-Plattformen, welche Daten aus Wettervorhersagen, Stromnutzungs- und Nachfragemuster sowie Kapazitäten zur Regulierung der Netzlast miteinander kombinieren. Direktere Massnahmen sind zum Beispiel die Nutzung grosser, lokaler Energiespeicherlösungen, die flexible, sofort verfügbare Stromquellen bereitstellen oder sogar die Nutzung von Abwärme zur Abdeckung des lokalen Energiebedarfs.
Der Übergang zur positiven Wirkung erfordert einen technologiegetriebenen Ansatz. Zudem müssen sowohl globale als auch lokale Ökosysteme mit engagierten Beteiligten entstehen. Langfristig werden diese Entwicklungen und das Aufkommen von Anwendungen der nächsten Generation mit ihren extrem niedrigen Roundtrip-Latenzen zu einer Veränderung der Standorte für Rechenzentren führen. Die nächste Generation von Rechenzentren wird dezentral und in Communities integriert sein, die als zuverlässige Ökosysteme für die Bereitstellung von Rechenleistung, Konnektivität, Energie und Klimatisierung dienen.
Mit dem verstärkten Fokus auf Nachhaltigkeit geht eine Verlagerung hin zu offenen Standards für die Rechenzentrumsinfrastruktur einher – von Design und Betrieb über das Energiemanagement bis hin zu Brennstoffzellen und Kühlung der nächsten Generation. Dieser Trend wird Innovationen in Rechenzentren beschleunigen und eine entscheidende Rolle für die angestrebte Klimaneutralität spielen, da er die beträchtlichen Hindernisse abbaut, denen sich Anbieter bei der Entwicklung von Plattformen für unternehmenskritische Rechenzentren gegenübersehen.
Mehrere Faktoren werden daher zu einer neuen Generation von umweltfreundlicheren Rechenzentrumsprojekten führen. Hierzu zählen:
- Fortschritte bei den Grundlagentechnologien (u. a. durch offenere Hardware-Plattformen und bessere Interoperabilität zwischen den Anbietern)
- Das Ziel, dem Klimawandel durch die Entwicklung erneuerbarer Energiequellen und deren Integration in die Energie-Grosshandelsmärkte zu begegnen
- Die damit verbundenen Herausforderungen der Speicherung und neuer Plattformen, die immer niedrigere End-to-End-Latenzzeiten erfordern
- Die Notwendigkeit, Rechen- und Netzwerkressourcen näher an der Digital Edge zu platzieren
Die digitale Infrastruktur für die Zukunft gestalten
Wir alle hoffen, dass das Jahr 2021 planbarer und weniger überraschend sein wird als 2020. Uns ist aber auch bewusst, dass es kein Zurück mehr gibt. Das digitale Wachstum wird weiter an Fahrt aufnehmen und die digital führenden Unternehmen in die Pflicht nehmen, sich die Technologien und Trends zu eigen zu machen, die ihren Unternehmen einen klaren Vorteil verschaffen können. Daher sind Unternehmens- und Technologieentscheider, die Makrotrends erkennen, verstehen und in ihre Planungen einbeziehen, besser darauf vorbereitet, einen positiven Beitrag zu unserer sich ständig verändernden Zukunft zu leisten.
Equinix unterstützt die führenden Digitalunternehmen dabei, ihre IT-Infrastrukturen zusammenzuführen und zu verbinden, Platform Equinix nutzt das Beste dieser transformativen Technologien nachhaltig – und zwar in allen Bereichen: Rechenzentren, Interconnection und Bare Metal.