Blog-Artikel

Rechenzentren im Wandel: Wie Daten, KI und Nachhaltigkeit die Zukunft prägen

Rechenzentren stehen an einem entscheidenden Wendepunkt: Der stetige Anstieg von Datenvolumen, die wachsende Nachfrage nach KI-Anwendungen und die zunehmende Komplexität hybrider IT-Landschaften prägen die Branche. Während Hyperscaler wie Amazon Milliarden in den Ausbau von IT-Infrastrukturen investieren, müssen sich Betreiber herkömmlicher Rechenzentren anpassen, um mit den Anforderungen moderner Technologien Schritt zu halten. Dieser Artikel bietet einen Blick in die Zukunft der Rechenzentren und beleuchtet die spannendsten Trends und Herausforderungen.

Mehr erfahren

Evolution der Rechenzentren: Mehr Systeme, mehr Daten, mehr Stress

In einem Interview mit dem Handelsblatt im Juli 2019 erklärte der damalige CEO von AWS und heutige Amazon-Chef Andy Jassy: „In zehn oder 20 Jahren werden die meisten Unternehmen keine eigenen Rechenzentren mehr haben. Nur Aufgaben, bei denen es auf die Nähe ankommt – zum Beispiel in einer Fabrik – werden künftig noch vor Ort erledigt.“ 

Diese kühn skizzierte Ära von Jassy wird auf absehbare Zeit nicht eintreten, denn in den vergangenen fünf Jahren seit dem Interview wurde die Devise „Cloud-first“ (oder gar „Cloud-only“) durch hybride Data-Center-Ansätze abgelöst. 

Gleichwohl gilt, dass das Wachstum von Hyperscale-Rechenzentren ungebrochen ist, befeuert nicht zuletzt von der wachsenden Nachfrage nach KI-Anwendungen. Amazon allein plant im Jahr 2025 Investments von über 75 Mrd. US-Dollar und Microsoft in Höhe von 80 Mrd. US-Dollar – Tendenz steigend. Allein im Jahr 2024 investierte die gesamte Branche einer Auswertung der Nachrichtenagentur Bloomberg zufolge mehr als 200 Mrd. Dollar für Server, Chips und Data Centers. 

Das Wachstum im RZ-Bereich insgesamt ist beeindruckend: Von 2015 bis 2022 stieg die Zahl von 54 Mio. auf 86 Mio. Server. Dies entspricht einem Zuwachs von 45 % in den letzten sieben Jahren

Mag Andy Jassy bei der Prognose für den Hyperscale-Markt zu kühn gewesen sein, war seine Analyse der Treiber von Trends und Change-Faktoren zutreffend: und zwar die zahlreichen Herausforderungen, die sich für Data-Center-Betreiber aus der zunehmenden Komplexität der IT-Landschaften und aus den wachsenden Anforderungen an die Datenanalyse ergeben. Letzteres erfordert eine alles andere als triviale Zusammenführung von Datenströmen unterschiedlichster Natur in auswertbaren Datenpools sowie die Generierung von geschäftsrelevanten Erkenntnissen mithilfe von Data Science aus eben diesen Daten.  

Jassy vermutet, Public Cloud Betreiber bzw. Hyperscaler seien am besten aufgestellt, um mit dieser wachsenden Komplexität umzugehen. Vergleicht man die Herausforderungen, denen sich die Betreiber eigener Rechenzentren stellen müssen, mit jenen von Hyperscalern, so stellt man eine große Schnittmenge fest. Lassen Sie uns einen Blick darauf werfen.

On-Premise und Cloud: Heterogene IT-Ökosysteme in Rechenzentren

Im Rechenzentrum finden sich heutzutage heterogene Ökosysteme. Neben dem Mainframe  – 68 % der gesamten IT-Workload wird noch immer auf Mainframes verarbeitet – hat sich längst die Server- und Virtualisierungstechnologie etabliert. Das sind neben z/OS Betriebssysteme wie Linux und Windows. On-Premise-Applikationen kommunizieren mit Cloud-basierten Systemen, Virtual Machines und die Container-Technologie machen sich breit. Manch kritische Systeme werden redundant in der Cloud und On-Premise betrieben. 

grafik_trends_in_datacenter.png

Bewältigung wachsender Herausforderungen in Rechenzentren

Neben der wachsenden Heterogenität im Data Center müssen Betreiber auch steigende Anforderungen an SLAs und DevOps sowie weitere nicht-funktionale Aspekte wie Security und Compliance erfüllen. Im Hinblick auf letzteren Aspekt sind etwa DORA oder NIS-2 zu nennen.  

Es gibt eine Reihe von Antworten auf diesen Mix an Herausforderungen und Anforderungen: 

  1. NextGen-Applikationen: Diese sind speziell für hybride Systemlandschaften konzipiert. So lassen sich beispielsweise mit Workload-Automation-Tools wie ANOW! Automate hybride Cloud-Instanzen, On-Premise-Applikationen und Mainframe-Ökosysteme nahtlos integrieren und verwalten.  

  2. Standards und Interoperabilität: Um eine reibungslose Kommunikation zwischen Cloud- und On-Premise-Systemen sicherzustellen, setzen Unternehmen vermehrt auf bewährte Standards und Patterns wie RESTful APIs und Message Brokering. 

  3. Standardisierung von Prozessen und Technologien: Der parallele Betrieb von On-Premise- und Cloud-Umgebungen erfordert in der Regel eine Standardisierung von Prozessen und Technologien. Dies geht anfangs mit Aufwand einher, führt langfristig aber zu Effizienzsteigerungen. 

Durch die Anwendung dieser Strategien können Betreiber die Komplexität moderner Rechenzentren besser bewältigen und gleichzeitig auf wechselnde Anforderungen reagieren. 

Large Data im Rechenzentrum

Der IDC prognostiziert, dass die weltweite Datenmenge bis 2026 auf 221 Zettabyte anwachsen wird. Das sind 221.000.000.000.000.000.000 bytes. 

Daten waren für datenbasierte Entscheidungen schon immer wichtig und werden im Zusammenhang mit Künstlicher Intelligenz gerne auch als das „neue Gold“ bezeichnet. Denn je mehr Daten zur Verfügung stehen, desto besser kann ein darauf basierendes KI-Modell werden. 

Die Werthaltigkeit dieser Daten ist an diverse Voraussetzungen geknüpft, was wiederum die Herausforderungen bestimmt. Nehmen wir das Beispiel eines global operierenden Herstellers, der eine hybride Cloud-Strategie verfolgt. Hier ergeben sich erhebliche Herausforderungen bei der Zusammenführung und Standardisierung verschiedener Daten – aus vielfältigen Quellen wie Legacy-Systemen, externen Partner-APIs und cloudbasierten SaaS-Lösungen – zu einem nutzbaren Datenpool. Die Vielfalt an Formaten und Strukturen erfordert eine sorgfältige Transformation, um die Daten korrekt interpretieren und weiterverarbeiten zu können. Ohne eine präzise Anpassung können Analysefehler entstehen, die im schlimmsten Fall sogar rechtliche Konsequenzen nach sich ziehen. 

Anhand verschiedener Quellen (z. B. Statistaoder Forbes) sind aktuell rund 60 % der Unternehmensdaten in der Cloud gespeichert. Es ist aber auch sicher, dass ein großer Teil der weltweiten Unternehmensdaten auf Mainframes gespeichert ist bzw. dort den Ursprung hat. IBM, Hersteller der beliebtesten und am weitesten verbreiteten Modelle, geht hier von 80 % der weltweiten Unternehmensdaten aus. Das weicht zwar vom weiter oben genannten Datenvolumen in der Cloud ab, aber beide Zahlen lassen sich nicht ohne erheblichen Aufwand überprüfen. 

Das Fazit bleibt: Die Menge an Daten auf dem Mainframe ist signifikant. Und darum ist es kaum überraschend, dass die Nutzbarmachung dieser auf dem Mainframe gespeicherten bzw. generierten Daten ein wichtiges Thema ist. Rechenzentren müssen außerdem Datensicherungs- und Wiederherstellungspläne priorisieren, um die Datenintegrität zu gewährleisten und eine schnelle Wiederherstellung im Falle von Systemausfällen oder anderen Störungen sicherzustellen. 

Die Ära der KI

Der Run auf KI, der mit der Veröffentlichung von ChatGPT im November 2022 begann, hält nach wie vor an – trotz zwischenzeitlicher negativer Äußerungen. 

Die hohe Nachfrage nach GPU-Chips ist bekannt, ebenfalls die damit verbundenen hohen Investitionen. Und hieraus resultieren insbesondere für die Hyperscaler die Herausforderungen. Dazu schrieb das Handelsblatt

„Die hohen Investitionen sind eine gigantische Wette auf eine Zukunft, in der Amazon [und andere Hyperscaler] und seine Cloud-Kunden mit neuen KI-Diensten Traummargen verdienen. (…) Infolge des Booms könne es dabei durchaus zu Übertreibungen kommen, sagte Hamilton. Ein sogenannter „overbuild“ der Branche – also mehr Server- oder Energieinfrastruktur als zur Befriedigung der Nachfrage benötigt werde, sei grundsätzlich möglich. (…) Die Parallelstrukturen, die so zwangsläufig entstehen, könnten infolge eines Technologiesprungs schnell an Wert verlieren; eine überraschende Innovation könnte den Markt drehen. Manche Analysten beobachten das Wettrennen der Tech-Konzerne deshalb mit Sorge. Amazons Aktienkurs war im August um mehr als 20 Prozent gefallen, nachdem der Konzern stark steigende Investitionen gemeldet hatte.“ 

Welche Rolle spielen Standort, Energieverbrauch und Cybersecurity?

Der Strombedarf der Rechenzentren steigt noch immer an, nicht zuletzt aufgrund der hohen Nachfrage nach KI-Anwendungen. Zwar können Halbleiterhersteller wie Nvidia und AMD die Energieeffizienz ihrer Hardware zunehmend verbessern, doch das Gesamtwachstum bei der Datenproduktion und den Rechenanforderungen übertrifft diese Verbesserungen weiterhin. 

Der Wandel der Standortstrategien für KI-Trainingsknoten zeigt eine Verlagerung in Regionen mit robusten Glasfaserinfrastrukturen und verfügbarer Energie wie die 41. Breitengradlinie in den USA. Diese Regionen gelten nun als virtuelle „Top-Lagen“ für Rechenzentren. Hyperscaler konzentrieren sich auf sogenannte „Power-first“-Standorte wie Council Bluffs in Iowa und Lancaster in Texas. Und KI-Workloads mit geringerer Latenzempfindlichkeit treiben die Nachfrage in Regionen mit günstigeren Stromkosten und Steueranreizen. 

In Deutschland ist im Übrigen der Großteil der modernen Rechenzentren im Raum Frankfurt angesiedelt – nicht zuletzt aufgrund des DE-CIX Frankfurt: dem größten Internetknoten der Welt gemessen am Datendurchsatz.

Strategische Energiebeschaffung

Die Sicherung der Stromversorgung ist strategisch. Hyperscaler fokussieren sich zunehmend nicht nur auf die Beschaffung, sondern auch die Erzeugung. Microsoft, Google oder Amazon beispielsweise setzen auf und investieren in Atomenergie als potenzielle Lösung für langfristige Nachhaltigkeit. Da es aber auch um gesellschaftliche Akzeptanz für das Geschäftsmodell der Hyperscaler geht, setzen Unternehmen und KI-Anbieter verstärkt auf erneuerbare Energien.

Zunehmende Bedeutung der Cybersicherheit

Und last but not least: Die Cybersicherheit ist in den letzten Jahren zu einem noch kritischeren Thema geworden. Der Anstieg von Cyberbedrohungen und das Potenzial für Datenpannen haben Rechenzentrumsbetreiber dazu veranlasst, ihre Sicherheitsmaßnahmen zu verstärken. Die Antworten: Implementierung robuster Cybersicherheitsmaßnahmen, verbesserte Verschlüsselungstechnologien, Systeme zur Echtzeitüberwachung von Bedrohungen und Schulungsprogramme für Mitarbeitende. 

Mehr erfahren

Tags

IT SecurityMainframeWorkload Automation

Teilen

Weitere Ressourcen

Blog-Artikel
planes-e.png

Was ist ein Mainframe?

Ein Großrechner (Mainframe) ist ein leistungsstarkes Computersystem, das von großen Unternehmen für essenzielle Aufgaben wie Massendatenverarbeitung und Warenwirtschaft eingesetzt wird. Mainframe-Computer sind zwar kleiner als Supercomputer, bieten aber im Vergleich zu anderen Computerklassen eine höhere Rechenleistung. Die vorwiegend in den 1960er Jahren entwickelten Mainframe-Architekturen werden stetig weiterentwickelt und häufig als Server eingesetzt.
Blog-Artikel
soap-blog.jpg

What Is SOAP?

Service Orchestration and Automation Platforms (SOAP) are revolutionizing how businesses streamline operations and embrace digital transformation. Far beyond simple task scheduling, SOAP integrates automation, resource management and cloud-native capabilities into a powerful, unified system. By breaking down silos, enabling intelligent decision-making and driving innovation, SOAP empowers organizations to tackle complexity, reduce costs and scale with ease. Discover why SOAP is becoming a must-have tool for enterprises ready to thrive in a fast-changing world.
Blog-Artikel
automation.webp

Maximierung der Effizienz durch Event-gesteuerte Automatisierung

Automatisierung wird in modernen Organisationen zunehmend unverzichtbar und fördert Effizienzsteigerungen in allen Abteilungen, von der Infrastruktur bis hin zu DevOps. Obwohl die meisten Unternehmen die potenziellen Vorteile der Automatisierung erkennen, fällt es vielen schwer, diese voll auszuschöpfen. Zersplitterte Prozesse, isolierte Tools und schlecht definierte Ziele verhindern oft, dass Organisationen ihr volles Automatisierungspotenzial erreichen. In diesem Leitfaden erkunden wir einen strategischen Ansatz zum Aufbau eines ausgereiften Automatisierungsrahmens, der nahtlose, effiziente und skalierbare Abläufe ermöglicht.