Vor viel längerer Zeit, als ich gern zugeben würde, habe ich in den USA Deutsch an der Uni unterrichtet. Ich war Lehrassistent in meinem Graduiertenprogramm. Der Job war gut, weil ich ein monatliches Einkommen hatte und die Arbeit mit den Studiengebühren verrechnet wurde. Darüber hinaus habe ich dabei aber eine sehr wichtige Lektion gelernt, die ich nicht vergessen habe. Manchmal lernt man am meisten, wenn man versucht, jemand anderem etwas beizubringen.
Der Kreis dieser Botschaft schloss sich vor einigen Wochen, als ich mit einigen Kollegen und Kolleginnen an der 2025 Mainframe Tour of Illinois teilnahm, die von der IT-Firma Team SWAMI und einem talentierten Redner von IBM organisiert worden war. Im Verlauf von vier Abenden an verschiedenen Universitäten erfuhren die 350 Delegierten (einschließlich mir) alles darüber, was die neueste Mainframe-Hardware von IBM leistet, wie beispielsweise Quantumverschlüsselung, und wie viel PS bereitgestellt werden, um Cloud Computing zu bewältigen. Cloud Computing und Mainframes? Hmmmm…
Nach den detailreichen Präsentationen kamen die Studenten vorbei, um mit LRS und anderen IT-Anbietern zu sprechen. Wir wurden intensiv dazu befragt, wie Mainframes funktionieren und wodurch sich die IBM Z-Umgebung von anderen Plattformen unterscheidet. Bei meinem Versuch, anschaulich zu erklären, merkte ich, dass ich Konzepte wiederholte, die ich verwendet hatte, als ich mir einst selbst Mainframes beibringen musste. Das war in meinem ersten FORTRAN-Kurs in den 1980er Jahren.
Im Gegensatz zu PCs, mit denen ich groß geworden bin, gibt ein Mainframe-System den einzelnen Benutzern keine individuellen Computerressourcen an die Hand, die sie selbst nutzen und verwalten können. Stattdessen sitzt ein Benutzer vor einem relativ „dummen” Terminal und einer Tastatur, die beide über ein Netzwerk mit einem SEHR leistungsstarken zentralen Computer verbunden sind, dessen Ressourcen von vielen anderen Benutzern und Programmen, die gleichzeitig auf diesem Mainframe arbeiten, gemeinsam genutzt werden.
Als ich das erste Mal etwas von Cloud Computing hörte, war das Bild in meinem Kopf ähnlIch. „Die Cloud“ ist eine äußerst leistungsstarke Computer-Ressource, auf die die Benutzer rechnerfern und mit Mitteln so bescheiden wie ein Mobiltelefon, Chromebook, Thin Client oder anderen Endpunkten zugreifen können. Die Ergebnisse dieser effizienten, zentralisierten Verarbeitung werden an den Endpunkt zurückgegeben, sodass sie angesehen oder gedruckt werden können oder der Endbenutzer eine Handlungsvorgabe hat.
Wie einer meiner sachkundigeren LRS-Kollegen Sam Cohen es kürzlich erklärte:
„Die Cloud ist ein fremder Computer. Mehr war sie noch nie. Weder in den 50ern, in den 70ern oder zu irgendeinem Zeitpunkt. Man saß an einem Terminal – einem Arbeitsplatz oder einer Benutzeroberfläche – am Computer einer anderen Person. Vielleicht hatte Ihre IT-Abteilung, Ihre zentrale Verwaltung, Ihr Unternehmen oder auch Ihre Schule einen zentralen Rechner... Aber es war immer der Computer von jemand anderem.“
Sam beschrieb den Mainframe der Vergangenheit. Und die Cloud der Zukunft. Und die Vergangenheit, Gegenwart und Zukunft der Unternehmens-IT. Alles auf eine Weise, dass eine Generation, die vertrauter mit PCs und Server-Farmen ist, es leicht verstehen kann. Dazu zog Sam ein Bild aus dem Transportbereich heran, um den PC mit einem Auto zu vergleichen. „Diese Geräte (PCs) sind so ein bisschen wie ein Auto. Das muss man pflegen. Damit man mit dem Auto nicht liegenbleibt, kümmert man sich um dessen routinemäßige Wartung. Aber wenn man kein Auto hat, muss man auch keins warten. Wenn das Gerät also jemand anderem gehört, ist man eine Menge an Problemen los.“
Dieser Vergleich erklärt vielleicht am anschaulichsten das neue Interesse daran, Anwendungen und IT-Infrastrukturen in die Cloud zu verlegen. Indem die Verarbeitung auf einen „fremden Rechner“ verlegt wird, können Unternehmen einen Großteil der Kosten für physische Server, Netzwerke, Load Balancer und die für deren Implementierung und Verwaltung erforderlichen Administratoren einsparen. Stattdessen können sie einen Vertrag nur für die Rechenressourcen aushandeln, die sie zur Unterstützung kritischer Geschäftsprozesse benötigen, und die Bereitstellung dieser Ressourcen anderen überlassen.
Sowohl lokale als auch cloudbasierte Computerumgebungen haben Vor- und Nachteile, aber eines ist sicher: Sie werden uns auch weiterhin begleiten. Genauso wie Client-Server-Anwendungen und offene Systemhardware die Mainframes nicht abgeschafft haben, wird auch der Trend zum Cloud Computing die Rechenzentren von Unternehmen nicht verdrängen. Da Anwendungen gleichermaßen nach wie vor in all diesen Umgebungen laufen müssen, wird die Output Management Software von LRS weiterhin den „All-of-the-above“-Ansatz verfolgen.
In den nächsten Wochen werden Sie mehr über cloudbasierte LRS-Lösungen hören, die das gleich Maß an Kontrolle, Zuverlässigkeit, Sicherheit und gesicherte Dokumentenauslieferung garantieren wie unsere offenen Softwaresysteme und Mainframe-Lösungen davor. Wie in der Vergangenheit werden wir auch künftig nicht von unserer Mission abrücken, Lösungen anzubieten, mit denen Unternehmen Dokumente in jedem Format aus jeder Anwendung auf jeder Plattform – vom Mainframe über Mobilgeräte bis hin zur Cloud – auf zuverlässige, sichere und vollständig überprüfbare Weise bereitstellen können.