Skip to main content

Article Category

Story

Article available in the folowing languages:

Feature Stories - Rechnerwolken für die kleinen und mittleren Unternehmen Europas

Dank der Arbeit eines multinationalen Teams EU-finanzierter Forscher verfügen die europäischen kleinen und mittleren Unternehmen nun über eine Referenzarchitektur zum Einsatz ihres eigenen Cloud-Computings der nächsten Generation. Hier bietet sich kleinen Unternehmen die Chance, richtig groß einzusteigen.

Digitale Wirtschaft

Cloud Computing umschreibt den Ansatz, Informationstechnologie - Software, Daten und auch Rechenleistung - dynamisch an den Bedarf angepasst über ein Netzwerk zur Verfügung zu stellen. Das Geschäftsmodell funktioniert wie ein Versorger, bei dem der Nutzer so viel Strom oder Wasser bekommen kann, wie er will, aber letztlich nur für die "verteilten Rechnerressourcen" zahlt, die er auch tatsächlich nutzt. Gemäß dem Januarbericht des Marktforschungsinstituts In-Stat wird der Markt für Cloud Computing 2014 schätzungsweise 13 Mrd. EUR - gegenüber 3 Mrd. EUR in 2010 - wert sein, während Gartner, ein anderes Forschungsunternehmen davon ausgeht, dass Cloud Computing so einflussreich wie das E-Business werden wird. Clouds haben außerdem strategische Bedeutung für Europa sowie die ehrgeizige Digitale Agenda. So plant die für die Digitale Agenda zuständige Vizepräsidentin der Europäischen Kommission Neelie Kroes, bis Ende 2012 eine Cloud-Computing-Strategie für Europa vorzulegen. Bisher hat Europa bei der Entwicklung von Cloud-Computing-Infrastrukturen nur eine kleine Rolle gespielt; dies ändert sich nun allerdings dank der Arbeit des Reservoir-Projekts ("Resources and services virtualisation without barriers") dramatisch, das innerhalb des Siebten Rahmenprogramms der EU (RP7) finanziert wird. Es konnten zukunftsweisende Open-Source-Software und Tools erstellt wurden, mit deren Hilfe kleine und mittlere Unternehmen nun ihre eigenen Cloud-Plattformen entwickeln können. "Die Clouds von heute unterliegen Beschränkungen durch die hinter ihnen stehende Hardware, die wiederum oft durch die Größe des Rechenzentrums begrenzt ist, das Cloud-Hosting-Partner ist", erklärt Eliot Salant, Koordinator des Reservoir-Projekts und Forscher am IBM-Lab in Haifa, Israel. "Hier liegt die Grundprämisse des Reservoir-Projekts: Kein einzelner Provider, egal wie groß, ist in der Lage, die exponentiell wachsende Nachfrage nach Ressourcen decken." Reservoir ging an den Start, um diese Einschränkung zu überwinden. Die innerhalb des Projekts entwickelte Software ermöglicht es den Cloud-Anbietern, ihre Ressourcen zu vereinigen oder zu kombinieren. Werden bei einem Cloud-Anbieter die Ressourcen knapp, so kann er sie bei einem anderen Cloud-Provider mieten. Rechnerwolken sind ein wichtiger Trend im Computerwesen. Die Idee besteht darin, dass Unternehmen, die Dienstleistungen im Internet anbieten wollen, im Vorfeld keinen großen Investitionsaufwand in Ausrüstungen (CAPEX) stecken müssen. Auch die üblichen betrieblichen Aufwendungen (OPEX) müssen nicht gezahlt werden. Stattdessen bezahlen sie den Cloud-Anbieter auf nutzungsbezogener Basis nur dann, wenn sie den Service in Anspruch nehmen. Dies verschafft den Firmen eine bessere Kontrolle über die Ausgaben und vermeidet den kostenintensiven Erwerb von Anlagevermögen und Wartung. Es war nur logisch, dass Unternehmen wie Amazon und Google ein Geschäftsmodell übernehmen, bei dem Speicherplatz für eine Cloud-Computing-Infrastruktur bereitgestellt wird, denn diese Firmen verfügten zur Durchführung ihres eigenen Geschäftsbetriebs über riesige, teure Rechenzentren, in denen ein enorm aufgerüstetes Fachwissen zum Management für Rechenzentren in diesem Prozess aufgebaut wurde. Die freien Kapazitäten ihrer Serverfarmen zu vermieten, war nutzte dem Investment; fachliche Erfahrungen konnten so wirksam eingesetzt werden. Diese Hosting Dienste sind inzwischen derart erfolgreich, dass Amazon wohl eines Tages ebenso viel mit der Bereitstellung von Clouds wie mit dem eigentlichen Online-Shopping verdienen könnte. Während US-Unternehmen schnell dabei waren, Cloud-Hosting anzubieten, taten sich die europäischen Firmen etwas schwerer. Teilweise ist dies einfach eine Frage der Dimensionen. Ein Großteil des europäischen Technologiesektors dreht sich um kleine und mittlere Unternehmen, während in den USA gigantische Konzerne das Sagen haben. Und so verfügen weitaus weniger IT-Unternehmen überhaupt über die Ressourcen, um Cloud-Dienste in der Größenordnungen anzubieten, wie sie den US-Kollegen zugänglich sind. Maßstäbe setzen: nicht kleckern, sondern klotzen Die innerhalb des Reservoir-Projekts entwickelte Technologie ist ein gangbarer Weg zur Lösung dieses Problems. Das Projekt strebte die Ermöglichung des großangelegten Einsatzes und des Managements komplexer IT-Dienstleistungen sowohl innerhalb von Clouds als auch Cloud-übergreifend an. Das Projekt lockte 13 führende industrielle und akademische Partner aus Europa und Israel an und liest sich wie ein Who-is-Who der Datendienste. Schwergewichte wie IBM und SAP aus Deutschland, Thales aus Frankreich sowie Telefónica und Oracle aus Spanien sind beteiligt. Das Projekt arbeitete nicht nur an einer Plattform, die kleine Rechenzentren ihre Ressourcen in einer vereinten Wolke bündeln lässt, sondern es sollten gleichfalls viele Mängel und Schwächen der derzeitigen Technik angegangen werden. Ein Großteil der Cloud-Hosting-Technologie ist beispielsweise Closed-Source, also proprietäre Software, die nicht mit anderen Plattformen kompatibel ist, und so arbeitete Reservoir an der Festlegung von Open-Source-Standards für Cloud Computing, um die vielen Anbietern heute noch angelegten Ketten zu sprengen. Man hatte Cloud Computing auf Basis der Dienstgüte Quality of Service (QoS), unterstützt von durchsetzbaren Service-Level-Vereinbarungen einschließlich der erforderlichen Überwachungsinstrumente auf allen Verwaltungsebenen zum Ziel. So erforschte man Techniken zur schnellen Bereitstellung einer Anwendung ohne Service-Provider-Intervention, die Cloud-Dienste flexibler und anpassungsfähiger machen wird. Das Team arbeitete außerdem an einem automatischen Lebenszyklus-Dienstmanagement, das ebenfalls zu einer vereinfachten Verwaltung der Clouds betragen soll. Reservoir konnte demonstrieren, auf welche Weise virtuelle Ressourcen nahtlos über eine Rechnerwolke hinweg wandern können. Das Ganze erinnert ein bisschen an einen Musiker, der von einem Raum zum anderen zieht und dabei alle Töne richtig trifft. Die Live-Migration virtueller Maschinen von einem physischen Host zu einem anderen, quer über Netzwerkgrenzen hinweg, ist somit erwiesenermaßen einfach und bequem. Weitere Innovationen verliehen der Reservoir-Umgebung zusätzliche Sicherheit. Dieses Problem findet in dem aufkommenden Industriesektor zunehmend größere und tiefgreifendere Beachtung. Zielvorgabe: Kommerzialisierung Ein Großteil der Technologie ist überdies natürlich quelloffen. "Wir reden über das Reservoir-Framework, das eine Sammlung sämtlicher Artefakte ist, die das Projekt hervorgebracht hat", erklärt Salant. "Dazu gehören auch Open-Source-Code, Dokumentation sowie proprietärer Code, der lizenziert werden kann. Reservoir ist nicht im Ganzen Open Source und kann daher nicht einfach heruntergeladen und installiert werden." Dennoch hat das Projekt Schritte unternommen, um einer Ausnutzung seiner Arbeit möglichst wenige Hindernisse in den Weg zu stellen. "Die proprietären Stellen sind durchaus in der Dokumentation beschrieben, die als Teil des Frameworks öffentlich verfügbar ist", erklärt Salant: "Deshalb können Organisationen, die ihren eigenen Reservoir-kompatiblen Baukasten aufbauen wollen, dies entweder auf Grundlage der Spezifikationen [tun], oder die Open-Source-Teile des Reservoir-Frameworks hernehmen und entweder die proprietären Teile lizensieren oder eine eigene Versionen von ihnen erstellen." Letztendlich dürfte Reservoir eindrucksvolle Spuren in diesem Fachgebiet hinterlassen haben. Man lieferte 64 wissenschaftliche Publikationen sowie über 100 Projektpräsentationen, Vorträge, Workshops und Demonstrationen. Das Projekt kann außerdem auf 120 Artikel und Berichte in der Presse verweisen, die das erhebliche Interesse an der Forschung und diesem Gebiet ganz allgemein zeigen. "Neben dem Wert, der direkt der Projektforschung entsprang, gehe ich davon aus, dass die Auswirkungen von Reservoir auch weiterhin zu spüren werden sein - die Partner arbeiten an der Kommerzialisierung der Spin-off-Technologien, eine neue Generation europäischer Cloud-Forscher wurde herangebildet und Folgeforschungsprojekte im Rahmen des RP7 sind laufen weiter", berichtet Salant. Tatsächlich sind aus dem Reservoir-Projekt eine große Anzahl von Spin-out-Technologien erwachsen. Beispiel für ein Reservoir-Spin-off ist das vom University College London entwickelte, sogenannte Lattice-Framework, ein Monitoring-Tool zur Überwachung großer, hochdynamischer IT-Umgebungen. Das Cloud Computing ist mit der Arbeit des Reservoir-Projekts in vielerlei Hinsicht gereift. Das Versprechen im Zusammenhang mit Clouds bestand schon immer darin, dass sich die Nutzer nicht darum kümmern müssen, wo die Kapazitäten für Daten, Anwendungen oder Verarbeitungsprozesse herstammen. Reservoir hat ebendieses Paradigma weitergebracht und ermöglicht die nahtlose Einbeziehung von Ressourcen, die über eine Vereinigung von Rechnerwolken erzielt wird. Das Reservoir-Projekt erhielt 10,53 Mio. EUR (bei 17,17 Mio. EUR Gesamtbudget) Forschungsmittel im Unterprogramm "Service and software architectures, infrastructures and engineering" des Siebten EU-Forschungsrahmenprogramms (RP7). Nützliche Links: - "Resources and services virtualisation without barriers" - Reservoir-Projektdatensatz auf CORDIS - Digital Agenda for Europe Weiterführende Artikel: - Forschung zum Cloud Computing beflügelt Spin-off-Technologien - EU-Projekt ebnet Weg durch datenintensive Umgebungen - Architects and engineers bridge the grid chasm - Good view from the clouds