Schlagwort: Public Cloud

  • Neue nachhaltige Cloud-Infrastruktur geht in Hamburg live – ScaleUp Technologies

    Neue nachhaltige Cloud-Infrastruktur geht in Hamburg live – ScaleUp Technologies

    Der Business Hosting Anbieter ScaleUp Technologies baut seine Cloud-Infrastruktur 2022 weiter aus. Das Besondere: Die neue Cloud-Infrastruktur läuft besonders nachhaltig auf Refurbished OCP Hardware.

    BildDie Nachfrage nach virtuellen Servern bzw. skalierbarem Cloud-Hosting in Deutschland bleibt ungebrochen hoch. Der deutsche Business Hosting Anbieter ScaleUp Technologies hat seine Cloud-Infrastruktur in Hamburg nun weiter ausgebaut. Die neue Public Cloud aus Deutschland ist eine Erweiterung der drei vorhandenen Cloud-Standorte von ScaleUp (in Berlin, Hamburg und Düsseldorf) und die bisher größte Cloud des deutschen Business Hosting und Server-Colocation Unternehmens. Erste Kunden haben die neue virtuelle IT-Infrastruktur bereits bezogen, die im Juni 2022 in Hamburg produktiv ging.

    Seit 2013 bietet ScaleUp seinen Kunden Open Source basierte Cloud-Infrastrukturen (sog. Open Infrastructure as a Service) an. Vor allem Unternehmen und Systemhäuser aus dem deutschen Mittelstand nutzen Infrastructure as a Service Leistungen oder kombinieren diese mit klassischen Managed Hosting und Colocation Services.

    Was heißt „besonders nachhaltige Cloud“?

    Seit 2020 werden alle Cloud- und Colocation Rechenzentren von ScaleUp mit Grünstrom betrieben. Dank einer vor Ort installierten Kaltgangeinhausung und der energiesparenden Refurbished Open Compute Hardware (OCP) läuft der Betrieb der neuen Hamburger Cloud besonders effizient ab, sodass bis zu 20% der verbrauchten Server-Energie eingespart werden kann. Refurbished Hardware, also die Verlängerung des Produktlebenszyklus, spart zusätzlich vorgelagerte Scope-3 Emissionen bei den Server-Betreibern ein, die bei der Beschaffung neuer IT-Hardware entstehen würden. Dazu kommen, im Falle der neuen Hamburger Cloud, noch mal etwa 250kg eingespartes Verpackungsmaterial.
    Hinter OCP verbirgt sich eine große Open Community, die Open Compute Project Foundation. Die OCP Foundation wurde 2011 von Facebook ins Leben gerufen, um die IT-Hardwaretechnologie für Rechenzentren modularer, effizienter und skalierbarer zu machen. OCP-Hardware ist u. a. auch ein fester Bestandteil der SDIA Roadmap für eine CO2-neutrale digitale Infrastruktur bis 2030, wie sie von der EU-Kommission im Europäischen Green Deal gefordert wird.

    Hintergrund:

    Die Nachfrage nach Cloud- und Hybrid-Cloud Dienstleistungen bleibt ungebrochen hoch. Gleichzeitig steigt der Bedarf an lokaler (Edge Computing), datensouveräner Cloud-Infrastruktur, welche den Vorgaben der DSGVO entspricht und die hoch gesteckten Klimaziele der Europäischen Union erfüllt. Neben dem Betrieb von Rechenzentren selbst (niedrige PUE-Werte, wassersparende Kühlung, Grünstromversorgung), spielt bei der Erreichung der Klimaziele auch der Produktlebenszyklus der Server eine erhebliche Rolle. Die IT-Infrastruktur eines Rechenzentrums erneuert sich ca. alle 10 Jahre, die der Server dagegen alle drei bis fünf Jahre. Energieeinsparpotentiale bieten hier ein energiesparendes Server-Environment, eine bessere Auslastung (z.B. durch Virtualisierung /Cloud) und eine Verlängerung des Produktlebenszyklus. So kann der CO2-Fußabdruck von Rechenzentren zusätzlich zur Infrastruktur deutlich verbessert werden.

    Verantwortlicher für diese Pressemitteilung:

    ScaleUp Technologies GmbH & Co. KG
    Frau Julia Streit
    Süderstr. 198
    20537 Hamburg
    Deutschland

    fon ..: +49 (0)40 59380 250
    web ..: https://www.scaleuptech.com
    email : jstreit@scaleuptech.com

    ScaleUp Technologies ist ein Managed Hosting Provider und einer der führenden Anbieter für hochverfügbare Multi-Cloud, Kubernetes sowie Managed Hosting Lösungen im Bereich Open Infrastructure. Zudem bietet ScaleUp an jetzt sieben Rechenzentrum-Standorten Colocation an. Der Kundenfokus liegt dabei auf Systemhäuser und Unternehmen aus dem deutschen Mittelstand.
    ScaleUp selbst und auch die ScaleUp Rechenzentren sind nach ISO/IEC 27001-Norm zertifiziert. Alle sieben Rechenzentrum-Standorte “ in den Städten Hamburg, Berlin & Düsseldorf “ sind miteinander vernetzt und ermöglichen bei Bedarf einen standortverteilten Serverbetrieb.
    Seit Anfang 2021 setzt ScaleUp für die eigene Cloud-Infrastruktur verstärkt auf Open Compute (OCP) und Rack Scale Hardware.

    Pressekontakt:

    ScaleUp Technologies GmbH & Co. KG
    Frau Julia Streit
    Süderstr. 198
    20537 Hamburg

    fon ..: +49 (0)40 59380 285
    web ..: https://www.scaleuptech.com
    email : jstreit@scaleuptech.com

  • Globaler Markt für Rechenzentren: Wachstum bis 2022 erwartet

    Globaler Markt für Rechenzentren: Wachstum bis 2022 erwartet

    Betreiber stehen vor neuen Herausforderungen, was Kosten und Klimavorschriften betrifft

    Ein weiteres gutes Jahr für Rechenzentrumsbetreiber steht bevor. Den Analysten von Turner & Townsend zufolge erwarten 95 % der Betreiber von Rechenzentren eine steigende Nachfrage nach Rechenzentrumsdienstleistungen. Die steigenden Kosten für den Bau neuer Anlagen und die Klimapolitik könnten sich jedoch als große Herausforderung erweisen. Nach Ansicht von Turner & Townsend werden die sich entwickelnden Märkte für Rechenzentren von den steigenden Preisen in Spitzenlagen profitieren.

    Die Branche hat Grund zum Optimismus. 95 % der befragten Rechenzentrumsbetreiber gaben an, dass 2022 ein besseres Jahr für sie sein wird als 2021. 70 % glauben, dass der Markt für Rechenzentren praktisch rezessionssicher ist. Laut dem jüngsten „“Data Center Cost Index“ des Analystenhauses Turner & Townsend sind die Meinungen jedoch geteilt, wie Rechenzentren den grünen Wandel bewältigen werden. Wachstumstreiber der Branche dürften unter anderem die weiter zunehmende Digitalisierung von Unternehmensprozessen sowie die wachsende Popularität des Internet of Things (IoT) sein.

    Anpassung an Klimavorschriften

    Den Analysten zufolge besteht eine der größten Herausforderungen für die Branche darin, die derzeitige IT-Infrastruktur und die bestehenden Rechenzentrumseinrichtungen an die neuen Klimavorschriften anzupassen. Trotz des hohen Umweltbewusstseins glauben nur 40% der Branche, dass ihre Rechenzentren in den nächsten 5 Jahren CO2 frei sind (Netto-Null).

    Außerdem sind laut dem Index die Meinungen darüber geteilt, ob die Betreiber überhaupt wissen, wie sie die CO2-Emissionen wirksam reduzieren können. Aufgrund der Klimakrise steigt der Druck, den Energieverbrauch von Rechenzentren zu senken. Als Reaktion darauf versuchen einige Betreiber, sich auf eine grüne Transformation des Sektors von unten nach oben vorzubereiten. Die Analysten nennen als Beispiel die Initiative „Klimaneutraler Pakt für Rechenzentren“. Zu den Teilnehmern gehören unter anderem Microsoft, Google, SAP und auch Beyond.pl als einziger polnischer Vertreter des Sektors.

    „Die digitale Transformation erhöht den Bedarf an Speicherplatz und Rechenleistung erheblich. Rechenzentrumsbetreiber haben es sich zur Priorität gemacht, so schnell wie möglich auf Kundenbedürfnisse zu reagieren. Fragen der Energieeffizienz oder der Ökologie sind in den Hintergrund getreten. Ein solcher Ansatz ist auf lange Sicht selbstzerstörerisch, sei es im Zusammenhang mit der Klimakrise oder mit den zu erwartenden europäischen Vorschriften und steigenden Energiekosten. Aus der Sicht der Kunden von Rechenzentren, insbesondere der großen, bei denen die Verringerung der Kohlenstoffemissionen Teil ihrer Strategie ist, ist eine größere Transparenz erforderlich. So können die Kunden beurteilen, welche Betreiber wirklich energieeffizient sind,“ erklärt Wojciech Stramski, CEO von Beyond.pl, einem Betreiber von Rechenzentren, die zu 100 % mit Ökostrom betrieben werden.

    Beliebte Märkte kämpfen mit ersten Problemen

    Auch der Bau neuer Einrichtungen selbst wird eine Herausforderung darstellen. An den begehrtesten Standorten wie Tokio, Zürich oder dem FLAP-D-Markt (Frankfurt, London, Amsterdam, Paris, Dublin) übersteigt die Nachfrage nach Immobilien das Angebot. Hinzu kommt, dass die Energiebereitstellung knapp wird. Bereits 2019 wies ein Bericht der Irish Academy of Engineering darauf hin, dass die steigende Nachfrage nach zentralen Dienstleistungen in Dublin einen Ausbau der dortigen Energieinfrastruktur erfordern würde. Die Kosten wurden damals auf 9 Milliarden Dollar über acht Jahre geschätzt.

    Was die Investitionskosten betrifft, so ist die Hauptstadt Japans laut dem Turner & Townsend Index derzeit die teuerste. Statistisch gesehen müssen Rechenzentren dort 12,5 US-Dollar für jedes verbrauchte Watt Strom ausgeben. Der zweitteuerste Rechenzentrumsstandort ist der Spitzenreiter des letzten Jahres – Zürich. Die Durchschnittskosten in dieser Schweizer Stadt liegen bei 12,0 US-Dollar/Watt. Dahinter folgt mit durchschnittlichen Kosten von 10,3 US-Dollar/Watt das Silicon Valley. Die Autoren des Index weisen darauf hin, dass steigende Kosten das Interesse an Investitionen auf billigeren, sich entwickelnden Märkten beeinflussen.

    „Der polnische Data Center Markt ist für viele ausländische Investoren attraktiv. In den Gesprächen, die wir führen, zeigt sich klar, dass wir einen guten Standort im Zentrum Europas, eine hochwertige IT-Infrastruktur sowie relativ niedrigen Immobilien- und Energiekosten im Vergleich zu FLAP-D und Zürich haben,“ so Stramski weiter.

    Lieferkettenengpässe und erhöhte Preise verzögern den Bau neuer Rechenzentren

    Die Situation auf dem Baumarkt ist eine zusätzliche Herausforderung für die Betreiber von Rechenzentren. 87% der von Turner & Townsend befragten Unternehmen gaben an, dass Materialengpässe zu Verzögerungen beim Bau von Rechenzentren führen. Hinzu kommen die Preissteigerungen bei Baumaterialien. In Europa sollen sich die Stahlpreise in den letzten 12 Monaten mehr als verdoppelt haben. Aus diesem Grund weisen Analysten darauf hin, dass es immer beliebter wird, bestehende Anlagen und Gebäude aufzurüsten, anstatt in komplett neue Rechenzentren zu investieren.

    Experten weisen jedoch auf die Nachteile einer solchen Lösung hin. „Viele der heute in Betrieb befindlichen Anlagen wurden vor mehreren Jahren gebaut. Viele Serverräume befinden sich in Gebäuden, die nicht mit Blick auf die Wartung kritischer IT-Infrastrukturen und die Energieeffizienz konzipiert wurden. Ein Mangel an angemessenem Serverraum, Sicherheitsmaßnahmen und energiesparenden Lösungen bedeutet höhere Risiken sowie Kosten für die Kunden. Außerdem sind nicht alle Einrichtungen leicht aufzurüsten und an moderne Anforderungen anzupassen. Optimal ist es, wenn Rechenzentrumsbetreiber über eigenes Land und Investitionsmöglichkeiten verfügen. Auf diese Weise können sie eine Einrichtung entwerfen und bauen, die den Erwartungen ihrer Kunden entspricht und die auch noch in einem Dutzend Jahren diese Erwartungen erfüllen wird,“ verdeutlicht Stramski die Situation.

    Frühzeitig auf neue sich entwickelnde Märkte setzen

    Die polnische Industrie behauptet sich aufgrund der niedrigeren Geschäftskosten und der günstigen Lage im Zentrum Europas erfolgreich im Wettbewerb. Die Analysten von PMR Market Expert schätzen die Leistung aller polnischen Rechenzentren bis 2020 auf über 88 MW (Megawatt) und sagen ein Wachstum bis zu 181-MW im Jahr 2026 voraus. Polen dürfte sich in den kommenden Jahren zu einer interessanten neuen Anlaufstelle für Data Center Betreiber, Managed Service Provider sowie Unternehmens-IT-Hosting entwickeln. Projekte, wie der Bau des 42-MW-Campus von Beyond.pl in Poznan bestätigen die Investitionsbereitschaft.

    Quellennachweis:

    https://www.turnerandtownsend.com/en/perspectives/data-centre-cost-index-2021/
    https://www.computerweekly.com/feature/Dublin-in-distress-Power-supply-issues-threaten-growth-of-Europes-second-biggest-datacentre-hub
    https://www.computerweekly.com/news/252469328/Irelands-power-network-needs-9bn-investment-by-2027-to-sustain-datacentre-sector-claims-report
    https://www.cloudforum.pl/2021/07/27/polski-rynek-data-center-w-natarciu/
    https://mypmr.pro/products/rynek-centrow-danych-w-polsce-2021

    Über Beyond.pl:
    Beyond.pl ist ein Anbieter von Datenverarbeitungsdiensten, Managed Services, Cloud-Umgebungen und Infrastructure as a Service in Polen sowie Mittel- und Osteuropa. Das Unternehmen betreibt das sicherste Rechenzentrum in Mittel- und Osteuropa und die energieeffizienteste Anlage in Polen, die zu 100 % mit erneuerbarer Energie gespeist wird. Der Rechenzentrumsanbieter garantiert die höchste Verfügbarkeit – bis zu 99,9999 %. Als einziges Unternehmen auf dem CEE-Markt bietet Beyond.pl eine gemischte Rechenzentrumsumgebung (Bewertung 3+ bis 4), Zugang zu einem umfangreichen Produkt- und Serviceportfolio mit Private Cloud, Public Cloud und Hybrid-Lösungen sowie Expertensupport im Rahmen von Managed Services.

    Beyond.pl verfügt über Core- und Hyper-Edge-Rechenzentren mit einer Zielkapazität von 42 MW. Das Unternehmen betreibt zwei moderne Rechenzentren im polnischen Posen. Es handelt sich dabei um das erste grüne und anbieterneutrale Rechenzentrum in Polen. Das Data Center 2 liegt strategisch günstig auf halbem Weg zwischen Warschau und Berlin und ist die erste von nur drei Einrichtungen in der Europäischen Union, die die strengen Anforderungen der ANSI/TIA-942-Zertifizierung mit der Stufe 4 erfüllen. Die Rated 4-Zertifizierung ist ein Nachweis dafür, dass das Rechenzentrum den höchsten Sicherheitsstandards für Rechenzentren in Bezug auf Konzeption, Mechanik, Stromversorgung und Telekommunikation entspricht. Das Unternehmen wurde im Jahr 2005 gegründet. Weitere Informationen finden Sie unter: www.beyond.pl/de

    PR-Agentur

    Kontakt
    PR-Agentur Werte leben & kommunizieren
    Martina Gruhn
    Corneliusstr. 29
    80469 München
    015221943260
    info@martinagruhn.com
    http://www.martinagruhn.com

    Bildquelle: @Beyond.pl

  • Suchen heißt jetzt Finden.

    Storage Made Easy neu im Portfolio der ADN

    Das Duo ADN und Storage Made Easy verspricht dem DACH-Markt eine neue Chance auf das Vereinheitlichen unstrukturierter Unternehmensdaten, so einfach und effizient wie noch nie – egal, ob für die Public-, Hybrid- oder Private-Cloud.

    Der britische Hersteller Storage Made Easy vereinfacht das Management von Daten über die gesamte Speicherlandschaft eines Unternehmens hinweg. Die innovative Lösung ermöglicht effizientes Suchen, indem von allen Inhalten sämtlicher Datei- und Objektspeicher Metadaten indiziert werden. Die Cloud- und On-Premises-Infrastrukturen vereinende Lösung bietet einen effizienten und einheitlichen Zugriff auf über 60 Datei- und Objektspeicherlösungen, darunter Windows, SAN, NAS, Amazon, Azure und Google Cloud. Der Metadatenkatalog wird in Echtzeit auf dem neuesten Stand gehalten, dabei ist Zugriff und Steuerung alter wie neuer Datenbestände über eine einzige anwenderfreundliche Oberfläche möglich, die alle gängigen Betriebssysteme unterstützt und mit Microsoft 365 inklusive Microsoft Teams integriert ist. Im Fokus steht die Bereitstellung von Multi-Cloud-Content-Collaboration mit starkem Cybersecurity- und Compliance-Anspruch für den gesamten Datenbestand eines Unternehmens. Dabei ist irrelevant, ob es sich um Dateiblock- oder Objektspeicher handelt und ob dieser vor Ort oder in unterschiedlichen Cloudspeichern liegt.
    Die neue Partnerschaft zwischen der ADN und Storage Made Easy liefert jetzt auch für den DACH-Markt eine sichere und anwendungsfreundliche Möglichkeit, Daten in hybriden Szenarien konsistent zu verwalten. Anklicken, indizieren, suchen, speichern und verteilen – ein einfacher Prozess, der für Unternehmen der unterschiedlichsten Branchen enorme Benefits erschließt.

    Leicht und sicher zur Nadel im Heuhaufen

    Das richtige Dokument schnell und möglichst umweglos zu finden, ist einer der zentralen Wünsche in unserer täglichen Arbeit geworden. Egal, ob im Firmengebäude, Homeoffice, in einer hybriden Lösung oder beim mobilen Arbeiten – die Suche nach einem bestimmten Dokument über die vielen Datenspeicherorte hinweg beschäftigt jede und jeden von uns täglich. Ganze vier Stunden pro Woche, kumuliert 20 Arbeitstage pro Jahr verwenden wir auf die Suche nach Dokumenten im Dateiwust, der sich über ungezählte Speicherorte verstreut. Dem ein Ende zu setzen, ist Kernanliegen von Storage Made Easy. Deren Enterprise File Fabric, eine Multi-Cloud-Data- und Content-Management-Lösung, unterstützt beim Optimieren und Vereinfachen unternehmensdatenbezogener Suchprozesse. Jim Liddle, Gründer & CEO von Storage Made Easy, erklärt: „Unsere Enterprise File Fabric ist die letzte Meile zwischen Objektspeicher und Applikation. Und das ist maßgeblich für die fortschreitende Digitalisierung, denn bislang scheiterten über 80% der digitalen Transformationsprojekte an unzuverlässiger Integration der in Silos gespeicherten Daten.“ Hermann Ramacher, Gründer & Geschäftsführer der ADN, pflichtet bei: „Tschüss Dokumentenmanagement! Die Suche nach der Nadel im Heuhaufen ist, Storage Made Easy sei Dank, nicht länger undankbare Sisyphusarbeit, sondern einfach, schnell und effizient. Suchen heißt jetzt finden!“

    Keine Sorge mehr um Silos

    Jahrelang lautete die Maßgabe für die Unternehmens-IT, Datensilos aufzubrechen und Datenbestände zusammenzuführen. Doch es gibt Szenarien, in denen geschlossene Silos sinnvoll und sogar notwendig sind. Ganz egal, wie man es dreht und wendet, Datensilos sind und bleiben Realität in jedem Unternehmensarbeitsalltag! Mit Storage Made Easy ist das Management von Daten in den verschiedenen Silos überhaupt kein Thema mehr. Dies gelingt über die Indexierung der Silos und das Erzeugen von Metadaten, die dem User das Auffinden von Daten über die gesamte Speicherlandschaft hinweg ermöglichen. „Wir belassen die Daten da, wo sie abgelegt werden, je Applikation“, bestätigt Jim Liddle.
    Innerhalb der Lösung sorgt eine umfangreiche Rechte- und Zugriffssteuerung dafür, dass die Mitarbeitenden nur das sehen, finden und teilen, was sie sollen. Dies gilt insbesondere, wenn in bestimmten Bereichen unternehmensübergreifend kollaboriert wird. Zusätzlich sorgen FIPS-zertifizierte Verschlüsselungen (AES 256 bit File Encryption als Standard) und das Einrichten von Passwort-gesicherten Räumen für Sicherheit.
    Storage Made Easy legt dabei nicht nur besonderes Augenmerk auf den schnellen und reibungslosen Zugriff auf alle relevanten Unternehmensdaten, egal von welchem Ort der Welt aus, sondern ermöglicht diesen auch losgelöst von der Größe des Contents. Ein Beispiel sind hier Medienunternehmen, die hauseigenem File-Acceleration-Modul M-Stream™ von Storage Made Easy profitieren. Dieses Modul beschleunigt das mobile Arbeiten mit hochauflösenden Bild- und Videoformaten enorm bzw. ermöglicht es erst. Daher kann Storage Made Easy auch bereits einige der größten Content-Marketingagenturen der Welt zu seinen Kunden zählen, aber auch internationale Dienstleister im Gesundheitswesen.

    Turbo der Cloudifizierung

    Storage Made Easy ist eine hochspannende Lösung für alle Unternehmen, denen mit hergebrachtem File Sync & Share nicht mehr gedient ist. Denn Storage Made Easy sieht sich als intelligenter Metadaten-Service für spezielle Anforderungen mittelständischer Unternehmen und Großkunden, ihre unstrukturierten und verteilten Daten effizient auf einer benutzerfreundlichen Oberfläche zu organisieren. Jim Liddle fasst das Potenzial für bisher noch Cloud-unwillige Unternehmen zusammen: „Mit smarten Metadaten lässt es sich leichter in die Cloud migrieren.“ Hermann Ramacher hat das große Potenzial erkannt und sieht in Storage Made Easy ein klares Argument für Partner, die Cloudifizierung ihrer mittelständischen Kunden voranzutreiben.

    Mehrwerte für den Channel

    Will man den Schritt in die Welt der Cloud konsequent beschreiten, müssen Partner und Endkunden umdenken – dabei hilft Value Added Distributor ADN mit seinen innovativen Resellern gerade den strategisch wichtigen Independent-Software-Vendoren (ISV). Storage Made Easy komplementiert den ganzheitlichen Digital Workplace, so dass es sich selbst in Remote Work- oder hybriden Arbeitsansätzen so reibungs- und nahtlos arbeiten lässt wie vor der Pandemie physisch im Büro.
    Ausgangspunkt der neuen Partnerschaft war die Erweiterung der seit 2017 bestehenden Zusammenarbeit der ADN mit Cloudian. Denn Storage Made Easy ist bereits nativ in die Private-Cloud-Lösung des Herstellers Cloudian integriert. Dank der neuen, direkten Zusammenarbeit von Storage Made Easy und der ADN kann die Lösung nun auch für andere bestehende Partner neue Synergien freisetzen. Insbesondere möchte die ADN die Innovation auch in bisherige Umsetzungen des Digital Workplace – z.B. basierend auf Microsoft Azure – hinein skalieren. Kombiniert mit dem überaus erfolgreichen Cloud-Solution-Provider-Programm der ADN entsteht eine marktdurchdringende Schlagkraft, eskortiert von multiplen Support-, Schulungs- und Weiterbildungsangeboten der ADN für die DACH-Region. „Die ADN hat immer schon das Marktpotential innovativer Best of Breed-Lösungen aufgespürt und versteht es, diese bestmöglich im DACH-Markt zu platzieren. Deshalb ist die Partnerschaft von ADN und Storage Made Easy für den DACH-Raum ein Idealszenario. Hier passen Größe von Distributor und Anbieter perfekt zusammen“, konstatiert Achim von Montigny, Business Developer und Mittler der neuen Partnerschaft. Hand in Hand freut man sich nun auf die Zusammenarbeit, den hybriden Cloud-Arbeitsplatz der Zukunft gemeinsam auszugestalten.

    Über Storage Made Easy

    Unter dem Handelsnamen Storage Made Easy bietet das Londoner Unternehmen Vehera LTD mit der Softwarelösung Enterprise File Fabric sowohl eine Cloud- als auch On-Premises-Infrastruktur für Datei- und Objektspeicher aller Datei- und Objekt-Metadaten und Inhalte an. Enterprise File Fabric ermöglicht den Zugriff auf über 60 Datei- und Objektspeicherlösungen, einschließlich Windows Filer, SAN, NAS, Amazon, Azure und Google Cloud. Die Metadaten werden verwendet, um ein globales Dateisystem aufzubauen – immer unter der Maßgabe höchster Datensicherheit und der Erfüllung aller Datenschutzstandards. Der Kundenkreis des 2008 gegründeten Unternehmens umfasst neben weltweit bekannten Medienhäusern, Social-Media-Unternehmen und global agierenden Einzelhändlern, internationalen Internet-Service-Providern, Universitäten und Banken auch internationale Regierungs- sowie regierungsnahe Behörden. Mehr unter www.storagemadeeasy.com

    Über ADN

    Die ADN DISTRIBUTION GROUP ist führender Anbieter von DIGITAL SOLUTIONS für IT-Reseller. ADN identifiziert aktuelle IT-Trends in den Bereichen Cloud und Managed Services, Next-Generation Security, Data Center Infrastructure sowie Modern Workplace und kombiniert die Stärken innovativer Technologien zu attraktiven Zukunftslösungen für IT-Reseller und Hersteller. Mit hohem Qualitätsanspruch und einer wachsenden Zahl an Fachhandelspartnern ist die ADN maßgeblich an der Entwicklung von digitalen Zukunftslösungen beteiligt. Die Premium Services der ADN sichern bessere Geschäfte und eine „Distribution 2.0“.
    Im autorisierten Trainingscenter, der ADN Akademie, bereiten praxiserfahrene ADN Trainer auf herstellerrelevante Zertifizierungen vor und vermitteln hands-on das technische und vertriebliche Know-how, um Lösungen erfolgreich zu vermarkten.
    Kunden sind die Leistungsträger der IT in Deutschland, Österreich, der Schweiz und ausgewählten internationalen Märkten: Systemhäuser, Value-Added Reseller, qualifizierte, Independent Software Vendor (ISV), Systemintegratoren und OEMs sowie Managed Service Provider. Für die marktführenden und zukunftsweisenden Hersteller ist die ADN Full-Service-Marktbereiter und für über 6.000 Partner der Nr. 1 Value Add Distributor. Mit über 585 Mio. Euro Umsatz (2020) treibt ADN maßgeblich die Entwicklung der Industrie voran, als feste Größe in der europäischen IT-Landschaft. Fair, partnerschaftlich, vielfach ausgezeichnet. Mehr unter www.adn.de

    ADN – Advanced Digital Network Distribution

    Firmenkontakt
    ADN Advanced Digital Network Distribution GmbH
    Mareike Gehrmann
    Josef-Haumann-Straße 10
    44866 Bochum
    +49 2327 9912 0
    info@adn.de
    http://www.adn.de

    Pressekontakt
    PR13 PR-Agentur
    Dana Backert
    Osdorfer Weg 68
    22607 Hamburg
    040 21993366
    info@pr13.de
    http://www.pr13.de

  • Claranet besteht Audit und erhält ISO/IEC 27001-Rezertifizierung

    Claranet besteht Audit und erhält ISO/IEC 27001-Rezertifizierung

    Zertifizierer bescheinigt ausgereiftes Niveau des integrierten Managementsystems von Claranet

    Frankfurt am Main, 12.01.2021: Der Managed Service Provider Claranet hat das von der DQS BIT durchgeführte Überwachungsaudit bestanden und erhält eine Rezertifizierung gemäß der internationalen Norm für Informationssicherheit ISO 27001.

    Erteilt wurde das Zertifikat ISO 27001:2017 mit der Erweiterung auf die Normen für Informationssicherheit und Datenschutz von Cloud Services ISO 27017:2015 und 27018:2014 sowie die Aufrechterhaltung der ISO 9001:2015 (Qualitätsmanagement) und ISO 22301:2012 (Business Continuity Management).

    Die Prüfer bescheinigten dem Managed Service Provider ein ausgereiftes Niveau seines integriertes Managementsystems (IMS). Als Stärke bewertete die DQS das ausführliche Management-Review von Claranet über sämtliche Standards sowie die prozessorientierte Auswertung der KPI pro Managementsystem.

    Zudem wurden die Ausgestaltung der Auftragsverarbeitungsverträge mit Anlagen als Hilfestellung für Cloudkunden und die Unterstützung der Krisenkommunikation im Bereich Business Continuity Management (BCM) durch Mustertexte gewürdigt.
    Besondere Erwähnung innerhalb des Prüfberichts fand darüber hinaus der Produktentwicklungsprozess von Claranet: Um im Nachgang die Produkte in der Praxis zu bewerten und daraus Potentiale für zukünftige Entwicklungen zu erkennen, werden Post-Launch-Reviews durchgeführt.

    „Um unsere Managementsysteme konstant auf höchstem Niveau zu halten, stellen wir uns immer wieder Audits durch akkreditierte Zertifizierer wie der DQS BIT“, sagt Fabian Kaiser, Head of Security & Compliance bei Claranet Deutschland. „Die regelmäßige Bewertung unseres IMS und seiner Prozesse garantiert unseren Kunden höchste Informationssicherheit und bestmöglichen Datenschutz für ihre Managed Cloud Services.“
    Weitere Informationen über Claranet sind verfügbar unter www.claranet.de

    Claranet unterstützt Unternehmen mit innovativen Cloud Hosting- und Netzwerk-Services bei ihrer Digitalisierung. Der Managed Service Provider ist darauf spezialisiert, unternehmenskritische Umgebungen auf flexiblen Cloud-Infrastrukturen zu hosten und unter höchsten Sicherheits-, Performance- und Verfügbarkeitsanforderungen agil zu betreiben. Mit über 2 200 Beschäftigten realisiert Claranet Private-, Public- und Hybrid-Hostingumgebungen. Betrieben werden die Cloud-Lösungen in 43 Rechenzentren sowie auf Public Cloud-Infrastrukturen wie AWS, Google Cloud und Azure. Kunden wie Airbus, Aktion Mensch, Leica und Gruner + Jahr vertrauen auf diese Services für ihre Portale, E-Commerce-Plattformen oder andere geschäftsrelevante Anwendungen. Die Cloud Hosting- und Netzwerk-Services von Claranet entsprechen höchsten Standards für Datenschutz, Datensicherheit, Business Continuity Management sowie Qualitätsmanagement. In Studien von renommierten Analystenhäusern belegt Claranet regelmäßig Spitzenpositionen, etwa in Gartners „Magic Quadrant 2019“ für „Data Center Outsourcing and Hybrid Infrastructure Managed Services, Europe“ sowie in dem ISG-Report „ISG Provider Lens™ – Next-Gen Private/Hybrid Cloud – Data Center Services & Solutions 2020“. Weitere Informationen gibt es unter www.claranet.de

    Firmenkontakt
    Claranet GmbH
    Dr. Ingo Rill
    Hanauer Landstr. 196
    60314 Frankfurt
    +49 (0)69-408018 215
    info@claranet.de
    https://www.claranet.de

    Pressekontakt
    Claranet GmbH
    Dr. Ingo Rill
    Hanauer Landstr. 196
    60314 Frankfurt
    +49 (0)69-408018 215
    presse@de.clara.net
    https://www.claranet.de

    Bildquelle: @ claranet

  • Jetzt Chancen durch Digitalisierung nutzen – mit Controlware als Cloud Builder

    Jetzt Chancen durch Digitalisierung nutzen – mit Controlware als Cloud Builder

    Dietzenbach, 17. November 2020 – Viele Unternehmen gehen das Thema digitale Transformation noch sehr zögerlich an, obwohl ihnen das Potential durchaus bewusst ist. Durch die Corona-Krise überdenken Firmen zudem ihre Investitionen in den digitalen Wandel. Dadurch laufen sie allerdings Gefahr, in der Zukunft von Wettbewerbern abgehängt zu werden. Damit das nicht passiert, berät und unterstützt Controlware, etwa bei der Entwicklung der passenden Cloud-Strategie.

    Die Corona-Krise hat den digitalen Wandel in einigen Bereichen stark vorangetrieben, zum Beispiel beim Ausbau von Remote-Arbeitsplätzen oder bei der Versorgung mit Collaboration Tools. Viele Unternehmen zögern aber aufgrund der momentanen Situation und dem damit verbundenen akuten Kostendruck, weitere Investitionen zu tätigen. Dabei ist gerade jetzt der richtige Zeitpunkt, um Firmenstrukturen auf Digitalisierungspotential zu überprüfen und Schritte dahingehend einzuleiten – und somit auf geändertes Kundenverhalten zu reagieren. Denn der Innovationsdruck bleibt in zahlreichen Branchen weiterhin bestehen: Jeder, der die Digitalisierung jetzt nicht vorantreibt, steht Konsolidierungsoptionen selbst im Weg und wird den Anschluss verlieren. Etablierte Geschäftsmodelle müssen deshalb angepasst werden.

    „Unternehmen bedenken oftmals nicht, dass sie durch Investitionen künftig effizienter arbeiten und so auf lange Sicht ihre Ausgaben um 30 Prozent reduzieren können“, sagt Michael Melzig, Cloud Program Manager bei Controlware. Als Systemintegrator und Managed Service Provider unterstützt Controlware Kunden dabei, Einsparpotentiale innerhalb der Business- und IT-Strukturen zu identifizieren, entsprechende Maßnahmen festzulegen und sinnvolle Lösungen umzusetzen. Digitale Lösungen – wie sinnvolle Cloud-Anwendungen – ersetzen veraltete Modelle, so dass IT-Ressourcen nutzungsabhängig abgerechnet werden.
    Darüber hinaus schaffen Fördermittel seitens des Staates sowie besondere Angebote der Cloud-Anbieter weitere interessante Anreize für Investitionen. Controlware steht hier beratend zur Seite.

    Vorzüge überwiegen
    Die Anbindungen klassischer Rechenzentren und neuer Cloud-basierter Anwendungen erfordern zwar Zeit, Fachwissen und Ressourcen, die Vorteile von Cloud Computing amortisieren diese Investitionen jedoch relativ schnell: Denn eine moderne Cloud-Architektur mit automatisierten Lösungen verschafft Unternehmen Flexibilität, Skalierbarkeit und sorgt für zeitgemäße Prozessabläufe. Zudem erhöht sich die Agilität, während gleichzeitig in vielen Fällen die Kosten sinken. Zusätzliche Transparenz über ihre Ausgaben erhalten Firmen durch den Controlware Multi Cloud Marketplace: Einkäufe verschiedener Kostenstellen bei AWS, Microsoft Azure und im Google Cloud Marketplace lassen sich smart verwalten, entsprechende Limits setzen und überwachen.
    Controlware unterscheidet sich durch einen ganzheitlichen Ansatz von anderen IT-Dienstleistern, da die Experten nicht nur beraten, sondern individuelle Lösungen auch direkt umsetzen. Basierend aus den Praxiserfahrungen beider Welten – On-Premises und Cloud – werden neue, effiziente Strategien bereitgestellt. „Unsere Projekte zeigen drei Key-Handlungsfelder auf, die die Basis zur Entwicklung kundenspezifischer Cloud-Strategien darstellen: Cloud Enabling, Cloud Building und Cloud Services“, erläutert Michael Melzig.

    Cloud Enabling umfasst das Consulting, die Beratung und Konzeptionierung von Single, Hybrid oder Multi Cloud-Szenarien. In Abhängigkeit des digitalen Reifegrads unterstützt Controlware Unternehmen individuell und nach ihren Anforderungen mit der entsprechenden modularen Cloud-Leistungen. Dieser Ansatz ermöglicht es, mit Consulting-Paketen den spezifischen Wandlungsbedarf im Workshop-Format gemeinsam zu erarbeiten und die Wandlungsträger in den unterschiedlichen Unternehmensbereichen zu aktiveren.

    Im Bereich Cloud Building unterstützt Controlware als zuverlässiger Partner beim Aufbau und bei der Implementierung komplexer Cloud-Umgebungen in Anwendungen wie Office 365, Microsoft Azure oder AWS, einschließlich HashiCorp und diverser Drittanbieter-Lösungen. Anschließend können Unternehmen die Verwaltung und den Betrieb der Cloud selbst übernehmen oder Controlware im Bereich Cloud Services mit dieser Aufgabe betrauen. Das Managed Service-Modell umfasst die Bereitstellung von Software Services aus Deutschland sowie den Betrieb der Cloud-Lösungen. Nach Bedarf lassen sich passende Dienste zusammenstellen. Firmen sind somit in der Lage, sich auf den nächsten Schritt im Digitalisierungsprozess und auf ihr Kerngeschäft zu konzentrieren.

    (4.665 Zeichen inkl. Leerzeichen)

    Über Controlware GmbH

    Die Controlware GmbH, Dietzenbach, ist einer der führenden unabhängigen Systemintegratoren und Managed Service Provider in Deutschland. Das 1980 gegründete Unternehmen entwickelt, implementiert und betreibt anspruchsvolle IT-Lösungen für die Data Center-, Enterprise- und Campus-Umgebungen seiner Kunden. Das Portfolio erstreckt sich von der Beratung und Planung über Installation und Wartung bis hin zu Management, Überwachung und Betrieb von Kundeninfrastrukturen durch das firmeneigene ISO 27001-zertifizierte Customer Service Center. Zentrale Geschäftsfelder der Controlware sind die Bereiche Network Solutions, Collaboration, Information Security, Application Delivery, Data Center & Cloud sowie IT-Management. Controlware arbeitet eng mit national und international führenden Herstellern zusammen und verfügt bei den meisten dieser Partner über den höchsten Zertifizierungsgrad. Das rund 840 Mitarbeiter starke Unternehmen unterhält ein flächendeckendes Vertriebs- und Servicenetz mit 16 Standorten in DACH. Im Bereich der Nachwuchsförderung kooperiert Controlware mit renommierten deutschen Hochschulen und betreut durchgehend um die 50 Auszubildende und Studenten. Zu den Unternehmen der Controlware Gruppe zählen die Controlware GmbH, die ExperTeach GmbH, die Networkers AG und die productware GmbH.

    Firmenkontakt
    Controlware GmbH
    Stefanie Zender
    Waldstraße 92
    63128 Dietzenbach
    +49 6074 858-246
    stefanie.zender@controlware.de
    https://www.controlware.de/

    Pressekontakt
    fischerAppelt, relations GmbH
    Robert Schwarzenböck
    Otl-Aicher-Straße 64
    80807 München
    +49-89-747466-23
    controlware@fischerappelt.de
    http://www.fischerappelt.de

    Die Bildrechte liegen bei dem Verfasser der Mitteilung.

  • Wege in die Cloud

    Wege in die Cloud

    Migration Paths identifizieren und nutzen

    Cloud-Computing stellt für Unternehmen jeder Größe eine sinnvolle Alternative zur konventionellen On-Premise-IT dar. Ob die eigene IT in Teilen oder sogar ganz virtualisiert werden kann, hängt von vielen Faktoren ab. Insbesondere die Notwendigkeit, Legacy-Systeme weiterzubetreiben, erweist sich für viele Firmen als Herausforderung bei der Migration. Dabei sprechen gute Gründe für die Virtualisierung gerade solcher Systeme. Reduzierte Wartungs- und Betriebskosten sowie die Möglichkeit, virtuelle Hardware langfristig bereitzustellen, sind Argumente für eine Migration. Das Beispiel Legacy-Systeme macht aber auch deutlich: Bei der Cloud-Migration gibt es nicht die eine Lösung für alle. Aus diesem Grund ist es beim Entwurf der Migrationsstrategie wichtig, die eigenen Zielvorgaben klar zu formulieren und sich auf dieser Grundlage für einen individuellen Migration Path zu entscheiden.
    Grundsätzlich lassen sich die Migrationsvarianten Rehost, Refactor, Rearchitect, Rebuild und Replace identifizieren. Während Sie beim Rehosting Ihre Anwendungen in virtuellen Maschinen in den Rechenzentren der großen Cloud-Provider ausführen, geht mit dem Replacement die vollständige Umstellung der eigenen Infrastruktur auf Cloud- und SaaS-Lösungen einher. Selbstverständlich sind diese Pfade nicht in Stein gemeißelt, sondern bilden lediglich Varianten und Möglichkeiten des Migrationsprozesses ab. In der Praxis ist häufig eine Kombination mehrerer Migrationspfade der beste Weg, für den Sie sich entscheiden können. Gerade wenn Ihre IT über viele Jahre gewachsen ist, gibt es oft verschiedene Infrastrukturbereiche, die eigener Lösungswege bedürfen.

    Rehosting (Lift-and-Shift)
    Beim Lift-and-Shift Ansatz werden Ihre Anwendungen ohne zusätzliche Anpassung in die Cloud übertragen. Dieser Migration Path stellt für viele Unternehmen den ersten Schritt in die Cloud dar. Dazu werden einzelne Anwendungen oder zum Teil auch ganze bislang lokal betriebene Server mithilfe von VMs virtualisiert und dann in die Cloud verschoben. Auch bereits auf der eigenen Hardware in VMs genutzte Systeme lassen sich so problemlos ins Rechenzentrum eines Cloud-Providers übertragen. Die großen Cloud-Anbieter bieten für die Übertragung automatisierbare Werkzeuge wie den Azure Migrate Service oder AWS CloudEndure Migration an. Die Vorteile der Rehosting-Strategie liegen auf der Hand: Der Einstieg in die Cloud wird vereinfacht und die Kosten für die Migration sind vergleichsweise gering. Zugleich reduzieren Sie die Last auf den eigenen Servern und können sich dafür entscheiden, ältere Hardware allmählich zurückzubauen. Auf der anderen Seite profitieren Sie mit per Rehosting migrierten Programmen und Systemen noch nicht von den cloud-nativen-Funktionen der Anbieter, sondern nutzen lediglich die Remote-Infrastruktur als Dienstleistung (Infrastructure as a Service, IaaS). Damit eignet sich Lift-and-Shift vor allem für rechenintensive Anwendungen, die eigene Datenbanken nutzen und wenig oder gar keine Kommunikation mit separaten Prozessen und Systemen erfordern. Automatische Skalierung und andere cloudspezifische Optionen lassen sich mit in VMs ausgeführten Programmen allerdings nicht nutzen. Dazu sind weitgehendere Anpassungen der verwendeten Software notwendig.

    Refactoring
    Beim Refactoring geht es darum, die in Ihrem Unternehmen genutzte Software cloudfertig zu machen, ohne die Programme von Grund auf neu entwickeln zu müssen. Das kann sowohl Serveranwendungen als auch Tools auf den Rechnern der Endanwenderinnen und Endanwender betreffen. Der Hintergrund: Um die Skalierbarkeit und Flexibilität der Cloud wirklich ausnutzen zu können, müssen Anwendungen direkt auf den Cloudsystemen ausführbar sein. Während beim Rehosting Virtualisierungslösungen für ganze Systeme zum Einsatz kommen, werden beim Refactoring einzelne Programme zum Cloud-Provider verlagert. Um das möglich zu machen, wird auf Containerlösungen gesetzt. Dadurch wird die Software auf dem Host-System des Providers nutzbar, ohne dass der Source-Code der angepasst werden muss, um spezifische Cloud-APIs zu unterstützen. Refactoring stellt damit eine hervorragende Möglichkeit dar, kleinere Anwendungen und Programme für die Cloudnutzung einzurichten. Zum Einsatz kommen dabei Systeme wie Docker, Kubernetes und DC/OS. Im Vergleich zu den in den Abschnitten Rearchitect und Rebuild beschriebenen Migrationspfaden ist Refactoring wesentlich kostengünstiger und schneller durchführbar. Ähnlich wie die beiden Alternativen nutzt die so neu verpackte Software die Möglichkeiten der Platform-as-a-Service-Infrastruktur (PaaS). Stärker angepasste oder von Grund auf für Cloud-Computing-Systeme entwickelte Anwendungen skalieren jedoch besser und spielen damit ihre Stärke im Vergleich zu Programmen in Containern längerfristig aus.

    Rearchitect
    Soll vorhandene Software für die Nutzung in der Cloud maßgeblich überarbeitet werden, spricht man von Rearchitecting. Die Überarbeitung großer Teile eines Programms kann teuer sein und viel Zeit in Anspruch nehmen. Nicht selten ist es sinnvoll, stattdessen die Neuentwicklung (Rebuild) der betroffenen Anwendungen in Betracht zu ziehen. Doch insbesondere bei größeren Programmen ist mitunter die Portierung für die Systeme der Cloud-Provider die bessere Lösung. Die Vorteile gegenüber dem bloßen Refactoring liegen auf der Hand: Die portierte Anwendung kann cloud-native Funktionen nutzen, skaliert besser und ist ohne festen Server innerhalb der vom Provider bereitgestellten Infrastruktur nutzbar. Dadurch wird zum Beispiel bei Nutzung von Microsoft Azure die Verwendung plattformweiter Logikfunktionen und APIs sowie von Microservices des Azure Service Fabrics ermöglicht.
    Die Codebasis der Anwendung lässt sich so meist erheblich verringern, da wesentliche Funktionen an die Schnittstellen des Cloud-Anbieters ausgelagert werden. Die Nutzung von PaaS und IaaS wird gegenüber den Refactoring- und Rehosting-Lösungen verbessert und gestaltet sich deutlich effizienter. Die Integration von im Rearchitect-Verfahren überarbeiteten und per Rebuilding neu entwickelten Cloud-Anwendungen untereinander ist besser als zwischen Cloud-Anwendungen und per Refactoring cloudfähig gemachten Programmen. Dieser Cloud-Migration-Path stellt damit einen sinnvollen Weg dar, größere lokale Anwendungen fit für das Cloudzeitalter zu machen, ohne die Kosten einer vollständigen Neuentwicklung tragen zu müssen.

    Rebuilding
    Ist der Schritt in die Cloud erst einmal getan, bietet es sich an, neue Software von Anfang an mit Fokus auf die Möglichkeiten des gewählten Cloud-Providers auszurichten. Derartige Anwendungen sind nicht nur in der Entwicklung kostengünstiger und schneller als klassische, lokal ausgeführte Programme, sondern senken darüber hinaus die laufenden Kosten bei der Ausführung. Zudem lassen sich innovative cloudspezifische Funktionen ausschließlich mit nativ für die Cloudschnittstellen entwickelter Software vollständig nutzen. Aus diesem Grund kann es sinnvoll sein, auch bereits vorhandene Programme neu zu entwickeln. Gerade bei größeren Anwendungen kann dieses Rebuilding zunächst aber kostspieliger sein, als die bestehende Software zu übernehmen und zu portieren. Auf der anderen Seite hilft der Rebuilding-Prozess dabei, alte Zöpfe abzuschneiden und erleichtert es im Rahmen der Cloud-Migration, eine klar abgegrenzte, neue IT- und Software-Infrastruktur herauszubilden.
    Rebuilding bietet sich daher vor allem dann an, wenn innerhalb Ihres Unternehmens keine zu unübersichtliche Softwarelandschaft zum Einsatz kommt. Insbesondere Schatten-IT, also für die IT-Verantwortlichen unsichtbare Software, die in einzelnen Abteilungen verwendet wird und teils absolut essenziell ist, stellt diesbezüglich eine Herausforderung dar. Eine radikale Umstellung der Unternehmens-IT auf die Cloud muss gerade mit Blick auf solche Faktoren genau geplant werden.

    Replacement
    Replacement ist die radikalste Cloud-Migrationsstrategie. Der konsequente Einsatz von Software-as-a-Service-Angeboten (SaaS), ausgelagerter Infrastruktur und Platform-as-a-Service-Diensten ist fast nur in neugegründeten Unternehmen und Start-ups wirklich durchsetzbar. Das Replacement vorhandener Systeme auf diesem Migration Path bedeutet typischerweise, dass Mitarbeiterinnen und Mitarbeiter gewohnte Workflows aufgeben und alte Software durch neue Programme ersetzen müssen. In Unternehmen mit gewachsener IT-Infrastruktur kann es dennoch sinnvoll sein, Replacement für einzelne Softwarebereiche zu nutzen oder damit Pilotprojekte in einzelnen Abteilungen anzustoßen. Beim Eruieren der Möglichkeiten und Herausforderungen, die mit der Cloud-Umstellung einhergehen, können solche Versuche äußerst hilfreich sein.
    Beim Entwurf einer langfristigen Migrationsstrategie ist es zielführend, die beschriebenen Migrationspfade im Blick zu behalten. Auch wenn nur in den seltensten Fällen einer der Pfade allein zum Ziel führt, ist es sinnvoll, die Unterschiede, Vor- und Nachteile zu verinnerlichen. Die verschiedenen Varianten sind demnach als Werkzeugkasten zu verstehen. Entscheiden Sie sich beim Planen für genau die Tools und Methoden, die für Sie und Ihr Unternehmen am sinnvollsten sind. Je nach Abteilung, Softwarekategorie und vorhandenen Ressourcen. So gelingt es, den flüssigen, reibungslose Übergang in die Cloud zu gestalten.

    Weiter Informationen rund um das Thema finden Sie in unseren Whitepaper zum Download: https://www.rewion.de/cloud-migration-path-verschiedene-wege-eine-reise/

    Zuverlässiger Partner
    Die Firma Rewion bietet eine innovative, herstellerunabhängige und ganzheitliche Beratung im Bereich Business und IT-Infrastruktur. Weitere Informationen zu diesem Beratungsansatz und den Leistungen finden Sie auf der Internetseite www.rewion.de Im Rahmen der Beratung zum Thema Public Cloud wird auf die individuellen Wünsche und Anforderungen der Kunden eingegangen. Die Rewion GmbH ist ein zuverlässiger und erfahrener Partner in allen Fragen der Informationstechnologie und Digitalisierung.
    Wenn Sie sich gerade mit einem der vorgenannten Themen beschäftigen und Unterstützung benötigen, nehmen Sie Kontakt mit den IT-Experten von Rewion auf. Sie erhalten eine erstklassige IT-Beratung von erfahrenen Mitarbeitern, die eine Lösung für Ihre individuelle Herausforderung finden!

    Innovative, herstellerunabhängige und ganzheitliche Beratung im Bereich Business und IT-Infrastruktur zeichnen Rewion als Beratungshaus aus. Erfahrung, Kundennähe und Flexibilität sind unsere Stärken.

    Kontakt
    Rewion GmbH
    Nico Ziegler
    Fichtenweg 6
    71711 Murr
    017628119993
    nico.ziegler@rewion.de
    https://www.rewion.de/

    Die Bildrechte liegen bei dem Verfasser der Mitteilung.

  • Neues Whitepaper von ISG und Claranet: „Cloud Native“ als Designprinzip der digitalen Transformation

    Neues Whitepaper von ISG und Claranet: „Cloud Native“ als Designprinzip der digitalen Transformation

    Dynamische Cloud-Infrastrukturen, Microservices und Containertechnologien stoßen auf stark wachsende Nachfrage

    Frankfurt am Main, 24.09.2020: Der europäische Managed Service Provider Claranet hat gemeinsam mit ISG Research, einem der führenden Marktforschungs- und Beratungshäuser im Informationstechnologie-Segment, das Whitepaper „Cloud Native als Imperativ für den digitalen Wandel“ publiziert. Grundlage bildet eine Befragung von 100 mittelständischen Unternehmen aller Branchen in der DACH-Region zu ihren derzeitigen und zukünftigen (2022) Technologievorhaben in Bezug auf Cloud-Projekte.

    Die Ergebnisse von ISG zeigen zum einen Hybrid und Public Cloud als bevorzugte Betriebsmodelle. Zum anderen kristallisiert sich die Schlüsselrolle des Cloud Native- Softwaredesigns für digitale Transformationsprozesse von Unternehmen heraus, welche nicht zuletzt durch die Coronapandemie an Dringlichkeit gewonnen haben.

    „Die Erkenntnisse von ISG decken sich mit unseren Erfahrungen“, ergänzt Olaf Fischer, Geschäftsführer der Claranet GmbH. „Wir verzeichnen eine verstärkte Nachfrage nach unseren Managed Cloud Services auf Containerbasis. Sie ermöglichen, Kosten zu reduzieren, einen höheren Grad an Automatisierung und eine beschleunigte Time-to- Market von Innovationen. Damit schaffen sie die Voraussetzung, um Unternehmen schnell an veränderte Bedingungen anpassen und ihre Wirtschaftlichkeit sicherstellen zu können.“

    Das Whitepaper informiert umfassend über Cloud Native-Technologien. Zu diesen gehören Microservice-Architekturen, die es ermöglichen, Software modular zu entwickeln und auf Basis von Containern agil zu betreiben. Für die Bereitstellung, Verwaltung und Überwachung einer Containerumgebung hat sich das Open-Source-System Kubernetes als De-facto-Standard etabliert. Eine besondere Rolle für den erfolgreichen Einsatz von Cloud Native-Technologien kommt dem harmonischen Zusammenspiel von Entwicklung und Betrieb zu. Hier hilft der DevOps-Ansatz, die Fehlerrate in der Softwareentwicklung zu reduzieren und die Taktrate bei Innovationen und neuen Releases deutlich zu erhöhen. Software und Applikationen lassen sich so in den Mittelpunkt der digitalen Transformation stellen, ohne deren Betrieb zu vernachlässigen.

    Zudem beschreibt das Whitepaper weitere Aspekte, die eine gelungene Cloud Native- Einführung unterstützen: Das Pipelinemanagement, Best Practices für das Application Development und die Zusammenarbeit von IT-Anwendern und -Anbietern auf Basis des Shared-Responsibility-Modells. Die ISG-Experten empfehlen die Übernahme des Architekturdesigns und -betriebs durch spezialisierte und in puncto Cloud Native erfahrene und fortschrittliche IT-Dienstleister. Anwenderunternehmen können sich so voll auf die Produkt-User-Experience und alle geschäftsnahen Pflichten konzentrieren.

    Welche Herausforderungen und Effekte sich durch die Einführung von Cloud Native-Technologien in der Praxis ergeben, zeigt die Case Study eines großstädtischen Verkehrsbetriebs aus dem Public Sector. Durch den Einsatz von Cloud Native-Applikationen auf Basis der Google Cloud wurde eine hochmoderne Mobilitätsplattform realisiert, die große Freiheitsgrade beim Management der Microservices-Landschaft ermöglicht, klassische Managed Services umfasst und die nötige Flexibilität bietet, um auch künftigen Anforderungen gerecht zu werden.

    Welche Faktoren und Rahmenbedingungen bei der Umsetzung von Cloud Native-Projekten zu berücksichtigen sind, ist in einer Checkliste für die Cloud Native-Transformation zusammengefasst.

    Das vollständige Whitepaper steht unter www.claranet.de/whitepaper-digitaler-wandel-cloud-native zum Download zur Verfügung.
    Weitere Informationen über Claranet sind verfügbar unter www.claranet.de

    Über ISG (Information Services Group)
    ISG (Information Services Group) ist ein führendes, globales Marktforschungs- und Beratungsunternehmen im Informationstechnologie-Segment. Als zuverlässiger Geschäftspartner für über 700 Kunden, darunter die 75 der 100 weltweit größten Unternehmen, unterstützt ISG Unternehmen, öffentliche Organisationen sowie Service- und Technologie-Anbieter dabei, Operational Excellence und schnelleres Wachstum zu erzielen. Der Fokus des Unternehmens liegt auf Services im Kontext der digitalen Transformation, inklusive Automatisierung, Cloud und Daten-Analytik, des Weiteren auf Sourcing-Beratung, Managed Governance und Risk Services, Services für den Netzwerkbetrieb, Design von Technologie-Strategie und -Betrieb, Change Management sowie Marktforschung und Analysen in den Bereichen neuer Technologien. 2006 gegründet, beschäftigt ISG mit Sitz in Stamford, Connecticut, über 1.300 Experten und ist in mehr als 20 Ländern tätig. Das globale Team von ISG ist bekannt für sein innovatives Denken, seine geschätzte Stimme im Markt, tiefgehende Branchen- und Technologie-Expertise sowie weltweit führende Marktforschungs- und Analyse-Ressourcen, die auf den umfangreichsten Marktdaten der Branche basieren.
    Mehr unter research.isg-one.com

    Über Claranet
    Claranet unterstützt Unternehmen mit innovativen Cloud Hosting- und Netzwerk-Services bei ihrer Digitalisierung. Der Managed Service Provider ist darauf spezialisiert, unternehmenskritische Umgebungen auf flexiblen Cloud-Infrastrukturen zu hosten und unter höchsten Sicherheits-, Performance- und Verfügbarkeitsanforderungen agil zu betreiben. Mit über 2 200 Beschäftigten realisiert Claranet Private-, Public- und Hybrid-Hostingumgebungen. Betrieben werden die Cloud-Lösungen in 43 Rechenzentren sowie auf Public Cloud-Infrastrukturen wie AWS, Google Cloud und Azure. Kunden wie Airbus, Aktion Mensch, Leica und Gruner + Jahr vertrauen auf diese Services für ihre Portale, E-Commerce-Plattformen oder andere geschäftsrelevante Anwendungen. Die Cloud Hosting- und Netzwerk-Services von Claranet entsprechen höchsten Standards für Datenschutz, Datensicherheit, Business Continuity Management sowie Qualitätsmanagement. In Studien von renommierten Analystenhäusern belegt Claranet regelmäßig Spitzenpositionen, etwa in Gartners „Magic Quadrant 2019“ für „Data Center Outsourcing and Hybrid Infrastructure Managed Services, Europe“ sowie in dem ISG-Report „ISG Provider Lens™ – Next-Gen Private/Hybrid Cloud – Data Center Services & Solutions 2020“. Weitere Informationen gibt es unter www.claranet.de

    Firmenkontakt
    Claranet GmbH
    Dr. Ingo Rill
    Hanauer Landstr. 196
    60314 Frankfurt
    +49 (0)69-408018 215
    info@claranet.de
    https://www.claranet.de

    Pressekontakt
    Claranet GmbH
    Dr. Ingo Rill
    Hanauer Landstr. 196
    60314 Frankfurt
    +49 (0)69-408018 215
    presse@de.clara.net
    https://www.claranet.de

    Bildquelle: @ claranet

  • Professionelle Planung und Umsetzung der Cloud Transformation

    Professionelle Planung und Umsetzung der Cloud Transformation

    Cloud Computing bietet für Unternehmen jeder Größe enorme Vorteile. Doch die Transformation von konventioneller On-Premise-IT-Infrastruktur hin zu virtuellen Systemen in der Cloud geht mit Herausforderungen einher. Das baden-württembergische IT-Consulting-Unternehmen Rewion hat daher eine Roadmap etabliert, mit der vier Phasen der Cloud Transformation definiert werden. Diese ermöglicht Unternehmen aller Branchen, Public Cloud Services für die eigenen Zwecke nutzbar zu machen.

    Phase 1 – Vision und Zieldefinition
    Die erste von vier Phasen der Cloud Transformation beschäftigt sich zunächst damit, die Ziele des eigenen Unternehmens klar zu definieren. Damit können Cloud- und IT-Infrastruktur effiziente Werkzeuge zum Erreichen dieser Vorgaben werden. Eine klare Vision, wie die Firma sich in den kommenden Jahren weiterentwickeln soll, erleichtert das Design der eigenen Cloud-Strategie. Solche Ziele können gleichermaßen für das ganze Unternehmen und für einzelne Abteilungen definiert werden. Die hohe Flexibilität und einfache Skalierbarkeit der meisten Cloud-Lösungen machen eine allmähliche Cloud Transformation attraktiv. Einzelne Unternehmensbereiche können so step by step umgestaltet werden. Insbesondere bei großen Unternehmen, in denen die IT oft über viele Jahre gewachsen ist, kann ein solches Vorgehen sinnvoll sein. Auch um Insellösungen und Schatten-IT allmählich umstellen zu können. Wichtige Unternehmensbereiche können proaktiv durch Bereitstellung moderner Technik gefördert und unterstützt werden. Solche gezielten Projekte sollten jedoch von Anfang an als Teil einer einheitlich gedachten Cloud-Strategie verstanden werden, um Cloud Sprawl und Sicherheitslücken vorzubeugen.

    Phase 2 – Planung und Design
    Planung und Design der einheitlichen Strategie sollten daher Vorrang vor der Realisierung erster Projekte haben. Die Entwicklung eines smarten Cloud-Blueprints hilft bei der späteren Umsetzung, unnötige Zwischenschritte zu vermeiden. Insbesondere die Security des neuen Systems muss von Anfang an mitgedacht werden. Die kosteneffiziente Nutzung von Public Cloud Angeboten bedeutet, dass Unternehmen zur Absicherung der Daten zusätzliche Maßnahmen ergreifen müssen. Insbesondere bei der Verarbeitung sensibler Kundendaten müssen zudem rechtliche Anforderungen erfüllt werden. Zudem ist eine einheitliche Strategie für die User-Authentifizierung und Account-Verwaltung auf zentraler Ebene notwendig. Auch die langfristige Planung der On-Premise-Infrastruktur muss in dieser Transformationsphase bedacht werden. So sollte etwa die Uplink-Verfügbarkeit zu dem oder den Cloud-Providern sichergestellt und geklärt werden, inwiefern die bereits vorhandene on-Premise Infrastruktur mit der Cloud Infrastruktur zusammen wachsen kann. Das geplante Design wird in der folgenden Phase in einem Cloud Governance Framework fix definiert.

    Phase 3 – Cloud Governance Framework
    Das Cloud Governance Framework definiert verbindliche interne Regularien, die die künftige Ausgestaltung der vom Unternehmen genutzten Cloud-IT festlegen. Dazu gehören Anforderungen, die bezüglich der Sicherheit gestellt werden (Cloud Security Requirements) und intern bei der Neugestaltung und Transformation von Prozessstrukturen berücksichtigt werden müssen (Cloud Provider Policy). Zudem wird festgelegt, wie Prozesse generell in der neuen Infrastruktur abgebildet werden (Cloud Governance Policy) und wie die Mitarbeiterinnen und Mitarbeiter mit dem System interagieren sollen (Cloud Usage Policy). Auf Grundlage des Cloud Governance Frameworks können die anstehenden Entscheidungen zur Cloud Transformation nach einheitlichen Standards abgearbeitet werden. Zu den damit nutzbaren Werkzeugen gehört unter anderem der Cloud Decision Tree. In diesem werden Anforderungen und Kriterien festgeschrieben, anhand derer entschieden wird, ob ein Workload sinnvoll in die Cloud ausgelagert werden kann. Rechtliche und wirtschaftliche Aspekte werden im Cloud Decision Tree genauso berücksichtigt wie Fragen bezüglich der internen Ausgestaltung der eigenen IT-Architektur oder danach, welche Leistungen die verschiedenen Cloud-Provider in der Praxis tatsächlich liefern können.

    Phase 4 – Festigung und Expansion
    Die IT ist von jeher einer der dynamischsten Bereiche moderner Unternehmen. Mit der Adaption von Cloud-Technologien beschleunigt sich die Entwicklung weiter. Was einerseits die Agilität und Innovationsfähigkeit im Unternehmen vorantreibt, bedeutet andererseits höhere Anforderungen ans Changemanagement. Wichtiger Bestandteil jeder erfolgreichen Cloud-Transformations-Strategie ist daher die frühzeitige Antizipation weiteren Wandels in der Zukunft. Neue Technologien und Potenziale so rasch wie möglich zu identifizieren, sollte Aufgabe einer spezialisierten Gruppe von Mitarbeiterinnen und Mitarbeitern sein. Ein eigenes Cloud Competence Center, das zwischen den Fachabteilungen und der IT vermittelt, hilft, den Betrieb auch langfristig agil zu halten. Permanente Transformation und dynamische Anpassung Ihrer Infrastruktur an die sich wandelnden Anforderungen wird so zum inhärenten Baustein Ihrer IT- und Cloudstrategie.

    Zuverlässiger Partner
    Die Firma Rewion bietet eine innovative, herstellerunabhängige und ganzheitliche Beratung im Bereich Business und IT-Infrastruktur. Weitere Informationen zu diesem Beratungsansatz und den Leistungen finden Sie auf der Internetseite www.rewion.de Im Rahmen der Beratung zum Thema Cloud Transformation wird auf die individuellen Wünsche und Anforderungen der Kunden eingegangen. Die Rewion GmbH ist ein zuverlässiger und erfahrener Partner in allen Fragen der Informationstechnologie und Digitalisierung.
    Wenn Sie sich gerade mit einem der vorgenannten Themen beschäftigen und Unterstützung benötigen, nehmen Sie Kontakt mit den IT-Experten von Rewion auf. Sie erhalten eine erstklassige IT-Beratung von erfahrenen Mitarbeitern, die eine Lösung für Ihre individuelle Herausforderung finden!

    Innovative, herstellerunabhängige und ganzheitliche Beratung im Bereich Business und IT-Infrastruktur zeichnen Rewion als Beratungshaus aus. Erfahrung, Kundennähe und Flexibilität sind unsere Stärken.

    Kontakt
    Rewion GmbH
    Nico Ziegler
    Fichtenweg 6
    71711 Murr
    017628119993
    nico.ziegler@rewion.de
    https://www.rewion.de/

    Die Bildrechte liegen bei dem Verfasser der Mitteilung.

  • Radware: Layer-7-Angriffe sind die neue Normalität

    Radware: Layer-7-Angriffe sind die neue Normalität

    Seit sich die Abwehrmechanismen an einfache volumetrische DDoS-Angriffe angepasst haben und die meisten ISPs und Anbieter von Public Clouds in der Lage sind, einen grundlegenden Schutz gegen Floods auf der Netzwerkschicht zu bieten, verlegen sich Angreifer nach Angaben der Sicherheitsexperten von Radware zunehmend auf Angriffe auf die Anwendungen selbst.

    DDoS-Angriffe auf der Anwendungsebene (Layer 7) stellen laut Radware eine einzigartige Herausforderung für die DDoS-Abwehr dar, da sie einen Einblick in das Anwendungsverhalten erfordern und es schwierig ist, allein anhand des Datenverkehrs auf der Netzwerkschicht zu erkennen, ob eine Anfrage legitim oder böswillig ist. Da zudem immer mehr Web-Verkehr mit SSL und HTTPS verschlüsselt wird, ist die DDoS-Abwehr häufig nicht in der Lage, den Inhalt des Pakets selbst einzusehen. Infolgedessen sind viele Arten von DDoS-Abwehrmaßnahmen nicht in der Lage, zwischen einer legitimen Spitze im Kundenverkehr (z. B. während einer Flash-Crowd oder einer Urlaubsspitze) und einem tatsächlichen Angriff zu unterscheiden.

    Radware nennt insbesondere sieben Arten von DDoS-Angriffen auf Anwendungsebene, auf die man achten sollte:

    HTTP/S Flood

    HTTP Floods funktionieren, indem große Mengen von HTTP-Anfragen auf eine Webseite geleitet werden, um die Zielserver mit Anfragen zu überlasten. In dieser Hinsicht ähnelt diese Art von Angriff Floods auf Netzwerkebene, mit der Ausnahme, dass dieser Angriff auf der Anwendungsebene stattfindet und große Mengen von HTTP/S-GET- oder HTTP/S-POST-Anfragen verwendet.

    Da der Großteil des Internet-Verkehrs heutzutage jedoch verschlüsselt ist, handelt es sich bei den meisten HTTP-Flooding-Angriffen heutzutage tatsächlich um HTTPS-Floods. Verschlüsselte Floods sind nicht nur wegen der hohen Menge an Server-Ressourcen, die zu ihrer Bewältigung benötigt werden, viel wirksamer, sondern fügen auch eine Ebene der Komplexität hinzu: Die DDoS-Abwehr kann in der Regel den Inhalt der HTTPS-Anforderungen nicht überprüfen, ohne den gesamten Datenverkehr vollständig zu entschlüsseln.

    SSL Negotiation/Garbage Flood

    Eine SSL Garbage Flood zielt speziell auf den SSL-Handshake-Mechanismus von Web-Anwendungen, um Server-Ressourcen zu überlasten. Der SSL/TLS-Handshake-Mechanismus ist ein hochgradig asymmetrischer Prozess, der bis zu 15 Mal mehr Rechenressourcen vom eingehenden Server als vom anfragenden Client erfordert. Das bedeutet, dass Angreifer mit nur wenigen Anfragen verheerende DDoS-Angriffe starten können.

    Solche Angriffe funktionieren, indem sie eine große Anzahl von „Müll“-Anforderungen zur Initiierung von SSL/TLS-Verbindungen senden, um die Ressourcen zu überlasten und die Fähigkeit des Servers, neue Verbindungen anzunehmen, einschränken. Auch HTTPS Floods machen sich diesen Mechanismus zunutze, es gibt aber auch andere Varianten wie verschlüsselte SYN Floods oder SSL-Re-Negotiation, bei denen SSL-Handshakes kontinuierlich initiiert, abgebrochen und dann neu erstellt werden.

    Low and Slow

    Wie Flood-Attacken zielen Low- und Slow-Angriffe darauf ab, Zielserver durch Überlastung der Server-Ressourcen auszuschalten. Im Gegensatz zu Flood-Angriffen geschieht dies bei Low-and-Slow-Angriffen jedoch nicht durch das Versenden großer Datenmengen, sondern vielmehr durch den umgekehrten Ansatz, bei dem eine kleine Anzahl von Verbindungen gesendet wird, die jedoch so lange wie möglich offen bleiben, bis die Ressourcen des Zielservers erschöpft sind.

    Durch diesen Ansatz können Low-and-Slow-Angriffe unter dem Radar der traditionellen DDoS-Verteidigung auf der Grundlage von Schwellenwerten fliegen, da sie keine großen Spitzen im Datenverkehr verursachen, die durch Ratenbeschränkungen begrenzt werden können.

    Es gibt zahlreiche Varianten dieses Ansatzes, die gewöhnlich nach den Hacking-Tools benannt sind, die sie verwenden. Eine häufige Angriffsvariante ist Slowloris, das HTTP-Anfragen offen hält, indem es ständig unvollständige HTTP-Header sendet, die Anfrage aber nie abschließt. Eine andere bekannte Variante ist R.U.D.Y. („R U Dead Yet?“), die HTTP-POST-Verbindungen mit dem Server herstellt, aber das Senden von POST-Daten so lange wie möglich vermeidet und dann die Daten sehr langsam sendet, wodurch die Fähigkeit des Servers, neue Verbindungen anzunehmen, eingeschränkt wird.

    HTTP/S Bombing

    Eine „HTTP-Bombe“ verwendet die HTTP-POST-Methode, um große, komplexe POST-Anforderungen zu senden (normalerweise als XML-Datenstruktur skriptiert), die der Zielserver dann zu parsen versucht. Aufgrund der Größe und Komplexität der POST-Anforderung (d.h. der „Bombe“) wird der Server am Ende jedoch große Mengen an Rechenressourcen verbrauchen, die letztendlich erschöpft sind und den Server zum Absturz bringen. Dies kann ein besonders schwer zu verteidigender Angriff sein, da er eine hohe Anzahl von Serverressourcen mit einer begrenzten Anzahl von Verbindungen nutzen kann.

    Outbound Pipe Saturation Attack

    Im Gegensatz zu den meisten DDoS-Angriffen zielt dieser Angriffsvektor nicht auf die eingehende Traffic-Pipe des Servers, sondern vielmehr auf die Sättigung der ausgehenden Traffic-Verbindung.

    Viele webbasierte Dienste ermöglichen das Herunterladen großer Dateien wie Software-Updates, Betriebssystem-Images, Datenbanken, Anwendungsdaten usw. Selbst moderne Webseiten können sehr groß sein, wenn sie große Grafiken und andere Objekte enthalten. Angriffe auf das Herunterladen großer Dateien zielen darauf ab, die Fähigkeit des Servers zur externen Kommunikation auszuschöpfen, indem die ausgehende Verbindung mit großen Mengen ausgehender Daten gesättigt wird.

    Dies kann eine sehr effektive Art des asymmetrischen Angriffs sein, da die Anfrage nur wenige Bytes umfasst, während die Antwort Gigabytes groß sein kann. Darüber hinaus können Angriffe auf die Sättigung der ausgehenden Pipe sehr schwer zu erkennen und abzuschwächen sein, da die meisten DDoS-Abwehrmaßnahmen nur auf den eingehenden, nicht aber auf den ausgehenden Datenverkehr ausgerichtet sind.

    Bruteforce-Angriff

    Obwohl nicht ausdrücklich als solche bezeichnet, tragen viele Arten von Angriffen auf Webanwendungen auch die Merkmale einer DDoS Flood. Dies liegt daran, dass Bruteforce-Angriffe auf Anwendungen häufig mit hohen Rate arbeiten und große Mengen an Fehlermeldungen auf Anwendungsebene erzeugen, die vom Server verarbeitet und bearbeitet werden müssen.

    Beispiele für solche Bruteforce-Versuche sind das Scannen von Servern, das Knacken von Passwörtern, das Ausfüllen von Zugangsdaten und vieles mehr. Die Herausforderung beim Umgang mit solchen Arten von Bruteforce-Angriffen besteht darin, dass es ohne vorherige Verarbeitung der Anfrage normalerweise sehr schwierig ist, zu wissen, welche Anfrage legitim ist und welche nicht.

    Denial of Inventory

    Diese Art des Angriffs auf der Anwendungsebene ist an sich kein DDoS-Angriff, aber er erreicht dieselben Ziele, indem er die Fähigkeit des Unternehmens, seine Kunden zu bedienen, zunichte macht. Denial-of-Inventory-Angriffe verwenden automatisierte Bots, um in die Anwendungen des Unternehmens einzudringen und Kaufanfragen zu initiieren, ohne den Kauf tatsächlich abzuschließen. Infolgedessen wird der Bestand, der sich auf die Kaufanfrage bezieht – wie z.B. Flugtickets, Veranstaltungstickets, Lagerbestand usw. – vorübergehend gesperrt und ist für tatsächliche Kunden, die denselben Bestand kaufen möchten, nicht verfügbar.

    Obwohl diese Art von Angriff nicht auf die Traffic-Pipe oder die Server-Ressourcen selbst abzielt, erzielt er dasselbe Ergebnis, indem er legitimen Kunden den Service verweigert. Auch dies ist eine besonders schwer abzuschwächende Form des Angriffs, da es schwierig ist, einen tatsächlich zahlenden Kunden von einem Bot zu unterscheiden.

    „Angesichts der Agilität, die finanziell gut ausgestattete Hacker heute erreichen können, reichen menschliche Diagnose und Mitigation nach Angaben nicht mehr aus“, so Michael Tullius, Managing Director DACH bei Radware. „Sie erfordert Anti-DDoS-Lösungen, die maschinelles Lernen mit negativen und positiven Sicherheitsmodellen kombinieren.“ Herkömmliche DDoS-Lösungen verwenden die Limitierung von Datenraten und manuelle Signaturerstellung, was zu einer erheblichen Anzahl von False Positives führt und neue Angriffsvektoren deutlich zu spät identifiziert.

    Radware® (NASDAQ: RDWR) ist ein weltweit führender Lösungsanbieter im Bereich Anwendungsbereitstellung und Cybersicherheit für virtuelle, cloudbasierte und softwaredefinierte Rechenzentren. Das preisgekrönte Portfolio des Unternehmens sichert die unternehmensweite IT-Infrastruktur sowie kritische Anwendungen und stellt deren Verfügbarkeit sicher. Mehr als 12.500 Enterprise- und Carrier-Kunden weltweit profitieren von Radware-Lösungen zur schnellen Anpassung an Marktentwicklungen, Aufrechterhaltung der Business Continuity und Maximierung der Produktivität bei geringen Kosten.

    Weitere Informationen finden Sie unter www.radware.com

    Firmenkontakt
    Radware GmbH
    Michael Tullius
    Robert-Bosch-Str. 11a
    63225 Tel Aviv / Frankfurt am Main
    +49-6103-70657-0
    info_de@radware.com
    https://www.radware.com

    Pressekontakt
    Prolog Communications GmbH
    Achim Heinze
    Sendlinger Str. 24
    80331 München
    089 800 77-0
    radware@prolog-pr.com
    https://www.prolog-pr.com/radware

    Bildquelle: Radware GmbH

  • Claranet übernimmt Brasiliens führenden Cloud Provider CorpFlex

    Claranet übernimmt Brasiliens führenden Cloud Provider CorpFlex

    CorpFlex wird Teil der Claranet Unternehmensgruppe. Brasilien wird für Claranet größter Markt außerhalb Europas.

    Frankfurt am Main, 04.08.2020: Der globale Technologie und Managed Service Provider Claranet hat heute die Übernahme von CorpFlex bekanntgegeben. Das 1992 gegründete Unternehmen ist ein führender Anbieter von Private Cloud-Lösungen in Brasilien. Zudem verfügt CorpFlex über Kompetenzen in den Bereichen Cyber Security, Data Management und Networks. Zu den Kunden gehören Unternehmen verschiedener Branchen, darunter Gesundheitswesen, Transport, Industrie, Dienstleistung und Landwirtschaft.

    Das neue Claranet Brasilien bietet ein vielfältiges Serviceportfolio einschließlich Private, Public und Hybrid Cloud-Services sowie Cyber Security und Network Services, die nun durch die globalen Fähigkeiten von Claranet ergänzt werden.

    „Wir haben über die letzten vier Jahre in Spanien und Portugal fantastische Ergebnisse erzielt und sind durch organisches Wachstum sowie Übernahmen um mehr als 800 Prozent gewachsen. Dadurch haben wir einen Jahresumsatz von 128 Mio. Euro erzielt. Jetzt ist die Zeit gekommen, dasselbe in Brasilien zu erreichen“, kommentiert Antonio Miguel Ferreira, Head of Iberia and Latin America bei Claranet.

    Claranet, das nächstes Jahr sein 25-jähriges Jubiläum in Europa feiert, startete seine Aktivitäten in Brasilien Ende 2017 mit Fokus auf Public Cloud-Services. In dieser kurzen Zeit hat das Unternehmen namhafte brasilianische Unternehmen als Kunden gewonnen. Dazu zählen Embraer, ein führendes Raumfahrtunternehmen, TV Globo, eine führende Mediengruppe sowie die Geschäftsbank Banco Fibra.
    „Jetzt sind wir bereit, zu expandieren und uns diesen wichtigen globalen Markt zunutze zu machen. CorpFlex ist unsere erste große Investition in Brasilien und erweitert sein Potenzial im gleichen Tempo wie einige unserer größten europäischen Unternehmen. Wir verfügen in Brasilien jetzt über ein Team von über 200 Mitarbeitern, das unseren Kunden technische Unterstützung und Servicemanagement auf höchstem Niveau bietet. Mit Blick auf die Zukunft sind wir außerdem aktiv dabei, zusätzliche Möglichkeiten für organisches Wachstum und weitere Übernahmen zu prüfen“, so Ferreira weiter.

    „Der Zusammenschluss zwischen Claranet und CorpFlex ist die perfekte Möglichkeit, den Wert für unsere Kunden in Brasilien zu steigern. In Europa hat sich diese Strategie bereits bewährt. Jetzt ist es Zeit für einen Vorreiter wie CorpFlex in Brasilien, seine lokale Marktkenntnis mit der Erfahrung und Stärke eines globalen Unternehmens zu bündeln“, sagt Edivaldo Rocha, Managing Director von CorpFlex.

    Charles Nasser, Gründer und CEO der Claranet Gruppe, fügt hinzu: „Diese Kombination aus starken Public und Private Cloud-Fähigkeiten ist für unsere Kunden eine perfekte Ergänzung. Unsere Entscheidung zum Zusammenschluss der beiden Unternehmen konzentriert sich auf die Wertsteigerung für unsere Kunden und das daraus resultierende organische Wachstum. Mit dem Beitritt eines talentierten Teams zur Claranet Unternehmensgruppe ist sichergestellt, dass wir unser Portfolio stetig weiterentwickeln und genau die Technologien, Plattformen und Fähigkeiten anbieten können, die unseren Kunden am wichtigsten sind.“

    „Wir heißen das Team von CorpFlex herzlich in der Claranet Familie willkommen und freuen uns darauf, gemeinsam unsere Leistungsfähigkeit und unserer Präsenz in Brasilien auszubauen.“

    Über CorpFlex
    Das 1992 gegründete brasilianische Unternehmen CorpFlex bietet fortschrittliche Private Cloud-Lösungen für unternehmenskritische Systeme (ERP, CRM, BI und E-Commerce). Dazu gehören Zugriffssicherheit, Hochverfügbarkeit, redundante Kommunikationsverbindungen und Managed Services, um das Infrastrukturmanagement zu optimieren und Kunden einen erstklassigen Zugriff auf ihre Applikationen zu ermöglichen. Mit Hauptsitz in Alphaville (Barueri – SP) ist CorpFlex in einer Vielzahl von vertikalen Märkten in ganz Brasilien tätig und verfügt über ein breites Kundenportfolio. Weitere Informationen unter https://corpflex.com.br

    Über Claranet
    Claranet unterstützt Unternehmen mit innovativen Hosting-, Cloud- und Netzwerk-Services bei ihrer Digitalisierung. Der Managed Service Provider ist darauf spezialisiert, unternehmenskritische Umgebungen auf flexiblen Cloud-Infrastrukturen zu hosten und unter höchsten Sicherheits-, Performance- und Verfügbarkeitsanforderungen agil zu betreiben. Mit über 2 200 Mitarbeitern realisiert Claranet große Hosting-Lösungen in 43 Rechenzentren sowie auf Public Cloud-Umgebungen wie zum Beispiel von AWS, Google und Azure. Kunden wie Airbus, Aktion Mensch, Leica und Gruner + Jahr vertrauen auf diese Services für ihre Portale, E-Commerce-Plattformen oder andere geschäftsrelevante Anwendungen. Claranet wurde in Gartners „Magic Quadrant 2019“ für „Data Center Outsourcing and Hybrid Infrastructure Managed Services, Europe“ zum zweiten Mal in Folge positioniert. Dies schließt an die Positionierung des Unternehmens als ein „Leader“ in Gartners Magic Quadrant für „Managed Hybrid Cloud Hosting“ in Europa in fünf aufeinanderfolgenden Jahren von 2013 bis 2017 an. Weitere Informationen gibt es unter www.claranet.de

    Firmenkontakt
    Claranet GmbH
    Dr. Ingo Rill
    Hanauer Landstr. 196
    60314 Frankfurt
    +49 (0)69-408018 215
    info@claranet.de
    https://www.claranet.de

    Pressekontakt
    Claranet GmbH
    Dr. Ingo Rill
    Hanauer Landstr. 196
    60314 Frankfurt
    +49 (0)69-408018 215
    presse@de.clara.net
    https://www.claranet.de

    Die Bildrechte liegen bei dem Verfasser der Mitteilung.

  • Weltweite Nutzung des Internets steigt:   ThousandEyes veröffentlicht interaktive globale Live-Karte zur Visualisierung von Internetausfällen

    Weltweite Nutzung des Internets steigt: ThousandEyes veröffentlicht interaktive globale Live-Karte zur Visualisierung von Internetausfällen

    Umfassende Einblicke in Ausfälle des Internets, die Auswirkungen auf Unternehmen und Nutzer weltweit haben

    München, 24. März 2020 – ThousandEyes, das Internet- und Cloud Intelligence-Unternehmen, hat seine interaktive Global Internet Outages Map veröffentlicht, eine Visualisierung der weltweiten Lage des Internets, die auf ThousandEyes Internet Insights basiert. Die ständig verfügbare Karte bietet Unternehmen Echtzeit-Einblicke in aktuelle Ausfälle des Internets, die sich auf die User Experience von Kunden und Mitarbeitern auswirken können.

    „In den letzten Wochen wurden wir mit Anfragen von Unternehmen, Branchenanalysten und anderen Stellen überschwemmt, die in diesen schwierigen Zeiten ein besseres Verständnis des weltweiten Zustands des Internets erhalten wollten“, sagt Mohit Lad, Mitgründer und CEO von ThousandEyes. „Wir freuen uns, dass wir unsere interaktive Live-Karte kostenlos zur Verfügung stellen können, damit jeder einen Einblick in Internetausfälle weltweit erhalten kann. Damit bieten wir Unternehmen und Verbrauchern gleichermaßen eine zuverlässige Quelle, die auf realer Internet-Telemetrie statt auf Gerüchten beruht, damit sie jederzeit nachvollziehen können, was im Internet passiert.“

    Echtzeit-Einblicke in den Zustand des Internets
    Die weltweiten Datenpunkte von ThousandEyes führen täglich Milliarden von Messungen durch, um zu erkennen, wenn der Datenfluss innerhalb von ISPs, Public Cloud-Netzwerken und anderen Service Providern gestört ist. Diese Netzwerk-Telemetriedaten werden algorithmisch als Teil der zentralen Digital Experience Monitoring-Plattform von ThousandEyes analysiert. Die festgestellten Makroausfälle werden auf einer interaktiven Karte als Teil von ThousandEyes Internet Insights angezeigt.

    Während die interaktive Karte die weltweite Lage des Internets kostenlos für jeden darstellt, erhalten die Kunden von Internet Insights noch tiefere Einblicke, indem sie die Auswirkungen der Internet-Ausfälle im Makrobereich auf ihre eigene Netzwerkumgebung bezogen erkennen können. Dies ermöglicht ihnen, geschäftsrelevante Probleme mit dem Internet schnell festzustellen, zu entkräften und zu beheben sowie effektiver mit Kunden und Anbietern zu kommunizieren.

    Zahlreiche Unternehmen, die Cloud-Services nutzen, vertrauen auf die Erkenntnisse von ThousandEyes Internet Insights, um eine Makroansicht der globalen Internetausfälle in Echtzeit zu erhalten. Zu diesen Unternehmen gehören mehr als 80 der Fortune 500, mehr als 150 der Global 2000, 20 der Top 25 SaaS-Anbieter und hunderte anderer Unternehmen, die sich auf ThousandEyes verlassen, um Echtzeit-Einblicke in die digitalen Erfahrungen mit ihren kritischen vernetzten Anwendungen und Diensten zu erhalten. Auf diesen aggregierten Informationen basieren auch die umfassenden Studien von ThousandEyes, einschließlich des Public Cloud Performance Benchmark, des Digital Experience Performance Benchmark und des Global DNS Performance Benchmark.

    Jeder Interessierte kann die interaktive Live-Karte von ThousandEyes mit einer historischen Zeitleiste einsehen, die das Ausfallvolumen der letzten 24 Stunden sowie die aktuelle Lage des Internets darstellt. Die Karte ist hier verfügbar: www.thousandeyes.com/outages

    ThousandEyes, das Internet- und Cloud Intelligence-Unternehmen, ermöglicht einen auf aggregierten Informationen basierenden umfassenden Einblick in das Internet. Dies ermöglicht es Unternehmen und Dienstleistern zusammenzuarbeiten, um die Qualität für Endnutzer zu optimieren. Die Plattform von ThousandEyes nutzt dazu Informationen einer Vielzahl globaler Datenpunkte im Internet, von Datencentern, VPCs und Endanwendergeräten, um Abhängigkeiten herauszustellen, die die Servicebereitstellung und -performance beeinflussen. Dies bietet Unternehmen die Möglichkeit, die Benutzererfahrung der Kunden und Mitarbeiter von digitalen Websites, Anwendungen und Services nachzuvollziehen und zu optimieren. ThousandEyes ist von zentraler Bedeutung für die weltweit größten und am schnellsten wachsenden Unternehmen, darunter mehr als 140 der Global 2000, über 80 der Fortune 500, sechs der sieben führenden US-Banken und 20 der 25 führenden SaaS-Unternehmen. Mehr Informationen finden Sie unter www.ThousandEyes.com oder folgen Sie uns auf Twitter unter @ThousandEyes.

    Firmenkontakt
    ThousandEyes
    Susan O’Brien
    Mission Street, Suite 1700 201
    94105 San Francisco
    +1 (800) 757-1353
    sobrien@thousandeyes.com
    https://www.thousandeyes.com/de

    Pressekontakt
    HBI Helga Bailey GmbH
    Jasmin Rast
    Stefan-George-Ring 2
    81929 München
    +49 89 / 99 38 87 27
    jasmin_rast@hbi.de
    http://www.hbi.de

    Bildquelle: @ThousandEyes

  • ThousandEyes überschreitet die 100-Millionen-Dollar-Marke

    ThousandEyes überschreitet die 100-Millionen-Dollar-Marke

    Netzwerkanalyse-Spezialist legt zum Ende des Geschäftsjahres 2020 an Dynamik zu – steigende Kundenzahlen, Produktinnovationen, weltweite Expansion und Branchenauszeichnungen

    München, 11. März 2020 – ThousandEyes, das Internet- und Cloud-Intelligence-Unternehmen, das Deloitte im Jahr 2019 zu den am schnellsten wachsenden Unternehmen in Nordamerika zählte, gibt die Jahresergebnisse und die wichtigsten Erfolge seines Geschäftsjahres bekannt, das am 31.01.2020 (FY20) endete.

    Der Gesamtwert der Kundenaufträge von ThousandEyes stieg um 80 Prozent im Vergleich zum Vorjahr und überschritt damit im FY20 die Summe von 100 Millionen US-Dollar. Mehrjährige Kundenverträge machten über die Hälfte der ARR des FY20 aus, da die Einführung von SaaS, Cloud und SD-WAN weiter in die Höhe schoss und dadurch die Nachfrage nach digitalem Experience Monitoring enorm anstieg. Das Unternehmen trieb das Wachstum in jedem Schlüsselbereich voran und erzielte eine steigende Zahl von Global-Enterprise-Kunden, höhere Mitarbeiterzahlen, eine umfassende geographische Expansion, die Besetzung von zusätzlichen Schlüsselpositionen in Führungsteams und im Vorstand, zahlreiche Branchenauszeichnungen, Produktinnovationen und vieles mehr.

    „Wir haben ThousandEyes in dem Wissen aufgebaut, dass die Cloud zum neuen Rechenzentrum, das Internet zum neuen Netzwerk und SaaS zum neuen Application Stack wird. Die hohe Kundennachfrage, die Dynamik unserer Partner und die zahlreichen Branchenauszeichnungen zeigen, dass sich der Markt genau in diese Richtung entwickelt“, sagt Mohit Lad, Mitbegründer und CEO von ThousandEyes. „Ich bin sehr stolz auf die Leistung des Teams im letzten Jahr, und natürlich besonders auf das Erreichen dieses Meilensteins von 100 Millionen US-Dollar. Ich freue mich darauf zu sehen, was die Zukunft bringen wird hinsichtlich strategischer Partnerschaften, weiterer Produktinnovationen und unserer stetigen Bestrebungen, ThousandEyes zu einem Arbeitsplatz zu machen, an dem die Angestellten ihr Potential voll ausschöpfen können.“

    „Unsere Erfolge im Geschäftsjahr 2020 und die riesige Nachfrage der Kunden im DACH-Markt zeigen, welch hohe Relevanz tiefgehende Einblicke in digitale Services für weltweit agierende Unternehmen haben“, so Mathias Widler, VP Central EMEA bei ThousandEyes. „Digitale Services sind stark von der Geschwindigkeit und der Stabilität des Internets abhängig, deswegen sind umfassende Einblicke in die Struktur des Internets unabdingbar. Mithilfe der Echtzeit-Visualisierung von ThousandEyes bieten wir unseren Kunden wertvolle Hintergrundinformationen zur Performance ihrer digitalen Anwendungen, Services und Websites über jedes Netzwerk hinweg.“

    Zu den wichtigsten Highlights und Meilensteinen des FY20 von ThousandEyes gehören:

    – Zusammenarbeit mit führenden Unternehmen: ThousandEyes erzielte in puncto Kundenwachstum in allen Bereichen ein Rekordjahr und zählt nun über 80 Unternehmen der Fortune 500 und 150 der Global 2000 zu seinen Kunden, darunter Abbott Labs, C.H. Robinson, NetApp, Splunk und Wolters Kluwer, sechs der sieben führenden US-Banken, 20 der 25 führenden globalen SaaS-Unternehmen und hunderte weitere der weltgrößten Marken und am schnellsten wachsenden Start-ups.

    – Umfassende Produktinnovationen: Im FY2020 führte ThousandEyes aufgrund der beträchtlich gestiegenen Kundennachfrage zwei Produktinnovationen ein: Internet Insights analysiert frei zugängliche und weltweit genutzte Internet-Endpunkte über Milliarden von Service-Delivery-Pfaden in Echtzeit, um festzustellen, wo es zu Internet-Ausfällen kommt, die für Firmen besonders kritisch sein können. ThousandEyes Synthetics ist eine netzwerkfähige synthetische Monitoring-Lösung zur proaktiven Erkennung von Performance-Problemen moderner Applikationen.

    – Erweiterung des Vorstands und der Führungsebene: Der Vorstand von ThousandEyes wurde im FY20 um zwei Personen erweitert, nämlich Carl Eschenbach, Partner von Sequoia Capital und ehemaliger Präsident und COO von VMWare, und Godfrey Sullivan, ehemaliger Vorsitzender und Chief Executive Officer von Splunk. Mit der Einstellung von Joe Vaccaro als Vice President of Product und Matt Piercy als Leiter von EMEA Sales hat das Unternehmen sein erstklassiges Führungsteam ebenfalls ausgebaut.
    Im DACH-Bereich gab ThousandEyes die Einstellung von Mathias Widler, VP Central EMEA, und Stefano Marmonti, Regional Sales Manager DACH, bekannt. Sie werden das Wachstum in Deutschland, Österreich und der Schweiz weiter vorantreiben.

    – Globale Anerkennung in der Branche: ThousandEyes hat im FY20 weitere Auszeichnungen erhalten, hervorzuheben ist beispielsweise die Nennung in den Technology Fast 500™ von Deloitte als eines der 500 am schnellsten wachsenden Unternehmen Nordamerikas. Weitere Erfolge waren die Auszeichnung zum zweiten Mal in Folge als bestes datengesteuertes SaaS-Produkt bei den SaaS Awards 2019, für das innovativste Cloud-Produkt bzw. den innovativsten Cloud-Service bei den Computing 2019 Cloud Excellence Awards, die Auszeichnung als Cloud-Computing-Produkt des Jahres 2019 von TMCs Cloud Computing Magazine, der erstmalig verliehene Network Computing Editors Innovation Award, zum zweiten Mal in Folge die Auszeichnung als Great Place to Work und die Nennung in der Liste von Built In 2020 der besten Arbeitsplätze in Austin/USA.

    – Unternehmenswachstum: Im Februar 2019 gab ThousandEyes bekannt, dass es in einer von GV (ehemals Google Ventures) geführten Finanzierungsrunde der Serie D 50 Millionen Dollar aufgebracht hat, wodurch die gesamten finanziellen Mittel von ThousandEyes auf mehr als 110 Millionen US-Dollar gestiegen ist. Thomvest Ventures ist als neuer Investor zu den bestehenden Investoren Salesforce Ventures, Sequoia Capital, Sutter Hill Ventures und Tenaya Capital hinzugekommen.

    – Weltweites Personalwachstum und internationale Expansion: Die Zahl der Angestellten ist um mehr als 40 Prozent auf weltweit fast 400 gestiegen, und zwar an den neuen Standorten in Deutschland, Australien, und den Niederlanden sowie an den bestehenden Standorten in San Francisco, London, Dublin, Austin, New York und Tokyo.

    – Erkennung von globalen Netzwerkausfällen: Im FY20 nutzte ThousandEyes sein globales Netzwerk von Datenpunkten, um die Netzwerk- und Applikationsleistung weltweit zu überwachen und hat dadurch wesentliche Ausfälle und Service-Unterbrechungen erkannt und lokalisiert, die die Zahl der für die User verfügbaren Services erheblich reduziert haben. Vor allem im Sommer 2019 lieferte ThousandEyes Analysen der Netzwerkausfälle bei Google Cloud Platform, WhatsApp, Cloudflare und Apple Services, sowie beim globalen Ausfall von Facebook im März 2019, beim DDoS-Angriff auf Wikipedia und bei der Störung bei China Telecom, die Kollateralschäden an Applikationen weltweit zur Folge hatten.

    – Umfassende Studie zur Cloud-Performance und Expertenanalyse: Zum zweiten Mal in Folge hat das Unternehmen den ThousandEyes Cloud Performance Benchmark Report veröffentlicht. In der Studie wurden die globale Netzwerkleistung und die Konnektivitätsunterschiede zwischen den fünf größten Anbietern von Public Clouds – Amazon Web Services (AWS), Google Cloud Platform (GCP), Microsoft Azure, Alibaba Cloud und IBM Cloud – miteinander verglichen. Im FY20 wurde auch zum ersten Mal der Digital Experience Performance Benchmark Report vorgestellt, eine vergleichende Analyse der Web-, Infrastruktur- und Netzwerkleistung der 20 größten digitalen Einzelhandels-, Reise- und Medien-Webseiten der USA.

    ThousandEyes, das Internet- und Cloud Intelligence-Unternehmen, ermöglicht einen auf aggregierten Informationen basierenden umfassenden Einblick in das Internet. Dies ermöglicht es Unternehmen und Dienstleistern zusammenzuarbeiten, um die Qualität für Endnutzer zu optimieren. Die Plattform von ThousandEyes nutzt dazu Informationen einer Vielzahl globaler Datenpunkte im Internet, von Datencentern, VPCs und Endanwendergeräten, um Abhängigkeiten herauszustellen, die die Servicebereitstellung und -performance beeinflussen. Dies bietet Unternehmen die Möglichkeit, die Benutzererfahrung der Kunden und Mitarbeiter von digitalen Websites, Anwendungen und Services nachzuvollziehen und zu optimieren. ThousandEyes ist von zentraler Bedeutung für die weltweit größten und am schnellsten wachsenden Unternehmen, darunter mehr als 140 der Global 2000, über 80 der Fortune 500, sechs der sieben führenden US-Banken und 20 der 25 führenden SaaS-Unternehmen. Mehr Informationen finden Sie unter www.ThousandEyes.com oder folgen Sie uns auf Twitter unter @ThousandEyes.

    Firmenkontakt
    ThousandEyes
    Ben Stricker
    Mission Street, Suite 1700 201
    94105 San Francisco
    +1 (800) 757-1353
    bstricker@thousandeyes.com
    https://www.thousandeyes.com/de

    Pressekontakt
    HBI Helga Bailey GmbH
    Jasmin Rast
    Stefan-George-Ring 2
    81929 München
    +49 89 / 99 38 87 27
    jasmin_rast@hbi.de
    http://www.hbi.de

    Bildquelle: @ ThousandEyes