Schlagwort: Machine Learning

  • Neo4j Graphdatenbank sprengt Skalierungsgrenze  mit mehr als einer Billion Datenbeziehungen

    Neo4j Graphdatenbank sprengt Skalierungsgrenze mit mehr als einer Billion Datenbeziehungen

    Highlights der Entwicklerkonferenz NODES 2021: Neo4j Fabric, Neo4j 4.3, Neo4j Aura Free und mehr

    München, 22. Juni 2021 – Auf der Entwicklerkonferenz NODES 2021 stellte Neo4j ein für alle Mal die Skalierbarkeit seiner Graphdatenbank unter Beweis. Im Rahmen der Keynote von CEO Emil Eifrem führte das Neo4-Team eine Echtzeit-Abfrage in einem Graphen mit über 200 Milliarden Knoten und mehr als 1 Billion Beziehungen (Kanten) durch. Die Abfrage lief auf über tausend Rechnern.

    Die enorme Skalierbarkeit wird deutlich, rückt man die Zahlen in einen greifbaren Kontext: So könnte ein Graph mit einer Billion Kanten die sozialen Beziehungen der gesamten Weltbevölkerung realitätsnah abbilden. Die Antwortzeiten betragen dabei nur wenige Millisekunden.

    Abfragen dieses Ausmaßes werden angesichts Künstlicher Intelligenz (KI) und Machine Learning zunehmend realistischer. Den meisten Unternehmen fehlen jedoch die notwendige Plattform und Produktionsumgebung, um große Mengen vernetzter Daten effektiv speichern, managen und nutzen zu können. Graphdatenbanken gelten hier als die Technologie schlechthin, um die stetig wachsenden Daten-Anforderungen zu erfüllen.

    Die Technologie hinter der Skalierbarkeit der Neo4j-Graphdatenbank heißt Neo4j Fabric. Fabric ermöglicht es, Datensätze zu teilen und unbegrenzt horizontal zu skalieren. Im Gegensatz zu anderen Anbietern müssen Anwender dabei keine Einbußen hinsichtlich Lese- und Schreibperformance in Kauf nehmen.

    Weitere NODES 2021 Highlights
    In seiner Key Note stellte Emil Eifrem, CEO und Mitbegründer von Neo4j, außerdem das Release Neo4j 4.3 vor und kündigte eine kostenlose Version der Cloud-Graphdatenbank an: Neo4j Aura Free. Die Graphdatenbank-as-a-Service soll zukünftig bis zu einer Anzahl von 50.000 Knoten and 175.000 Beziehungen kostenfrei zur Verfügung stehen. Zu den weiteren Highlights gehören neue Features im Visualisierungstool Neo4j Bloom und der Graph Data Science Library.

    „Künstliche Intelligenz bzw. Machine Learning ist momentan das Top-Thema der Branche. Laut Gartner wird bei 50% aller Anfragen von Unternehmen zu KI auch automatisch die Frage nach dem Einsatz von Graphtechnologie gestellt. Das zeigt sehr deutlich, wohin die Reise in Sachen Graphen geht“, erklärt Eifrem. „Graphtechnologie ist heute längst kein Feature oder eine API mehr, sondern stellt eine eigene Kategorie an Datenbanken dar. Neo4j hat gemeinsam mit seiner Community diese Kategorie aufgebaut und nimmt darin die Führungsposition ein. Diesen Vorsprung wollen wir weiter ausbauen.“

    Ein deutliches Zeichen dafür war in diesem Zusammenhang die Nachricht vom Abschluss der Serie F-Finanzierungsrunde mit 325 Millionen US-Dollar. Die Runde stellt die bislang größte Investition in eine Datenbanktechnologie dar und hebt den Marktwert von Neo4j auf über 2 Mrd. US-Dollar. Mit der Investition plant das Unternehmen, vor allem den Bereich Graph Data Science weiterzuentwickeln, das Cloud-Portfolio auszubauen und die Marktpräsenz sowie das Graph-Ökosystem zu stärken.

    Insgesamt berichteten auf der NODES 2021 Entwickler und Data Architects in 50 Sessions über aktuelle Graph-Projekte und Lösungen. Dazu gehörten unter anderem Datenexperten von BASF, Fujitsu Research Labs oder Apiax. Für die virtuelle Konferenz meldeten sich mehr als 13.000 Graph-Enthusiasten aus aller Welt an.

    Alle Vorträge können als Video auf der Neo4j Webseite angesehen werden. Details zur Skalierungs-Demo sind öffentlich auf Github verfügbar und können im Blog „Behind the Scenes of Creating the World“ auf der Neo4j Webseite nachgelesen werden.

    Neo4j ist der führende Anbieter von Graphtechnologie. Die weltweit am häufigsten eingesetzte Graphdatenbank unterstützt Unternehmen wie Deutsches Zentrum für Diabetesforschung e.V., NASA, UBS und Daimler darin, Zusammenhänge zwischen Menschen, Prozessen, Standorten und Systemen aufzudecken und datengestützte Vorhersagen zu treffen. Der Fokus auf Datenbeziehungen ermöglicht es, smarte Anwendungen zu entwickeln und die Herausforderungen vernetzter Daten zu meistern – von Analytics und künstlicher Intelligenz über Betrugserkennung und Echtzeit-Empfehlungen bis hin zu Knowledge Graphen. Weitere Informationen unter Neo4j.com und @Neo4j.

    Firmenkontakt
    Neo4j
    Sabine Listl
    Prinzregentenstraße 89
    81675 München
    089 41 77 61 16
    neo4j@lucyturpin.com
    http://www.neo4j.com

    Pressekontakt
    Lucy Turpin Communications
    Sabine Listl
    Prinzregentenstraße 89
    81675 München
    089 41 77 61 16
    neo4j@lucyturpin.com
    http://www.lucyturpin.de

    Bildquelle: Neo4j

  • KI-unterstützte Leitstellen und Lagemanagement der Zukunft: Apheris startet mit Arbeiten für Gaia-X-Projekt „SPELL“

    KI-unterstützte Leitstellen und Lagemanagement der Zukunft: Apheris startet mit Arbeiten für Gaia-X-Projekt „SPELL“

    Core Privacy Engine: Austausch und Analyse von verteilten Daten unter Wahrung der Privatsphäre

    Das Berliner Unternehmen Apheris AI GmbH ist Partner des vom Bundesministerium für Wirtschaft und Energie geförderten Gaia-X Forschungsprojekts „SPELL“ (Semantische Plattform zur intelligenten Entscheidungs- und Einsatzunterstützung in Leitstellen und beim Lagemanagement). Apheris bringt seine Core Privacy Engine ein, die für eine sichere und die Privatsphäre erhaltende Nutzung von Machine Learning-Verfahren auf verteilten Daten sorgt, und ergänzt diese um erforderliche Zusatzmodule. So trägt das Unternehmen dazu bei, dass Krisensituationen künftig schneller beherrschbar werden.

    Krisensituationen, wie Pandemien oder Großschadenereignisse, haben tiefgreifende Auswirkungen auf viele Wirtschafts- und Lebensbereiche und erfordern daher eine situationsspezifische, intersektorale und interorganisationale Zusammenarbeit von unterschiedlichsten Leitstellen und Lagezentren. Die Interoperabilität der beteiligten Akteure und ihrer IT-Systeme ist dabei gegenwärtig sehr eingeschränkt, so dass eine effiziente Gestaltung von Maßnahmen zur Gefahrenabwehr, Nothilfe, Schutz von kritischen Infrastrukturen sowie zur Informationsversorgung der Bevölkerung nur schwer oder verspätet gewährleistet ist. Mittels Künstlicher Intelligenz (KI) und Datentechnologien ist es möglich, einen deutlichen Zeitgewinn zu erzielen und so die Lage schneller beherrschbar sowie wirtschaftliche und gesellschaftliche Systeme resilienter zu machen.

    „SPELL“: Schaffung einer semantischen Plattform
    Das Projekt „SPELL“ hat die Schaffung einer semantischen Plattform zum Ziel, die verschiedenste Datenquellen datenschutzkonform und zugriffskontrolliert integriert, darauf aufbauend KI-basierte Mehrwertdienste (KID) zur Entscheidungs- und Einsatzunterstützung in Leitstellen und Lagezentren bereitstellt und diese in unterschiedlichen Use Cases umsetzt und erprobt. Mit „SPELL“ wird ein Ökosystem geschaffen, das sich an den Leitprinzipien von Gaia-X* ausrichtet: Schutz der Datensouveränität, der Datenverfügbarkeit, der Interoperabilität, der Portabilität, Förderung der Transparenz und der fairen Teilhabe.

    Nutzung der Apheris Core Privacy Engine
    Apheris stellt dem Projekt seine Core Privacy Engine zur Verfügung. Die Engine ermöglicht den sicheren Austausch und die Analyse von verteilt vorliegenden Daten unter Wahrung der Privatsphäre. Zudem wird die Engine von Apheris an die Anforderungen der im „SPELL“-Projekt verfolgten Anwendungsszenarien angepasst und um die entsprechenden Zusatzmodule erweitert. Die Apheris Core Privacy Engine basiert auf hochmodernen Technologien. Sie wurde von einem Team erstklassiger Forscher an der Schnittstelle von Datenschutz, Kryptographie und Informatik mit langjähriger Erfahrung in der Software- und Produktentwicklung entwickelt. „Die Corona-Pandemie hat deutlich gemacht, dass schnelles Reagieren in Krisensituationen wichtig ist und dass die nötigen Plattformen dafür geschaffen werden müssen. Wir bringen uns aus Überzeugung in das „SPELL“-Projekt ein und freuen uns, in den nächsten drei Jahren mit unserer Engine und unserem Fachwissen einen Beitrag für eine bessere interorganisationale Zusammenarbeit leisten zu können“, erklärt Dr. Michael Höh, Mitgründer und CTO bei Apheris.

    Starke Projektpartner
    Apheris ist Teil einer Gruppe von zwölf Projektpartnern, die in ihren jeweiligen Feldern auf exzellente Vorarbeiten verweisen können. Dabei sind das Deutsches Forschungszentrum für Künstliche Intelligenz als Konsortialführer, die Advancis Software & Services, die BASF SE, die Corevas GmbH & Co. KG, der DRK-Landesverband Rheinland-Pfalz e.V., die Empolis Information Management GmbH, die Fraunhofer-Gesellschaft e.V. mit ihren Instituten IESE und Fokus, die ISE Informatikgesellschaft für Software-Entwicklung mbH, die LiveReader GmbH, die Technische Universität Darmstadt, der VfS Verband für Sicherheitstechnik sowie weitere assoziierte Partnerorganisationen.

    * Gaia-X ist ein Projekt zum Aufbau eines leistungs- und wettbewerbsfähigen, sicheren und vertrauenswürdigen Dateninfrastruktur-Ökosystems mit dem Ziel, höchste Standards der Datensouveränität für alle Teilnehmer zu schaffen.

    Bild:
    Dr. Michael Höh, Mitgründer und CTO apheris (© apheris)

    Über Apheris
    Apheris ermöglicht die sichere Kollaboration von mehreren Unternehmen an angewandter Künstlicher Intelligenz und Datenanalysen, ohne den Datenschutz zu gefährden. Über die Apheris-Plattform werden neue Umsatzquellen mit digitalen Geschäftsmodellen erschlossen und Datenbestände geografisch und geschäftsbereichsübergreifend nutzbar gemacht. Ein föderierter Ansatz erlaubt die Zusammenarbeit an verteilten Daten und schafft die Voraussetzungen für digitale Ökosysteme im großen Maßstab. Dabei ist sichergestellt, dass alle Parteien strengste Datenschutz- und Gesetzesrichtlinien einhalten. Apheris ist Partnerunternehmen von Gaia-X, der europäischen Initiative für eine vernetzte Dateninfrastruktur. Zu den derzeitigen Kunden zählen Top 10-Pharma- und Gesundheitsunternehmen. Das 2019 gegründete Unternehmen wird von Top-Investoren und führenden Vordenkern der Tech-Industrie unterstützt, darunter LocalGlobe, Dig Ventures, dem Family-Office des MuleSoft-Gründers Ross Mason, sowie dem Twitter-Chairman und ehemaligen Google-CFO Patrick Pichette.

    Mehr über Apheris: https://www.apheris.com

    Pressekontakt
    apheris AI GmbH
    Nicolas Sartor, Marketing Director
    Lohmühlenstraße 65
    12435 Berlin
    Tel.: +49 176 64235869
    Mail: n.sartor@apheris.com
    https://www.apheris.com

    Über Apheris
    Apheris ermöglicht die sichere Kollaboration von mehreren Unternehmen an angewandter Künstlicher Intelligenz und Datenanalysen, ohne den Datenschutz zu gefährden. Über die Apheris-Plattform werden neue Umsatzquellen mit digitalen Geschäftsmodellen erschlossen und Datenbestände geografisch und geschäftsbereichsübergreifend nutzbar gemacht. Ein föderierter Ansatz erlaubt die Zusammenarbeit an verteilten Daten und schafft die Voraussetzungen für digitale Ökosysteme im großen Maßstab. Dabei ist sichergestellt, dass alle Parteien strengste Datenschutz- und Gesetzesrichtlinien einhalten. Apheris ist Partnerunternehmen von Gaia-X, der europäischen Initiative für eine vernetzte Dateninfrastruktur. Zu den derzeitigen Kunden zählen Top 10-Pharma- und Gesundheitsunternehmen. Das 2019 gegründete Unternehmen wird von Top-Investoren und führenden Vordenkern der Tech-Industrie unterstützt, darunter LocalGlobe, Dig Ventures, dem Family-Office des MuleSoft-Gründers Ross Mason, sowie dem Twitter-Chairman und ehemaligen Google-CFO Patrick Pichette.
    Mehr über Apheris: https://www.apheris.com

    Kontakt
    Apheris AI GmbH
    Nicolas Sartor
    Lohmühlenstraße 65
    12435 Berlin
    +49 176 64235869
    n.sartor@aheris.com
    https://www.apheris.com

    Bildquelle: Apheris

  • BusinessCode bestellt weiteren Geschäftsführer

    BusinessCode bestellt weiteren Geschäftsführer

    CTO Martin Bernemann ist am 1.2.2021 zum zweiten Geschäftsführer berufen worden.

    10. Februar 2021 Nachdem das Bonner Softwarehaus BusinessCode mit seiner innovativen Tracking-Lösung für die Logistikbranche an den Markt gegangen ist, wurde nun CTO Martin Bernemann zum zweiten Geschäftsführer bestellt.

    „Martin Bernemann, der bisher den Bereich Softwareentwicklung und Technologie als CTO verantwortete, wird dies ab jetzt in seiner Funktion als Geschäftsführer tun“, erläutert Martin Schulze, CEO, die Berufung des neuen Geschäftsführers. „Die Berufung von Martin Bernemann spiegelt die Bedeutung von technologischer Weiterentwicklung für unsere Firma wider. Als Entwickler der hauseigenen BCD-Suite und weiterer technologischer Grundlagen für unser erfolgreiches Geschäftsmodell hat Martin Bernemann BusinessCode von Beginn seiner Tätigkeit an maßgeblich geprägt“, betont Schulze.

    Bernemann startete in Bonn als Softwareentwickler bei einem Unternehmen, das auf Rechtesysteme für Banken und Versicherungen spezialisiert war. Hier lernte er den Gründer von BusinessCode, Hanno Gehron kennen und schätzen. Bevor der Bonner 2002 zu BusinessCode kam, sammelte er Auslandserfahrung in San Francisco, u.a. als Workflow Engineer. So entwickelte der IT-Fachmann Lösungen, die u.a. bei Cisco, Intel, sowie IMTS im Einsatz sind. „Zeit und Arbeitsweise in und um Silicon Valley sind für mich extrem inspirierend gewesen. Die dort vorhandene Dichte an Knowhow ist bis heute beeindruckend“, betont Bernemann.

    Basierend auf diesen Erfahrungen hat der Informatiker bei BusinessCode maßgeblich die Entwicklung der eigenen Technologie und ihren Einsatz in Projekten geprägt. „Die kontinuierliche Weiterentwicklung unserer hauseigenen technologischen Basis mit Themen wie Cloud und Machine Learning wird meine zentrale Aufgabe sein, auf die ich mich freue“, erläutert Bernemann.

    Diese Berufung ist ein klares Signal für die zukunftsorientierte Positionierung des Unternehmens auf dem Markt. Die weltweit beheimateten namhaften Kunden, die tagtäglich mit Lösungen von BusinessCode arbeiten, werden auch zukünftig mit Innovationen aus Bonn versorgt werden.

    Seit über 20 Jahren steht BusinessCode für maßgeschneiderte IT-Lösungen. Tagtäglich arbeiten mehr als 20.000 User national und international mit Software des Bonner IT-Dienstleisters. Nähe und Erreichbarkeit zeichnen BusinessCode ebenso aus wie Know-how und Kompetenz der langjährig im Unternehmen tätigen Mitarbeiter.
    Die Basis der individuellen und auf die Kundenwünsche abgestellten IT-Lösungen, bildet die hauseigene Software-Library, sie ist das Ergebnis der langjährigen Arbeitsweise von BusinessCode. Je nach Aufgabenstellung und Kundenanforderung wird die Softwarelösung entsprechend flexibel gestaltet, um erweiterbar zu sein. Dies sorgt für eine weitgehende Unabhängigkeit der Kunden.
    Modernste Technologien gepaart mit jahrzehntelanger Erfahrung und bewährten Lösungsideen, arbeitet BusinessCode daran, seine Kunden national wie international noch erfolgreicher zu machen.

    Firmenkontakt
    BusinessCode
    Martin Schulze
    Am Hof 28
    53113 Bonn
    +49 (0)228 – 33885- 211
    info@business-code.de
    http://www.business-code.de

    Pressekontakt
    SCL – Strategy Communication Lötters
    Dr. Christine Lötters
    Zur Marterkapelle 30
    53127 Bonn
    0228.20947820
    Post@sc-loetters.de
    http://www.sc-loetters.de

    Die Bildrechte liegen bei dem Verfasser der Mitteilung.

  • Münchner Startup erhält 6-stellige Förderung für Workflow-Automation

    Münchner Startup erhält 6-stellige Förderung für Workflow-Automation

    München, 3. Februar 2021: Mittelständische Unternehmen stehen nach den ersten Digitalisierungsschritten der letzten Jahre aktuell vor einer neuen und deutlich anspruchsvolleren Herausforderung: Die zahlreichen digitalen Anwendungen und Daten flexibel und sicher miteinander sprechen zu lassen, um Geschäftsprozesse systemübergreifend und kosteneffizient zu automatisieren. Dies ist erforderlich, um IT-Sicherheitslücken und DSGVO-Strafzahlungen zu vermeiden, die gestiegenen Kundenerwartungen zu erfüllen und hinsichtlich der Wettbewerbsfähigkeit im internationalen Wettbewerb nicht ins Hintertreffen zu geraten. Bislang gibt es keine Lösung aus dem deutschsprachigen Raum, die dieses Problem ganzheitlich adressiert. PIPEFORCE, ein Münchner Startup, löst das Problem durch eine Low-Code Cloud-Native-Plattform für Integration und Hyperautomatisierung unter Verwendung von maschinellem Lernen, Künstlicher Intelligenz (KI) und Robot Process Automation (RPA). Die Entwicklung der Plattform wird nun vom Freistaat Bayern mit einer sechsstelligen Summe gefördert und dadurch noch schneller vorangetrieben.

    DAS ERREICHT DIE LÖSUNG

    Gegenstand des geförderten Forschungsprojektes ist die Weiterentwicklung der Cloud-Native-Plattform PIPEFORCE durch eine weltweit einmalige autonome Kopplung von dezentral operierenden Workflows und Services. Vereinfacht gesagt geht es darum, dass sich Schnittstellen und Prozesse in der PIPEFORCE Cloud – ähnlich wie in neuronalen Netzen – bis zu einem bestimmten Grad vollständig autonom finden und verknüpfen und dadurch Kosten für Entwicklung und Wartung erheblich reduziert werden können.

    DAS BIETET DIE PLATTFORM AKTUELL

    Die Serverless-Plattform ermöglicht aktuell bereits die Erstellung von automatisierten Workflows über verschiedene Systeme hinweg. Hierbei werden die relevanten Systeme und Anwendungen (aus der Cloud und der lokalen IT-Infrastruktur) über einfach konfigurierbare Schnittstellen an PIPEFORCE angebunden. Im zweiten Schritt kann per Low-Code z. B. definiert werden, welche Daten bzw. Dokumente aus einem System genutzt werden, welche Transformationen durchgeführt werden sollen oder welche manuellen User-Eingaben und Formulare für den Workflow erforderlich sind. Die Plattform adressiert dabei besonders die Anforderungen von sicherheitsbewussten mittelständischen Unternehmen und deren IT-Dienstleistern. Wichtige Aspekte sind hierbei die Konfiguration der Workflows ohne Programmierung und damit ohne tiefe Entwicklungs-Expertise, der Serverless-Ansatz, so dass sich der Kunde nicht um die Konfiguration des Backends kümmern muss und die Möglichkeit zur Erstellung von Ende-zu-Ende verschlüsselten Workflows. Die Datenhaltung und Datenverarbeitung erfolgt in einem deutschen Rechenzentrum.

    WARUM AUTONOME KOPPLUNG?

    Während die verschiedenen Kundensysteme, die an einem Workflow beteiligt sind, aktuell noch manuell über Standardschnittstellen (APIs) an die Plattform angebunden und gemappt werden, soll dies in Zukunft verstärkt autonom erfolgen. Hierfür hat der Freistaat Bayern im Rahmen des BayTOU-Programms Forschungsgelder zur Verfügung gestellt.

    Anstatt der festen Kopplung der Systeme über APIs soll zukünftig eine dynamische Kopplung über Messaging erfolgen, wobei die Message-Keys, der erforderliche Payload und Datenmapping sowie -konvertierung teilweise autonom über Machine Learning festgelegt werden. Der manuelle (Projekt-) Aufwand und die damit verbundenen Kosten für die Integration von Systemen und die Erstellung von systemübergreifenden, dezentralen Workflows, wurden dadurch auf einen Bruchteil reduziert.

    Durch diese revolutionäre technische Innovation, kann die Digitalisierung in Unternehmen signifikant beschleunigt und nachhaltig optimiert werden. Den Unternehmen stehen dabei völlig neue Möglichkeiten zur Verfugung, ihre Geschäftsprozesse dynamisch abzubilden und kostengünstig umzusetzen.

    HINTERGRUND UND STATUS QUO

    Unternehmen stehen aktuell mehr denn je vor der Herausforderung, ihre Geschäftsprozesse durchgehend zu digitalisieren und optimieren zu müssen, um ihre digitalen Daten (z. B. aus der Cloud, IOT und internen Systemen) optimal zu nutzen und anwenderfreundliche Services und Produkte für ihre Kunden zur Verfügung zu stellen. Aktuell erfolgt dies meist über proprietäre (geschlossene), monolithische Systeme, mit denen häufig nur abgeschlossene Bereiche an zentraler Stelle digitalisiert werden können. Es entstehen dadurch Prozess- und Daten-Silos. Dies macht es äußerst kompliziert, Workflows system- und abteilungsübergreifend umzusetzen.

    Für digitale Prozesse über Systemgrenzen hinweg müssen die verschiedenen Systeme und Anwendungen aktuell aufwändig über Projekte miteinander verknüpft werden. Mit jeder Verknüpfung und mit jeder Schnittstelle steigen dabei Komplexität, Störanfälligkeit und Wartungsaufwand erheblich an. Außerdem fuhrt dies bei einem zentralisierten Ansatz dazu, dass Ressourcen- und Prozess-Engpässe entstehen. Auf Basis des aktuellen Stands der Technik, kann die Zielsetzung deutscher Unternehmen in der IT nur schwer umgesetzt werden. Diese beinhaltet in der Regel: Eine deutliche Senkung der Kosten für die Integration neuer Systeme und digitaler Services, eine Erhöhung der Innovationsfähigkeit und Flexibilität sowie eine ausgeprägte Kundenorientierung durch entsprechende digitale Produkte und Services.

    PIPEFORCE ist ein innovatives Softwareunternehmen mit Sitz im Herzen von München. Das Team bietet einzigartige Expertise in den Bereichen Verschlüsselung, Datenintegration und Prozessautomatisierung und unterstützt zusammen mit seinen Partnern mittelständische Unternehmen bei der Digitalisierung ihrer Geschäftsprozesse. PIPEFORCE steht für eine offene, zukunftsfähige und leistungsstarke Plattform, die mit den Bedürfnissen ihrer Kunden wächst und sich flexibel an die Marktanforderungen anpasst.

    Kontakt
    Logabit GmbH
    Simon Ochs
    Agnes-Pockels-Bogen 1
    80992 München
    089 244 187 46 0
    simon.ochs@logabit.com
    http://pipeforce.io

    Die Bildrechte liegen bei dem Verfasser der Mitteilung.

  • Reply unterzeichnet Vereinbarung mit AWS zur Entwicklung von Branchenlösungen

    Reply vereinbart eine strategische Zusammenarbeit mit Amazon Web Services (AWS), um Branchenlösungen für Kunden zu entwickeln

    Reply, spezialisiert auf neue Kommunikationskanäle und digitale Medien, vereinbart eine strategische Zusammenarbeit mit Amazon Web Services (AWS), um Branchenlösungen für Kunden aus den Bereichen Finanzdienstleistung, Fertigung, Automotive, Einzelhandel, Energie und Telekommunikation zu entwickeln.

    Durch diese Vereinbarung können die Reply Unternehmen, die sich der AWS-Technologie verschrieben haben – Comsysto Reply, Data Reply, Sense Reply und Storm Reply -, mit Unternehmen aller Größenordnungen zusammenarbeiten und mit fortschrittlichen, sicheren AWS-Technologien innovative Verbesserungen von Geschäftsprozessen erzielen.

    Die auf AWS spezialisierten Unternehmen von Reply bieten Lösungen für stark regulierte Finanzdienstleistungskunden an und beraten sie strategisch. Sicherheitsbezogene Methoden-Frameworks helfen dabei, Legacy-Plattformen und -Lösungen zu modernisieren, die Anwendungsfälle von Betrug und Finanzkriminalität angehen. Kunden aus der Industrie- und Fertigungsbranche erhalten die nötigen Tools, um Internet of Things (IoT)-Lösungen in Kombination mit Daten- und Analysediensten zu implementieren. Hierüber können Fertigungsprozesse mit vorausschauender Wartung optimiert, die Qualitätssicherung von Produkten mithilfe von Künstlicher Intelligenz und Machine Learning verbessert sowie cloudbasierte Lösungen für vernetzte Fahrzeuge bereitgestellt werden.

    „Mit unseren Unternehmen Comsysto Reply, Data Reply, Sense Reply und Storm Reply können wir fortschrittliche und sichere Lösungen anbieten, um die Geschäfte unserer Kunden zu transformieren“, kommentiert Filippo Rizzante, CTO von Reply. „Wir sind sehr erfreut über das Potenzial, das diese neue Vereinbarung unseren Kunden bringen wird, und wie sie unsere Beziehung zu AWS auf die nächste Stufe hebt.“

    Andy Isherwood, Managing Director EMEA, Amazon Web Services ergänzt: „Wir freuen uns über die konsequenten Investitionen von Reply, um Kunden weltweit bei der schnellen Umstellung ihrer Organisationen auf AWS zu unterstützen. Mit dieser Vereinbarung profitieren Reply-Bestandskunden von den Investitionen, die unsere beiden Organisationen tätigen. Neukunden steht ein APN Premium-Beratungspartner zur Seite, der über eine tiefgreifende AWS-Expertise verfügt und in der Lage ist, Unternehmen bei der digitalen Transformation zu unterstützen.“

    Das größte italienische PayTech-Unternehmen Nexi – führend im Bereich digitaler Zahlungen – gehört zu den Kunden, die eine innovative Cloud-basierte Lösung mit AWS und Reply eingeführt haben. „In unserem Cloud-Transformationsprozess suchten wir nach einem Partner mit Erfahrung in der Datenanalyse in der Cloud und der Fähigkeit, Lösungen in einer Produktionsumgebung zu liefern“, sagt Stefano Gatti, Head of Data & Analytics, Nexi. „Reply ist ein Unternehmen, das uns in diesem Prozess mit einem profunden Wissen zu den technologischen Aspekten und des Cloud-Anbieters unserer Wahl unterstützt.“

    Verantwortlicher für diese Pressemitteilung:

    Reply
    Frau Sandra Dennhardt
    — —
    — —
    Deutschland

    fon ..: —
    web ..: http://www.reply.com/de/
    email : s.dennhardt@reply.com

    Reply [MTA, STAR: REY, ISIN: IT0005282865] ist spezialisiert auf die Entwicklung und Implementierung von Lösungen basierend auf neuen Kommunikationskanälen und digitalen Medien. Bestehend aus einem Netzwerk hoch spezialisierter Unternehmen unterstützt Reply die führenden europäischen Industriekonzerne in den Bereichen Telekommunikation und Medien, Industrie und Dienstleistungen, Banken und Versicherungen sowie öffentliche Verwaltung bei der Definition und Entwicklung von Geschäftsmodellen, die durch die neuen Paradigmen von KI, Big Data, Cloud Computing, digitalen Medien und Internet der Dinge ermöglicht werden. Die Dienstleistungen von Reply umfassen: Beratung, Systemintegration und Digital Services. www.reply.com

    Pressekontakt:

    Reply
    Frau Sandra Dennhardt
    — —
    — —

    fon ..: —
    web ..: http://www.reply.com/de/
    email : s.dennhardt@reply.com

  • Drei Herausforderungen auf der Reise zu nachhaltiger KI

    Künstliche Intelligenz (KI) nachhaltig und resilient zu gestalten, ist das Ziel zahlreicher Unternehmen. Die Experten von Dataiku, dem global agierenden Anbieter einer kollaborativen Data Science-Plattform, haben drei kritische Herausforderungen auf dem Weg zu mehr Nachhaltigkeit identifiziert: Abhängigkeiten von Technologien minimieren, jederzeit die Kontrolle über die Daten behalten und die erarbeiteten Modelle kontinuierlich prüfen und verifizieren. Wer diese Herausforderungen frühzeitig erkennt und in KI-Projekten berücksichtigt, profitiert langfristig von nachhaltigen und resilienten Lösungen.

    Enterprise AI oder auch unternehmensweite KI zu etablieren, kann als Reise hin zu einem datengetriebenen Unternehmen betrachtet werden. Den größten Anteil hat die Einführungs- und Experimentierphase, die meist 75% der gesamten Reise ausmacht. Anschließend müssen die erarbeiteten Prozesse etabliert und erweitert werden. Die letzten 5% bestehen darin, alle Abläufe, Muster und Strukturen für KI fest im Unternehmen zu verwurzeln. Allerdings starten zahlreiche Unternehmen ihre Reise ohne Route und Plan. Sie ermitteln Anwendungen, die mit KI optimiert werden könnten, priorisieren diese nach dem zu erwartenden Mehrwert, und starten die ersten KI-Projekte. Häufig stellen sich schnell spürbare Erfolge ein. Doch im Laufe der Zeit fallen Erfolge geringer aus und verdeckte Kosten, beispielsweise durch die Pflege existierender Modelle oder stetige Bereinigung der Daten, reduzieren die erzielten Gewinne oder Einsparungen. Beeinträchtigungen im Sinne der Nachhaltigkeit werden häufig erst zu diesem Zeitpunkt deutlich:

    Technologie-Falle
    Möglicherweise wurden ersten KI-Entwicklungen mit Technologien durchgeführt, die nicht mehr dem neuesten Stand entsprechen oder gar vom Markt verschwunden sind. Die Modelle sind veraltet und müssen neu entwickelt werden.

    Kontrollverlust
    Die Daten wurden beim Aufsetzen der ersten Projekte sorgfältig bereinigt. Mit der wachsenden Anzahl an Projekten wird die Data Governance immer aufwendiger.

    Modelle auf Abwegen
    Ohne permanente Kontrolle arbeiten die Modelle unter Umständen nicht mehr wie ursprünglich geplant. Sie lernen blind hinzu, ohne die Ergebnisse zu hinterfragen.

    Um Enterprise AI insgesamt nachhaltig und resilient zu gestalten, gilt es die Reise von Anfang an strategisch zu planen. Konkret muss vorab klar sein, wie die bekannten Herausforderungen gemeistert werden. Alexandre Fournier, Direktor KI-Strategie bei Dataiku, erklärt dazu: „Eine zentrale Data Science-Plattform wie Dataiku DSS entkoppelt Anwendungs-Logik und technische Realisierung. Projekte lassen sich schnell und effizient in unterschiedlichen Technologie-Stacks abbilden. Gleichzeitig lässt sich die Governance über die vorgegebenen Tools innerhalb der Plattform einfach skalieren und schon bereinigte Daten sind zentral verfügbar. Last but not least ist die regelmäßige Prüfung der Algorithmen im Sinne verantwortlicher KI fest in den Prozessen verankert.“

    Die Data Science Plattform Dataiku DSS demokratisiert den Zugang zu Daten und bietet eine einheitliche Anwendungsoberfläche, um Daten zu bereinigen und aufzubereiten, Machine Learning Methoden anzuwenden, die Daten gezielt auszuwerten und zu visualisieren und die Datenmodelle produktiv zu nutzen und dauerhaft zu pflegen. Erfahrene Data Scientist arbeiten auf der gleichen Oberfläche wie Fachanwender und profitieren davon, dass alle KI-Projekte und die dazugehörigen Daten zentral zugängig sind. Durch die Wiederverwendung etablierter Prozesse und Datensätze sparen die Unternehmen Zeit und Geld; die gesamte Enterprise AI wird damit nachhaltiger und resilienter.

    Dataiku entwickelt die einzigartige, kollaborative Data Science-Plattform, die eine erfolgreiche Projekt-Zusammenarbeit zwischen Business Usern, Data Scientists und Data Engineers ermöglicht. Bereits bestehende Kunden (wie z.B. AXA, L’Oreal und Sephora) überzeugt Dataiku unter anderem durch sein teambasiertes User Interface, das auf die Bedürfnisse von Data Scientists und Einsteiger-Analysten gleichermaßen abgestimmt ist. Ein einheitliches Framework bietet den Nutzern unmittelbaren Zugriff auf die Features und Tools, die zur Erstellung und Ausführung von datengetriebenen Projekten benötigt werden. Mit Dataiku DSS können Unternehmen effizient Machine Learning und der Data Science auf Rohdaten aller Größen und Formate anwenden, um so erfolgreich prädiktive Datenflüsse zu erzeugen.

    Firmenkontakt
    Dataiku
    Laura Wiest-Pillois
    Neue Rothofstraße 13-19
    60329 Frankfurt am Main
    +33 (0) 6 95 19 34 50
    laura.wiest@dataiku.com
    http://www.dataiku.com

    Pressekontakt
    claro! text und pr
    Dagmar Ecker
    Allmannspforte 5
    68649 Gross-Rohrheim
    06245/906792
    de@claro-pr.de
    http://www.claro-pr.de

  • Beschleuniger für die Herstellung von Blutplasma-Produkten

    Beschleuniger für die Herstellung von Blutplasma-Produkten

    itelligence: it.lifesciences for plasma mit „One-Click-Chargenrückverfolgungs-Reporting“

    Bielefeld, 17. November 2020 – Lifesciences-Unternehmen, die Produkte aus menschlichem Blutplasma herstellen, stehen alle vor derselben Herausforderung: Nur sehr wenige sind in der Lage, die Rückverfolgung von einzelnen Plasmaspenden bis zur ersten Plasmacharge zu gewährleisten. Dank der eingebauten intelligenten Machine-Learning-Algorithmen in SAP S/4HANA lassen sich diese entscheidenden Qualitäts- und Compliance-Prozesse für die Blutplasma-Branche erheblich beschleunigen.

    Ohne die Verfügbarkeit dieser Funktionen, die die Prozesse zur Verwaltung von Einzelspenden, beim „Single Donation Management“ unterstützen, besteht eine hohe Abhängigkeit von – fast immer -separat verwalteten Systemen mit Individual-Software. Die Folge sind oft unnötige manuelle Arbeiten und zum Teil auch Doppelarbeit, da mehr als eine Datenquelle vorhanden ist, eine höhere Fehleranfälligkeit besteht und es länger dauert, bis notwendige Erkenntnisse zur Verfügung stehen.

    itelligence bietet jetzt eine der ersten Branchenlösungen, die „Single Donation Management“-Prozesse unterstützen“, erklärt Frans Nieuweboer, Director Life Sciences & Chemicals bei itelligence Benelux. “ it.lifesciences for plasma ermöglicht ein „One-Click-Chargenrückverfolgungs-Reporting“, das alle Schritte von der einzelnen Plasmaspende bis zum Fertigprodukt abdeckt. Zudem unterstützt unser Beschleuniger das „Contract-Manufacturing-Organization-Modell“ (CMO-Modell) und bietet durch die partnerspezifischen Konfigurationseinstellungen eine besonders hohe Flexibilität.“

    Durchgängige Prozesse für die Plasmabranche

    it.lifesciences for plasma deckt alle relevanten End-to-end-Prozesse für die Plasmabranche ab, einschließlich der Partner-Interaktionsprozesse wie der Import der Electronic Bleeding List, von Testergebnissen und Nachspende-Informationen (Post-Donation Information). Weitere Anwendungsfälle sind die Konformitätsprüfung für einzelne Spenden, Lagerprozesse, die Erstellung von Plasmapools, Chargenzusammensetzung und Qualitätsprozesse wie Lookback-Management und Einheiten-Isolierung. Es stehen zudem Standard-Reportingfunktionen für die Einheiten-Rückverfolgung, Lieferabstimmung sowie Qualitäts-, Konformitäts- und Compliance-Berichte zur Verfügung.

    Implementierung in einer regulierten Branche

    Um der starken Regulierung der Lifesciences-Branche Rechnung zu tragen, verfügt it.lifesciences for plasma bereits über ein standardisiertes Leistungsspektrum, das die unterschiedlichen Aspekte der Good Manufacturing Practice (GMP) und der Computer-System-Validierung unterstützt. Die Dokumentation basiert auf dem Business Process Model und umfasst auf Best Practices beruhende Benutzeranforderungen, Prozessabläufe und -beschreibungen, Konfigurationsspezifikationen, funktionale Designs, Testskripts und Schulungsunterlagen. Bereits erfolgte Implementierungen wurden erfolgreich nach CFR 21 Part 11* und EudraLex Volume 4** eingereicht.

    Vereinfachung der IT-Landschaft durch Beschränkung auf SAP

    it.lifesciences for plasma arbeitet direkt in SAP ERP oder SAP S/4HANA, sodass nur ein System für den Herstellungsprozess von Plasmaprodukten und die Stammdatenpflege genutzt wird – auch bei einer Plasmaverarbeitung über mehrere Standorte in unterschiedlichen Ländern hinweg. Das zukunftssichere System ermöglicht dank seinem SAP Fiori Frontend mit SAPUI5 die Nutzung von Hochgeschwindigkeitsscannern für die Bearbeitung hoher Datenvolumen. Die speziell für den „Single Donation Control“-Prozess entwickelte Benutzeroberfläche ist nicht nur intuitiv und benutzerfreundlich, sondern lässt sich zudem auch leicht in Waagen, Signalsäulen oder Etikettendrucker und Peripheriegeräte wie Hand-Funkscanner integrieren.

    Die Branchenlösung nutzt Standard-Funktionen wie SAP Extended Warehouse Management und/oder das Lagerhausmanagement von SAP S/4HANA, Qualitätsmanagement (QM), Handling Unit Management (HUM) und Produktionsplanung – Prozessindustrie (PP-PI). Darüber hinaus lässt sie sich um SAP Global Batch Traceability erweitern. it.lifesciences for plasma ist für Hersteller von Blutplasma-Produkten geeignet, die bereits SAP ERP oder SAP S/4HANA verwenden oder den Einsatz dieser SAP-Systeme planen.

    SAP-basierte Lösung für die lückenlose Rückverfolgung

    Im März 2020 hat ein belgischer Lifesciences-Kunde von itelligence die Implementierung von it.lifesciences for plasma erfolgreich abgeschlossen. Dadurch wurde das Unternehmen zum Lifesciences-Experten, mit einer integrierten, ausschließlich SAP-gestützten Plasma-Management-Lösung, mit lückenlosem One-Click-Chargenrückverfolgungs-Reporting, von der einzelnen Spende bis zum Endprodukt.

    itelligence
    Die itelligence AG verbindet innovative SAP-Software und -Technologien mit Dienstleistungen und eigenen Produkten für die Transformation von IT-Landschaften und Geschäftsprozessen.
    Als SAP Global Platinum Partner begleitet itelligence den Mittelstand und Großunternehmen weltweit in allen Phasen der Transformation. Das Leistungsangebot umfasst IT-Strategie- und Transformationsberatung, Softwarebereitstellung, Implementierung, sowie Application Management und Managed Cloud Services. Dabei kombiniert das Unternehmen lokale Präsenz und globale Fähigkeiten mit umfassender Branchenexpertise. itelligence tritt an, um gemeinsam mit dem Kunden Neues zu schaffen und Innovationen durch den IT-Einsatz zu ermöglichen – und dies über alle Geschäftsbereiche des Kunden hinweg. Darauf vertrauen tausende zufriedene Unternehmen, teilweise schon seit der Gründung von itelligence vor 30 Jahren.
    Zahlreiche Auszeichnungen durch SAP und führende Analysten belegen, dass itelligence einen wichtigen Beitrag zu Innovation und langfristigem Geschäftserfolg leistet. Für das renommierte Wirtschaftsmagazin „brand eins“ gehört itelligence zu den besten und verlässlichsten Unternehmensberatern in Deutschland. itelligence ist ein Unternehmen der NTT DATA Gruppe und beschäftigt rund 10.000 Mitarbeiterinnen und Mitarbeiter in 28 Ländern. 2019 erzielte das Unternehmen einen Gesamtumsatz von rund 1,040 Mrd. Euro.

    Kontakt
    itelligence AG
    Silvia Dicke
    Königsbreede 1
    33605 Bielefeld
    0521 91 44 800
    anfrage@itelligence.de
    https://itelligencegroup.com/de/

    Die Bildrechte liegen bei dem Verfasser der Mitteilung.

  • Mit KI durch die Krise: Durchstarten oder Abstürzen?

    Mit KI durch die Krise: Durchstarten oder Abstürzen?

    Warum sollten Unternehmen gerade jetzt in vorausschauende Analytik investieren? Die Machine Learning und Data Science Experten von Dataiku beobachten einen interessanten Paradigmenwechsel.

    Frankfurt, 4.11.2020 – Data Science, Machine Learning und Künstliche Intelligenz -Experten von Dataiku beobachten einen klaren Wandel beim Stellenwert der Projekte. Zwar stieg Zahl der Projekte in den letzten Jahren exponentiell, die Kernprozesse der meisten Unternehmen tangierten sie häufig nur peripher. Die aktuelle Krise wirkt für viele Organisationen wie ein Katalysator: Versäumnisse werden eklatant, Digitalisierung unerlässlich, Remote Work zum Standard und KI avanciert zur zentralen Komponente. Auf der Suche nach resilienten Business Modellen, Kosteneinsparungen, Prozessoptimierungen und optimierter Kundenansprache rückt Künstliche Intelligenz in den Fokus der Unternehmensführung. Gerade in mittelständischen und großen Unternehmen zeigt sich aktuell eine enorme Dynamik.

    Unsere Welt wird durch Disruption geprägt. Umbrüche durch neue Technologien, wirtschaftliche Einbrüche oder Umweltkatastrophen – die unbeliebte Realität ist, dass die wenigsten Unternehmen bislang in der Lage waren, ihre Geschäftsmodelle dynamisch anzupassen. Florian Dirnberger, VP Sales Zentraleuropa Dataiku, erklärt: „Künstliche Intelligenz wird solche Ereignisse auch nicht vorhersehen können. Die konsequente Nutzung vorhandener Daten und deren Auswertung mittels Machine Learning und Data Science ermöglicht es aber, unterschiedliche Szenarien durchzuspielen, um bei Bedarf schnell reagieren zu können.“ Kunden von Dataiku wie Pfizer, GE oder Unilever haben dies erkannt und forcieren Data Science Projekte gerade in der Krise. Sie nutzen Dataiku DSS, um mittels VPN und Webbrowser gemeinsam auch in Remote Work an allen Projekten zu arbeiten. Die Bereitschaft zum Wandel war selten stärker gefragt. Künstliche Intelligenz leistet eine wesentlichen Beitrag dazu, Unternehmen erfolgreich zu verändern. Allerdings: Die Umsetzungszeiten entscheiden maßgeblich über den Erfolg eines Projektes.

    Es erweist sich als deutlich erfolgreicher, Projekte gezielt zu bewerten und zu priorisieren. Welche Projekte versprechen signifikante Erfolge, lassen sich aber dennoch ohne zu große Implikationen umsetzen? Unternehmen, die zentral auf bisher realisierte Projekte zugreifen, profitieren mehrfach: Daten lassen sich schneller nutzen und effizienter analysieren, die Pflege der Modelle lässt sich standardisieren und verwalten und die Machine Learning Operations (MLOps) werden einfacher. Zahlreiche Unternehmen haben dies erkannt und nutzen Data Science Plattformen wie Dataiku DSS, um die Kollaboration zu stärker und den KI insgesamt effizienter zu gestalten – auch in den Kernprozessen und für richtungsweisende Entscheidungen. https://www.dataiku.com/

    Dataiku entwickelt die einzigartige, kollaborative Data Science-Plattform, die eine erfolgreiche Projekt-Zusammenarbeit zwischen Business Usern, Data Scientists und Data Engineers ermöglicht. Bereits bestehende Kunden (wie z.B. AXA, L’Oreal und Sephora) überzeugt Dataiku unter anderem durch sein teambasiertes User Interface, das auf die Bedürfnisse von Data Scientists und Einsteiger-Analysten gleichermaßen abgestimmt ist. Ein einheitliches Framework bietet den Nutzern unmittelbaren Zugriff auf die Features und Tools, die zur Erstellung und Ausführung von datengetriebenen Projekten benötigt werden. Mit Dataiku DSS können Unternehmen effizient Machine Learning und der Data Science auf Rohdaten aller Größen und Formate anwenden, um so erfolgreich prädiktive Datenflüsse zu erzeugen.

    Firmenkontakt
    Dataiku
    Laura Wiest-Pillois
    Neue Rothofstraße 13-19
    60329 Frankfurt am Main
    +33 (0) 6 95 19 34 50
    laura.wiest@dataiku.com
    http://www.dataiku.com

    Pressekontakt
    claro! text und pr
    Dagmar Ecker
    Allmannspforte 5
    68649 Gross-Rohrheim
    06245/906792
    de@claro-pr.de
    http://www.claro-pr.de

    Bildquelle: @Dataiku

  • CARMAO warnt: Industrie 4.0 braucht mehr Sicherheit

    CARMAO warnt: Industrie 4.0 braucht mehr Sicherheit

    Informations- und Prozess-Sicherheit werden in vernetzten Umgebungen noch zu sehr vernachlässigt – übergreifendes Konzept erforderlich

    Limburg a.d. Lahn, 28. September 2020 – Die Digitalisierung revolutioniert die Fabriken. Industrie 4.0-Technologien und -konzepte wie Machine Learning, Analytics und Predictive Maintenance charakterisieren die smarte Fabrik. Sie bilden die Basis für Wertschöpfung und neue Geschäftsmodelle. Dazu werden immense Datenmengen erhoben, analysiert und geteilt. Alles ist Supply-Chain-übergreifend vernetzt. Was dabei häufig vernachlässigt wird: Die Sicherheit. Dabei sollten Informations- und Prozesssicherheit Grundvoraussetzung in vernetzten, digitalisierten Umgebungen sein. Der Spezialist für Unternehmensresilienz CARMAO GmbH ( www.carmao.de) empfiehlt Unternehmen die Umsetzung eines umfassenden Sicherheitsmanagements.

    „In der digitalisierten und vernetzten Fabrik sind Systeme und Maschinen miteinander verbunden – und dies zum Teil Supply-Chain-übergreifend. Dabei kommen größtenteils neuartige Technologien und Anwendungen zum Einsatz, die nicht weitreichend erprobt sind. Die Digitalisierung schreitet in großen Schritten voran, die Sicherheit der Informationen und Prozesse hinkt jedoch erschreckend hinterher. Aus der Praxis wissen wir, dass hier in Unternehmen großer Handlungsbedarf besteht“, erklärt Ulrich Heun, Geschäftsführer der CARMAO GmbH.

    CARMAO hat sich auf Unternehmensresilienz mit Schwerpunkten wie Informationssicherheit, Business Continuity Management etc. spezialisiert. Ulrich Heun schildert den Handlungsbedarf der Branche: „Die Industrie 4.0 benötigt ausgereifte, praxistaugliche Konzepte und Standards, um neben der technischen Sicherheit auch ein übergreifendes Managementkonzept zur risikoorientierten Steuerung der Informationssicherheits-Maßnahmen zu gewährleisten.

    Generell ist zu beachten:
    – Der Einsatz technischer und organisatorischer Maßnahmen erfordert eine systematische, risikoorientierte Orchestrierung und Steuerung, um aus dem richtigen Zusammenspiel der Maßnahmen einen wirksamen Schutzschild aufzubauen und zu erhalten.
    – Dieses Informationssicherheits-Management muss neben der Business-IT auch die operationelle IT (Produktions-IT, OT) einschließen. Durch die fortschreitende Vernetzung beider Welten steigt der Bedarf nach deren Steuerung und einem gesamtheitlichen Bild.
    – Die Sicherheitsmaßnahmen müssen dabei die Chancen und Potenziale der Industrie 4.0 berücksichtigen und bei der Risikoanalyse und -behandlung mit einbeziehen.
    – Ohne zentrale Steuerung und Monitoring der Wirksamkeit der getroffenen Maßnahmen bleibt der Ansatz Stückwerk und kann keine zielgerichtete Wirkung entfalten.

    Erreicht werden können diese Ziele durch die Definition und Umsetzung eines ganzheitlichen Sicherheitskonzeptes. Dieses ermöglicht es, sowohl die Informationssicherheit als auch weitere zusammenwirkende Aufgaben wie Notfallmanagement, Service- und Prozessmanagement u.a. ganzheitlich zu betrachten. Durch die integrative Betrachtung wird aufgedeckt, an welchen Stellen die Verknüpfung der verschiedenen Teildisziplinen Schwierigkeiten bereitet. Instrumente wie eine Control Data Base und ein zentrales Information Risk Repository gewährleisten kontinuierlich einen sehr differenzierten Überblick zu den gesamten Prozessen, Rollen, Erfordernissen, Überschneidungen und Projektprioritäten. Auf dieser Basis können auf die Unternehmenssituation angepasste Resilienz-Konzepte definiert und ausgeprägt werden.

    Die 2003 gegründete CARMAO GmbH mit Hauptsitz in Limburg a. d. Lahn bietet Beratung, Dienstleistungen und Seminare an. Die Schwerpunkte liegen dabei in den Bereichen Unternehmensresilienz bzw. organisationale Resilienz nach ISO 22316, Informationssicherheit, Business Continuity Management (BCM), Compliance, Data Center Security u.v.m. Der Leistungsumfang erstreckt sich von der Analyse und Marktforschung über die Lösungsentwicklung und -implementierung bis hin zum Kompetenztransfer durch die CARMAO Academy. CARMAO befähigt Unternehmen unter anderem dazu, Widerstandskraft aufzubauen sowie sich in Zeiten der Digitalisierung zukunftssicher aufzustellen. Zum Kundenstamm gehören öffentliche Verwaltungen, Konzerne, kleine und mittelständische Unternehmen unterschiedlicher Branchen. www.carmao.de

    Firmenkontakt
    CARMAO GmbH
    Ulrich Heun
    Walderdorffer Hof / Fahrgasse 5
    65549 Limburg
    +49 (0)6431 2196-0
    kontakt@carmao.de
    http://www.carmao.de

    Pressekontakt
    punctum pr-agentur GmbH
    Ulrike Peter
    Neuer Zollhof 3
    40221 Düsseldorf
    +49 (0)211-9717977-0
    pr@punctum-pr.de
    http://www.punctum-pr.de

    Die Bildrechte liegen bei dem Verfasser der Mitteilung.

  • Dataiku startet mit EGG On Air neues virtuelles Konferenzformat

    Dataiku startet mit EGG On Air neues virtuelles Konferenzformat

    Immer verfügbar und bei Bedarf abrufbar präsentiert Dataiku seine neue Eventreihe rund um Künstliche Intelligenz in Unternehmen

    Dataiku bietet mit EGG On Air ab sofort eine Serie live-gestreamter Keynotes, Interviews und abrufbarer Inhalte. Zahlreiche Vordenker und Industrieexperten widmen sich der Frage, was Künstliche Intelligenz (KI) zu leisten vermag und wie es Unternehmen gelingt, dies auch umzusetzen. Gestartet ist das neue Format am 15. September 2020 mit einer Keynote der Mathematikerin und Bestseller-Autorin Cathy O“Neil zum Thema „Building Machine Learning Models in a Changing World: What Will Change (and What Won“t) About Data Science in 2020“.

    Die EGG Konferenzen brachten in den vergangenen drei Jahren rund um den Globus mehr als 5.000 führende Datenexperten zusammen. Mit EGG On Air erobert das Konzept nun den virtuellen Raum: Die Weiterentwicklung der Konferenz ermöglicht es Menschen weltweit, von den Erfahrungen führender Experten rund um die Nutzung von KI in Unternehmen zu profitieren und Diskussionen zu Data Science, Machine Learning und Künstlicher Intelligenz live mitzuverfolgen. Zu den Sprechern zählen Brandeis Marshall, amerikanischer Data Scientists und Professor in Computer Science am Spelman College; David Ryan Polgar, Tech-Ethiker und Gründer von All Tech Is Human; Arnobio Morelix, Chief Innovation Officer beim Startup Genome sowie Taryn Southern, AI Künstlerin und Dokumentarfilmerin. Sie alle werden sich in den kommenden Wochen aktuellen Themen rund um Daten widmen und ihre Erfahrungen aus KI Anwendungen teilen.

    Inmitten der sich durch COVID-19 verändernden Konferenz-Landschaft präsentiert Dataiku mit EGG On Air einen einzigartigen Online-Ansatz. Anstatt die Vorträge und Diskussionen zu KI im Rahmen einer zeitlich begrenzten Konferenz anzubieten, werden die Sessions live über die kommenden Wochen und Monate stattfinden und jeweils über einen längeren Zeitraum abrufbar und frei zugänglich sein. Jeder kann sich kostenfrei für die Online-Veranstaltungen registrieren unter https://egg.dataiku.com/

    Die Inhalte von EGG On Air werden jede Woche in Form einer Live-Keynote sowie von exklusiven, abrufbaren Episoden zur Verfügung gestellt. Innerhalb der einzelnen Episoden gehen führende Manager, Industrieexperten und weltweite Influencer auf die wichtigsten Themen aus den Bereich Enterprise AI wie Daten-Drift, MLOps oder verantwortliche AI, ein. Zudem erstellte Dataiku aus den mehr als 50 Stunden Live-Sessions der vergangenen drei Jahren eine umfangreiche Bibliothek, die öffentlich in Englisch und Französisch über die EGG On Air Webseite verfügbar ist.
    „Es wäre vielleicht einfacher gewesen, unsere bisheriges Event-Format direkt in ein gleichartiges virtuelles Format für 2020 zu übertragen. Aber wir sahen eine große Chance darin, nochmal zu überdenken, in welchem Rahmen wir die interessantesten Geschichten über Enterprise AI in Kontext setzen können. Unser Ziel ist, langfristig möglichst vielen Menschen Einblicke in die AI-Welt zu geben und mit frischen Perspektiven die Diskussionen nach vorne zu bringen“, erklärt Rob Rozicki, VP Marketing Dataiku. „Wir hoffen, dass das neue flexiblere Format der EGG On Air Datenexperten und Manager dazu inspiriert, KI-Projekte in den Unternehmen ganzjährig mit Elan anzugehen. Das Engagement soll sich nicht nur auf wenige Tage direkt nach einer spannenden Veranstaltung konzentrieren, von der man motiviert zurück kommt.“

    Dataiku wurde 2013 mit dem Ziel gegründet, Projekte zu Machine Learning und KI aus den Entwicklungslaboren zu holen und in den Unternehmensalltag zu integrieren. Hunderte von Kunden weltweit – darunter Schlumberger, GE Aviation, Sephora, Unilever, BNP Paribas, Premera Blue Cross, Kuka und Santander nutzen heute Dataiku. Mittlerweile umfasst das Team mehr als 450 Menschen weltweit in New York, Paris, London, Frankfurt, Dubai, Amsterdam, Sydney und Singapur.

    Dataiku entwickelt die einzigartige, kollaborative Data Science-Plattform, die eine erfolgreiche Projekt-Zusammenarbeit zwischen Business Usern, Data Scientists und Data Engineers ermöglicht. Bereits bestehende Kunden (wie z.B. AXA, L’Oreal und Sephora) überzeugt Dataiku unter anderem durch sein teambasiertes User Interface, das auf die Bedürfnisse von Data Scientists und Einsteiger-Analysten gleichermaßen abgestimmt ist. Ein einheitliches Framework bietet den Nutzern unmittelbaren Zugriff auf die Features und Tools, die zur Erstellung und Ausführung von datengetriebenen Projekten benötigt werden. Mit Dataiku DSS können Unternehmen effizient Machine Learning und der Data Science auf Rohdaten aller Größen und Formate anwenden, um so erfolgreich prädiktive Datenflüsse zu erzeugen.

    Firmenkontakt
    Dataiku
    Laura Wiest-Pillois
    Neue Rothofstraße 13-19
    60329 Frankfurt am Main
    +33 (0) 6 95 19 34 50
    laura.wiest@dataiku.com
    http://www.dataiku.com

    Pressekontakt
    claro! text und pr
    Dagmar Ecker
    Allmannspforte 5
    68649 Gross-Rohrheim
    06245/906792
    de@claro-pr.de
    http://www.claro-pr.de

    Bildquelle: @Dataiku

  • Wie Unternehmen Machine Learning erfolgreich einsetzen

    Wie Unternehmen Machine Learning erfolgreich einsetzen

    Im Zeitalter von Industrie 4.0 nutzen immer mehr Unternehmen Künstliche Intelligenz in Form von Machine Learning. Viele Machine-Learning-Projekte scheitern jedoch häufig bei ihrer Umsetzung. Felix Lammers entwickelt in “ Machine Learning in industriellen Dienstleistungen“ ein Modell, mit dem Unternehmen Machine Learning erfolgreich in ihre Prozesse integrieren können. Sein Buch ist im Mai 2019 bei GRIN Publishing erschienen.

    Machine Learning ist für den industriellen Sektor sehr bedeutsam und hilft Unternehmen, ihre Lieferketten und Instandhaltung zu optimieren. Doch warum scheitern Machine-Learning-Projekte häufig bei der Umsetzung? Wie können Unternehmen diese Projekte besser planen und Prozesse definieren? Und mit welcher Methode können sie maschinelles Lernen erfolgreich in industrielle Dienstleitungen integrieren? In seinem Buch „Machine Learning in industriellen Dienstleistungen“ erläutert Felix Lammers ein Vorgehensmodell für eine erfolgreiche Umsetzung von Machine-Learning-Projekten.

    Ein Vorgehensmodell macht Prozesse transparenter, planbarer und kontrollierbarer

    Viele Machine-Learning-Projekte scheitern, weil Unternehmen kein definiertes Vorgehensmodell haben und insbesondere die Bereitstellung, Qualität und Verfügbarkeit von Daten nicht ganzheitlich berücksichtigen. Vorgehensmodelle sind vor allem in der Informatik weit verbreitet. So finden in der Softwareentwicklung Wasserfallmodelle, iterative oder agile Ansätze Anwendung. Ein allgemeingültiges Vorgehensmodell zur Einführung von Machine Learning in industriellen Dienstleistungen liegt bislang noch nicht vor. Das von Felix Lammers entwickelte Modell macht die Prozesse in Projekten transparenter, planbarer und kontrollierbarer und damit erfolgreich, indem es die Verfügbarkeit und Qualität von Daten ganzheitlich miteinbezieht. Lammers richtet sich mit seinem Buch „Machine Learning in industriellen Dienstleistungen“ an Führungskräfte, Produkt-, Projektmanager und IT-Mitarbeiter im Bereich industrielle Dienstleistungen.

    Das Buch ist im Mai 2019 bei GRIN Publishing erschienen (ISBN: 978-3-668-92772-8)
    Direktlink zur Veröffentlichung: https://www.grin.com/document/465505
    Kostenlose Rezensionsexemplare sind direkt über den Verlag unter presse@grin.com zu beziehen.

    Der GRIN Verlag publiziert seit 1998 akademische E-Books und Bücher. Wir veröffentlichen alle wissenschaftlichen Arbeiten: Hausarbeiten, Bachelorarbeiten, Masterarbeiten, Dissertationen, Fachbücher uvm.

    Kontakt
    GRIN Publishing GmbH
    Janine Linke
    Nymphenburger Str. 86
    80636 München
    +49-(0)89-550559-0
    +49-(0)89-550559-10
    presse@grin.com
    https://www.grin.com

    Die Bildrechte liegen bei dem Verfasser der Mitteilung.

  • GPU-Server: centron erweitert Produktportfolio

    GPU-Server: centron erweitert Produktportfolio

    centron, Anbieter von innovativen Colocation-, Cloud- und Managed-Server-Lösungen, hat seine Produktpalette um leistungsstarke GPU-Server erweitert. Die neuen Powerlance GPU-Server eignen sich ideal für rechenintensiven Workloads mit paralleler Prozessverarbeitung.

    Durch das stetige Voranschreiten der Digitalisierung benötigen Unternehmen und Organisationen immer mehr Rechenleistung, um immer komplexer werdende Workloads bewältigen zu können. Mit Powerlance bietet centron als eines der ersten Datacenter in Deutschland ab sofort High-Performance-GPU-Server im Mietmodell an. Dank der im Vergleich zu herkömmlichen CPU-Servern enormen Leistungsreserven ist die Lösung perfekt für Big Data, KI, Ray Tracing, Rendering, Machine und Deep Learning sowie weitere rechenintensive Anwendungen mit paralleler Prozessverarbeitung geeignet. Je nach benötigter Leistung ist Powerlance in drei Ausbaustufen mit einer, zwei oder vier GPUs erhältlich.

    Hardware vom Marktführer
    Herzstück der neuen Powerlance GPU-Server sind leistungsfähige NVIDIA Quadro RTX 6000 Grafikeinheiten. Mit 4608 CUDA Cores, 576 Tensor Cores, 72 RT Cores und 24 GB ECC DDR6 RAM bieten sie ideale Voraussetzungen, um selbst anspruchsvollste Anwendungen zu stemmen.

    Höchste Flexibilität
    Da bei vielen Projekten eine Spitzenrechenleistung nur über einen begrenzten Zeitraum benötigt wird, bietet centron die Powerlance GPU-Server mit einer Mindestlaufzeit von nur einem Monat an. So bleiben Unternehmen stets flexibel und können je nach Projektverlauf die Servermiete früher beenden oder verlängern.

    Stabile Datacenter-Infrastruktur
    Die Powerlance GPU-Server werden im hochmodernen centron Rechenzentrum betrieben. Eine redundante Multi-Carrier-Anbindung mit einer effektiven Bandbreite von mehr als 30 Gigabit, leistungsfähige 1,2 MW Stromversorgung mit USV und Notstromgenerator sowie eine redundante 600 KW Klimatisierung sorgen für maximale Verfügbarkeit und beste Performance.

    Maximale Sicherheit
    Mit Powerlance können sich Unternehmen sicher sein, dass ihre Daten ausschließlich im centron Rechenzentrum in Deutschland vorgehalten werden. Ein nach höchsten Standards ISO 27001 zertifiziertes Information Security Management System verhindert ungewollten Datenabfluss und sorgt für maximale Sicherheit.
    Umfassender Support
    centron verfügt über hochqualifiziertes Technikpersonal mit tiefem Know-how in den unterschiedlichsten Bereichen. Interessierte Unternehmen erhalten im Vorfeld umfassende Beratung für einen erfolgreichen Projektverlauf.

    „Viele kennen GPU Computing von großen Anbietern wie Amazon, Microsoft oder Google. Diese Lösungen bieten ein Maximum an Performance, haben aber auch ihren Preis. Mit Powerlance haben wir eine GPU-Serverlösung entwickelt, die unseren Kunden, gemessen an der Performance pro Euro, ein überragendes Preisleistungsverhältnis bietet“, so Wilhelm Seucan, Geschäftsführer bei centron. „Unsere GPU-Serverlösungen sind ideal für alle Anwendungsszenarien, in denen große Datenmengen möglichst schnell parallel verarbeitet werden müssen – seien es Aerodynamikberechnungen in der Fahr- und Flugzeugkonstruktion, wissenschaftliche Berechnungen von Molekülstrukturen oder 3D Renderings. Gerade Unternehmen, die nicht über die nötige Infrastruktur verfügen, um Abwärme und Stromaufnahme eines GPU-Servers zu handhaben, erhalten mit centron Powerlance Zugang zu dieser richtungsweisenden Technologie, die auch in Zukunft immer wichtiger werden wird.“

    1999 gegründet, bietet die centron GmbH als Internet Service Provider innovative Lösungen aus den Bereichen Colocation, Managed Server, Cloud und Managed Webhosting an. Kunden über alle Branchen und Industrien hinweg vertrauen den hochverfügbaren, hochflexiblen und hochsicheren Online-Lösungen von centron – vom klassischen Webhosting bis hin zur individuellen Konfiguration und professionellen Bereitstellung hochkomplexer Serverstrukturen im centron Rechenzentrum in Hallstadt bei Bamberg. Mit über 50 Mitarbeitern sorgt das Unternehmen dafür, dass Kunden schnellen, kompetenten und zielgerichteten Service erhalten – damit jedes Projekt ein voller Erfolg wird.

    Kontakt
    centron GmbH
    Matthias Sebrantke
    Heganger 29
    96103 Hallstadt
    0951968340
    presse@centron.de
    http://www.centron.de

    Die Bildrechte liegen bei dem Verfasser der Mitteilung.