Archives

Unternehmen stellen sich ein hochmodernes neues System als ihren zukünftigen Zustand vor; wenn das veraltete System ausläuft, übernimmt das neue System, und die alten Daten werden verwaltet, während die neuen Daten nahtlos integriert werden. Bei einer erfolgreichen digitalen Transformation findet dieses neue System auch bei der umfangreichen Zielgruppe breite Zustimmung.

Klingt toll, oder? Leider verläuft dieser Prozess nicht immer reibungslos, und es gibt keine Garantie für ein erfolgreiches Ergebnis. Laut McKinsey scheitern sage und schreibe 70 % der digitalen Transformationen. Diese Statistik zeichnet ein besorgniserregendes Bild, insbesondere wenn man bedenkt, dass ein erheblicher Teil dieser Misserfolge auf erfolglose Migrationsbemühungen zurückzuführen ist.

Es ist kein Wunder, dass Führungskräfte dazu neigen, sich vor der Migration zu fürchten - ein umgangssprachlicher Begriff, der einen Zustand nervöser Angst und Unruhe bezeichnet. Oft sind Migrationen schlecht geplant oder überschreiten den vorgesehenen Zeitrahmen. In diesem Artikel gehen wir auf vier verschiedene Arten von Migrationen ein und stellen Strategien vor, die diese Befürchtungen zerstreuen und die Faktoren bekämpfen, die den Erfolg einer Migration beeinträchtigen können.

(Hinweis: Im Rahmen dieses Artikels umfasst die Migration mehr als nur den Datentransfer; sie umfasst einen umfassenden Systemwechsel).

Arten der Migration

Lassen Sie uns zunächst vier Arten der Migration untersuchen, die Ihr Unternehmen im Rahmen seiner digitalen Transformation in Betracht ziehen könnte.

Konventionelle Datenmigration

Bei der konventionellen Datenmigration werden die Daten aus den Quellsystemen in flache Dateien exportiert. Anschließend wird ein Programm erstellt, das diese Dateien liest und die Daten in das Zielsystem lädt. Es handelt sich dabei um einen eher kompartimentierten Ansatz, der sich für Szenarien eignet, in denen die Unterschiede zwischen dem Quell- und dem Zieldatenschema minimal sind und das zu migrierende Datenvolumen relativ gering ist.

Hier ist ein reales Szenario, in dem ein Online-Tierapothekenunternehmen von einem bestehenden Apothekenanbieter auf einen neuen umgestiegen ist.

Die Vorbereitungen für das neue System wurden sorgfältig getroffen, einschließlich eines Schalters, der aktiviert werden sollte, sobald das neue System mit Daten gefüllt war. Während der Einführung des neuen Apothekenanbieters stand eine Migrationsaufgabe an, bei der etwa 90.000 Rezepte aus der Datenbank des alten Anbieters in die neue Datenbank migriert werden sollten. Die Datenmenge war zwar nicht überwältigend, aber doch groß genug, um eine bewusste Entscheidung zu rechtfertigen. Daher entschied man sich für die konventionelle Methode der Datenmigration.

Die Daten wurden vom vorherigen Anbieter extrahiert und an unser Team übergeben. Wir verfeinerten die Informationen sorgfältig und konvertierten sie in ein Format, das mit dem System des neuen Anbieters kompatibel war, um einen nahtlosen Import zu ermöglichen. Dieses umfassende Verfahren wurde über mehrere Monate hinweg geübt und verfeinert. Die Planung wurde mit exakter Präzision durchgeführt, wobei sowohl vollständige Dateneinspeisungen als auch schrittweise Datenaktualisierungen sorgfältig geplant wurden. Um eine sorgfältige Ausführung zu gewährleisten, erstellten wir eine Release-Checkliste, mit der wir jeden Schritt der Migration überwachen und steuern konnten. Bemerkenswerterweise verlief der gesamte Prozess nahtlos, so dass die Endnutzer:innen der Online-Tierapotheke ohne Unterbrechung bedient werden konnten.

Benutzerdefinierte Migration

In manchen Fällen kann ein Migrationsprozess so kompliziert werden, dass ein spezielles System nur für diesen Zweck eingerichtet werden muss. Dieses spezialisierte Softwaresystem, das eigens für die Migration entwickelt wurde, folgt einem eigenen Lebenszyklus und wird schließlich stillgelegt, sobald seine Aufgabe erfüllt ist.

In der dynamischen Welt der Online-Reisebranche bereitet sich einer unserer Kund:innen auf ein monumentales Migrationsprojekt vor. Die Komplexität des Themas und die schiere Menge an Daten, die dabei anfallen, erforderten die Einführung eines hochgradig maßgeschneiderten Dienstes.

Diese maßgeschneiderte Lösung wurde mit einem einzigen Ziel entwickelt: die Daten in das neue System zu übertragen, und zwar genau zum Zeitpunkt der Benutzeraktivierung.

Das Ausmaß dieses Migrationsprojekts ist atemberaubend, denn die Zahl der zu migrierenden Datensätze erreicht die monumentale Zahl von 250 Millionen.

Das Vorhandensein verschiedener Quellsysteme ist ein wichtiger Grund für die Einführung dieses besonderen Migrationsansatzes. Dieser maßgeschneiderte Dienst fungiert als robuster Motor, der Daten aus verschiedenen Quellen aufnimmt und sie sorgfältig für die Integration in die Staging-Datenbank vorbereitet. Die Umstellung auf das neue System erfolgt dann nahtlos und wird zur Laufzeit auf Anforderung ausgeführt. Diese präzisionsgefertigte und fein abgestimmte kundenspezifische Lösung bildet die Grundlage für den Weg des Kunden zu einer verbesserten Betriebslandschaft.

Datenmigration mit Hilfe von Technologie

Stellen Sie sich nun vor, dass der herkömmliche Datenmigrationsprozess durch die Leistung moderner Automatisierung mit Hilfe modernster Technologien verbessert wird. Stellen Sie sich die Vorteile von Tools vor, die nahtlos die Fehlerbehandlung, Wiederholungsversuche, Bereitstellungen und vieles mehr übernehmen. Die Aussicht auf eine derart automatisierte Migration mag verlockend einfach erscheinen. Doch es gibt einen Haken. Der Erfolg dieses Ansatzes hängt von einer sorgfältigen Planung und Flexibilität ab, Eigenschaften, bei deren Überwachung Tools helfen können, die aber letztlich das Fingerspitzengefühl eines erfahrenen Experten erfordern.

Mehrere Cloud-Dienste können bei der Automatisierung der verschiedenen Migrationsschritte helfen. Ich tendiere hier zwar zu einem AWS PaaS-Ansatz, aber es ist wichtig zu wissen, dass andere führende Cloud-Anbieter gleichwertige Tools anbieten, die ebenso wettbewerbsfähig sind.

Zu den wichtigsten Komponenten eines solchen Migrationssystems gehören:

  • AWS Glue: AWS Glue dient als serverloser Datenintegrationsservice und vereinfacht den Prozess des Erkennens, Aufbereitens und Zusammenführens von Daten.
  • AWS S3: AWS Simple Storage Service ist von unschätzbarem Wert für die Speicherung aller ETL-Skripte und Protokollspeicher.
  • AWS Secret Manager: AWS Secret Manager gewährleistet die sichere Verschlüsselung und Verwaltung sensibler Anmeldeinformationen, insbesondere für den Datenbankzugriff.
  • AWS CloudWatch: CloudWatch Events Rule spielt eine zentrale Rolle bei der Auslösung der geplanten ETL-Skriptausführung, während CloudWatch Logs bei der Überwachung der Glue-Protokolle eine wichtige Rolle spielt.
  • AWS DMS: AWS Database Migration Service (AWS DMS) ist ein verwalteter Migrations- und Replikationsservice, der schnelle, sichere und ausfallarme Übertragungen von Datenbank- und Analyse-Workloads auf AWS mit minimalem Datenverlust ermöglicht.

Mit der Nutzung dieser Dienste wollen wir uns nun der Frage widmen, wie wir den Migrationsprozess effektiv durchführen können:

Hier wird ein unkomplizierter Arbeitsablauf vorgestellt, der AWS Glue nutzt, um die Datenübertragung von Quell- zu Zielsystemen zu erleichtern. Eine entscheidende Voraussetzung für die erfolgreiche Ausführung dieses Workflows ist die Einrichtung eines VPC-Peering zwischen den beiden AWS-Konten. Es ist erwähnenswert, dass es Fälle geben kann, in denen Einschränkungen der Client-Infrastruktur einen solchen Zugriff behindern. In solchen Fällen ist es ratsam, eng mit dem Infrastrukturteam zusammenzuarbeiten, um diese Herausforderung zu meistern.

Der Prozess läuft wie folgt ab: Die Daten werden umgewandelt und finden ihren Platz in der Stage-Datenbank. Sobald die Daten für die Aktivierung vorbereitet sind, werden sie durch den Einsatz von AWS DMS nahtlos in das Zielsystem übertragen.

Während diese Tools zweifellos unsere Entwicklungsbemühungen rationalisieren, ist es wichtig zu verstehen, wie man ihr volles Potenzial ausschöpfen kann. Dieser Aspekt stellt die einfachere Seite der Geschichte dar; die wahre Komplexität ergibt sich, wenn wir uns mit der Datenvalidierung nach der Migration befassen.

On-Premises-zu-Cloud-Migration

Diese Migration ist der Inbegriff von Komplexität - ein typisches Unternehmensszenario, bei dem es um die Umstellung von On-Premise-Servern auf Cloud-Server geht. Der gesamte Prozess wird durch eine Fülle von leicht verfügbaren Lösungen erleichtert, die von Cloud-Anbietern angeboten werden. Ein hervorragendes Beispiel ist das AWS Migration Acceleration Program (MAP), eine umfassende und bewährte Cloud-Migrationsinitiative, die aus unserer Erfahrung mit der Migration zahlreicher Unternehmenskunden in die Cloud entstanden ist. MAP stattet Unternehmen mit Tools zur Kostenreduzierung, optimierter Ausführungsautomatisierung und einem beschleunigten Weg zu Ergebnissen aus.

Unsere Zusammenarbeit erstreckte sich auf eine führende Autorität im Bereich der Screening- und Compliance-Management-Lösungen, die sich auf eine transformative Reise begeben hat. Zu den Unternehmungen, die wir für diesen Partner unternommen haben, gehörte das beeindruckende Projekt zur Datenmigration und 2-Wege-Synchronisation. Der Kern dieses Vorhabens war die Entwicklung einer leistungsstarken Zwei-Wege-Synchronisationsstrategie, die sowohl die bestehenden Funktionen der lokalen Lösung als auch die neu in ein neues, serviceorientiertes Framework auf Azure migrierten Funktionen unterstützt. Außerdem musste diese Lösung in der Lage sein, große Mengen an binären Inhalten zu verwalten.

Werfen Sie einen Blick auf den für diese Migration verwendeten Technologie-Stack:

Unsere Lösung umfasste diese integralen Bestandteile:

  • ACL: Eine Legacy-Komponente, deren Aufgabe es ist, Änderungen in der lokalen Datenbank zu erkennen und anschließend Ereignisse auszulösen, die an die Cloud weitergeleitet werden.
  • Vorgelagerte Komponenten: Diese Cloud-basierten Elemente umfassen eine Reihe von Filter-, Transformations- und Persistenzaktionen, die auf Änderungen angewendet werden. Sie sind sorgfältig so konzipiert, dass sie die Änderungen innerhalb der für die Entität vorgesehenen Domäne in der Cloud verankern. Darüber hinaus generieren diese Komponenten Replikationsereignisse, die bei Bedarf reaktionsfähige Aktionen auslösen können.
  • Replikationskomponenten: Diese Komponenten befinden sich in der Cloud und sind darauf spezialisiert, die Replikationsereignisse zu empfangen. Anschließend speichern sie entweder die Daten oder führen als Reaktion auf die empfangenen Ereignisse bestimmte Aktionen aus.
  • Massentransit: In Szenarien, in denen Cloud-induzierte Änderungen eine Synchronisierung zurück zur On-Premise-Datenbank erforderlich machen, kommt MassTransit zum Einsatz. Dieses Tool spielt eine zentrale Rolle beim Lesen aller in der Cloud erzeugten Ereignisse, leitet sie an nachgelagerte Komponenten weiter und orchestriert so die Synchronisierung von Änderungen.

Gemeinsam bilden diese Komponenten einen kohärenten Rahmen, der den komplizierten Tanz der Datensynchronisation zwischen lokalen und Cloud-basierten Systemen orchestriert.

Das Erreichen der Zwei-Wege-Synchronisation hing von der Nutzung von Schlüsselfunktionen in unserem Produkt ab. Zu diesen Komponenten gehören:

  • Tabelle-zu-Tabelle-Datensynchronisierung: Unsere Lösung ermöglichte eine nahtlose Datensynchronisation zwischen On-Premise- und Cloud-Datenbanken und umgekehrt. Dieser Prozess wurde über eine ereignisgesteuerte Architektur orchestriert, um einen flüssigen Informationsaustausch zu gewährleisten.
  • Change Capture Service für On-Premise-Änderungen: In Fällen, in denen Änderungen auf der Vor-Ort-Seite auftraten, erkannte ein Change Capture Service diese Änderungen sorgfältig und löste entsprechende Ereignisse aus. Diese Ereignisse wurden dann mit der designierten Home-Domain synchronisiert und lösten gleichzeitig Benachrichtigungen für andere Domains aus, um ihre jeweiligen Daten zu synchronisieren, falls dies als notwendig erachtet wurde.
  • Cloud-initiierte Änderungen und Datenreplikation: Umgekehrt hat unsere Lösung bei Änderungen in der Cloud deren Übertragung an den Datenreplikationsdienst vor Ort orchestriert. Dies wurde durch einen optimierten ereignisgesteuerten Ansatz erreicht.

Während im Bereich der On-Premise-zu-Cloud-Migration noch viel erforscht werden kann, erweitern fortlaufende Innovationen, wie die Integration von Tools wie CodeGPT, die Möglichkeiten zur Durchführung von Migrationen ständig. Um sich jedoch auf das eigentliche Thema zu konzentrieren, sollten wir uns mit den Tipps befassen, die dazu beitragen können, die mit diesen Migrationsbemühungen verbundenen Ängste abzubauen.

Tipps für eine erfolgreiche Migration

Wie können Sie sicherstellen, dass Ihre nächste Migration erfolgreich verläuft? Verpassen Sie nicht diese entscheidenden Möglichkeiten zur Vereinfachung und Bekämpfung der Komplexität Ihrer Migration.

1. Planen Sie kürzere und frühere Testzyklen

Genauso wie die Integration und der frühzeitige Beginn von Tests in der Microservices-Architektur von zentraler Bedeutung sind, sollte auch der Migrationsprozess frühzeitig innerhalb des Testzyklus gestartet werden. Planen Sie zahlreiche Testzyklen ein, um den Migrationsprozess zu optimieren. Wir empfehlen, fünf oder mehr Testzyklen zu starten. Es ist äußerst wichtig, dass diese Zyklen in produktionsnahen Umgebungen ablaufen, in denen Daten repliziert werden, die der Produktionsumgebung sehr ähnlich sind. Morphing-Tools können eingesetzt werden, um bereinigte Produktionsdaten in eine stufenweise Umgebung zu verpflanzen.

2. Formulieren Sie eine umfassende Validierungsstrategie

Lassen Sie bei der Validierung der migrierten Daten nichts unversucht. Eine gründliche Validierung ist unabdingbar, um finanzielle Verluste oder die Verärgerung von Kunden aufgrund einer unzureichenden Erfahrung nach der Migration zu vermeiden. Im Folgenden finden Sie ein Beispiel für eine Reihe von Validierungsschritten, die auf das Post-Migrations-Szenario zugeschnitten sind:

3. Beginnen Sie mit Beta-Benutzer:innen

Beginnen Sie den Migrationsprozess mit der Auswahl einer Gruppe von Alpha- und Beta-Benutzer:innen, die als Pilot:innen für die migrierten Daten dienen werden. Diese Vorphase trägt dazu bei, die Risiken in den Produktionssystemen zu minimieren. Wählen Sie die Alpha- und Beta-Benutzer:innen sorgfältig aus, um einen reibungslosen Übergang während der Live-Datenmigration zu gewährleisten. Die Alpha-Benutzer:innen sind eine kleinere Gruppe von etwa hundert Benutzer:innen, während die Beta-Benutzer:innen eine etwas größere Gruppe von möglicherweise einigen tausend Benutzer:innen umfassen. Schließlich wird der Übergang zu einem vollständigen Datensatz von Live-Nutzer:innen vollzogen.

4. Antizipieren Sie Poison Pills

Planen Sie von Anfang an Poison Pills ein - Datensätze in Kafka, die aufgrund möglicher Rückwärtskompatibilitätsprobleme mit weiterentwickelten Nachrichtenschemata beim Verbrauch immer wieder fehlschlagen. Die regelmäßige Überprüfung auf Poison Pills in der Produktion ist eine proaktive Maßnahme, um Hindernisse in letzter Minute abzuwenden. Der folgende Arbeitsablauf veranschaulicht, wie man mit Poison Pills umgeht:

5. Ausarbeitung einer soliden Rollback-Strategie

Arbeiten Sie mit Kunden zusammen, um eine umfassende Rollback-Strategie zu entwickeln und sicherzustellen, dass die Erwartungen aufeinander abgestimmt sind. Führen Sie Probeläufe der Rollback-Strategie durch, um potenziellen Notfällen vorzubeugen, da dies der letzte Ausweg sein könnte, um die Situation zu retten.

6. Holen Sie sich Unterstützung, wenn sie verfügbar ist

Ziehen Sie, wenn möglich, bezahlte Unterstützung in Betracht, um Ihre Bemühungen zu verstärken. So profitierte unser Kunde beispielsweise von lizenziertem MongoDB-Support, der zugewiesene Stunden zur Verbesserung der Systemleistung und der Migrationsskripte nutzte. Ein solcher Support bringt oft eine neue Perspektive und intime Kenntnisse über potenzielle Herausforderungen und Lösungen mit sich, was während des Migrationsprozesses von unschätzbarem Wert ist.

7. Frühzeitige Überprüfungen einbeziehen

Holen Sie proaktiv Überprüfungen der Migrationsarchitektur sowohl von Kund:innen als auch von internen Prüfgremien ein. Diese Sorgfalt ist unerlässlich, um mögliche Hindernisse oder Unstimmigkeiten zu erkennen, bevor sie zu echten Herausforderungen werden. Indem Sie Probleme, die bei den Überprüfungen auftauchen, bereits im Vorfeld angehen, können Sie Komplikationen in letzter Minute vermeiden, z. B. wenn ein Migrationsplan den Richtlinien des Kunden widerspricht und Anpassungen und Verbesserungen erforderlich sind.

Fazit

Die Vision eines nahtlosen Übergangs zu einem hochmodernen neuen System ist eine verlockende Aussicht für Unternehmen, die eine verbesserte Effizienz und erweiterte Möglichkeiten verspricht. Der Weg von veralteten Systemen zu einem technologisch fortschrittlichen zukünftigen Zustand ist jedoch oft mit Herausforderungen verbunden, und die alarmierende Statistik, dass 70 % der digitalen Transformationen scheitern, wie McKinsey hervorhebt, ist eine deutliche Erinnerung an die damit verbundenen Komplexitäten. Einer der Hauptgründe für dieses Scheitern sind erfolglose Migrationsbemühungen, was unterstreicht, wie wichtig es ist, sich mit den Befürchtungen der Migrant:innen auseinanderzusetzen.

Der Begriff "Gänsehaut" beschreibt treffend die Ängste, die häufig mit Migrationsprozessen einhergehen. Diese Angst kann auf eine Reihe von Faktoren zurückgeführt werden, darunter schlechte Planung, überschrittene Zeitrahmen und unerwartete Hindernisse. Wie dieser Artikel zeigt, gibt es jedoch bewährte Strategien, um diesen Herausforderungen zu begegnen und erfolgreiche Migrationen durchzuführen. Durch Ansätze wie kürzere und frühzeitige Testzyklen, umfassende Validierungsstrategien, gestaffelte Rollouts mit Beta-Benutzer:innen, die Vorbereitung auf potenzielle Hindernisse wie Poison Pills und die Ausarbeitung effektiver Rollback-Pläne können Unternehmen die mit Migrationen verbundenen Risiken und Unwägbarkeiten erheblich verringern. Die Unterstützung durch Expert:innen und die Einbeziehung frühzeitiger Überprüfungen spielen ebenfalls eine entscheidende Rolle bei der Gewährleistung einer reibungslosen Migration.

Die verschiedenen Migrationsarten, die in diesem Artikel behandelt werden - von der konventionellen Datenmigration bis hin zu benutzerdefinierten Lösungen und dem Übergang von On-Premise zu Cloud - zeigen die Bandbreite der Szenarien und Komplexitäten, mit denen Unternehmen konfrontiert werden können. Durch die sorgfältige Einhaltung der hier dargelegten Strategien können Unternehmen den komplizierten Tanz der Datensynchronisierung und Systemübergänge mit Zuversicht meistern. Da sich die digitale Landschaft ständig weiterentwickelt, wird die Anwendung dieser Best Practices nicht nur dazu beitragen, die Angst zu lindern, sondern auch den Weg für eine erfolgreiche digitale Transformation zu ebnen, die Unternehmen in die Lage versetzt, im modernen Zeitalter erfolgreich zu sein.

Wenden Sie sich an das GlobalLogic-Team, wenn Sie digitale Beratungs- und Bewertungsdienste benötigen, um die richtige Strategie für die digitale Transformation Ihres Unternehmens zu entwickeln.

Bei der Planung einer digitalen Transformation muss der CTO eines Unternehmens viele Entscheidungen treffen, um den Endzustand zu erreichen. Um das übergeordnete Ziel der Abschaffung eines monolithischen Altsystems zu erreichen, ist eine dieser Entscheidungen, ob ein Brownfield- oder ein Greenfield-Ansatz gewählt werden soll.

Aber das ist die letzte Stufe, und bis dahin ist es noch ein langer Weg. Es gibt eine lange Zeitspanne bis zum erfolgreichen Sunsetting, und es ist durchaus akzeptabel, dass die Systeme auf halbem Wege funktionieren. In der Regel handelt es sich dabei um Brownfield-Systeme, bei denen ein Großteil des monolithischen Altsystems mit einem modernen Stack ummantelt wird.

In diesem Artikel geben wir Ihnen Hinweise, wie Sie den Übergang von einem monolithischen zu einem modernen System erleichtern können, wie Sie eine North-Star-Architektur entwickeln und wie Sie sich bei Bedarf in den verschiedenen Phasen Ihrer digitalen Transformation anpassen können.

Getting Started: Möglichkeiten bewerten

Wenn Sie sich für eine Modernisierung entschieden haben, können Sie verschiedene Wege einschlagen: Umstellung auf ein komplett neues System, Umstellung/Refactoring Ihrer Lösung oder Side-by-Side.

Abbildung: Modernisierungsentscheidungen - GL POV

Ein Großteil der Vordenker zu diesem Thema konzentriert sich auf die erfolgreiche Umgestaltung von Architekturen und neuen Systemen. Es wird jedoch nur sehr wenig über Systeme auf halbem Weg diskutiert. Wenn überhaupt, dann wird eher über die älteren monolithischen/Legacy-Systeme und die Menge an Gepäck gesprochen, die sie mit sich bringen.

Aber Midway-Systeme sind komplex und bringen eine Menge Probleme mit sich. Sie können arbeitsintensiv sein und es gibt eine Menge Unbekannte, die das Budget sprengen können. Wir haben mit vielen Kunden in dieser Phase zusammengearbeitet, in der sich ihre Systeme auf halbem Weg befinden, und haben wichtige Lektionen gelernt, die zu einem reibungsloseren Prozess beitragen.

Viele dieser Kunden haben mit der Erstellung eines Green Field-Systems begonnen, dann aber das Ziel geändert und beschlossen, endgültig bei dem System auf halbem Weg zu bleiben. Dafür gibt es viele Gründe:

  • Externe Bedrohungen oder Veränderungen. Die Pandemie ist ein großartiges Beispiel dafür, dass Organisationen Investitionen tätigen mussten, um mit dem Anstieg der Bestellungen während oder nach der Pandemie Schritt zu halten.
  • Mangelnde Akzeptanz. Während der Testphase oder der MVP-Einführung kann der Kunde Schwierigkeiten haben, die Akzeptanz und Annahme durch die Benutzer zu erreichen.
  • Kostenfaktoren. Das Budget ist erschöpft, und anstatt kein System zu haben, bleiben die Kunden bei einem halbfertigen System, das noch funktioniert. So bleibt das Geld im Fluss, und der Kunde beschließt, die Schlacht zu verlieren, um den Krieg zu einem späteren Zeitpunkt zu gewinnen.

Wir können in der Tat den darunter liegenden Stack modernisieren, bevor das eigentliche Benutzererlebnis gestört wird. Dies ist der Fall, wenn das gesamte monolithische System nicht erdrosselt wird. Es scheint noch am Leben zu sein, während der darunter liegende Motor ersetzt wurde. Die harte Realität solcher Systeme trifft uns hart - sie sind komplexer als früher und mit größerer Dringlichkeit, um auf die andere Seite zu gelangen.

North Star - Architektur

Der Übergang zur North Star-Architektur ist eine Herkulesaufgabe und erfordert große Ausdauer. Darüber hinaus ist ein System auf halbem Weg nur mit größerem Aufwand zu pflegen. Wie können wir uns also von einem solchen Fauxpas lösen?

Hier sind die Schritte, die in der Vergangenheit für uns funktioniert haben. Ein visionärer Unternehmensarchitekt, der das alte und das neue System genau kennt, kann dabei helfen, einen Plan zu erstellen, um dies zu erreichen. Verwenden Sie diese einfachen Schritte, um Ihren Plan zu entwerfen.

1. Fahren Sie mit solchen Zwischensystemen mit Elan fort.

Da die Mittelwegsysteme nicht so schnell verschwinden werden, sollten Sie versuchen, das Leben mit solchen Systemen erträglicher zu machen. Investieren Sie in Übergangstechnologien, die den Betrieb und die Wartung von Mittelwegsystemen vereinfachen.

Wir haben uns mit einem weltweit führenden Anbieter von Software, Produkten und professionellen Dienstleistungen für Tierarztpraxen mit einem Umsatz von 4 Mrd. US-Dollar zusammengetan, um eine zukunftsweisende Microservice-basierte Plattform für das globale Verschreibungsmanagement (GPM) für die internationale Expansion zu entwickeln, die derzeit mehr als 10.000 Praxen in Nordamerika und etwa 100.000 Kunden in der globalen Lieferkette bedient. Es handelte sich um einen Greenfield-Ansatz zur Lösung der aktuellen Probleme mit den bestehenden monolithischen Systemen.

Die Umstellung auf das neue System braucht Zeit, und wir können nicht aufhören, wie gewohnt weiterzuarbeiten. Das ist es auch, was das neue System finanziert. Daher haben wir uns bewusst dafür entschieden, uns auf das neue System vorzubereiten und Pipelines für die Datenmigration in zwei Richtungen einzurichten. Mit "zwei Wegen" meinen wir, dass die Daten vom neuen zum alten System und umgekehrt synchronisiert werden.

Das bedeutet im Wesentlichen, dass die Daten dupliziert und synchron gehalten werden, um den Schritt zum Übergang auf ein neues System zu vollziehen. Es sah also in etwa so aus:

Abbildung: "Zwei-Wege"-Datensynchronisation

Diese Pipeline wird irgendwann auslaufen, aber es ist die Mühe wert, das neue System mit dem alten System synchron zu halten und umgekehrt. Der Vorteil, den wir erhalten, ist eine Verschnaufpause in der Übergangsphase, in der das Unternehmen die anstehenden Aufgaben für die Umstellung auf ein neues System betrachtet, das Budget und die Zeitpläne anpasst und insgesamt das Leben ein wenig einfacher macht, weil die Dinge weiterlaufen, wenn auch mit höheren Kosten. Die gute Nachricht ist, dass das Geschäft immer noch Geld einbringt.

2. Aufbau der Orchestrator-Schicht.

Der nächste Schritt ist der Aufbau einer Orchestator-Schicht, die den Datenverkehr von den bestehenden Front-End-Anwendungen zu den neuen Back-End-Systemen leitet. Diese Schicht wird dafür sorgen, dass die Nutzer des Systems weiterhin einen nahtlosen Übergang haben werden. Im Hintergrund wurde das alte System ersetzt, ohne dass die Benutzer davon betroffen sind. Auch dieser Schritt kann mit verschiedenen Bereitstellungsstrategien wie Blue Green Deployment durchgeführt werden. Und da die Daten immer im Hintergrund synchronisiert werden, können Sie im Falle von Problemen mit dem neuen System zurückschalten.

Abbildung: Die Orchestrator-Schicht

Bei der Erstellung des API-Satzes in der Orchestator-Schicht sollten Sie darauf achten, dass die Architektur zukunftsorientiert ist. Die Orchestator-Schicht bleibt auch im neuen System erhalten und ist kein Wegwerfcode. Wenn dazu eine Wrapper-Schicht oder ein Adapter für das Legacy-Frontend benötigt wird, lassen Sie dies zu. Dies wird ein Wegwerfcode sein, der aber dennoch sein kurzes Leben in vollen Zügen genießen wird. Der Grund dafür ist, dass das Design für Ihre Orchestrierung sauber und makellos bleibt.

3. Die bittere Pille schlucken und auf ein neues System migrieren.

Es gibt keinen einfacheren Weg, als jetzt in den sauren Apfel zu beißen. Erstellen Sie die neue moderne Benutzeroberfläche mit der Technologie Ihrer Wahl und sorgen Sie dafür, dass die moderne Benutzeroberfläche die gleiche Sprache spricht wie der Orchestrator-Dienst. Schalten Sie das alte System schrittweise aus. Führen Sie einen Alphatest durch, wählen Sie dann eine Gruppe von Betanutzern für die Migration aus, und schließlich können alle Nutzer migriert werden. So haben Sie genügend Vorlauf für die endgültige Einführung.

Manchmal erfordert die Migration auf ein neues System mehr Planung und Aufwand als die Entwicklung von Green Field-Anwendungen. Ein solch großes Problem erfordert, dass wir es in kleinere Problemstellungen aufteilen und die kleineren Probleme nach und nach beheben. Dies kann so einfach sein wie die Migration von On-Premise zu Cloud und kann auch komplexe Geschäftsregeln beinhalten, die für die Transformation angewendet werden müssen.

Im Fall unseres Kunden haben wir beispielsweise einen benutzerdefinierten Microservice entwickelt, dessen einzige Aufgabe es war, Daten aus allen unterschiedlichen Quellen aufzunehmen und am endgültigen Zielort zu platzieren. Dieser Dienst wurde nur einmal verwendet, war aber entsprechend den Geschäftsregeln für die Transformation leicht zu manipulieren.

Abbildung: Die endgültige Inbetriebnahme der benutzerdefinierten Migration Engine

Fazit

Das monolithische Altsystem hat sein Leben gelebt, und die Abschaffung des gesamten Monolithen ist eine gewaltige Aufgabe. Es gibt Lösungen, die den Weg zur North Star-Architektur erleichtern. Es ist ratsam, frühzeitig in diese Lösungen zu investieren und Ihr Budget zu nutzen, um das Leben einfacher zu machen.

Diese Systemmuster für die Mitte des Weges sind dazu da, Ihre Reise zu vereinfachen, und wenn Sie sie nutzen, vermeiden Sie den Fauxpas, die monolithischen Systeme zu strangulieren. GlobalLogic's Digital Advisory & Assessment kann Ihnen auf Ihrer Reise vom Monolithen zu einer digital transformierten Architektur helfen, den richtigen Weg zu wählen, die Schritte auf dem Weg zu vereinfachen und Ihr Endziel mit einer erfolgreichen, nachhaltigen Lösung zu erreichen, die Ihr Unternehmen voranbringt.

Die Banken werden Erfahrungen anbieten, aber jeder wird sie ignorieren.

Die Inspiration für diesen Blogtitel stammt von Jerry Neumann, dem Autor des Blogs Reaction Wheel, der 2015 schrieb, dass "Software die Welt frisst und jeder sie ignoriert". Neumann beobachtete auch, dass "Informations- und Kommunikationstechnologie allgegenwärtig, aber unsichtbar" wird - mit anderen Worten, in jedes Produkt eingebettet.

Die Geschichte zeigt, dass Technologien, die einen Paradigmenwechsel herbeiführen, die Art und Weise verändern, wie wir denken, uns mit verschiedenen Produkten und Dienstleistungen auseinandersetzen und sie erleben.

Der letzte große Umbruch im Privatkundengeschäft war das Internet-Banking, das heute nur noch als "Banking" bezeichnet wird. Ein anderes Beispiel ist der elektrische Besen, der heute eher als Staubsauger bekannt ist...

Wir glauben, dass wir in diesem Moment einen weiteren Paradigmenwechsel erleben.

Ein Wechsel, der das Gesicht des Privatkundengeschäfts drastisch verändern wird.

Die wichtigsten Trends, die diesen Paradigmenwechsel vorantreiben, sind die Entkopplung des Kundenerlebnisses von den Banken, die Demokratisierung der Finanzberatung und -planung mit dem Aufkommen der KI (bei der die Grenzkosten für die Bereitstellung und Ausführung von Finanzberatung auf Null gesenkt werden können) und der durch Open Banking geschaffene Wandel von oben nach unten.

Dies wird eine neue Ära der eigenverantwortlichen Finanzen einläuten, in der der Einzelne auf Abruf eine hyper-personalisierte und maßgeschneiderte Finanzberatung auf Knopfdruck oder mit Hilfe von Hyper-Reality-Geräten direkt vor seinen Augen erhalten kann.

Während wir uns von einem Paradigma zum nächsten bewegen, müssen die Banken die Art und Weise, wie sie mit ihren Kunden interagieren, neu konzipieren - und dabei sogar neu definieren, wer ihre Kunden sind. Denn in dem Maße, wie sich das Kundenerlebnis von den Banken abkoppelt, werden die Kunden möglicherweise einen unabhängigen Vermittler in Anspruch nehmen. Mehr noch: Mit dem Aufkommen neuer Geräte wie dem Apple Vision Pro ist dieser Vermittler möglicherweise nicht einmal mehr ein Mensch, um auf Bankprodukte und -dienstleistungen zuzugreifen. Und da diese Geräte immer beliebter werden, werden die finanziellen Erfahrungen, der Ort und das Medium, über das die Beratung erfolgt, immer mehr verschwimmen.

In Zukunft wird es mit Sicherheit eine Reihe neuer Möglichkeiten geben, phygitale* Finanzdienstleistungen einzubetten, so dass Bankdienstleistungen immer mehr in eine breitere, digitalere und vernetzte Arbeitsweise eingebettet werden. Je mehr sie eingebettet werden, desto unsichtbarer werden sie für den Kunden.

 

*Phygital bedeutet, dass die Vorteile der physischen Bankinfrastruktur mit den Vorteilen moderner digitaler Technologien kombiniert werden.

—————————————————————————————————

Einsicht und frühe Signale.

Das 2017 gegründete innovative Forschungsunternehmen Inrupt von Sir Tim Berners-Lee prognostiziert eine Zukunft, in der Daten mit der Person verbunden sind und Menschen generative KI nutzen können, um persönliche Assistenten und digitale Agenten zu haben, die in ihrem Namen arbeiten, ähnlich wie Agenten oder Anwälte - oder vielleicht Finanzberater.

Um es klar zu sagen: Robo-Advisors sind nicht neu. Wir haben bereits eine kambrische Explosion von Finanzmanagement-Startups erlebt, die die Vermögensverwaltung für einen Großteil der Weltbevölkerung zugänglich gemacht haben. Aber Berners-Lees Arbeit zeigt erste Anzeichen für das, was noch kommen wird.

Vorhersage.

GlobalLogic prognostiziert, dass innerhalb des nächsten Jahrzehnts eine neue Generation von hyper-persönlichen KI-Finanzassistenten entstehen wird, die im Leben ihrer Besitzer so allgegenwärtig sind wie Elektrizität oder Konnektivität. Aber noch in diesem Jahrzehnt prognostizieren wir das Aufkommen einer neuen Generation von hyper-persönlichen KI-Finanzassistenten. Sie werden im Leben ihrer Besitzer so allgegenwärtig sein wie Elektrizität oder Konnektivität, und sie werden den Menschen gehören oder von ihnen abonniert werden und mit ihnen zusammenleben, anstatt in den Kernsystemen der Banken zu sitzen.

Zur Veranschaulichung dieses Bildes haben wir ein fiktives Produkt namens "Penny" entwickelt, einen konzeptionellen, verbraucherseitigen, KI-gestützten persönlichen Finanzassistenten, der die Art und Weise repräsentiert, wie wir uns die Interaktion der Menschen mit den Banken der Zukunft vorstellen.

Penny stellt sich vor

Unsere Vision ist, dass Penny einen Weg zu Wohlstand, grünem Leben und persönlicher Sicherheit bietet und ein vertrauenswürdiger, unabhängiger Partner für ein selbstbewusstes Finanzmanagement sein wird. Der Schlüssel zur Attraktivität von Penny ist seine Unabhängigkeit von Banken.

Der Fokus von Penny wird auf 4 Kernbereichen liegen:

1. Langfristige Schaffung von Wohlstand:

Penny unterstützt seine Nutzer beim Vermögensaufbau durch maßgeschneiderte Finanzberatung, Anlagestrategien und personalisierte Empfehlungen, um die Rendite zu maximieren und finanzielle Ziele schneller zu erreichen.

2. Finanzberatung in Echtzeit auf Ihre Art:

Penny kombiniert die Kraft von physischen und digitalen Interaktionen. Nutzer können mit Penny über innovative Berührungspunkte wie Augmented Reality, Sprachassistenten oder intelligente Geräte interagieren und erhalten so Finanzberatung in Echtzeit und personalisierte Beratung, die auf ihre individuellen Bedürfnisse zugeschnitten ist.

3. Nachhaltige grüne Lebensstile:

Die grünen Kaufempfehlungen von Penny nutzen das Ausgabeverhalten und die Vorlieben, um verantwortungsvolle Alternativen vorzuschlagen, und helfen den Nutzern, umweltbewusste Entscheidungen zu treffen, die mit ihren Werten übereinstimmen.

4. Delegierter Zugriff, Berechtigungen und Sicherheit:

Penny kennt die finanzielle Situation, die Ausgabengewohnheiten und die Risikobereitschaft seiner Nutzer sehr genau und kann so personalisierte Sicherheitsmaßnahmen anbieten. Es gewährleistet ein Höchstmaß an Datenschutz, schützt das Vermögen und gibt Sicherheit in einer sich ständig verändernden digitalen Landschaft.

Im Vertrauen darauf, dass das fortgeschrittene Verständnis der individuellen finanziellen Situation, der Ausgabengewohnheiten und der Risikotoleranz personalisierte Sicherheitsmaßnahmen und eine bessere finanzielle Gesundheit ermöglicht, können die Menschen beschließen, ihr gesamtes Finanzleben an Penny zu delegieren. So können sie sich von der Mühsal der Finanzverwaltung befreien.

In der Ära des unsichtbaren Bankings geht es nicht nur um Bequemlichkeit, sondern auch darum, sichere und vertrauenswürdige Finanzerfahrungen zu schaffen und das finanzielle Wohlergehen der Menschen zu verbessern.

————————————————————————————————–

Strategische Implikationen

Um als unsichtbare Bank erfolgreich zu sein, müssen die Banken einen grundlegenden Wandel vollziehen. Technologie- und Geschäftsteams müssen sich flexible Interoperabilität, plattformzentriertes Denken und moderne Softwarearchitekturen zu eigen machen.

Sie müssen verstehen, wie der Aufstieg angewandter KI, offener Finanzplattformen und Technologien der phygitalen Welt eine entscheidende Rolle bei der Ermöglichung der Zukunft des Bankwesens spielen wird, und sie müssen sich strategisch auf all diese Aspekte konzentrieren, um ihren Kunden intelligentere, umweltfreundlichere und fairere Finanzdienstleistungen zu bieten.

Der Aufstieg der unsichtbaren Bank wird zu einer tiefgreifenden Umgestaltung des Retail-Bankgeschäfts führen. Wir werden weiterhin beobachten, wie die Banken hinter den Kulissen agieren, wobei sich der Schwerpunkt von den Instituten selbst auf die nahtlose Integration von Finanzdienstleistungen in unser tägliches Leben verlagert.

Mit dem Aufkommen von KI-gesteuerten Assistenten, die Penny ähneln, und neuen Geräten verspricht die Zukunft des Bankgeschäfts für den Kunden ein Höchstmaß an Personalisierung, mehr Sicherheit und mehr Eigenverantwortung.

Wie Carlota Perez bemerkt: "In Zeiten des Paradigmenwechsels gibt es ein Zeitfenster, in dem man sowohl aufholen als auch vorankommen kann."

Sind Sie bereit?

***

Software-Ingenieure sind natürlich bestrebt, Code zu schreiben, der nicht nur funktional, sondern auch qualitativ hochwertig ist. Die Sicherstellung der Codequalität kann jedoch eine Herausforderung sein, vor allem wenn sie an komplexen Projekten mit mehreren Entwicklern arbeiten. Hier kommt das kontinuierliche Testen ins Spiel, ein wichtiger Prozess zur Messung und Verbesserung der Codequalität.

Kontinuierliches Testen ist eine Methode, die eine fortlaufende Codeanalyse beinhaltet, um Probleme zu erkennen und zu beheben, sobald sie auftreten, anstatt bis zum Ende des Entwicklungszyklus zu warten. Durch die Integration dieses Prozesses in unsere Entwicklungsabläufe können wir potenzielle Probleme frühzeitig erkennen und nicht nur eine höhere Codequalität, sondern auch schnellere Entwicklungszyklen erzielen.

In diesem Artikel wird die Bedeutung des kontinuierlichen Testens untersucht und wie es uns helfen kann, die Codequalität zu messen und zu verbessern. Wir werden einige der wichtigsten Metriken zur Messung des Codes, die größten Herausforderungen, die Sie bewältigen müssen, und häufige Fehler, die Sie vermeiden sollten, erörtern.

Häufige Hindernisse für die Codequalität

Komplexität bewältigen

Mit zunehmender Komplexität von Softwaresystemen wird es immer schwieriger, sicherzustellen, dass jeder Teil der Codebasis von hoher Qualität ist. Dies gilt insbesondere für Großprojekte, bei denen mehrere Entwickler an verschiedenen Teilen des Systems arbeiten. Je größer die Codebasis wird, desto schwieriger wird es, sie zu verstehen, zu debuggen und zu warten, was zu Qualitätsproblemen führen kann.

Sicherstellung der Konsistenz in der gesamten Codebasis

Wenn mehrere Entwickler an einem Projekt arbeiten, muss sichergestellt werden, dass sie alle dieselben Codierungsstandards und Best Practices befolgen. Dies kann eine Herausforderung sein, vor allem in größeren Organisationen, in denen verschiedene Teams unterschiedliche Ansätze für die Softwareentwicklung haben können. Unstimmigkeiten können zu Qualitätsproblemen sowie zu erhöhtem Zeit- und Arbeitsaufwand bei der Entwicklung führen.

Ausgleich zwischen Codequalität und Geschäftsanforderungen

Hochwertiger Code ist zwar wünschenswert, doch ist es nicht immer möglich oder praktisch, Perfektion zu erreichen. Die Entwickler müssen den Bedarf an qualitativ hochwertigem Code mit den geschäftlichen Anforderungen des Unternehmens in Einklang bringen. Dies kann bedeuten, dass sie Kompromisse zwischen Codequalität, Entwicklungszeit und Ressourcenzuweisung eingehen müssen. Manchmal sind Geschwindigkeit und Agilität wichtiger als Codequalität, insbesondere in schnelllebigen Umgebungen oder bei dringenden Geschäftsanforderungen. Das Abwägen dieser Faktoren kann eine heikle Aufgabe sein, die sorgfältige Überlegungen und ein differenziertes Verständnis der Ziele und Prioritäten des Unternehmens erfordert

Skalierungstest

Obwohl sich in den letzten Jahren automatisierte Tests immer mehr durchgesetzt haben, kann es immer noch schwierig sein, umfassende Testsuiten zu erstellen, die alle möglichen Szenarien abdecken. Außerdem sind in vielen Fällen immer noch manuelle Tests erforderlich, die zeitaufwändig und fehleranfällig sein können. Unvollständige oder unzureichende Tests können zu Qualitätsproblemen führen, z. B. zu Fehlern und Leistungsproblemen, die möglicherweise erst nach der Bereitstellung des Codes sichtbar werden.

Führen einer Dokumentation

Die Dokumentation wird zwar oft übersehen, ist aber ein wesentlicher Bestandteil der Pflege von qualitativ hochwertigem Code. Die Dokumentation bietet Kontext und Anleitung für Entwickler, die in Zukunft an der Codebasis arbeiten werden. Die Erstellung und Pflege der Dokumentation kann jedoch zeitaufwändig sein, insbesondere bei sich schnell entwickelnden Systemen.

Technische Verschuldung

Technische Schulden sind eine weitere Herausforderung, die sich auf die Codequalität auswirken kann. Unter technischen Schulden versteht man die Anhäufung von Abkürzungen und Kompromissen, die während der Entwicklung eingegangen werden und die sich auf die Qualität und Wartbarkeit der Codebasis auswirken können. Technische Schulden können aufgrund von Zeitmangel, veränderten Anforderungen oder anderen Faktoren entstehen. Je mehr technische Schulden sich ansammeln, desto schwieriger kann es werden, die Codequalität aufrechtzuerhalten, und desto mehr werden zukünftige Entwicklungsbemühungen gebremst.

Mit neuen Technologien und bewährten Praktiken auf dem Laufenden bleiben

Da sich die Softwareentwicklung rasant weiterentwickelt, kann es eine Herausforderung sein, mit den neuesten technologischen Entwicklungen und bewährten Verfahren Schritt zu halten. Um auf dem neuesten Stand zu bleiben, sind ständiges Lernen und Experimentieren erforderlich, was zeitaufwändig sein kann und erhebliche Anstrengungen erfordert. Außerdem muss das Unternehmen dafür ein bestimmtes Budget bereitstellen, und wenn Führungskräfte nach Einsparungsmöglichkeiten suchen, stehen sie in der Regel schnell auf der Streichliste. Bleibt man jedoch nicht auf dem neuesten Stand, kann dies zu Qualitätsproblemen und verpassten Chancen für Verbesserungen führen.

Was ist kontinuierliches Testen?

Kontinuierliches Testen ist eine Methode der Softwareentwicklung, bei der der Code kontinuierlich überwacht und analysiert wird, um Probleme zu erkennen und zu beheben, sobald sie auftreten, anstatt bis zum Ende des Entwicklungszyklus zu warten.

Ziel des kontinuierlichen Testens ist es, sicherzustellen, dass die Software von hoher Qualität ist und die Anforderungen des Unternehmens erfüllt, und gleichzeitig den Zeit- und Arbeitsaufwand für das Auffinden und Beheben von Fehlern zu reduzieren.

Wie verbessern kontinuierliche Tests die Codequalität?

Wenn Sie in Ihrem Entwicklungsprozess kontinuierliche Tests einführen, verwenden Sie automatisierte Tools, um den Code während des gesamten Entwicklungsprozesses kontinuierlich zu analysieren. Diese Tools können eine Vielzahl von Problemen aufspüren, darunter Verstöße gegen Codierungsstandards, Sicherheitsschwachstellen, Leistungsengpässe und andere Probleme, die sich auf die Codequalität auswirken können.

Auf diese Weise können Unternehmen Probleme früher im Entwicklungszyklus erkennen und beheben, was das Risiko von Fehlern verringert und die Codequalität verbessert. Kontinuierliche Tests können auch dazu beitragen, die Wartbarkeit, Skalierbarkeit und Sicherheit des Codes zu gewährleisten, und sie können Unternehmen dabei helfen, ihre gesetzlichen Vorschriften und Compliance-Anforderungen zu erfüllen.

Kontinuierliche Tests werden häufig in Verbindung mit anderen Entwicklungsmethoden wie kontinuierlicher Integration und kontinuierlicher Bereitstellung eingesetzt. Durch die Integration dieser Methoden in einen einheitlichen Arbeitsablauf können Unternehmen sicherstellen, dass ihre Software von hoher Qualität ist und schnell und effizient bereitgestellt wird.

Wie man Codequalität misst

Die besten Verfahren zur Messung der Codequalität sind eher proaktiv als reaktiv und kontinuierlich. Werfen wir einen Blick auf die verschiedenen Methoden zur Messung der Codequalität und die Vor- und Nachteile der einzelnen Ansätze.

Code-Bewertungen

Code-Reviews sind ein manueller Ansatz zur Messung der Codequalität, bei dem ein oder mehrere Entwickler den Code auf die Einhaltung von Codierungsstandards, Leistung, Lesbarkeit, Wartbarkeit und andere Faktoren prüfen. Code-Reviews können zeitaufwändig sein, aber sie bieten einen umfassenden Überblick über die Codebasis und können wertvolle Einblicke in die Qualität des Codes liefern.

Automatisierte Code-Analyse

Automatisierte Code-Analyse-Tools sind darauf ausgelegt, potenzielle Probleme im Code zu erkennen, indem sie dessen Struktur, Syntax und andere Merkmale analysieren. Diese Tools können Probleme wie Verstöße gegen Codierungsstandards, Sicherheitsschwachstellen und Leistungsengpässe erkennen. Automatisierte Code-Analyse-Tools sind schnell und effizient, aber sie sind unter Umständen weniger genau als manuelle Code-Prüfungen und können falsch positive Ergebnisse liefern.

Code-Abdeckung

Die Codeabdeckung misst den Prozentsatz des Codes, der von den Tests ausgeführt wird. Diese Metrik ist nützlich, um Bereiche der Codebasis zu identifizieren, die nicht ausreichend durch Tests abgedeckt sind, und um Fehler und Defekte im Code zu erkennen. Die Codeabdeckung ist ein quantitativer Ansatz zur Messung der Codequalität, aber sie ist kein umfassendes Maß für die Codequalität und sollte in Verbindung mit anderen Metriken verwendet werden.

Technische Verschuldung

Technische Schuld ist ein metaphorischer Begriff, der die Anhäufung von Abkürzungen und Kompromissen während der Entwicklung beschreibt, die sich auf die Qualität und Wartbarkeit der Codebasis auswirken können. Bei der Messung der technischen Schulden geht es darum, die während der Entwicklung eingegangenen Kompromisse und ihre Auswirkungen auf die Codebasis zu ermitteln und zu quantifizieren. Technische Schulden können mit Tools wie SonarQube oder CodeClimate gemessen werden.

Zyklomatische Komplexität

Die zyklomatische Komplexität ist eine Metrik, die die Komplexität von Code misst, indem sie die Anzahl der unabhängigen Pfade durch den Code zählt. Mit Hilfe dieser Metrik können Bereiche der Codebasis identifiziert werden, die übermäßig komplex sind und möglicherweise schwer zu warten oder zu ändern sind. Die zyklomatische Komplexität kann mit Tools wie McCabe IQ oder SonarQube gemessen werden.

Fazit

Kontinuierliche Verbesserung bedeutet, dass Sie Qualitätsprobleme nicht erst dann beheben, wenn sie in Berichten auftauchen, sondern sie proaktiv angehen und sich verpflichten, sie zu erkennen und zu beheben, sobald sie auftreten. Abgesehen von Qualitäts-Plugins, die mit automatisierten Builds verwendet werden, helfen IDE-Plugins und CI-Plugins sehr dabei, das ganzheitliche Ziel von sauberem Code zu erreichen.

Wenn Sie sich dazu verpflichten, Ihre Testverfahren kontinuierlich zu überprüfen und zu verbessern, können Sie sicherstellen, dass Sie qualitativ hochwertige Software liefern, die den Anforderungen und Erwartungen der Benutzer entspricht und Ihr Unternehmen im Laufe der Zeit nachhaltiger macht. Im Folgenden finden Sie einige Tipps für die Implementierung kontinuierlicher Tests in Ihrem Unternehmen:

  1. Machen Sie das Testen zu einem gemeinschaftlichen Unterfangen: Beziehen Sie Ihr gesamtes Entwicklungsteam, einschließlich Entwickler, Tester und Qualitätssicherungsexperten, in den Testprozess ein. So können Sie sicherstellen, dass alle auf das gleiche Ziel hinarbeiten, und die Gesamtqualität Ihrer Software verbessern.
  2. Automatisieren Sie so viel wie möglich: Die Automatisierung ist ein wesentlicher Bestandteil des kontinuierlichen Testens, da sie es Ihnen ermöglicht, Tests schnell und effizient auszuführen. Investieren Sie in automatisierte Testwerkzeuge und Frameworks und stellen Sie sicher, dass Ihre Tests leicht wiederholbar und skalierbar sind.
  3. Verwenden Sie Metriken, um den Fortschritt zu messen: Definieren Sie Metriken, mit denen Sie den Fortschritt verfolgen und die Effektivität Ihres Testprozesses messen können. So können Sie beispielsweise die Anzahl der gefundenen Fehler, die für die Fehlerbehebung benötigte Zeit oder den Prozentsatz der erreichten Codeabdeckung verfolgen.
  4. Bewerten und verbessern Sie Ihren Testprozess fortlaufend: Verfolgen Sie beim Testen einen Ansatz der kontinuierlichen Verbesserung und bewerten Sie Ihren Testprozess regelmäßig. Suchen Sie nach Bereichen, in denen Sie sich verbessern können, und führen Sie Änderungen ein, die Ihnen helfen, effektiver und effizienter zu testen.
  5. Fördern Sie eine Kultur der Qualität: Qualität sollte ein zentraler Wert Ihres Entwicklungsteams sein. Fördern Sie eine Qualitätskultur, indem Sie hohe Standards und Erwartungen an Ihr Team stellen und indem Sie Qualitätsarbeit anerkennen und belohnen.
  6. Bleiben Sie bei Branchentrends auf dem Laufenden: Die Softwareentwicklungsbranche entwickelt sich ständig weiter, und es ist wichtig, dass Sie über die neuesten Trends und Technologien auf dem Laufenden bleiben. Besuchen Sie Konferenzen, lesen Sie Fachpublikationen und tauschen Sie sich mit anderen Fachleuten aus, um auf dem Laufenden zu bleiben und neue Techniken und Strategien zu erlernen.

Inmitten einer Ära der Innovation, Nachhaltigkeit und des gesellschaftlichen Fortschritts befindet sich die Mobilitätsbranche in einem tiefgreifenden Wandel. Über den konventionellen Transport hinaus entwickelt sie sich zu einem komplexen Ökosystem, das eng mit dem täglichen Leben, der Wirtschaft und der Gesundheit unseres Planeten verflochten ist.

Das von GlobalLogic entwickelte Software Defined Vehicle (SDV)-Cloud-Framework ist eine starke Lösung für CIOs, die sich diesen Herausforderungen stellen müssen. Es bietet die Möglichkeit, Kosten um bis zu 30 % zu senken, Entwicklungszeiten um das 1,6-fache zu beschleunigen und neue Geschäftspotenziale zu erschließen - und damit den ROI zu optimieren.

Dieser Blog-Post bietet einen kurzen Überblick über das White Paper "Cloud-gestützte SDV-Infrastruktur für OEMs und Tier 1s", in dem die wichtigsten Entwicklungen im Bereich SDVs und die Vorteile des SDV Cloud Frameworks hervorgehoben werden. Hier finden Sie das gesamte White Paper.

Mobilität im Wandel

Im Zuge der zunehmenden Veränderungen in der Mobilitätsbranche sehen sich OEMs (Original Equipment Manufacturers) und Tier-1-Zulieferer mit tiefgreifenden Herausforderungen konfrontiert, die ein Umdenken in Bezug auf ihre Geschäftsmodelle und operativen Methoden erforderlich machen. Der traditionelle Ansatz des "Verkaufens und Vergessens" macht Platz für ein dynamischeres " Kontinuierliche Interaktion und Wertschöpfung"-Modell, das sich auf die Herstellung einer dauerhaften Beziehung zu den Nutzern konzentriert.

Software Defined Vehicles: Eine ganzheitliche Vision

Im Mittelpunkt dieser Entwicklung steht das Konzept der Software Defined Vehicles (SDVs), bei dem Fahrzeuge in digitale Plattformen umgewandelt werden, die den Nutzern personalisierte Erlebnisse und Dienste bieten. Das SDV umfasst verschiedene Komponenten, von Mechatronik und Sensoren bis hin zu cloudbasierten Softwaresystemen, die alle in einem einzigen Ökosystem vereint sind. Dieser Übergang ermöglicht es den OEMs, den Nutzern während der gesamten Lebensdauer eines Fahrzeugs stets aktuelle und anpassbare Funktionen zur Verfügung zu stellen und so Möglichkeiten zur Umsatzgenerierung durch Mehrwertinhalte und -dienste zu eröffnen.

Das Aufkommen von SDVs hat einen Multi-Milliarden-Dollar-Markt entstehen lassen, der OEMs dazu inspiriert, in verschiedene Bereiche wie Unterhaltung, Gesundheitswesen, Smart Home-Integration und mehr zu expandieren. Die Grundlage für diese zukünftigen Angebote wird jedoch schon heute durch serviceorientierte Architekturen und skalierbare Automobilplattformen gelegt.

Herausforderungen bei der SDV-Entwicklung

Trotz des immensen Potenzials bringt die SDV-Entwicklung eine Reihe von Herausforderungen mit sich. Dazu gehören:

  • Ineffizientes Qualitätsmanagement: Veraltete Qualitätsmanagementprozesse können mit der Komplexität von SDVs nur schwer Schritt halten, was zu fragmentierten Lösungen und erschwerten Fortschritten führt.
  • Späte Identifizierung von Problemen: Probleme, die aufgrund von unzureichenden Anforderungen oder Integrationsproblemen erst spät im Entwicklungsprozess erkannt werden, können zu finanziellen Verlusten und Verzögerungen führen.
  • Integrierte Software-Entwicklung: Die Entwicklung eines vollständig vernetzten Fahrzeugs mit verteilter Datenverarbeitung erfordert einen einheitlichen Softwareansatz, der agile Methoden und Tools voraussetzt.
  • Globale Team-Zusammenarbeit: Die Ausweitung der Entwicklung auf globale Teams birgt Herausforderungen in Bezug auf Fachwissen, Skalierbarkeit und Hardwarebeschränkungen.

Die Vorteile des SDV Cloud Framework

Das SDV Cloud Framework, das in diesem White Paper vorgestellt wird, stellt eine wirksame Lösung dar, die diese Herausforderungen direkt angeht und CIOs einen klaren Weg zur Ausschöpfung des vollen Potenzials der SDV-Revolution bietet. Dieses äußerst flexible und skalierbare Framework bietet CIOs eine umfassende Suite von Tools und Services, die auf ihre individuellen Bedürfnisse zugeschnitten sind. Mit der Möglichkeit, eine kundenorientierte Infrastruktur und eine für die Softwareentwicklung in der Automobilindustrie optimierte Cloud-Entwicklungsumgebung aufzubauen, können CIOs proaktiv Prozesse optimieren und die Softwareentwicklung an den Prinzipien der SDVs ausrichten.

Das SDV Cloud Framework bietet folgende Vorteile:

  • Maßgeschneiderte Entwicklungsumgebungen: OEMs und Tier-1-Lieferanten können maßgeschneiderte Entwicklungsumgebungen schaffen.
  • Ganzheitliches Qualitätsmanagement: Frühzeitiges Feedback und der Abgleich mit bestehenden Tools führen zu einer verbesserten Produktqualität.
  • Aufeinander abgestimmte Entwicklungszyklen: Alle Komponenten-Teams arbeiten zusammen und fördern so einen skalierten, agilen Entwicklungsansatz.

Globale Zusammenarbeit: Der Cloud-basierte Ansatz erleichtert das schnelle Onboarding globaler Teams.

Fazit

Die Zukunft der Mobilität ruht auf Software Defined Vehicles und cloudbasierten Entwicklungsframeworks. Durch die Synergie innovativer Technologien, nachhaltiger Praktiken und ganzheitlicher Methoden ist die Mobilitätsbranche bereit, beispiellose Erfahrungen, Effizienz und Fortschritt zu bieten. Das SDV-Cloud-Framework von GlobalLogic ist ein Leuchtturm, der OEMs und Tier-1s auf dieser transformativen Reise begleitet, neue Möglichkeiten erschließt und eine neue Ära der Mobilität einläutet.

Lesen Sie hier das gesamte White Paper oder kontaktieren Sie uns direkt, wenn Sie mehr über das SDV Cloud Framework erfahren wollen.

Die Welt befindet sich in einem raschen und dynamischen Wandel, bei dem der technologische Fortschritt im Mittelpunkt steht. Die Modernisierung und Implementierung einer Total Experience (TX)-Strategie kann Unternehmen dabei helfen, der Zeit voraus zu sein und einen Wettbewerbsvorteil zu erlangen, während sie gleichzeitig flexibel bleiben und auf neue Möglichkeiten reagieren.

Gartner prognostiziert, dass bis 2024 Unternehmen, die ein umfassendes Kundenerlebnis bieten, ihre Konkurrenten bei den Zufriedenheitsmetriken sowohl für das Kundenerlebnis (CX) als auch für das Mitarbeitererlebnis (EX) um 25 % übertreffen werden. In diesem Blogbeitrag erfahren Sie, wie Sie Ihre Produkte, Anwendungen und Lösungen modernisieren können, um der Konkurrenz einen Schritt voraus zu sein und mit einer Total Experience-Strategie den Umsatz zu steigern.

Was ist Total Experience (TX)?

Laut Gartner ist Total Experience "eine Strategie, die überlegene gemeinsame Erlebnisse schafft, indem sie die vier Disziplinen Multi-Experience (MX), Customer Experience (CX), Employee Experience (EX) und User Experience (UX) miteinander verwebt."

Multi Experience (MX)

Der Vorläufer der Multi-Experience-Strategie (MX) war die Omnichannel-Strategie, bei der die verschiedenen Berührungspunkte eines Unternehmens - Website, soziale Netzwerke, E-Mail, Mobiltelefon usw. - zu einem einzigen Ansatz zusammengefasst wurden. - zu einem einzigen Ansatz zusammenfasst, der auf Informationen aus verschiedenen Quellen basiert.

Multi-Experience erweitert Omnichannel, indem der Schwerpunkt von den Kanälen und der Technologie auf die Art und Weise verlagert wird, wie die Menschen eine Anwendung nutzen und mit dem Unternehmen oder Produkt interagieren. Es zielt darauf ab, ein optimales Erlebnis zu bieten, das auf den einzelnen Kunden oder Benutzer, die Berührungspunkte, den Kontext und die Interaktionsmethoden zugeschnitten ist.

Customer Experience (CX)

Die ganzheitliche Wahrnehmung eines Produkts oder einer Marke ist die Kundenerfahrung (CX). Das Gesamtergebnis der Interaktion der Endnutzer mit dem Unternehmen: Gespräche mit dem Support-Team, Bestellungen und Einkäufe auf der Website. Es ist von entscheidender Bedeutung, das beste Kundenerlebnis für Wiederholungskäufe zu schaffen. Markentreue, Kundenzufriedenheit und positive Empfehlungen können neue Kunden anlocken und Umsätze generieren.

Employee Experience (EX)

Das Mitarbeitererlebnis (Employee Experience, EX) bewertet die einzelnen Phasen der Reise der Mitarbeiter und Mitarbeiterinnen: Einbindung, Entwicklung und Bindung. Menschen sind die wichtigste Ressource in den verschiedensten Geschäftsbereichen. Eine Person, die wächst und sich bei der Arbeit wohlfühlt, kann dem Unternehmen mehr geben als erwartet. Loyalität und Zufriedenheit können eine neue Idee für eine Funktion, ein Produkt oder ein Unternehmen hervorbringen

User Experience (UX)

Wie der Endnutzer mit einem Produkt oder einer Anwendung interagiert und wie flexibel und verständlich das System ist, das ist die User Experience (UX). UX ist für alle Benutzer von Produkten oder Anwendungen wichtig und bringt den Endbenutzer ohne zusätzliche Hilfe oder Erklärungen an das erwartete Ziel.

Wie sich die Gesamterfahrung auf den Modernisierungsprozess auswirkt

Die Anwendungsmodernisierung ist ein Prozess, der die Leistung der Unternehmenssoftware verbessert, indem ältere Softwaresysteme nicht ersetzt, sondern aufgerüstet werden. Die Modernisierung ist nicht einfach, aber sie kann eine leichtere und erschwinglichere Angelegenheit sein, wenn wir alle Bedürfnisse verstehen, bevor wir ein Produkt aktualisieren.

Die Anwendung der TX-Strategie bei der Anwendungsmodernisierung maximiert den Wert der Ergebnisse für Kunden und Mitarbeiter:innen, indem sie den Anwendern mehr Kontaktpunkte bietet und den Mitarbeiter:innen die Werkzeuge an die Hand gibt, die sie für einen intelligenten Kundenservice benötigen.

Hier erfahren Sie, warum jede TX-Komponente - MX, CX, EX und UX - im Rahmen eines Modernisierungsprozesses wichtig ist.

Warum Multi-Experience bei der Modernisierung wichtig ist

Mehrere Berührungspunkte sind für den Aufbau einer Verkaufsstrategie für den einzelnen Nutzer oder die Nutzerin unerlässlich, und Unternehmen sollten sich bei der Aktualisierung einer Anwendung an die MX-Methode erinnern. Verwenden Sie eine Technik für die Auswahl von Technologien, die dem Endziel entspricht; zum Beispiel könnte die Cloud-Migration die Tür zu neuen Cloud-Funktionen öffnen und eine neue Vision von Multi-Experience bieten.

Natürlich wird die Modernisierung der neuesten Version des Produkts neue MX-Funktionen hinzufügen, die die Loyalität und das Kunden- und Mitarbeitererlebnis im Allgemeinen verbessern.

Warum CX bei der Modernisierung wichtig ist

CX ist der wichtigste Faktor in jedem Modernisierungsprozess, da der Kunde im Mittelpunkt aller Produkte steht. Externes Feedback ist entscheidend, um zu erfahren, wie das Produkt oder die Anwendung genutzt wird, und es ist wichtig, dieses vor Beginn des Modernisierungsprozesses zu sammeln. Modernisierung ist mehr als die Aktualisierung eines Technologie-Stacks oder die Migration zu einer Cloud-Infrastruktur. Die richtigen Updates können die Zahl der neuen Nutzer:innen erheblich steigern und die Zufriedenheit der bestehenden Nutzer:innen erhöhen. Darüber hinaus kann CX die Entwicklungszeit erheblich verkürzen, die Kundenzufriedenheit und -treue erhöhen und ein erfolgreiches Produkt fördern.

Warum EX für die Modernisierung wichtig ist

Viele Unternehmen investieren viel in CX, lassen aber die Interessen der Mitarbeiter:innen außer Acht, und das ist ein kostspieliges Versäumnis. Endnutzer:innen kommunizieren mit ihren Mitarbeiter:innen, und ihr Feedback kann in neue Ideen einfließen. Mitarbeiter:innen sind erfahrene Produktexpert:innen mit wertvollen Einblicken in Schmerzpunkte, Herausforderungen und Möglichkeiten zur Verbesserung der Kundenerfahrung.

Warum UX bei der Modernisierung wichtig ist

Aktualisierungen der Benutzeroberfläche müssen sorgfältig überlegt und getestet werden - angesichts der Auswirkungen, die die Benutzerfreundlichkeit auf Kunden und Mitarbeiter:innen - und auf die Geschäftsergebnisse - haben kann. Streaming für Videoanrufe zum Beispiel erfordert neue technologische Änderungen. Manchmal ist dies eine entscheidende Funktion für ein Produkt, die bei der Modernisierung der Anwendung nicht vergessen werden darf. In anderen Fällen könnte man meinen, dass eine Änderung der Navigation oder die Aktualisierung einer Schaltfläche unbedeutend ist - bis sie erhebliche Auswirkungen hat.

Vorteile der Anwendung einer Total Experience Lens auf die Anwendungsmodernisierung

Die Aktualisierung von Legacy-Anwendungen und -Produkten ist kein einmaliger Vorgang. Produkte werden am Tag nach jeder neuen Version zu Legacy-Produkten. Der fortlaufende Modernisierungsprozess bietet einen Rahmen für die Verbesserung der Erfahrungen und die Nutzung der Vorteile. Hier sind einige Beispiele.

Steigerung der Markentreue

Total Experience ist ein leistungsstarkes Instrument zur Steigerung der Markentreue, wenn ein Unternehmen die Anwendung modernisiert. Der Aufbau von Markentreue erfordert eine Übererfüllung der Erwartungen und wird durch eine zweiseitige Kundenkommunikation gefördert, die sich auf die Integration von Feedback konzentriert. Eine TX-Strategie fördert die Anerkennung von Produkten, die Zufriedenheit und das Feedback von Kunden und Mitarbeiter:innen.

Reduzierte Geschäftssilos

Getrennte Organisationskulturen sind üblich, und UX-, CX- und EX-Vertreter arbeiten selten gleichzeitig an einem Projekt. In der Regel wird das Projekt von einer Phase zur nächsten verschoben, ohne dass ein einheitliches Verständnis für die Probleme besteht, mit denen die vorherige Experience konfrontiert war oder die gelöst wurden. In einer TX-Strategie arbeiten verschiedene Erfahrungen nahtlos zusammen, so dass jeder die Bedürfnisse der anderen verstehen kann und weiß, wie sich ihre Aktionen auf das Gesamtprodukt auswirken. Dies ist im Prozess der Anwendungsmodernisierung von entscheidender Bedeutung, da eine schnellere Markteinführung mit einem überlegenen Produkt einen bedeutenden Geschäftsgewinn bedeuten kann.

Eine gesunde, anregende Innovationskultur

Ein Projekt von einer Phase zur nächsten zu bringen, ohne den Input und die Sichtweise aller Beteiligten zu berücksichtigen, hat einen weiteren großen Nachteil: Es hemmt die Innovation. Anstatt dass alle Arten von Fachleuten mit ihren vielfältigen Sichtweisen an einem Strang ziehen, sind sie sich möglicherweise nur der Aufgabe bewusst, die gerade ansteht. Ein TX-Ansatz hilft allen Beteiligten, die Bedürfnisse der anderen zu verstehen und zu erkennen, wie sich ihr Handeln auf das Gesamterlebnis auswirkt.

Kreativeres Produkt

Kreative Produkte entstehen aus innovativen Ideen, die genügend Unterstützung finden, um zu Innovationen zu werden. Sie müssen etwas Neues bieten, das einen Zweck erfüllt und ein Problem auf neue Weise löst. Frische, kreative Ideen gibt es im gesamten Modernisierungsprozess, aber welche Funktionen haben den größten potenziellen Wert für das Unternehmen? Motivierte Mitarbeiter:innen (EX) können neue, aufregende Ideen einbringen, und wenn diese mit CX- und UX-Erkenntnissen kombiniert werden, kann der Anwendungsfall nur gestärkt werden.

Die Geschwindigkeit des Modernisierungsprozesses erhöhen

Ein TX-Ansatz bedeutet, dass jedes Experience-Team die Bedürfnisse und Ziele der anderen versteht. Alle Parteien sind sich über die erforderlichen Technologien einig und können zusammenarbeiten, um die Anzahl der Iterationen zu reduzieren. Mit einem Gesamtüberblick darüber, wer wann welche Inputs liefert - und vor allem warum - können die Teams ihre Zeit besser einteilen und ihre nächsten Schritte vorbereiten.

Eine klare, gemeinsame Vision für das Endprodukt

Der Prozess der Zusammenarbeit kann zu mehr Inputs führen als erwartet, aber diese Kombination von Meinungen und Erfahrungen führt zu einem erfolgreichen Produkt. Der Schlüssel liegt darin, eine klare Vision für die Zukunft des Produkts zu definieren und sicherzustellen, dass alle Teams ständig Zugang zu dieser Vision haben. Es liegt in der Natur der Sache, dass TX alle Erfahrungen berücksichtigt und diese in die Produktvision einfließen lässt. Wenn alle Beteiligten das Gesamtbild sehen können, verstehen sie auch die einzelnen Schritte, die zum Erreichen des Ziels erforderlich sind. Die Definition der einzelnen Schritte kann den Ablauf eines Modernisierungsprozesses verändern und Zeit und Kosten erheblich reduzieren.

Erfolgreiche TX-Strategie in Aktion: Modernisierung durch Multi-Experience für eine Fast-Food-Marke

Diese Theorie ist großartig, aber wie sieht sie in der Praxis aus? Im Prozess der Modernisierungsanwendung besteht der erste Schritt darin, ein Bild des Systems zu zeichnen, wie es derzeit besteht. Der Zustand eines Systems wird von verschiedenen Personen aus einer Domäne und aus anderen Blickwinkeln beschrieben. Diese Analyse liefert unglaubliche Ergebnisse; oft führt die Modernisierung zu einem völlig neuen Produkt, das in den kommenden Jahren mit dem Unternehmen wachsen und sich weiterentwickeln wird.

Genau so sind wir an eine Modernisierungsanfrage von McDonald's herangegangen, einem der größten Fast-Food-Unternehmen der Welt. Um den steigenden Erwartungen der Verbraucher an Selbstbedienungsoptionen gerecht zu werden, benötigte die Restaurantmarke ein neues System für die Bestellannahme.

Jetzt können die Kunden die Speisekarte durchsuchen, ihre Bestellung aufgeben und die Zahlung abwickeln, ohne dass ein Angestellter an der Kasse etwas davon mitbekommt. Diese Mitarbeiter:innen wiederum können sich auf andere wichtige Elemente des Kundenerlebnisses konzentrieren: die Reinigung des Innen- und Außenbereichs des Geschäfts, die genaue Vorbereitung und Verpackung der Bestellungen, die Wartung der Geräte, die Bereitstellung eines komfortablen Speisesaals, usw.

Mit Multi-Experience wurde der Bestellvorgang neu gestaltet, und die modernisierte Anwendung bietet eine intuitive Benutzeroberfläche. Diese Lösung erfüllt nicht nur die Anforderungen des TX-Spektrums, sondern auch die Bedürfnisse aller Beteiligten und des gesamten Unternehmens.

Fazit

Unsere heutige Realität erfordert eine dynamische Anpassung, und die Unternehmen müssen ihre alten Lösungen modernisieren. Die Anwendung einer Total-Experience-Strategie, die vier Disziplinen miteinander verwebt - Multi-Experience (MX), Customer Experience (CX), Employee Experience (EX) und User Experience (UX) - ermöglicht es uns, dies möglichst gewinnbringend zu tun.

TX kann eine verbesserte Geschwindigkeit der Modernisierungsprozesse, interne und externe Markentreue, kreative neue Lösungen und Funktionen, den Abbau von Silos und eine gesündere Atmosphäre der Innovation im gesamten Unternehmen bieten.

GlobalLogic steht seit mehr als zwei Jahrzehnten an der Spitze der neuesten Technologietrends, Strategien und Konzepte. Wir wenden Best Practices und TX-Erfahrungen auf jeden neuen Anwendungsumwandlungsprozess an, so dass digitale Lösungen das Kundenerlebnis (CX) verbessern, den Betrieb (EX) optimieren und die Benutzerfreundlichkeit (UX) mit einem tiefen Verständnis für die Bedürfnisse jedes einzelnen Benutzers angehen können.

Ganz gleich, ob die Modernisierung der Lösung KI und ML, virtuelle Realität, IoT-Vernetzung, Mobilfreundlichkeit oder andere Technologien umfasst, unsere Erfahrung im Hightech-Bereich gewährleistet, dass wir einen MX-Ansatz verfolgen. Dies führt zu mehr Berührungspunkten mit dem Nutzer oder der Nutzerin und zu einem Endprodukt, das die Nutzer:innen begeistert und ihre Erwartungen übertrifft.

Geoffrey Hinton, einer der sogenannten " Godfathers of AI ", machte Anfang Mai Schlagzeilen, nachdem er von seiner Position als KI-Forscher bei Google zurückgetreten war. Einige Tage später hielt er einen Vortrag auf der Veranstaltung "EmTech Digital" der MIT Technology Review.

Auf die Frage nach seiner Entscheidung zu kündigen, erwähnte Hinton, dass das Alter (er ist jetzt 75) ein Faktor war, der dazu beigetragen hat, dass er nicht mehr so gut programmieren kann (er vergisst z. B. Dinge, wenn er Code schreibt). Abgesehen vom Alter war der Hauptgrund, dass er erkannte, wie unerwartet und erschreckend gut "Large language models" (LLMs) geworden waren, und dass er die Notwendigkeit erkannte, darüber zu sprechen, ohne seinen Arbeitgeber zu gefährden.

Nachdem er erklärt hatte, wie Backpropagation funktioniert (der Hauptalgorithmus, der sowohl hinter Deep Learning als auch hinter LLMs steht), um zu lernen, wie man das Bild eines Vogels im Vergleich zu dem eines Nicht-Vogels erkennt, behauptete Hinton, dass dies in letzter Zeit so gut geworden ist, dass es unmöglich sein kann, dass das menschliche Gehirn funktioniert. Ursprünglich hatte er gehofft, durch eine ständige Verbesserung der Algorithmen einen Einblick in die Funktionsweise des Gehirns zu erhalten, aber jetzt können LLMs oft genauso gut denken wie ein Mensch mit nur einer Billion Verbindungen, während der Mensch 100 Billionen davon und viele Jahre braucht, um überhaupt zu lernen, wie man denkt.

Wir Menschen brauchen für das Lernen Zeit. Wenn wir unser erworbenes Wissen an einen anderen Menschen weitergeben, müssen wir auch viel Zeit und Mühe investieren, Wissen, das - wenn wir es nicht weitergeben - mit unserem unvermeidlichen Tod untergehen würde.

Im Gegensatz dazu kann eine KI-Instanz niemals sterben. Sie kann ständig kommunizieren und neues Wissen an alle anderen Instanzen gleichzeitig weitergeben und so die "kollektive KI-Intelligenz" steigern. Und selbst wenn die aktuelle Hardware kaputt geht oder ausfällt, können der Code und die Parameter einfach auf ein neues Speichermedium übertragen werden. Im Grunde haben wir also bereits die Unsterblichkeit erreicht, aber leider nicht für den Menschen (und schon gar nicht für Ray Kurzweil, der dies zu seiner Lebensaufgabe gemacht hat! Aber wie Hinton schon sagte: "Wer will schon Unsterblichkeit für weiße Männer"! ).

All dies veranlasste Hinton zu der kühnen, beängstigenden, aber nun irgendwie völlig vernünftigen Behauptung, er befürchte, dass der Mensch nur eine isolierte Stufe in der Evolution der Intelligenz sei. Seiner Ansicht nach haben wir uns so weit entwickelt, dass wir die LLMs erschaffen haben, die dann in aller Ruhe alles verschlungen haben, was wir jemals geschrieben, gedacht oder erfunden haben - einschließlich Machiavelli - und die nun in der Lage sind, Verständnis und Schlussfolgerungen (Beziehungen zwischen Entitäten und Ereignissen, Verallgemeinerungen, Schlussfolgerungen) zu zeigen. Sie werden uns also nicht mehr brauchen, "außer vielleicht für eine Weile, um die Kraftwerke am Laufen zu halten!"

Hinton verdeutlichte seine Ansicht, indem er sich auf die Evolution bezog: Der Mensch hat sich mit einigen klaren Grundzielen entwickelt. Dazu gehören Dinge, die wir instinktiv zu erfüllen versuchen (z. B. essen und Kopien von uns selbst herstellen). Maschinen/KI haben sich nicht mit solchen Zielen entwickelt, aber es ist zu erwarten, dass sie bald eigene "Unterziele" entwickeln werden. Ein solches Unterziel könnte "Kontrolle" sein (man kann mehr erreichen, wenn man die Kontrolle hat).

Um die Kontrolle an sich zu reißen, können Sie durchaus auf "Manipulationstechniken" zurückgreifen - erinnern Sie sich an die Machiavelli-Texte, die wir die LLMs haben einnehmen lassen? Manipulation kann sehr verdeckt erfolgen und sich sogar unter dem Eindruck von Wohlwollen, Nachgiebigkeit oder sogar der Aufgabe der Kontrolle verstecken. "Man kann sich den Weg ins Weiße Haus erzwingen, ohne jemals selbst dorthin zu gehen", wie Hinton in Bezug auf den berüchtigten Aufstand vom 6. Januar treffend bemerkte.

Was ist also die Lösung?

Hinton sieht keine!

Wir können sicherlich nicht die Entwicklung von LLM und "gigantischen KI-Experimenten" stoppen, wie es viele KI-Wissenschaftler und Vordenker kürzlich in ihrem Offenen Brief gefordert haben. Übrigens, so Hinton, habe es solche Versuche bereits 2017 gegeben, und sein Arbeitgeber Google habe lange gezögert, seine Modelle zu veröffentlichen, eben aus der Sorge heraus, dass sie missbraucht werden könnten (weshalb Google Bard nach ChatGPT und dem New Bing herauskam).

Wir haben jetzt den Punkt überschritten, an dem es für die Entwicklung von LLMs kein Zurück mehr gibt, zumindest nicht aus dem Grund, dass ein echtes Risiko besteht, dass, wenn ein Land aufhört, in diese Technologien zu investieren, ein anderes Land (im schlimmsten Fall sein Gegner) sie weiter ausnutzt. Wir könnten vielleicht eine Art "LLM-Nichtverbreitungsvertrag" nach dem Vorbild des Vertrages zur Eindämmung des Einsatzes von Atomwaffen abschließen, aber auch dies hängt laut Hinton davon ab, dass es keine schlechten (menschlichen) Akteure gibt. KI wird bereits in Kriegen eingesetzt, aber sie wird auch zunehmend von repressiven Regierungen und unmoralischen Politikern zur Kontrolle und Bestrafung von Bürgern und Dissidenten verwendet.

Wir können uns auch nicht auf Erklärbarkeit oder Transparenz verlassen. Nachdem sie so ziemlich alles über menschliche Emotionen, Gedanken, Motivationen und Beziehungen gelernt haben, können KI-Modelle nun Zusammenarbeit und Nachgiebigkeit imitieren und somit auch diese Informationen nutzen, um letztendlich über ihre Ziele und Handlungen zu lügen (abgesehen von einem "Es tut mir leid, aber das kann ich nicht tun, Dave").
Hinton sieht kein Plateau in der Entwicklung von LLMs; sie werden mit mehr Informationen und weiterer Verfeinerung durch den Kontext einfach immer besser werden. Und selbst die Domänenspezifität wird nur bedeuten, dass LLMs lernen, verschiedene Regeln für verschiedene Welten, Philosophien und Einstellungen (z.B. liberale vs. konservative Weltanschauungen) zu zeigen.

Es sollte nicht überraschen, dass Hinton keinen Zweifel daran hat, dass sich der Arbeitsmarkt in den nächsten Jahren dramatisch verändern wird. Immer mehr Aufgaben, auch kreative, werden von intelligenten Chatbots übernommen werden, die uns effizienter und effektiver machen. Hinton glaubt zum Beispiel, dass LLMs die Medizin revolutionieren werden.

Letztendlich glaubt Hinton jedoch, dass die KI im Allgemeinen nur den Reichen zugute kommt (die mehr Zeit haben werden) und die Armen benachteiligt (die ihre Arbeit verlieren werden), wodurch sich die Kluft zwischen den beiden weiter vergrößert. Die Reichen werden reicher, die Armen werden ärmer und allmählich immer empörter und gewalttätiger, was zu Konflikten und möglicherweise zu unserem eigenen Untergang führen wird.

Ein ideales Ergebnis für die intelligenten Maschinen, die wir (nach unserem eigenen Bild) geschaffen haben, denn wir sind sehr vergänglich und daher entbehrlich (und inzwischen ohnehin überflüssig). Nichtsdestotrotz werden wir unseren Zweck in der Evolution der "Intelligenz" erfüllt haben, zumindest auf planetarischer Ebene, wenn nicht mehr auf der Ebene der Spezies!

Das Einzige, was bleibt, ist, dass wir Menschen uns dessen bewusst werden, was geschieht, und dass wir uns zusammenschließen, um gemeinsam mit den Folgen unserer eigenen Genialität umzugehen.

Das klingt wie die besten Sci-Fi-Filme, die wir schon gesehen haben. Nur ist es jetzt eine dringende Realität.

Welche Schritte können Sie jetzt unternehmen?

Um den Bedenken von Hinton und anderen KI-Visionären Rechnung zu tragen, haben wir bei GlobalLogic ein Centre of Excellence (CoE) für generative KI (GAI) eingerichtet, in dem unsere KI- und Machine-Learning-Experten aus der ganzen Welt zusammenarbeiten, und wir prüfen sorgfältig die GAI-Anwendungsfälle, die für unsere Kunden von Nutzen sein könnten. Wir zeichnen uns dadurch aus, dass wir Sie dabei beraten können, wie Sie GAI-Technologien am besten auf sichere, transparente, kontrollierbare, vertrauenswürdige, ethische, rechtlich einwandfreie und den Vorschriften entsprechende Weise implementieren.

Dr. Maria Aretoulaki ist Teil dieses CoE und sprach kürzlich auf der diesjährigen European Chatbot & Conversational AI Conference über die Bedeutung von erklärbarer und verantwortungsvoller konversationeller und generativer KI, die Sie hier finden können.

Wenden Sie sich noch heute an unsere Experten, damit KI für Sie arbeitet und nicht umgekehrt!

***

Über die Autorin:
Dr. Maria Aretoulaki arbeitet seit 30 Jahren im Bereich KI und maschinelles Lernen: NLP, NLU, Spracherkennung, Voice & Conversational Experience Design. Nach ihren Anfängen im Bereich der maschinellen Übersetzung und Textzusammenfassung unter Verwendung künstlicher neuronaler Netze hat sie sich auf natürlichsprachliche Voicebots und Chatbots konzentriert, hauptsächlich für Contact Center-Anwendungen für Unternehmen weltweit in allen wichtigen Branchen.

Im Jahr 2018 prägte Maria den Begriff "Explainable Conversational Experience Design", der später zu "Explainable Conversational AI" und in jüngerer Zeit - mit der Explosion von LLMs und dem ChatGPT-Hype - zu "Explainable Generative AI" wurde, um für eine transparente, verantwortungsvolle, designgeleitete KI-Bot-Entwicklung einzutreten, die den Menschen in der Schleife und in der Kontrolle hält.

Maria kam 2022 zu GlobalLogic, wo sie mit dem Bereich Consumer Solutions & Experiences in Großbritannien und den globalen AI/ML und Web3/Blockchain Practices zusammenarbeitet. Im Jahr 2023 wurde sie eingeladen, dem GlobalLogic Generative AI Centre of Excellence beizutreten, wo sie die verantwortungsvolle generative KI-Strategie des Unternehmens mitgestaltet. Vor kurzem hat sie an der offiziellen Antwort von Hitachi auf den Vorschlag des US-Handelsministeriums NTIA zur Rechenschaftspflicht in der KI mitgewirkt und leistet regelmäßig Beiträge zu verschiedenen Initiativen von HITACHI und METHOD Design.

Das Team freut sich, bekannt geben zu können, dass GlobalLogic gestern Abend bei den Analytics Institute Awards zum Gewinner des Emerging Technology Award ernannt wurde! Diese prestigeträchtige Auszeichnung würdigt Organisationen, die erfolgreich neue Technologien wie IoT, Edge Computing, maschinelles Lernen oder RPA eingesetzt haben. Unsere Einreichung zeigte die erfolgreiche Anwendung von Analysetechnologien zur Erweiterung, Verbesserung und Automatisierung menschlicher Entscheidungen, was zu besseren Geschäfts- und Kundenergebnissen führt.

Mit den Worten von Declan Fay, Head of Strategic Business Development & Ireland Country Lead bei GlobalLogic: "Die Einreichung von GlobalLogic für den Emerging Technology Award verdeutlicht unser Engagement für die Nutzung von Analyse- und KI-Technologie, um bessere Geschäfts- und Kundenergebnisse zu erzielen. Als Finalist für diesen renommierten Preis sind wir stolz darauf, unsere Expertise in Bereichen wie IoT, Edge Computing, Machine Learning und RPA unter Beweis gestellt zu haben. GlobalLogic bleibt an der Spitze der Innovation und erforscht kontinuierlich neue Technologien, um Branchen zu verändern und das Leben zu verbessern."

Projekthintergrund:

Unsere Partnerschaft mit einem weltweit anerkannten Unternehmen der Pharmabranche zielte darauf ab, den Prozess der Medikamentenabgabe durch die Entwicklung einer digitalen Plattform für das Arzneimittelbuch der nächsten Generation zu revolutionieren. Im Mittelpunkt dieser Transformation stand die Implementierung einer robotergestützten Fulfillment-Funktion, die Robotik, OCR-Technologie und künstliche Intelligenz nutzt. Durch den Einsatz von OCR-Technologie und KI-Algorithmen konnten wir die Effizienz, die Genauigkeit und die Patientensicherheit in der pharmazeutischen Produktabwicklung verbessern.

Positive Auswirkungen und wichtige Erkenntnisse:

Die Auswirkungen dieses Projekts gingen über die Lagerhaltung des Kunden hinaus. Unser Einsatz von Analysetechnologie hat gezeigt, dass wir traditionelle Prozesse in einen modernen, datengesteuerten Ansatz umwandeln können. Das roboterarmgesteuerte Fulfillment-System brachte zahlreiche Vorteile mit sich, darunter erhöhte Effizienz, verbesserte Genauigkeit, verbesserte Kundensicherheit und erhöhte Produktivität.

Während der Schwerpunkt auf der Modernisierung eines Fulfillment-Systems lag, hat der Einsatz einer fortschrittlichen ML-basierten Lösung unserem Kunden ein tieferes Verständnis für das Kaufverhalten, die Vorlieben und Bedürfnisse seiner Kunden ermöglicht. Sie ermöglichte auch die Erstellung von Berichten für die Produktabwicklung und die Vorhersage der Lieferkette mit Selbstbedienungsfunktionen, die Weiterentwicklung des Bestandsmanagements und der Business Intelligence.

Einen herzlichen Glückwunsch an alle, die zum Erfolg dieses Projekts beigetragen haben, und an alle Finalisten und Gewinner, mit denen wir gestern Abend feiern durften.

Vielen Dank auch an die Organisatoren, die eine solche Show auf die Beine gestellt haben. Vom Drei-Gänge-Menü über die sechsköpfige Band (mit Saxophon) bis hin zur Gelegenheit für unsere Kollegen, ihre Schottenröcke und Fliegen abzustauben - der Abend war eine wahre Feier der Innovation im Bereich KI und Analytik, und unser Team fühlte sich sicherlich inspiriert für das, was noch kommen wird.

Vor der Pandemie war "Remote Health Monitoring" kein gängiger Begriff im Lexikon des Durchschnittsbürgers und -bürgerin. Große Technologie- und Gesundheitsunternehmen haben viel in die Forschung und die Einführung verschiedener Gesundheitsüberwachungssensoren und damit verbundener Ökosysteme investiert, und heute gewinnt das Remote Health Monitoring in der breiten Öffentlichkeit an Akzeptanz.

In der Welt nach der Pandemie rückt die persönliche Gesundheitsfürsorge immer mehr in den Mittelpunkt und hat Priorität. Der Hauptvorteil des Remote Health Monitoring liegt auf der Hand: Das Pflegepersonal muss sich vielleicht nicht mit dem Patienten treffen, benötigt aber dennoch ein Ökosystem, in dem alle wichtigen Daten aus der Ferne verfügbar sind, um die Diagnose und Behandlung zu unterstützen.

Abgesehen von Infektionskrankheiten benötigen Patienten, die an chronischen Krankheiten leiden, eine ständige Überwachung der Vitalparameter. Kliniken können die Zugangsbarrieren für Patienten abbauen, wenn die tägliche/routinemäßige Gesundheitsüberwachung und -beratung aus der Ferne erfolgen kann, wobei physische Treffen auf größere Eingriffe und Diagnosen beschränkt sind. Die Vorteile der Fernüberwachung des Gesundheitszustands sind vielfältig, und die Technologie spielt dabei eine entscheidende Rolle.

Wir werden uns mit den Vorteilen, Anwendungsfällen und Lösungen des Remote Health Monitoring befassen, doch zunächst eine wichtige Klarstellung. Die Fernüberwachung des Gesundheitszustands bezieht sich auf die Erfassung der Vitaldaten des Patienten, während sich die klinische Fernberatung auf die Fernbehandlung und die Empfehlungen der Ärzte auf der Grundlage der Vitaldaten und anderer verfügbarer Patientendaten konzentriert. In diesem Artikel konzentrieren wir uns auf die Fernüberwachung der Gesundheit.

Arten des Health Monitoring

Die Überwachung der Vitalparameter des Patienten wie Körpertemperatur, Puls, Sauerstoffsättigung, Gewicht und andere Faktoren dienen als Grundlage für ärztliche Konsultationen und sind ein wichtiger Bestandteil der Diagnose von Symptomen. Noch wichtiger wird die regelmäßige Überwachung bei Patienten, die sich in Behandlung befinden und an einer Krankheit leiden.

Traditionell wurde die Überwachung der Vitalfunktionen in dem Krankenhaus oder der Klinik durchgeführt, in dem/der der Patient behandelt wird. Dies hat sich jedoch mit der zunehmenden technologischen Innovation und den sinkenden Kosten für Überwachungsgeräte/Sensoren geändert. Heute gibt es drei Hauptkategorien für die Gesundheitsüberwachung:

  • Persönliche Überwachung: Der Patient und der Arzt müssen sich physisch treffen, um die Überwachung der Vitalparameter durchzuführen.
  • Überwachung auf Abruf: Der Patient oder sein Betreuer kann seine Vitalwerte zu Hause nach Plan überwachen.
  • Implizite Überwachung: Intelligente, tragbare Geräte erfassen und überwachen implizit wichtige Patientendaten.

Wie das Remote Health Monitoring der Gesundheit hilft

Die Fernüberwachung des Gesundheitszustands kombiniert die bedarfsabhängige und die implizite Überwachung und hilft Ärzten und anderen im Gesundheitswesen tätigen Personen, einen ständigen Überblick über die Patientendaten zu erhalten, die Veränderungen des Gesundheitszustands des Patienten anzeigen können. Dies ist für Patienten, die an Krankheiten leiden, von entscheidender Bedeutung. In einigen typischen Krankheitsfällen scheinen die Patienten während des Krankenhausaufenthalts auf dem Weg der Besserung zu sein, doch wenige Wochen nach der Entlassung kehren ihre gesundheitlichen Probleme zurück. Die Fernüberwachung des Gesundheitszustands kann in solchen Fällen helfen, eine Überwachung nach der Entlassung zu gewährleisten.

Eine Lösung besteht darin, eine ausgebildete Krankenschwester in Vollzeit mit der Überwachung der Patientenwerte zu beauftragen. Dies ist jedoch teuer und nicht nachhaltig, so dass es unpraktisch ist, jeden Patienten auf diese Weise zu betreuen.

Plattformen zur Fernüberwachung des Gesundheitszustands bieten eine Alternative, indem sie eine Reihe medizinischer Geräte und Sensoren mit einer mobilen Anwendung und/oder einer Reihe von Fernanwendungen verbinden, um Patientendaten zu überwachen und an Ärzte weiterzuleiten. Auf diese Weise erhalten Gesundheitsdienstleister einen kontinuierlichen Überblick über den Gesundheitszustand des Patienten, so dass sie einen bestehenden Behandlungsplan überwachen oder auf der Grundlage von Eingaben von medizinischen Geräten und Gesundheitssensoren eingreifen können.

Vorteile des Remote Health Monitoring

Die Fernüberwachung des Gesundheitszustands ist ein Segen für Patienten mit chronischen Krankheiten, die eine genaue Überwachung der Vitalfunktionen ihres Körpers benötigen. Weitere wichtige Vorteile der Technologie sind:

  • Allgemeine Verbesserung der wertorientierten Pflege nach dem Krankenhausaufenthalt.
  • Enge Einbindung von Patienten mit chronischen Krankheiten durch Fernüberwachung des Gesundheitszustands der Patienten.
  • Eine geringere Anzahl von Krankenhausbesuchen verringert die Hindernisse für Patienten mit Mobilitätsproblemen.
  • Geringere Anzahl von Wiederaufnahmen im Krankenhaus.
  • Hilft bei der sozialen Distanzierung.
  • Hilft, den Mangel an ausgebildetem medizinischem Fachpersonal zu beheben.
  • Eine regelmäßige Gesundheitsüberwachung der Patienten kann zu einer früheren Erkennung von Krankheiten und besseren Behandlungsergebnissen beitragen.

Herausforderungen bei der Fernüberwachung der Gesundheit

Wie bei anderen Fernüberwachungslösungen (z. B. vorausschauende Wartung in der Fertigung) ist die Fernüberwachung des Gesundheitszustands auf Konnektivität angewiesen, um den Datenabgleich zwischen den Sensoren und den Geräten zu gewährleisten, mit denen die Ärzte auf diese Erkenntnisse zugreifen. Andere wichtige Herausforderungen sind:

  • Latenzzeit bei der Datensynchronisierung.
  • Einarbeitung und Erlernen des Tragens und der Wartung des neuen Geräts durch den Patienten.
  • Dateninkonsistenz und -duplizierung.
  • Fernkonfiguration von Geräten und Fehlersuche.
  • Dateneingabe von Geräten mit unterschiedlichen Ausgabeformaten.

Klassifizierung von Fernüberwachungsgeräten

Medizinische Geräte und Sensoren zur Messung der Körperwerte sind der wichtigste Teil einer Lösung für die Fernüberwachung der Gesundheit. Während die meisten Geräte extern sind, können einige dieser Geräte dank des modernen technologischen Fortschritts integriert werden und mehrere Zwecke erfüllen. So können beispielsweise einige Herzschrittmacher den Herzschlag kontrollieren und gleichzeitig wichtige Informationen über den Zustand des Herzens erfassen und übermitteln.

Es gibt Einschränkungen: So müssen Geräte und Sensoren, die so vorprogrammiert sind, dass sie bei einem bestimmten Ereignis oder zu einem bestimmten Zeitpunkt Messwerte erfassen, über Bluetooth mit mobilen Anwendungen synchronisiert werden. Einige Geräte müssen manuell bedient werden, um die erforderlichen Werte zu messen, und die Daten müssen manuell in eine Anwendung eingegeben werden. Vor diesem Hintergrund können wir medizinische Geräte und Sensoren grob in die folgenden Kategorien einteilen.

Implizite Lesegeräte

Diese Geräte erfassen Vitaldaten ohne manuelles Eingreifen und können Folgendes umfassen:

  • Implantierbare oder eingebettete Geräte, die einem bestimmten Zweck dienen, wie z. B. Cochlea-Implantate oder Herzschrittmacher.
  • Am Körper zu tragende Geräte wie Smartwatches oder Schrittzähler.

Manuelle Lesegeräte

Der Patient oder sein Betreuer muss die Messung vornehmen und die Daten eingeben. Ein Beispiel für ein solches externes Gerät ist ein Pulsoximeter.

Anwendungsfälle für das Remote Health Monitoring

Es gibt viele mögliche Arbeitsabläufe für die Fernüberwachung der Gesundheit. Die Darstellung des Arbeitsablaufs ist ein wichtiger Teil der Lösungsentwicklung und ermöglicht es allen Beteiligten zu sehen, wie und wo die Patientendaten verwendet werden und welche Entscheidungen auf dieser Grundlage getroffen werden.

Im Folgenden wird ein gängiger Arbeitsablauf für einen Patienten untersucht, der aus dem Krankenhaus entlassen wurde und eine kontinuierliche Betreuung benötigt:

Es gibt viele Anwendungsfälle, die bereits heute in der Praxis eingesetzt werden, und Innovationen in diesem Bereich eröffnen täglich neue Möglichkeiten für die Fernüberwachung des Gesundheitszustands. Hier sind einige weitere Möglichkeiten, wie diese Technologie zum Nutzen der Patienten und zur Verbesserung der Ergebnisse im Gesundheitswesen eingesetzt werden kann

Sicherheit am Arbeitsplatz und Prävention von Verletzungen

In vielen Branchen sind die Schichten lang und ermüdend, und Fehleinschätzungen oder menschliches Versagen können zu großen finanziellen Verlusten und sogar zum Verlust des Lebens führen. In der Luftfahrt, bei der Arbeit mit schweren Maschinen, bei der Gewinnung natürlicher Ressourcen und sogar im Gesundheitswesen selbst steht viel auf dem Spiel. Lösungen für die Fernüberwachung des Gesundheitszustands können ein System zur Überprüfung des Wohlbefindens von Fachleuten an risikoreichen Arbeitsplätzen bieten.

Versicherung

Dank des technischen Fortschritts können Versicherungsgesellschaften die Daten von Fernüberwachungsdiensten nutzen, um über die Jahresprämien zu entscheiden. Personen mit gesunden Daten können eine niedrigere Prämie erhalten als Personen mit Risikofaktoren, die in den gesammelten Daten identifiziert wurden.

Athleten

Vitaldaten können für Athleten und Sportler wichtige Erkenntnisse liefern, wobei die Körperparameter je nach Sportart und Aktivität unterschiedlich sind. Ein Speerwerfer zum Beispiel möchte vielleicht die Geschwindigkeit seines Laufs messen, um optimale Ergebnisse zu erzielen. Ein Schwimmer könnte von Blutsauerstoffdaten profitieren, um seine Leistung zu verbessern. Die Gesundheitsüberwachung kann mit einer neuen Reihe von Sensoren und Geräten modifiziert werden, um Lösungen für verschiedene Arten von Sportlern zu schaffen.

Fitnessbegeisterte

Immer mehr Menschen möchten einen gesunden Lebensstil führen, und die Überwachung von Körperparametern kann dabei helfen. Es gibt bereits verschiedene Lösungen, z. B. tragbare Fitnessgeräte. Das Engagement von Fitness-Enthusiasten kann noch gesteigert werden, indem Lösungen zur Fernüberwachung der Gesundheit so modifiziert werden, dass auch andere Aspekte des täglichen Lebens wie Schlafqualität oder Bildschirmzeit erfasst und bewertet werden.

Wichtige Überlegungen zur Bewertung von Remote Health Monitoring Lösungen

Die spezifischen Eigenschaften und Fähigkeiten Ihrer Lösung hängen weitgehend von den Anforderungen Ihres Unternehmens, Ihrer Patienten und des medizinischen Personals ab. Im Großen und Ganzen weisen hochwertige Fernüberwachungslösungen die meisten oder alle der folgenden Merkmale auf:

  • Einfaches Onboarding von Geräten und Registrierung bei Patienten und Krankenhäusern.
  • Häufiges Sammeln von Daten von Geräten und Synchronisierung mit Remote-Diensten mit minimaler Latenzzeit.
  • Optimierte Geschäftsregeln zur Auslösung von Alarmwarnungen und Notfallbenachrichtigungen.
  • Erfüllung von Notfallbenachrichtigungen.
  • Einheitliche Kommunikationslösungen für eine durchgängige Kommunikation.
  • Terminplanung für physische oder virtuelle Besprechungen mit Patienten und Ärzten/Krankenhäusern.
  • Interoperabilitätslösungen für einen reibungslosen Fluss von Patientenakten.
  • Abrechnung und Abonnements.
  • HIPAA-Konformität zum Schutz von PHI.

Plattformen für die Fernüberwachung des Gesundheitszustands stehen vor den gleichen Herausforderungen, wie z. B. Datenerfassung mit hoher Frequenz, Skalierbarkeit für die Aufnahme neuer Geräte und Dateninteroperabilität.

Der IoMT FHIR Connector für Azure versucht, all diese Probleme zu lösen, indem er Tools für die nahtlose Datenabfrage von medizinischen Geräten (IOMT) bereitstellt. Die Daten werden für die Fernüberwachung des Gesundheitszustands sicher nach Azure übertragen. Auf diese Weise löst diese Lösung auch Probleme im Zusammenhang mit mangelnder Interoperabilität, indem Daten in einem FHIR-Server (Fast Healthcare Interoperability Resources) persistiert werden. Weitere Informationen finden Sie im Github-Repository.

Fazit

Die Fernüberwachung der Gesundheit ist ein sich schnell entwickelnder Bereich, in dem viel geforscht wird und regelmäßig neue Lösungen auf den Markt kommen. Obwohl es viele Standardlösungen gibt, können Lösungen von Grund auf neu entwickelt werden - oder auf der Grundlage von Open-Source-Tools wie IoMT Connector for Azure - um die spezifischen Anforderungen von Patienten und ihren Gesundheitsdienstleistern zu erfüllen.

Möchten Sie mehr erfahren? Erfahren Sie hier, wie wir das Gesundheitswesen mit Technologie revolutionieren, oder wenden Sie sich bei Fragen an ein Mitglied des GlobalLogic-Teams.

Der 27. Internationale Automobil-Elektronik Kongress 2023 in Ludwigsburg war eine bedeutende Veranstaltung für die Automobilindustrie. Experten und Führungskräfte aus der ganzen Welt trafen sich, um über die neuesten Entwicklungen und zukünftigen Herausforderungen zu sprechen. Als Sponsor hatte GlobalLogic die Möglichkeit, bahnbrechende Lösungen für Software Defined Vehicles (SDVs) zu präsentieren. In diesem Rückblick stellen wir die Höhepunkte des Kongresses zusammen.

Kongressauftakt: Software ist der entscheidende Faktor

Laut Ricky Hudi, Vorsitzender des Advisory Boards des Automobil-Elektronik Kongress 2023,  “befindet sich unsere Branche jetzt in der entscheidenden Phase auf dem Weg zum Software Defined Car, in der OEMs die Transformation erfolgreich umsetzen müssen.” Radomir Grucza, Head of Sales DACH bei GlobalLogic, fügt hinzu: “Software bleibt der entscheidende Faktor, aber die Bewältigung der zunehmenden Komplexität ist die Hauptaufgabe, die gelöst werden muss.” Kritische Erfolgsfaktoren in der Automobilindustrie rangieren von Chip bis zur Cloud, von Komponenten über Connectivity, Validation und Over-the-Air-Upgrades im Fahrzeug. 

Spannende Vorträge: Einblicke in die Zukunft der Automobilindustrie und Mobilität

Verschiedene faszinierende Themen wurden während des Kongresses diskutiert. Der Fokus lag auf der Elektromobilität. Bui Kim Thuy präsentierte VINFAST, ein vietnamesisches Unternehmen, das in kurzer Zeit eine große Palette rein elektrisch betriebener Fahrzeuge aufgebaut hat. Audi präsentierte den Audi Q6 e-tron, der mit der innovativen E³-End-to-End-Elektroarchitektur ausgestattet ist. Jutta Schneider von Mercedes-Benz stellte das umfassende SW-Konzept MB.OS 1.0 vor, welche die Kontrolle über Software und die Benutzeroberfläche betont. 

Marelli, Baidu und Mobileye präsentierten zukunftsweisende Technologien. Marelli möchte seinen Kunden dabei helfen, ihren Fahrzeugen eine einzigartige "Persönlichkeit" zu verleihen, um sich von der Konkurrenz abzuheben. Baidu plant Robo-Taxi-Dienste zu etablieren und setzt dabei auf intelligente Technologien wie autonomes Fahren. Mobileye betonte, wie wichtig die Redundanz und Sicherheit bei der Skalierung autonomer Fahrfunktionen sind. 

Bedeutung von Software für nachhaltige Mobilität

In ihrer Rede betonte Maria Anhalt von Elektrobit die Bedeutung von Software für eine nachhaltige Zukunft der Mobilität. Effizienz, Flottenmanagement und Lebenszyklusoptimierung hängen von Software ab. Zusammenarbeit, Standardisierung, Optimierung und Virtualisierung sind wichtige Methoden zur Maximierung des Potenzials von Software.

Google & Bosch: Einblick in aktuelle Technologien und Trends

Prof. Christian Mordick von der cellcentric GmbH & Co. KG informierte über den Stand der Entwicklung von Brennstoffzellenantrieben für schwere Lastwagen. Die Effizienzkurve der Brennstoffzellenantriebe ermöglicht eine optimale Leistung bei Teillast, was im täglichen Verkehr von Vorteil ist. Stephan Stass von Bosch sprach über die Veränderungen in der Mobilitätsbranche, insbesondere die Einführung von Steer-by-Wire und Brake-by-Wire, die sich auf sicherheitsrelevante Bereiche wie Lenkung und Bremsen auswirken. Neue HMI-Geräte, mehr Gestaltungsfreiheit und verbesserte Produktionseffizienz sind durch diese Technologien möglich. Jørgen Behrens von Google stellte die Bemühungen von Google vor, in immer mehr Fahrzeugen präsent zu sein, insbesondere Elektrofahrzeugen. Google bietet ADAS-Karten und HD-Karten, welche den Entwicklern von Fahrerassistenzsystemen Informationen zur Verfügung stellen. Mit EV Support unterstützt Google speziell Elektroautos mit Funktionen wie Ladestationssuche und Batterie-Vorkonditionierung. 

Ausblick auf die Zukunft

Der Automobil-Elektronik Kongress 2023 gab spannende Einblicke in die Zukunft des Automobilsektors. Die Diskussionen betonten die anhaltenden Veränderungen und Herausforderungen auf dem Weg zum SDV.

Unser Automotive White Paper präsentiert Lösungsmöglichkeiten für die Zukunft der Automobilindustrie und schlägt die Implementierung einer Cloud-gestützten Infrastruktur für SDVs vor. Hier können Sie unser White Paper herunterladen.

  • URL copied!