Interface Monitoring beschreibt hier das inhaltliche Überwachen von Schnittstellen. Das bedeutet nicht, dass die Verfügbarkeit bzw. die Performance der Schnittstellen überwacht werden, sondern hier zusätzlich der korrekte Transport und vor allem die richtige Verarbeitung der Daten. Warum das wichtig ist, erkläre ich Ihnen an einem kurzen Bespiel, und zwar an einem klassischen Beleglauf.
Belegdaten werden z.B. in Originalwährung (z.B. GBP) in System A gesammelt und an System B geliefert. Die angeführten Geldbeträge müssen vor der Weiterverarbeitung noch in die Transaktionswährung (EUR) umgerechnet werden. Ein System C kann beispielsweise dafür zuständig sein. Die Belegdaten werden daher von System A auch an System C gesendet. System C rechnet die Beträge in Euro um und ergänzt die Belege um diese Werte. Danach werden die Belegdaten inkl. Eurobeträge wiederum an System B geliefert.
Und jetzt wird es spannend: Der Beleglauf ist dann korrekt, wenn die gleiche Anzahl an Belegen, welche System A direkt an System B übergeben hat, auch von System C verarbeitet wurden und ebenfalls an System B übergeben werden.
Leider ist dies nicht immer der Fall. Datensätze gehen verloren und es fällt häufig sehr spät auf. Die Folge ist, dass zum Beispiel Rechnungen nicht erstellt werden. Bemerkt man den Fehler, startet die manuelle und meistens sehr ressourcenintensive Fehlersuche, da die Daten häufig über mehrere Systeme angereichert und weiter gegeben werden. Eine Vielzahl von Schnittstellen – und das ist ja in Unternehmen nicht unüblich – müssen überprüft und End-to-End durchgegangen werden. Sind externe Schnittstellen (Outsourcing-Partner) involviert wird die Sache noch einen Schritt komplizierter und vor allem auch kostenintensiver.
Handelt es sich wie in unserem Beispiel um einen Prozess, der die externe Verrechnung betrifft, kann es natürlich neben dem Zeitaufwand und den Kosten auch zu Imageschäden kommen.
Natürlich ist nicht jeder Prozess so „einfach“ wie unser Beispiel. Häufig werden Daten über mehrere Schnittstellen weiter gegeben und dabei immer weiter angereicht bzw. weiter verarbeitet. Damit entstehen (logisch zusammengehörige) Schnittstellenketten, die natürlich noch schwieriger überwachbar sind. Hier schafft die „Custom-Rule“ basierte NTT DATA Erweiterung vom Event Management System Abhilfe. Die Umsetzung basiert auf die Erweiterung der Schnittstellenprogramme um normierte Kontrollnachrichten. Diese werden an das Event Management System – Vorzugsweise BMC TureSight – weitergeleitet und von diesem mittels der Custom-Rule interpretiert. Somit wird jeder Lauf durch eine Schnittstellenkette automatisiert überprüft und kontrolliert. In unserem einfachen Beispiel lautet die Policy: Checke ob alle Systeme (also A,B und C) die gleiche Anzahl von Belege innerhalb von maximal N-Minuten (z.B. 24 Stunden) verarbeitet haben. Ist das der Fall, dann passiert nichts; ansonsten meldet das Event Management die Abweichung inkl. Details an das Störungsmanagement. Der Fehler kann rasch lokalisiert und behoben werden, denn Dank der Schnittstellenüberwachung wird automatisch analysiert, wo der Fehler passiert ist, also welches System eine falsche Anzahl von Belegen verarbeitet hat.
Das bewusst einfach gehaltene Beispiel zeigt das Prinzip der Lösung, welche die Definition hochkomplexer Regelwerke ebenfalls erlaubt und auch wesentlich komplexere Schnittstellenketten abdeckt. Im Störungsfall kann die Ursache wesentlich schneller gefunden werden und die Behebung der Störung wesentlich schneller erfolgen – im Idealfall lange bevor Kunden oder Lieferanten etwas merken und damit zusätzliche Image- und Folgeschäden entstehen.