Tuning & Verfügbarkeit

Verfügbarkeit, Betriebskosten und Leistung bilden das Dreieck der Anforderungen für den Betrieb der immer größer werdenden Mainframe-Datenbanksysteme von heute. Warum also nicht die Maschinen für sich selbst sorgen lassen? Finden Sie ein leistungsfähiges Toolset, das die E/A-Leistung analysiert und auf der Grundlage seines integrierten Expertensystems Tuningmaßnahmen entwickelt. 

Zugehörige Produkte

Unsere Lösungen unterstützen Sie in den folgenden Bereichen:

Die Gesamtleistung von Db2 z/OS hängt in hohem Maße von der E/A-Leistung ab, die wiederum hauptsächlich durch das Verhalten der Pufferpools beeinflusst wird. Während SQL-Tuning arbeitsintensiv und kostspielig sein kann, ist das Buffer-Pool-Tuning mit Hilfe von Tuning-Tools etwas, das von System-DBAs leicht durchgeführt werden kann. Eine Interaktion mit der Anwendungsentwicklung ist nur selten erforderlich, und Tuning-Erfolge werden sehr schnell erzielt. Oft führen schon kleine Änderungen zu deutlichen Verbesserungen.

Der Hauptzweck der Bufferpools besteht darin, E/A und damit CPU-Arbeit einzusparen. Die Leistung verschlechtert sich, wenn es nicht gelingt, die richtigen Pages so lange wie möglich in den Pools zu halten. Die wichtigen Pages sind diejenigen, auf die immer wieder zugegriffen wird. Was eine relativ einfache Aufgabe sein kann, kann zu einer riesigen, nicht enden wollenden Aufgabe werden, wenn Sie mit ungeeigneten Werkzeugen arbeiten müssen. Überlassen Sie sich nicht dem Schicksal des Königs Sisyphos aus der griechischen Mythologie, Pufferpool-Tools sind heute ein Muss.

Was bringt das Bufferpool-Tuning?
Ungeeignete Bufferpool-Einstellungen können Probleme verursachen, die von einem vorübergehenden Systemstillstand bis zum Verlust einer ganzen Db2-Data-Sharing-Gruppe reichen. Muss es wirklich so weit kommen? Es gibt zahlreiche Anzeichen für Probleme, die schon lange vorher auftreten, d.h. es wurde bereits eine Menge CPU verbraucht, bevor es zum Absturz kam. Rücksichtsloser CPU-Verbrauch ist mit hohen Kosten verbunden. Beim Bufferpool-Tuning geht es in erster Linie darum, unnötige E/A und die damit verbundenen Kosten zu vermeiden. Das Beste, was wir gegen Engpässe zu Spitzenzeiten tun können, ist, Flaschenhälse zu vermeiden. Eine kontinuierliche Suche nach vermeidbaren E/A und deren Vermeidung hält die Systeme performant, spart Maschinenressourcen und verhindert unangenehme Überraschungen.

Was kann man vom Bufferpool-Tuning erwarten?
Eine präzise Antwort auf eine einfache Frage: Haben wir ein Tuning-Potenzial? Mit anderen Worten: Arbeiten die Systeme bereits effizient oder können wir messbare Verbesserungen erzielen? Verwenden Sie kein Tool, das versucht, Dinge zu verbessern, die in Ordnung oder bereits optimal sind - das ist eine komplette Verschwendung Ihrer wertvollen Zeit. Ein hilfreiches Bufferpool-Tool ist proaktiv und warnt, wenn die Dinge im Begriff sind, schlecht zu werden, und lässt mich in Ruhe, solange alles in Ordnung ist.

Die wichtigste Funktion ist die "laufende Überwachung" nach Qualitätskriterien, die ich festlegen kann. So kann ich beispielsweise eine Warnung erhalten, wenn bei diesen Pufferpools mehr als 10 % vermeidbare IO auftreten.

Empfehlung von Tuningmaßnahmen
Angenommen, ein Tuning-Potenzial wird erkannt, die Leistung ist suboptimal, was dann? Um mir eine langwierige Analyse zu ersparen, sollte das beste Bufferpool-Tool Empfehlungen aussprechen und deren Ergebnis vorhersagen. Vorzugsweise liefert es bereits die erforderlichen ALTER-Statements, insbesondere wenn viele Objekte betroffen sind. Es kommt selten vor, dass nur die Größe oder die Schwellenwerte eines einzelnen Pools geändert werden müssen, häufiger muss die Zuordnung von Objekten zu Pools überarbeitet werden. Ich brauche ein Tool, das mir hilft, die Systemleistung zu verbessern.

Überwachung der SQL-Qualität mit dem DSCA (Dynamic Statement Cache Analyzer)
Sie können die Pools durchaus unabhängig vom Anwendungs-/SQL-Tuning überwachen und tunen, und Sie werden damit sofortige Erfolge erzielen. Allerdings ist es durchaus sinnvoll, einen integrierten Ansatz zu verfolgen. Ein leistungsfähiges Bufferpool-Analysetool zeigt nicht nur suboptimales Bufferpoolverhalten an, sondern sollte auch Objekte identifizieren, auf die häufig durch ineffiziente SQL-Anweisungen zugegriffen wird. Dynamisches SQL macht heute immer mehr Probleme. Um die richtige Analyse zu liefern, sollte es die Bufferpool-Analyse mit der Analyse des Dynamic Statement Caches verbinden.

Sie haben immer mehr und immer größere Datenbanken und Db2-Systeme zu verwalten, aber keine zusätzliche Hilfe, um Ihre Arbeit zu erledigen? Das ist heutzutage der Normalfall, aber die gute Nachricht ist, dass es Möglichkeiten gibt, viele der notwendigen Aufgaben zur Überwachung und Steuerung Ihrer Db2-Systeme und Datenbanken zu automatisieren.

Unternehmen wollen, dass ihre Anwendungssysteme hochverfügbar sind und kontinuierlich gut funktionieren, aber die Überprüfung des Zustands ihrer Systeme scheint eine entmutigende Aufgabe zu sein. Gelegentlich können bestimmte Nichtverfügbarkeiten von Anwendungen unentdeckt bleiben. Manchmal entwickeln sich Probleme über lange Zeiträume, wobei das Erkennen von Trends und deren rechtzeitige Erkennung die Lösung vereinfachen und Ausfallzeiten vermeiden würde. Eine Leistungsverschlechterung entwickelt sich in der Regel langsam, nachteilige Auswirkungen auf die Benutzer können leicht vermieden werden, sofern die ersten Anzeichen erkannt und rechtzeitig Gegenmaßnahmen ergriffen werden. Es gibt weiterhin neue Herausforderungen, zum Beispiel die wachsende Flut von dynamischem SQL. Eine automatische Überwachung und Bewertung des Dynamic Statement Cache kann hier Abhilfe schaffen.

Normalerweise fragen Ihre Kunden nicht, warum die Anwendung nicht funktioniert, sie ist einfach nicht verfügbar und das hätte nicht sein dürfen. Es spielt keine Rolle, ob ein Tablespace voll ist oder in einen restricted State überging, ob ein Thread oder eine Prozedur fehlschlug, ob das System aufgrund von Schwierigkeiten beim Log-Offload ins Stocken geriet oder ob eine Sharing-Gruppe ausfiel, weil die SCA voll war. Es gibt viele Fehlerquellen und ebenso viele vorgeschlagene Abhilfemaßnahmen. Viel besser als ein Sammelsurium verschiedener Skripte und Verfahren ist ein neuer, einheitlicher und integrierter Ansatz. Es reicht nicht aus, eine Liste der aktuellen eingeschränkten Zustände zu erhalten. Wirklich wertvolle Informationen erhält man nur, wenn die "restricted States" unmittelbar mit der Ausführung von Dienstprogrammen oder anderen systemweiten Ereignissen in Zusammenhang stehen.

Eine werkzeuggestützte Implementierung von kontinuierlichen Messungen und Analysen hilft, die am häufigsten auftretenden Probleme im täglichen Betrieb zu vermeiden. Archivierte Daten unterstützen auch die Problemanalyse: "Ist dieses Problem schon einmal aufgetreten und wie wurde es damals gelöst?" Ein Data Warehouse mit Problembeschreibungen aller in der Vergangenheit aufgetretenen Probleme zeigt einfach die häufigsten Probleme, für die allgemeine Vorkehrungen getroffen und automatisch angewendet werden können. Eine elegante Lösung bietet ihre Erkenntnisse über das, was passiert ist, als Parameter für den sofortigen Einsatz von Gegenmaßnahmen an: Copy Pending - Kopieren, Problem mit einem Thread, Neustart, etc.

Ein großer Vorteil einer vereinheitlichten Lösung liegt im Bereich der Meldungen und Warnungen. Zu viele Meldungen und Warnungen sind lästig, ausweichend oder werden ignoriert. Es sollten nur schwerwiegende Probleme gemeldet werden, und diese sollten nur einmal gemeldet werden. Ein gelöstes Problem sollte automatisch vom Bildschirm verschwinden und in das Data Warehouse eingehen.

Was kann durch ein entsprechendes Tool automatisch überwacht und analysiert werden? Im Prinzip alles, ein Tool, das mir vorschwebt, sollte denkbaren Platzmangel erkennen, rechtzeitige Wiederherstellbarkeit gemäß SLAs gewährleisten, BSDS/Log-Aktivitäten überwachen, die Qualität dynamischer SQL-Anweisungen prüfen, E/A-Leistung und Pufferpools überwachen und bewerten, Threads, DDF, Pläne, Pakete, Objekte in eingeschränktem Zustand und Dienstprogrammausführungen, SCA-Strukturen, Gruppenpufferpools überwachen, um nur einige zu nennen. Möchten Sie wissen, an welches Tool ich denke? XM4Db2.

 

Fehler, Probleme und Engpässe sind in sich ständig verändernden, komplexen Umgebungen unvermeidlich, die Budgets sind immer knapp, die Rechenzentren sind unterbesetzt und die Service Level Agreements sind ehrgeizig. Der einzige Ausweg ist die Automatisierung. Gut ist gut, aber besser ist immer besser.

Die automatische Problemerkennung und Problembehandlung ist längst überfällig. Viele, wenn nicht sogar die meisten Probleme kündigen sich früh genug an, es geht nur darum, die ersten Anzeichen zu erkennen. Ein Werkzeug ist dazu in der Lage, emotionslos, hartnäckig, kontinuierlich. Viele Probleme treten wiederholt auf. Was haben wir im letzten Monat damit gemacht? Die Datenbank eines geeigneten Problemmanagement-Tools liefert Informationen.

Automatische Problemerkennung ist eine Sache, automatische Reaktion ist noch besser. Das Werkzeug, das eine inakzeptable Situation erkannt und gemessen hat, verfügt über alle notwendigen Parameter, um einen vordefinierten Auftrag zur Behebung der Situation zu erstellen.

Ein Problem-Management-Tool sollte jedes Db2-Subsystem auf jeder LPAR überwachen, aber alle gesammelten Informationen in einer Datenbank speichern. Das Problemmanagement-Tool? XM4DB2.

Performance mit dynamischem SQL
Lange Zeit neigte man dazu, dynamisches SQL so weit wie möglich zu vermeiden. Als Gründe wurden in der Regel genannt: zusätzlicher CPU-Overhead für die Vorbereitung der Anweisungen, keine oder nur geringe Kapazitäten für die Qualitätssicherung und mangelnde Transparenz: "Man weiß nicht, was oder wann etwas ausgeführt wird und welche Konsequenzen das hat."

Da immer mehr lizenzierte Standardprodukte auf dynamisches SQL zurückgreifen, ist diese Einstellung immer weniger praktikabel. Und eine weitere Herausforderung stellt sich. Die z/OS-Plattform hat Konkurrenten, und ihre Überlegenheit in Bezug auf Zuverlässigkeit und Leistung beruht unter anderem auf etablierten Qualitätssicherungsprozessen. Die Frage ist also nicht, ob man dynamisches SQL verwenden soll oder nicht, die Weisheit liegt wieder in einem bisschen von beidem. Wie kann man dynamisches SQL zulassen, von dynamischem SQL profitieren und die Qualität - also die Leistung - sicherstellen?

DSCA erkennt, korrigiert und vermeidet die Probleme, die mit der Ausführung von wachsenden Mengen dynamischer SQL-Anweisungen einhergehen. Was bedeutet das im Einzelnen? Dynamische Anweisungen werden in der Regel während der Laufzeit generiert. Das Ergebnis dieser Generierung ist oft sehr einheitlich, d.h. es ist sehr wahrscheinlich, dass Anweisungen, die einmal aufgetaucht sind, in gleicher oder ähnlicher Form wieder auftauchen. An dieser Stelle kommt DSCA ins Spiel. Es überwacht den DSC, sammelt und kategorisiert Anweisungen und baut so ein "Data Warehouse der SQL-Anweisungen" auf. Es entsteht ein Abbild des Workloads, das sowohl Schwachstellen als auch Verbesserungspotenziale aufzeigt.

Die Qualitätssicherung für dynamisches SQL ist also durchaus machbar, allerdings nicht mehr vor der Ausführung (wie bei statischem SQL üblich), sondern nach der Kompilierung der SQL-Anweisungen. Die Quelle wird dann analysiert, damit Gegenmaßnahmen ergriffen werden können. Typische Probleme sind mit Hilfe der gesammelten Daten leicht zu erkennen: Zugriffspfadprobleme, Optimierungsfehler, DSC-Trashing (Anweisungen ohne Parametermarker), hoher CPU-Verbrauch, SQL-Anweisungen mit Sperrproblemen etc.
Da sie in der Regel nur eine sehr eingeschränkte Kontrolle über das SQL in lizenzierten Produkten haben, sagen die Leute oft, dass sie sowieso nichts ändern können, und vernachlässigen schließlich die Produkte, die sie kaufen. Dies ist jedoch nicht unbedingt richtig. Gerade diese Produkte erfordern einen klaren Überblick über problematische Punkte. Sobald man sich ihrer bewusst ist (in der Regel sind nur einige wenige Anweisungen oder Anweisungsgruppen betroffen), kann man schnell zur Lösung übergehen:

- Optimierung der Zugriffspfade durch neue oder andere Indizes
- Anpassung des Bufferpool-Designs bei IO-Problemen
- Tabellen-Clustering ändern
- Spezielle Runstats für komplexe Abfragen

Statische SQL-QS ist heute in den meisten Umgebungen Standard, Probleme entstehen, weil dynamisches SQL nicht so sorgfältig überwacht wird. Umfassende Qualitätssicherung für den gesamten Workload ist jedoch das Gebot der Stunde. Standardmonitore unterstützen diesen Prozess kaum oder gar nicht. Die DSCA-Komponente im Exception Master for Db2 (XM4DB2) ist speziell für diese Aufgabe konzipiert. Sie kompiliert das SQL-Datawarehouse, wertet die Anweisungsgruppen nach Ihren Qualitätskriterien aus und schlägt Verbesserungen vor.

Unternehmen, die nicht in der Lage sind, ein eigenes Tool anzuschaffen, können das Service Pack DSCA bestellen. UBS analysiert den DSC und empfiehlt konkrete Tuning-Massnahmen zu einem Festpreis. Wir nennen Ihnen die Ursachen von Problemen, decken Verschwendung auf, weisen auf negative Entwicklungen hin und empfehlen Gegenmassnahmen - zum Beispiel mit Indizes, Runstats und Parametermarkern. Gezielte QS bringt zusammen, was zusammen gehört: dynamisches SQL mit Performance, Transparenz, Ressourcenschonung, unterbrechungsfreiem Betrieb und hoher Verfügbarkeit.

Agile Entwicklungsmethoden fordern passende Testfalldaten häufiger und früher im Entwicklungszyklus. Testdaten sollten daher auf einfache Weise bestellbar sein, am besten über einen Intranetshop.

Die Agile Programmierung integriert mehr und mehr Funktionsentwicklung und Test, schon im Sprint wird getestet. Daher werden Testdaten häufiger und früher im Entwicklungszyklus benötigt. Testdatenbesteller, die in der Regel keine Detailkenntnis über Tabellen und deren Beziehungen haben, können fein-granulare Testfalldaten über ein auf ihr Arbeitsgebiet abgestimmtes Webportal, anfordern. Pro App oder Sparte ist dort das Sortiment der bestellbaren Geschäftsobjekte aufgelistet und dokumentiert. Der Besteller wählt nur aus, bestimmt Menge, macht vielleicht noch weitere Angaben zu gewünschten Eigenschaften und erhält die Daten umgehend im bezeichneten Testsystem. Der Besteller benötigt keine Kenntnisse wie Tabellenstruktur, relationale Abhängigkeiten, etc. So wird wertvolle Entwicklerzeit auf die zentrale Aufgabe konzentriert.

 

Tester sollen keine Zeit mit der Beschaffung, Vorbereitung und Einbettung der Testdaten verschwenden. Die bestellten und gelieferten Testdaten müssen automatisch in den Bestand des Testbetts integriert werden.

Entwickler brauchen Testfalldaten, kurzfristig, oder zu einem bestimmten Zeitpunkt;in der Regel einige Hundert ausgewählte, relational-intakte, DSGVO-konforme Zeilen, Verträge, Kunden, oder allgemeiner, komplette Geschäftsobjekte. Man möchte die erforderlichen Testdaten einfach bestellen können, am besten über ein auf die Bedürfnisse der jeweiligen Applikation zugeschnittenes Webportal. Die Testdatenbelieferung soll in der Lage sein die gelieferten Daten sachgerecht in den Bestand des Testbetts nach Vorgaben einzubetten. Weitere Daten sollen im Verlauf der Entwicklung einfach hinzugefügt werden können.

Zurücksetzen:
Man möchte nach erfolgtem Test wieder leicht auf Anfang zurücksetzten können, oder die Daten auf einfache Weise austauschen; heute wird ein Problem der aktuellen Version bearbeitet, morgen geht es mit dem neuen Release weiter.
Einbetten:
Anfänglich generierte Daten sollen passgenau mit produktiven Daten ergänzt werden.

 

Modellierer pflegen und warten das Testdatenangebot.

Das Angebot im Testdatenshop wird von einem oder wenigen Modellierern gepflegt. Der Modellierer kennt die Entitäten der Domain und alle Details wie Kardinalität und die Verbindungen zu anderen Geschäftsbereichen oder Sparten. Er kann, falls sinnvoll oder notwendig die Konfigurationen anderer Sparten einbinden, z. B. die von gemeinsamen Stammdaten. Die Modellierung und damit die Definition neuer Beschaffungs- vorgänge setzt in der Regel Kenntnisse voraus, die der Entwickler/Tester nicht zu haben braucht. Alle Besteller damit zu belasten wäre nicht effizient. Stattdessen wird die Mehrheit der Nutzer von unnötigem Ballast befreit und kann sich ganz auf Entwicklung und Test konzentrieren.

 

DSGVO und andere Vorgaben verlangen die De-Identifikation personenbezogener Testdaten. Es ist sinnvoll, die Anonymisierung in den Prozess der automatisierten Testdatenlieferung zu integrieren.d gelieferten Testdaten müssen automatisch in den Bestand des Testbetts integriert werden.

Wir bieten automatisierte Verfahren zur Bearbeitung der Testdaten hinsichtlich De-Identifikation. Sie sind sowohl nachträglich anwendbar, als sogenannte In-Place-Verfahren, als solche, die Verarbeitung von Massendaten erlauben, als auch in den Bereitstellungsprozess der Testfalldaten direkt integriert werden können.

Der PII Finder (personal info identifier) unterstützt den Prozessmodellierer bei der Erkennung relevanter Spalten/Felder. Die Software bietet standardisierte Methoden zur Anonymisierung/­Pseudonymisierung/Maskierung an: Vor- und Nachnamen, Adressen, Bankdaten, Sozialver­sicherungsnummern, etc. Der Anwender kann die Methoden modifizieren oder eigene einbringen. Das gleiche gilt für die zu verwendenden Wertebereiche, nationale/­internationale Adressbestände, usw.

Methoden und Regeln werden in Anwendungsmodellen für Unternehmensbereiche oder Sparten so integriert, dass je nach zu versorgendem Testbett die definierte Anonymisierung automatisch vorgenommen wird.

Mit unseren Verfahren anonymisieren oder pseudonymisieren Sie unternehmensweit einheitlich, ob Oracle, Db2, IMS, VSAM, LUW, MS SQL Server, PostgreSQL, SAP, applikationsübergreifend, einheitlich.

Anonymisierung nimmt eine wichtige Rolle in jedem Testdatenmanagement-Konzept ein. Produktive Daten dürfen meist nicht ohne weiteres für Testzwecke genutzt werden. Sei es der Schutz vor Mitbewerbern, das Outsourcing von Testabteilungen oder die Einhaltung des Datenschutzgesetzes, all diese Gründe erfordern eine Anonymisierung der Testdaten.

anonymisierungEin professionelles Konzept zur Testdaten-Anonymisierung gliedert sich meist in unterschiedliche Phasen. Es sind wichtige Vorarbeiten sind zu leisten, bevor die eigentliche Anonymisierung stattfinden kann.

Identifizierung
Das Datenmodell muss auf sensible Felder untersucht werden und Spalten, bzw. Attribute die Namen, Anschriften, Bankdaten, etc. enthalten, müssen identifiziert werden. Ohne Unterstützung einer effizienten Software kann diese Phase bereits eine der größten Hürden bei der Umsetzung einer Anonymisierungs-Strategie sein.

Implementierung
Anhand der identifizierten Felder müssen Regeln hinterlegt werden, die die Daten nach den Unternehmensvorgaben anonymisieren. Verfahren zum Umverteilen der bisherigen Daten stellen sicher, dass Randfälle, die in den produktiven Daten enthalten und entsprechend wertvoll für einen Test sind, weiterhin bestehen. Das konsistente Anonymisieren über Tabellen oder auch Systemgrenzen hinweg muss ebenfalls berücksichtigt werden.

Durchführung
Nachdem die relevanten Felder identifiziert und entsprechende Methoden zur Veränderung der Felder festgelegt wurden, müssen die Testdaten bei jedem Auffrischen anonymisiert werden. Dies sollte auf direktem Wege, während des Kopiervorgangs von Produktion nach Test, geschehen.

Die Testdatenmanagement-Suite bietet Ihnen folgende Vorteile:

Unterstützt Sie beim Identifizieren sensibler Daten. Komplexe Heuristiken finden sprichwörtlich “die Nadel im Heuhafen”. Dies reduziert den zeitlichen Aufwand erheblich.
Automatische Anonymisierung sensibler Daten direkt während der Testdaten-Bereitstellung. Es sind keine zeitaufwendigen Nacharbeiten notwendig.
Zentrale Pflege der Anonymisierungsstrategie in einem eigenen Repository. Die Anonymisierung findet ohne manuelles Zutun bei der Bereitstellung von Testdaten statt.
Geringerer Pflegeaufwand bei strukturellen Änderungen des Datenmodells.

 

DSGVO und andere Vorgaben verlangen die De-Identifikation personenbezogener Testdaten. Es ist sinnvoll, die Anonymisierung in den Prozess der automatisierten Testdatenlieferung zu integrieren.d gelieferten Testdaten müssen automatisch in den Bestand des Testbetts integriert werden.

Wir bieten automatisierte Verfahren zur Bearbeitung der Testdaten hinsichtlich De-Identifikation. Sie sind sowohl nachträglich anwendbar, als sogenannte In-Place-Verfahren, als solche, die Verarbeitung von Massendaten erlauben, als auch in den Bereitstellungsprozess der Testfalldaten direkt integriert werden können.

Der PII Finder (personal info identifier) unterstützt den Prozessmodellierer bei der Erkennung relevanter Spalten/Felder. Die Software bietet standardisierte Methoden zur Anonymisierung/­Pseudonymisierung/Maskierung an: Vor- und Nachnamen, Adressen, Bankdaten, Sozialver­sicherungsnummern, etc. Der Anwender kann die Methoden modifizieren oder eigene einbringen. Das gleiche gilt für die zu verwendenden Wertebereiche, nationale/­internationale Adressbestände, usw.

Methoden und Regeln werden in Anwendungsmodellen für Unternehmensbereiche oder Sparten so integriert, dass je nach zu versorgendem Testbett die definierte Anonymisierung automatisch vorgenommen wird.

Mit unseren Verfahren anonymisieren oder pseudonymisieren Sie unternehmensweit einheitlich, ob Oracle, Db2, IMS, VSAM, LUW, MS SQL Server, PostgreSQL, SAP, applikationsübergreifend, einheitlich.

Anonymisierung nimmt eine wichtige Rolle in jedem Testdatenmanagement-Konzept ein. Produktive Daten dürfen meist nicht ohne weiteres für Testzwecke genutzt werden. Sei es der Schutz vor Mitbewerbern, das Outsourcing von Testabteilungen oder die Einhaltung des Datenschutzgesetzes, all diese Gründe erfordern eine Anonymisierung der Testdaten.

anonymisierungEin professionelles Konzept zur Testdaten-Anonymisierung gliedert sich meist in unterschiedliche Phasen. Es sind wichtige Vorarbeiten sind zu leisten, bevor die eigentliche Anonymisierung stattfinden kann.

Identifizierung
Das Datenmodell muss auf sensible Felder untersucht werden und Spalten, bzw. Attribute die Namen, Anschriften, Bankdaten, etc. enthalten, müssen identifiziert werden. Ohne Unterstützung einer effizienten Software kann diese Phase bereits eine der größten Hürden bei der Umsetzung einer Anonymisierungs-Strategie sein.

Implementierung
Anhand der identifizierten Felder müssen Regeln hinterlegt werden, die die Daten nach den Unternehmensvorgaben anonymisieren. Verfahren zum Umverteilen der bisherigen Daten stellen sicher, dass Randfälle, die in den produktiven Daten enthalten und entsprechend wertvoll für einen Test sind, weiterhin bestehen. Das konsistente Anonymisieren über Tabellen oder auch Systemgrenzen hinweg muss ebenfalls berücksichtigt werden.

Durchführung
Nachdem die relevanten Felder identifiziert und entsprechende Methoden zur Veränderung der Felder festgelegt wurden, müssen die Testdaten bei jedem Auffrischen anonymisiert werden. Dies sollte auf direktem Wege, während des Kopiervorgangs von Produktion nach Test, geschehen.

Die Testdatenmanagement-Suite bietet Ihnen folgende Vorteile:

Unterstützt Sie beim Identifizieren sensibler Daten. Komplexe Heuristiken finden sprichwörtlich “die Nadel im Heuhafen”. Dies reduziert den zeitlichen Aufwand erheblich.
Automatische Anonymisierung sensibler Daten direkt während der Testdaten-Bereitstellung. Es sind keine zeitaufwendigen Nacharbeiten notwendig.
Zentrale Pflege der Anonymisierungsstrategie in einem eigenen Repository. Die Anonymisierung findet ohne manuelles Zutun bei der Bereitstellung von Testdaten statt.
Geringerer Pflegeaufwand bei strukturellen Änderungen des Datenmodells.

 

DSGVO und andere Vorgaben verlangen die De-Identifikation personenbezogener Testdaten. Es ist sinnvoll, die Anonymisierung in den Prozess der automatisierten Testdatenlieferung zu integrieren.d gelieferten Testdaten müssen automatisch in den Bestand des Testbetts integriert werden.

Wir bieten automatisierte Verfahren zur Bearbeitung der Testdaten hinsichtlich De-Identifikation. Sie sind sowohl nachträglich anwendbar, als sogenannte In-Place-Verfahren, als solche, die Verarbeitung von Massendaten erlauben, als auch in den Bereitstellungsprozess der Testfalldaten direkt integriert werden können.

Der PII Finder (personal info identifier) unterstützt den Prozessmodellierer bei der Erkennung relevanter Spalten/Felder. Die Software bietet standardisierte Methoden zur Anonymisierung/­Pseudonymisierung/Maskierung an: Vor- und Nachnamen, Adressen, Bankdaten, Sozialver­sicherungsnummern, etc. Der Anwender kann die Methoden modifizieren oder eigene einbringen. Das gleiche gilt für die zu verwendenden Wertebereiche, nationale/­internationale Adressbestände, usw.

Methoden und Regeln werden in Anwendungsmodellen für Unternehmensbereiche oder Sparten so integriert, dass je nach zu versorgendem Testbett die definierte Anonymisierung automatisch vorgenommen wird.

Mit unseren Verfahren anonymisieren oder pseudonymisieren Sie unternehmensweit einheitlich, ob Oracle, Db2, IMS, VSAM, LUW, MS SQL Server, PostgreSQL, SAP, applikationsübergreifend, einheitlich.

Anonymisierung nimmt eine wichtige Rolle in jedem Testdatenmanagement-Konzept ein. Produktive Daten dürfen meist nicht ohne weiteres für Testzwecke genutzt werden. Sei es der Schutz vor Mitbewerbern, das Outsourcing von Testabteilungen oder die Einhaltung des Datenschutzgesetzes, all diese Gründe erfordern eine Anonymisierung der Testdaten.

anonymisierungEin professionelles Konzept zur Testdaten-Anonymisierung gliedert sich meist in unterschiedliche Phasen. Es sind wichtige Vorarbeiten sind zu leisten, bevor die eigentliche Anonymisierung stattfinden kann.

Identifizierung
Das Datenmodell muss auf sensible Felder untersucht werden und Spalten, bzw. Attribute die Namen, Anschriften, Bankdaten, etc. enthalten, müssen identifiziert werden. Ohne Unterstützung einer effizienten Software kann diese Phase bereits eine der größten Hürden bei der Umsetzung einer Anonymisierungs-Strategie sein.

Implementierung
Anhand der identifizierten Felder müssen Regeln hinterlegt werden, die die Daten nach den Unternehmensvorgaben anonymisieren. Verfahren zum Umverteilen der bisherigen Daten stellen sicher, dass Randfälle, die in den produktiven Daten enthalten und entsprechend wertvoll für einen Test sind, weiterhin bestehen. Das konsistente Anonymisieren über Tabellen oder auch Systemgrenzen hinweg muss ebenfalls berücksichtigt werden.

Durchführung
Nachdem die relevanten Felder identifiziert und entsprechende Methoden zur Veränderung der Felder festgelegt wurden, müssen die Testdaten bei jedem Auffrischen anonymisiert werden. Dies sollte auf direktem Wege, während des Kopiervorgangs von Produktion nach Test, geschehen.

Die Testdatenmanagement-Suite bietet Ihnen folgende Vorteile:

Unterstützt Sie beim Identifizieren sensibler Daten. Komplexe Heuristiken finden sprichwörtlich “die Nadel im Heuhafen”. Dies reduziert den zeitlichen Aufwand erheblich.
Automatische Anonymisierung sensibler Daten direkt während der Testdaten-Bereitstellung. Es sind keine zeitaufwendigen Nacharbeiten notwendig.
Zentrale Pflege der Anonymisierungsstrategie in einem eigenen Repository. Die Anonymisierung findet ohne manuelles Zutun bei der Bereitstellung von Testdaten statt.
Geringerer Pflegeaufwand bei strukturellen Änderungen des Datenmodells.

 

DSGVO und andere Vorgaben verlangen die De-Identifikation personenbezogener Testdaten. Es ist sinnvoll, die Anonymisierung in den Prozess der automatisierten Testdatenlieferung zu integrieren.d gelieferten Testdaten müssen automatisch in den Bestand des Testbetts integriert werden.

Wir bieten automatisierte Verfahren zur Bearbeitung der Testdaten hinsichtlich De-Identifikation. Sie sind sowohl nachträglich anwendbar, als sogenannte In-Place-Verfahren, als solche, die Verarbeitung von Massendaten erlauben, als auch in den Bereitstellungsprozess der Testfalldaten direkt integriert werden können.

Der PII Finder (personal info identifier) unterstützt den Prozessmodellierer bei der Erkennung relevanter Spalten/Felder. Die Software bietet standardisierte Methoden zur Anonymisierung/­Pseudonymisierung/Maskierung an: Vor- und Nachnamen, Adressen, Bankdaten, Sozialver­sicherungsnummern, etc. Der Anwender kann die Methoden modifizieren oder eigene einbringen. Das gleiche gilt für die zu verwendenden Wertebereiche, nationale/­internationale Adressbestände, usw.

Methoden und Regeln werden in Anwendungsmodellen für Unternehmensbereiche oder Sparten so integriert, dass je nach zu versorgendem Testbett die definierte Anonymisierung automatisch vorgenommen wird.

Mit unseren Verfahren anonymisieren oder pseudonymisieren Sie unternehmensweit einheitlich, ob Oracle, Db2, IMS, VSAM, LUW, MS SQL Server, PostgreSQL, SAP, applikationsübergreifend, einheitlich.

Anonymisierung nimmt eine wichtige Rolle in jedem Testdatenmanagement-Konzept ein. Produktive Daten dürfen meist nicht ohne weiteres für Testzwecke genutzt werden. Sei es der Schutz vor Mitbewerbern, das Outsourcing von Testabteilungen oder die Einhaltung des Datenschutzgesetzes, all diese Gründe erfordern eine Anonymisierung der Testdaten.

anonymisierungEin professionelles Konzept zur Testdaten-Anonymisierung gliedert sich meist in unterschiedliche Phasen. Es sind wichtige Vorarbeiten sind zu leisten, bevor die eigentliche Anonymisierung stattfinden kann.

Identifizierung
Das Datenmodell muss auf sensible Felder untersucht werden und Spalten, bzw. Attribute die Namen, Anschriften, Bankdaten, etc. enthalten, müssen identifiziert werden. Ohne Unterstützung einer effizienten Software kann diese Phase bereits eine der größten Hürden bei der Umsetzung einer Anonymisierungs-Strategie sein.

Implementierung
Anhand der identifizierten Felder müssen Regeln hinterlegt werden, die die Daten nach den Unternehmensvorgaben anonymisieren. Verfahren zum Umverteilen der bisherigen Daten stellen sicher, dass Randfälle, die in den produktiven Daten enthalten und entsprechend wertvoll für einen Test sind, weiterhin bestehen. Das konsistente Anonymisieren über Tabellen oder auch Systemgrenzen hinweg muss ebenfalls berücksichtigt werden.

Durchführung
Nachdem die relevanten Felder identifiziert und entsprechende Methoden zur Veränderung der Felder festgelegt wurden, müssen die Testdaten bei jedem Auffrischen anonymisiert werden. Dies sollte auf direktem Wege, während des Kopiervorgangs von Produktion nach Test, geschehen.

Die Testdatenmanagement-Suite bietet Ihnen folgende Vorteile:

Unterstützt Sie beim Identifizieren sensibler Daten. Komplexe Heuristiken finden sprichwörtlich “die Nadel im Heuhafen”. Dies reduziert den zeitlichen Aufwand erheblich.
Automatische Anonymisierung sensibler Daten direkt während der Testdaten-Bereitstellung. Es sind keine zeitaufwendigen Nacharbeiten notwendig.
Zentrale Pflege der Anonymisierungsstrategie in einem eigenen Repository. Die Anonymisierung findet ohne manuelles Zutun bei der Bereitstellung von Testdaten statt.
Geringerer Pflegeaufwand bei strukturellen Änderungen des Datenmodells.

 

Als leistungsstarkes Tracking-Tool erkennt P-Tracker jede Programmausführung in z/OS-Systemen.

Es erfasst den Programmnamen und den Namen der Ladebibliothek, aus der ein Programm geladen wurde. Außerdem liefert er Informationen darüber: wer bzw. was die Ausführung gefordert hat (Benutzer, Job, Task), wo sie ausgeführt wurde (System, LPAR) und wann sie ausgeführt wurde (Datum, Uhrzeit). Als umfassender Software-Katalog berücksichtigt P-Tracker alle und jedes Stück Software, das sich in z/OS-Systemen bewegt (und schläft).

Er identifiziert Produktnamen, Herstellernamen, Versionsnummern, Modulnamen, Bibliotheken mit deren Standort, Duplikate von Modulen und Bibliotheken. Er speichert und aktualisiert diese Informationen regelmäßig, der resultierende Katalog kann beliebig durchsucht und verändert werden.

Als einfaches Reporting-Tool kombiniert P-Tracker die aufgezeichneten Programmausführungen mit dem Software-Katalog und offenbart genaue Zahlen über das reale Leben Ihrer Software-Assets. Verschiedene Berichte demonstrieren die Softwarenutzung, Nutzungszeiträume, -intervalle und -häufigkeit, und sie zeigen auch, was lange nicht genutzt wurde.

Die CSV-Ausgabe geht direkt in Ihre Tabellenkalkulationen und erzeugt auf einfache Weise grafische Darstellungen für Ihre Berichte. P-Tracker ist das ultimative Werkzeug, um die üblichen Fragen des Software Asset Managements eindeutig zu beantworten, zum Beispiel:

  • Welche Anwendungen/Produkte sind auf unseren Systemen installiert?
  • Wer benutzt sie? Wie oft? Wann?
  • Nimmt der Nutzungsgrad zu oder ab (Trendgrafiken zur Unterstützung von Renewal/Upgrade-Verhandlungen)?
  • Gibt es Produkte/Applikationen, die nie verwendet werden?
  • Welche Produkte werden selten/häufig verwendet?
  • Ist die aktuelle Lizenzgebühr angesichts der geringen Auslastung gerechtfertigt?
  • Verwenden verschiedene Benutzer unterschiedliche Versionen desselben Softwareprodukts? Oder kompatible Produkte?
  • Wie können wir redundante, oder ähnliche Produkte (geerbt aus Firmenfusionen) konsolidieren? Welche Produkte sollten bleiben?
  • Wie hängen Ladebibliotheken, Produkte, Funktionen, Komponenten und Versionen zusammen?
  • Wer wäre von einem Upgrade betroffen?
  • Auf wen würde sich ein Austausch (Schulung) auswirken?
  • Welche Produkte/Libs/Module verwendet ein Job (Fehleranalyse)?
  • Welche Wartungsstufen sind im Einsatz?
  • Was muss in unseren Disaster Recovery Systemen repliziert werden?

Nehmen wir den einfachen Fall von LPAR-Lizenzen, bei dem die LPAR-Größe aufgrund höherer Anforderungen der Kernanwendung erhöht werden muss. Gleichzeitig bleibt die Produktnutzung der Produkte eines anderen Herstellers, die auf der gleichen LPAR laufen, gleich, aber die Lizenzgebühren sollen steigen.

Die Nutzungsstatistiken von P-Tracker werden Sie als Anwender bei Gesprächen mit dem Anbieter unterstützen, da Sie nun genau wissen, wie viel ein Produkt tatsächlich genutzt wird. Und in Situationen, in denen ein Ersatz die einzige Option auf dem Tisch ist, wissen Sie im Voraus, welche internen Benutzer betroffen sind und wer in der Verwendung des neuen Produkts umgeschult werden muss.

Bei firmeneigener Software wird geschätzt, dass die Produktionsbibliotheken jedes Jahr um 5 % der nicht mehr benötigten Softwaremodule zunehmen, da sie Back-Out-Prozesse (nicht löschen, umbenennen) ermöglichen müssen.

Das bedeutet, dass nach fünf Jahren ca. 28 % der Module in einer Bibliothek nicht mehr genutzt werden und dennoch von internen oder externen Mitarbeitern zur Wartung beauftragt werden. P-Tracker identifiziert ungenutzte Module. Veränderungen sind unvermeidlich, Hardware wird aufgerüstet oder entfernt, aber manchmal werden die Lizenzgebühren von abhängiger und veralteter Software noch pünktlich bezahlt! Die Bestands-/Nutzungsberichte von P-Tracker können Sie vor unnötigen Zahlungen schützen.

P-Tracker bringt Ihnen darüber hinaus Vorteile in den folgenden weiteren Bereichen:
  • Konsolidierung der Produktabdeckung von Maschinen/Systemen und Optimierung von Lizenzen mit geringer Kapazität.
  • Beweisen Sie dem Management, dass Ihr Budget voll ausgeschöpft ist, um Mittelkürzungen zu vermeiden oder um Erhöhungen zu rechtfertigen
  • Werden Sie "auditfähig", um kostspielige Lizenzverstöße zu vermeiden
  • Überprüfung des Produktbestands durchführen
  • Führen Sie einen Audit-Trail der Produktnutzung pro LPAR durch

P-Tracker hat zwei Komponenten: Die eine ist eine z/OS-Software, die auf sehr einfache und effiziente Weise Informationen über das Host-System sammelt. Sie wird mit einer einfach zu bedienenden ISPF-Anwendung gesteuert.

Die andere Komponente ist eine grafische Java-Anwendung, die auf einem beliebigen Windows- oder Linux-PC Ihrer Wahl ausgeführt werden kann. Sie stellt dem Anwender eine moderne grafische Oberfläche zur Verfügung, die klar strukturiert ist und über alle Komfortfunktionen verfügt, die man heutzutage von einer solchen Anwendung erwartet.

  • Verwaltet eine relationale Datenbank, in der alle P-Tracker-Daten dauerhaft gespeichert werden
  • Verbindet sich mit dem Host-System, um aufgezeichnete Programmaufrufe und gesammelte Programm-Metadaten in die Datenbank zu laden
  • Bietet einen Produkt-Explorer, in dem der Benutzer Anbieter, Produkte, Versionen, Funktionen, FMIDs, Datensätze und Lastmodule in einer übersichtlichen Baumansicht verwalten kann
  • Über ein "Library Assignment"-Panel kann der Anwender auf komfortable Weise Datensätze und Lastmodule zu Produkten zuordnen - für SMP/E-Produkte existiert jedoch ein automatisierter Zuordnungsprozess, der nicht nur die richtigen Produktdaten selbst identifiziert, sondern auch fehlende Hersteller-, Produkt- oder Versionseinträge automatisch erstellt.
  • Ein weiterer Bereich, der Berichtsexplorer, bietet Funktionen zur Definition verschiedener Berichtstypen: Bibliotheks-, Hersteller-, Nutzungs-, Nullnutzungs- und Compliance-Bericht. P-Tracker wird mit Vorlagen für jeden Bericht ausgeliefert. So kann das spezifische Layout eines jeden Berichts vom Benutzer und nach seinen Bedürfnissen definiert werden. Dies reicht von der Spaltenauswahl über die Überschriften- und Filterdefinition und die Gruppierung der Daten bis hin zur Angabe von Sortierkriterien. Nach der Ausführung kann die Ausgabe eines jeden Reports unter einem aussagekräftigen Namen zur späteren Ansicht gespeichert werden. Ein Bericht kann auch in viele Datenformate wie PDF oder CSV etc. exportiert werden.
  • Ein Alias-Editor bietet Unterstützung für Installationen mit Staged- oder Rollout-Bibliotheken, z. B. für die Installations-, Integrations- und Produktionsumgebung.

Als leistungsstarkes Tracking-Tool erkennt P-Tracker jede Programmausführung in z/OS-Systemen.

Es erfasst den Programmnamen und den Namen der Ladebibliothek, aus der ein Programm geladen wurde. Außerdem liefert er Informationen darüber: wer bzw. was die Ausführung gefordert hat (Benutzer, Job, Task), wo sie ausgeführt wurde (System, LPAR) und wann sie ausgeführt wurde (Datum, Uhrzeit). Als umfassender Software-Katalog berücksichtigt P-Tracker alle und jedes Stück Software, das sich in z/OS-Systemen bewegt (und schläft).

Er identifiziert Produktnamen, Herstellernamen, Versionsnummern, Modulnamen, Bibliotheken mit deren Standort, Duplikate von Modulen und Bibliotheken. Er speichert und aktualisiert diese Informationen regelmäßig, der resultierende Katalog kann beliebig durchsucht und verändert werden.

Als einfaches Reporting-Tool kombiniert P-Tracker die aufgezeichneten Programmausführungen mit dem Software-Katalog und offenbart genaue Zahlen über das reale Leben Ihrer Software-Assets. Verschiedene Berichte demonstrieren die Softwarenutzung, Nutzungszeiträume, -intervalle und -häufigkeit, und sie zeigen auch, was lange nicht genutzt wurde.

Die CSV-Ausgabe geht direkt in Ihre Tabellenkalkulationen und erzeugt auf einfache Weise grafische Darstellungen für Ihre Berichte. P-Tracker ist das ultimative Werkzeug, um die üblichen Fragen des Software Asset Managements eindeutig zu beantworten, zum Beispiel:

  • Welche Anwendungen/Produkte sind auf unseren Systemen installiert?
  • Wer benutzt sie? Wie oft? Wann?
  • Nimmt der Nutzungsgrad zu oder ab (Trendgrafiken zur Unterstützung von Renewal/Upgrade-Verhandlungen)?
  • Gibt es Produkte/Applikationen, die nie verwendet werden?
  • Welche Produkte werden selten/häufig verwendet?
  • Ist die aktuelle Lizenzgebühr angesichts der geringen Auslastung gerechtfertigt?
  • Verwenden verschiedene Benutzer unterschiedliche Versionen desselben Softwareprodukts? Oder kompatible Produkte?
  • Wie können wir redundante, oder ähnliche Produkte (geerbt aus Firmenfusionen) konsolidieren? Welche Produkte sollten bleiben?
  • Wie hängen Ladebibliotheken, Produkte, Funktionen, Komponenten und Versionen zusammen?
  • Wer wäre von einem Upgrade betroffen?
  • Auf wen würde sich ein Austausch (Schulung) auswirken?
  • Welche Produkte/Libs/Module verwendet ein Job (Fehleranalyse)?
  • Welche Wartungsstufen sind im Einsatz?
  • Was muss in unseren Disaster Recovery Systemen repliziert werden?

Nehmen wir den einfachen Fall von LPAR-Lizenzen, bei dem die LPAR-Größe aufgrund höherer Anforderungen der Kernanwendung erhöht werden muss. Gleichzeitig bleibt die Produktnutzung der Produkte eines anderen Herstellers, die auf der gleichen LPAR laufen, gleich, aber die Lizenzgebühren sollen steigen.

Die Nutzungsstatistiken von P-Tracker werden Sie als Anwender bei Gesprächen mit dem Anbieter unterstützen, da Sie nun genau wissen, wie viel ein Produkt tatsächlich genutzt wird. Und in Situationen, in denen ein Ersatz die einzige Option auf dem Tisch ist, wissen Sie im Voraus, welche internen Benutzer betroffen sind und wer in der Verwendung des neuen Produkts umgeschult werden muss.

Bei firmeneigener Software wird geschätzt, dass die Produktionsbibliotheken jedes Jahr um 5 % der nicht mehr benötigten Softwaremodule zunehmen, da sie Back-Out-Prozesse (nicht löschen, umbenennen) ermöglichen müssen.

Das bedeutet, dass nach fünf Jahren ca. 28 % der Module in einer Bibliothek nicht mehr genutzt werden und dennoch von internen oder externen Mitarbeitern zur Wartung beauftragt werden. P-Tracker identifiziert ungenutzte Module. Veränderungen sind unvermeidlich, Hardware wird aufgerüstet oder entfernt, aber manchmal werden die Lizenzgebühren von abhängiger und veralteter Software noch pünktlich bezahlt! Die Bestands-/Nutzungsberichte von P-Tracker können Sie vor unnötigen Zahlungen schützen.

P-Tracker bringt Ihnen darüber hinaus Vorteile in den folgenden weiteren Bereichen:
  • Konsolidierung der Produktabdeckung von Maschinen/Systemen und Optimierung von Lizenzen mit geringer Kapazität.
  • Beweisen Sie dem Management, dass Ihr Budget voll ausgeschöpft ist, um Mittelkürzungen zu vermeiden oder um Erhöhungen zu rechtfertigen
  • Werden Sie "auditfähig", um kostspielige Lizenzverstöße zu vermeiden
  • Überprüfung des Produktbestands durchführen
  • Führen Sie einen Audit-Trail der Produktnutzung pro LPAR durch

P-Tracker hat zwei Komponenten: Die eine ist eine z/OS-Software, die auf sehr einfache und effiziente Weise Informationen über das Host-System sammelt. Sie wird mit einer einfach zu bedienenden ISPF-Anwendung gesteuert.

Die andere Komponente ist eine grafische Java-Anwendung, die auf einem beliebigen Windows- oder Linux-PC Ihrer Wahl ausgeführt werden kann. Sie stellt dem Anwender eine moderne grafische Oberfläche zur Verfügung, die klar strukturiert ist und über alle Komfortfunktionen verfügt, die man heutzutage von einer solchen Anwendung erwartet.

  • Verwaltet eine relationale Datenbank, in der alle P-Tracker-Daten dauerhaft gespeichert werden
  • Verbindet sich mit dem Host-System, um aufgezeichnete Programmaufrufe und gesammelte Programm-Metadaten in die Datenbank zu laden
  • Bietet einen Produkt-Explorer, in dem der Benutzer Anbieter, Produkte, Versionen, Funktionen, FMIDs, Datensätze und Lastmodule in einer übersichtlichen Baumansicht verwalten kann
  • Über ein "Library Assignment"-Panel kann der Anwender auf komfortable Weise Datensätze und Lastmodule zu Produkten zuordnen - für SMP/E-Produkte existiert jedoch ein automatisierter Zuordnungsprozess, der nicht nur die richtigen Produktdaten selbst identifiziert, sondern auch fehlende Hersteller-, Produkt- oder Versionseinträge automatisch erstellt.
  • Ein weiterer Bereich, der Berichtsexplorer, bietet Funktionen zur Definition verschiedener Berichtstypen: Bibliotheks-, Hersteller-, Nutzungs-, Nullnutzungs- und Compliance-Bericht. P-Tracker wird mit Vorlagen für jeden Bericht ausgeliefert. So kann das spezifische Layout eines jeden Berichts vom Benutzer und nach seinen Bedürfnissen definiert werden. Dies reicht von der Spaltenauswahl über die Überschriften- und Filterdefinition und die Gruppierung der Daten bis hin zur Angabe von Sortierkriterien. Nach der Ausführung kann die Ausgabe eines jeden Reports unter einem aussagekräftigen Namen zur späteren Ansicht gespeichert werden. Ein Bericht kann auch in viele Datenformate wie PDF oder CSV etc. exportiert werden.
  • Ein Alias-Editor bietet Unterstützung für Installationen mit Staged- oder Rollout-Bibliotheken, z. B. für die Installations-, Integrations- und Produktionsumgebung.

I/O Performance

The overall performance of Db2 z/OS depends highly on its I/O performance, which is in turn mainly influenced by the behavior of the buffer pools.

 

Erwartungen an BPA4Db2

A continuous search method for avoidable I/O and its prevention keeps systems healthy, saves machine resources and prevents unpleasant surprises.

Bufferpool Monitoring

A powerful buffer pool analysis tool not only shows suboptimal buffer pool behavior, but should also identify objects that are frequently accessed by inefficient SQL statements.

Essential DB2 Health Check

You have more and more growing databases and Db2 systems to manage, but no additional help to get your job done? There are ways to automate many of the tasks necessary to monitor and control your Db2 systems and databases.

Problem Management

Errors, problems, bottlenecks are inevitable in ever-changing, complex environments, budgets are always tight, data centers are short staffed and service level agreements are ambitious. The only way out is automation.

QA für dynamisches SQL

How can we allow dynamic SQL, benefit from dynamic SQL and ensure quality – guarantee performance?

DSC Analyse

DSCA detects, corrects and avoids the problems associated with executing growing volumes of dynamic SQL statements. What does this mean in detail?