Tuning & Availability

Availability, operation expense and performance compose the triangular arena of requirements for running the larger than ever and ever-growing mainframe database systems nowadays. So why not let the machines care for themselves? Find a capable toolset that analyses I/O performance and develops tuning measures, based on its built-in expert system. 

Related Products:

Tuning & Availability supports you in the following areas:

The overall performance of Db2 z/OS depends highly on its I/O performance, which is in turn mainly influenced by the behavior of the buffer pools. Whereas SQL tuning efforts might be labor-intensive and costly, the Buffer Pool tuning with the aide of tuning tools is something that can easily be done by system DBA’s. Interaction with application development is rarely necessary and tuning success is achieved really fast. Very often only small changes lead to significant improvements.

The main purpose of the bufferpools is to save I/O, hence to save CPU work. Performance degrades when we fail to keep the right pages as long as possible in the pools. The right pages are those that are accessed again and again. What can be a relatively simple task can turn out to be a huge non-ending task when you have to work with inappropriate tools. Don’t be left to the fate of Greek mythological King Sisyphus, buffer pool tools are a requirement today.

What is to be gained from Bufferpool Tuning?
Inappropriate bufferpool settings can cause ugly problems from temporary system hold to loss of an entire Db2 data sharing group. Does it really have to come to that? Ample evidence of problems appears way before, a lot of CPU was already burned before things crash. Reckless CPU burning involves a great deal of expense. The primary issue with buffer pool tuning is to avoid unnecessary I/O and the cost involved. The best thing we can do against bottlenecks at peak times is to avoid impediments. An ongoing search method for avoidable I/O and their prevention keeps systems healthy, saves on machine resources, and prevents unpleasant surprises.

What can be expected from Bufferpool Tuning?
A precise answer to a simple question: Do we have tuning potential? In other words: Do the systems already work efficiently or can we achieve measurable improvements? Don’t use a tool that attempts to improve things that are OK or already optimal, what a complete waste of your valuable time. A helpful bufferpool tool is pro-active and warns when things are about to turn bad and leaves me alone as long as everything is in good shape.

The key feature is “ongoing surveillance” according to quality criteria that I can set. For example, send me a warning if more than 10% avoidable IO appears with these bufferpools.

Clear Briefing – Recommendation of Tuning Measures
Let’s assume tuning potential is detected, performance is suboptimal, what next? In order to save me the pain of lengthy analysis, the best buffer pool tool should provide recommendations and predict their outcome. Preferably, it will already deliver the required ALTER statements, especially when many objects are involved. It is uncommon that only the size or the thresholds of a single pool has to be changed, more often the assignment of objects to pools must be reworked. A tool that helps me do this, that helps me to deliver system performance, is what I need.

Surveillance of SQL Quality & DSCA
You definitely can monitor and tune the pools independently from application/SQL tuning, and you will achieve immediate success from this. However, it indeed makes sense to pursue an integrated approach. A capable bufferpool analysis tool indicates not only suboptimal bufferpool behavior, it also should identify objects that are frequently accessed by inefficient SQL statements. Today, dynamic SQL makes more and more trouble. To deliver the proper analysis, it should link bufferpool analysis with the analysis of the dynamic statement cache.

You have more and more growing databases and Db2 systems to administer, but no additional help to get your work done? This is the normal case these days, but the good news is that there are ways to automate many of the necessary tasks to monitor and to control your Db2 systems and databases.

Enterprises want their application systems to be highly available and to perform well on an ongoing basis, but verifying the health of their systems seems a daunting task. On occasion, certain non-availability of applications can remain undetected. Sometimes problems develop over long periods of time, noticing trends and their timely detection would simplify resolution and avoid downtime. Performance degradation normally evolves slowly, adverse effects on users can be easily avoided, provided the first signs are recognized and countermeasures are taken early enough. New challenges continue, for example the growing flood of dynamic SQL. Automatic surveillance and assessment of the Dynamic Statement Cache can produce relief.

Normally your clients do not ask why the application failed, it just failed and it should not have. It doesn’t matter whether a tablespace became full or entered a restricted state, or whether a thread or procedure failed, or the system came to hold due to log offload difficulties, or a sharing group went down because the SCA was full. There are many error sources and as many suggested workarounds. Much better than a conglomeration of various scripts and procedures is a new unified and integrated approach. It is not enough to receive a list of the current restricted states, truly valuable information is provided only when the restricted states are immediately related with current utility executions or other system wide events.

A tool based implementation of continuous measurement and analysis helps to avoid the most frequently occurring problems in daily operations. Archived problem data also supports problem analysis, “Did this problem occur ever before and how was it solved?” A data warehouse of problem descriptions of all the problems that occurred in the past simply shows the common, most frequent issues for which general provisions can be made and automatically applied. An elegant solution offers its findings on what happened as a set of parameters for immediate deployment of counter measures: Copy Pending – copy it, problem with a thread, restart it, etc.

A big advantage of a unified solution is in the field of messages and warnings. Too many messages and warnings are annoying, elusive, or ignored. Only serious issues should be reported, and they should only be reported once. A solved problem should automatically vanish from the screen and enter the data warehouse of past problems.

What can be automatically monitored and analyzed by an appropriate tool? In principle everything, a tool I have in mind should detect conceivable lack of space, ensure timely recoverability according SLAs, monitor BSDS/log activities, check the quality of dynamic SQL statements, monitor and assess I/O performance and buffer pools, monitor threads, DDF, plans, packages, objects in restricted state and utility executions, SCA structures, group buffer pools, just to mention a few. Do you want to know what tool I am thinking of…. See XM4Db2™.

 

Errors, problems, bottlenecks are inevitable in ever-changing, complex environments, budgets are always tight, data centers are short-staffed and service level agreements are ambitious. The only way out is automation. Good is good, but better carries the day.

Automatic problem detection and problem treatment is long overdue. Many if not most problems make themselves known early enough, it is all about recognizing the first indicators. A tool is able to do that, emotionless, tenacious, ongoing. Many problems occur repeatedly. What did we do with this last month? The database of an appropriate problem management tool provides information.

Automatic problem detection is one thing, automatic reaction is even better. The tool that detected and measured an unacceptable situation has all the necessary parameters available to generate a predefined job to remedy the situation.

A problem management tool should monitor each Db2 subsystem on every LPAR, but keep all the information gathered in one database. The problem management tool? XM4DB2™.

Performance with Dynamic SQL
People have long tended to avoid dynamic SQL as much as possible. The reasons given were usually: additional CPU overhead for the statements’ prepare, no or little capacity for quality assurance, and lack of transparency: “You don’t know what or when something will be executed, and what the consequences will be.”

As more and more licensed standard products make use of dynamic SQL, this attitude is becoming less and less viable. And another challenge presents itself. The z/OS platform has rivals, and its superiority in reliability and performance rests among other things on established quality assurance processes. The question therefore is not whether or not to use dynamic SQL, wisdom lies again in a bit of both. How can we approve dynamic SQL, profit from dynamic SQL, and assure quality – in other words, guarantee performance?

DSCA detects, corrects, and avoids the problems that go hand in hand with the execution of growing volumes of dynamic SQL statements. What does that mean in detail? Dynamic statements are usually generated during runtime. The result of this generation is often very uniform, which means it is highly likely that statements that have appeared once will reappear again in the same or similar form. This is where DSCA comes in. It monitors the DSC and collects and categorizes statements, and in doing so builds up a “data warehouse of SQL statements.” An image of the workload is created, highlighting weaknesses as well as pointing out the potential for improvement.

Quality assurance for dynamic SQL is therefore quite feasible, although no longer before execution (as is normally done with static SQL) but rather after the data warehouse of SQL statements has been compiled. This source is then analyzed in order that countermeasures can be taken. Typical problems are easy to spot with the help of this amassed data: access path problems, optimizer errors, DSC trashing (statements without parameter markers), CPU-burning SQL, statements with lock problems.
Since they usually have very limited control over the SQL in licensed products, people often say they can’t change anything anyway and end up neglecting the products they purchase. However, this is not necessarily correct. It is these products especially that demand a clear overview of problematic issues. As soon as you’re aware of them (usually only a few statements or statement groups are involved) you can move quickly to resolution:

• Optimize access paths using new or other indexes
• Adjust the buffer pool design in the case of IO problems
• Change table clustering
• Special runstats for complex queries

Static SQL QS is now standard in most settings, problems arise because dynamic SQL is not as carefully monitored. Comprehensive quality assurance for the entire workload is, however, the order of the day. Standard monitors hardly support this process, if at all. The DSCA component in Exception Master for Db2 (XM4DB2) is specially designed for this task. It compiles the SQL data warehouse, evaluates the statement groups according to your quality criteria, and suggests improvements.

Businesses that are not in a position to acquire a dedicated tool can order the Service Pack DSCA. UBS analyzes the DSC and recommends concrete tuning measures for a fixed price. We tell you the causes of any problems, detect wastage, highlight negative developments, and recommend countermeasures – such as those involving indexes, runstats, and parameter markers. Targeted QS brings together what belongs together: dynamic SQL with performance, transparency, resource conservation, uninterrupted operation, and high availability levels.

Agile Entwicklungsmethoden fordern passende Testfalldaten häufiger und früher im Entwicklungszyklus. Testdaten sollten daher auf einfache Weise bestellbar sein, am besten über einen Intranetshop.

Die Agile Programmierung integriert mehr und mehr Funktionsentwicklung und Test, schon im Sprint wird getestet. Daher werden Testdaten häufiger und früher im Entwicklungszyklus benötigt. Testdatenbesteller, die in der Regel keine Detailkenntnis über Tabellen und deren Beziehungen haben, können fein-granulare Testfalldaten über ein auf ihr Arbeitsgebiet abgestimmtes Webportal, anfordern. Pro App oder Sparte ist dort das Sortiment der bestellbaren Geschäftsobjekte aufgelistet und dokumentiert. Der Besteller wählt nur aus, bestimmt Menge, macht vielleicht noch weitere Angaben zu gewünschten Eigenschaften und erhält die Daten umgehend im bezeichneten Testsystem. Der Besteller benötigt keine Kenntnisse wie Tabellenstruktur, relationale Abhängigkeiten, etc. So wird wertvolle Entwicklerzeit auf die zentrale Aufgabe konzentriert.

 

Tester sollen keine Zeit mit der Beschaffung, Vorbereitung und Einbettung der Testdaten verschwenden. Die bestellten und gelieferten Testdaten müssen automatisch in den Bestand des Testbetts integriert werden.

Entwickler brauchen Testfalldaten, kurzfristig, oder zu einem bestimmten Zeitpunkt;in der Regel einige Hundert ausgewählte, relational-intakte, DSGVO-konforme Zeilen, Verträge, Kunden, oder allgemeiner, komplette Geschäftsobjekte. Man möchte die erforderlichen Testdaten einfach bestellen können, am besten über ein auf die Bedürfnisse der jeweiligen Applikation zugeschnittenes Webportal. Die Testdatenbelieferung soll in der Lage sein die gelieferten Daten sachgerecht in den Bestand des Testbetts nach Vorgaben einzubetten. Weitere Daten sollen im Verlauf der Entwicklung einfach hinzugefügt werden können.

Zurücksetzen:
Man möchte nach erfolgtem Test wieder leicht auf Anfang zurücksetzten können, oder die Daten auf einfache Weise austauschen; heute wird ein Problem der aktuellen Version bearbeitet, morgen geht es mit dem neuen Release weiter.
Einbetten:
Anfänglich generierte Daten sollen passgenau mit produktiven Daten ergänzt werden.

 

Modellierer pflegen und warten das Testdatenangebot.

Das Angebot im Testdatenshop wird von einem oder wenigen Modellierern gepflegt. Der Modellierer kennt die Entitäten der Domain und alle Details wie Kardinalität und die Verbindungen zu anderen Geschäftsbereichen oder Sparten. Er kann, falls sinnvoll oder notwendig die Konfigurationen anderer Sparten einbinden, z. B. die von gemeinsamen Stammdaten. Die Modellierung und damit die Definition neuer Beschaffungsvorgänge setzt in der Regel Kenntnisse voraus, die der Entwickler/Tester nicht zu haben braucht. Alle Besteller damit zu belasten wäre nicht effizient. Stattdessen wird die Mehrheit der Nutzer von unnötigem Ballast befreit und kann sich ganz auf Entwicklung und Test konzentrieren.

 

DSGVO und andere Vorgaben verlangen die De-Identifikation personenbezogener Testdaten. Es ist sinnvoll, die Anonymisierung in den Prozess der automatisierten Testdatenlieferung zu integrieren.d gelieferten Testdaten müssen automatisch in den Bestand des Testbetts integriert werden.

Wir bieten automatisierte Verfahren zur Bearbeitung der Testdaten hinsichtlich De-Identifikation. Sie sind sowohl nachträglich anwendbar, als sogenannte In-Place-Verfahren, als solche, die Verarbeitung von Massendaten erlauben, als auch in den Bereitstellungsprozess der Testfalldaten direkt integriert werden können.

Der PII Finder (personal info identifier) unterstützt den Prozessmodellierer bei der Erkennung relevanter Spalten/Felder. Die Software bietet standardisierte Methoden zur Anonymisierung/­Pseudonymisierung/Maskierung an: Vor- und Nachnamen, Adressen, Bankdaten, Sozialver­sicherungsnummern, etc. Der Anwender kann die Methoden modifizieren oder eigene einbringen. Das gleiche gilt für die zu verwendenden Wertebereiche, nationale/­internationale Adressbestände, usw.

Methoden und Regeln werden in Anwendungsmodellen für Unternehmensbereiche oder Sparten so integriert, dass je nach zu versorgendem Testbett die definierte Anonymisierung automatisch vorgenommen wird.

Mit unseren Verfahren anonymisieren oder pseudonymisieren Sie unternehmensweit einheitlich, ob Oracle, Db2, IMS, VSAM, LUW, MS SQL Server, PostgreSQL, SAP, applikationsübergreifend, einheitlich.

Anonymisierung nimmt eine wichtige Rolle in jedem Testdatenmanagement-Konzept ein. Produktive Daten dürfen meist nicht ohne weiteres für Testzwecke genutzt werden. Sei es der Schutz vor Mitbewerbern, das Outsourcing von Testabteilungen oder die Einhaltung des Datenschutzgesetzes, all diese Gründe erfordern eine Anonymisierung der Testdaten.

anonymisierungEin professionelles Konzept zur Testdaten-Anonymisierung gliedert sich meist in unterschiedliche Phasen. Es sind wichtige Vorarbeiten sind zu leisten, bevor die eigentliche Anonymisierung stattfinden kann.

Identifizierung
Das Datenmodell muss auf sensible Felder untersucht werden und Spalten, bzw. Attribute die Namen, Anschriften, Bankdaten, etc. enthalten, müssen identifiziert werden. Ohne Unterstützung einer effizienten Software kann diese Phase bereits eine der größten Hürden bei der Umsetzung einer Anonymisierungs-Strategie sein.

Implementierung
Anhand der identifizierten Felder müssen Regeln hinterlegt werden, die die Daten nach den Unternehmensvorgaben anonymisieren. Verfahren zum Umverteilen der bisherigen Daten stellen sicher, dass Randfälle, die in den produktiven Daten enthalten und entsprechend wertvoll für einen Test sind, weiterhin bestehen. Das konsistente Anonymisieren über Tabellen oder auch Systemgrenzen hinweg muss ebenfalls berücksichtigt werden.

Durchführung
Nachdem die relevanten Felder identifiziert und entsprechende Methoden zur Veränderung der Felder festgelegt wurden, müssen die Testdaten bei jedem Auffrischen anonymisiert werden. Dies sollte auf direktem Wege, während des Kopiervorgangs von Produktion nach Test, geschehen.

Die Testdatenmanagement-Suite bietet Ihnen folgende Vorteile:

Unterstützt Sie beim Identifizieren sensibler Daten. Komplexe Heuristiken finden sprichwörtlich “die Nadel im Heuhafen”. Dies reduziert den zeitlichen Aufwand erheblich.
Automatische Anonymisierung sensibler Daten direkt während der Testdaten-Bereitstellung. Es sind keine zeitaufwendigen Nacharbeiten notwendig.
Zentrale Pflege der Anonymisierungsstrategie in einem eigenen Repository. Die Anonymisierung findet ohne manuelles Zutun bei der Bereitstellung von Testdaten statt.
Geringerer Pflegeaufwand bei strukturellen Änderungen des Datenmodells.

 

DSGVO und andere Vorgaben verlangen die De-Identifikation personenbezogener Testdaten. Es ist sinnvoll, die Anonymisierung in den Prozess der automatisierten Testdatenlieferung zu integrieren.d gelieferten Testdaten müssen automatisch in den Bestand des Testbetts integriert werden.

Wir bieten automatisierte Verfahren zur Bearbeitung der Testdaten hinsichtlich De-Identifikation. Sie sind sowohl nachträglich anwendbar, als sogenannte In-Place-Verfahren, als solche, die Verarbeitung von Massendaten erlauben, als auch in den Bereitstellungsprozess der Testfalldaten direkt integriert werden können.

Der PII Finder (personal info identifier) unterstützt den Prozessmodellierer bei der Erkennung relevanter Spalten/Felder. Die Software bietet standardisierte Methoden zur Anonymisierung/­Pseudonymisierung/Maskierung an: Vor- und Nachnamen, Adressen, Bankdaten, Sozialver­sicherungsnummern, etc. Der Anwender kann die Methoden modifizieren oder eigene einbringen. Das gleiche gilt für die zu verwendenden Wertebereiche, nationale/­internationale Adressbestände, usw.

Methoden und Regeln werden in Anwendungsmodellen für Unternehmensbereiche oder Sparten so integriert, dass je nach zu versorgendem Testbett die definierte Anonymisierung automatisch vorgenommen wird.

Mit unseren Verfahren anonymisieren oder pseudonymisieren Sie unternehmensweit einheitlich, ob Oracle, Db2, IMS, VSAM, LUW, MS SQL Server, PostgreSQL, SAP, applikationsübergreifend, einheitlich.

Anonymisierung nimmt eine wichtige Rolle in jedem Testdatenmanagement-Konzept ein. Produktive Daten dürfen meist nicht ohne weiteres für Testzwecke genutzt werden. Sei es der Schutz vor Mitbewerbern, das Outsourcing von Testabteilungen oder die Einhaltung des Datenschutzgesetzes, all diese Gründe erfordern eine Anonymisierung der Testdaten.

anonymisierungEin professionelles Konzept zur Testdaten-Anonymisierung gliedert sich meist in unterschiedliche Phasen. Es sind wichtige Vorarbeiten sind zu leisten, bevor die eigentliche Anonymisierung stattfinden kann.

Identifizierung
Das Datenmodell muss auf sensible Felder untersucht werden und Spalten, bzw. Attribute die Namen, Anschriften, Bankdaten, etc. enthalten, müssen identifiziert werden. Ohne Unterstützung einer effizienten Software kann diese Phase bereits eine der größten Hürden bei der Umsetzung einer Anonymisierungs-Strategie sein.

Implementierung
Anhand der identifizierten Felder müssen Regeln hinterlegt werden, die die Daten nach den Unternehmensvorgaben anonymisieren. Verfahren zum Umverteilen der bisherigen Daten stellen sicher, dass Randfälle, die in den produktiven Daten enthalten und entsprechend wertvoll für einen Test sind, weiterhin bestehen. Das konsistente Anonymisieren über Tabellen oder auch Systemgrenzen hinweg muss ebenfalls berücksichtigt werden.

Durchführung
Nachdem die relevanten Felder identifiziert und entsprechende Methoden zur Veränderung der Felder festgelegt wurden, müssen die Testdaten bei jedem Auffrischen anonymisiert werden. Dies sollte auf direktem Wege, während des Kopiervorgangs von Produktion nach Test, geschehen.

Die Testdatenmanagement-Suite bietet Ihnen folgende Vorteile:

Unterstützt Sie beim Identifizieren sensibler Daten. Komplexe Heuristiken finden sprichwörtlich “die Nadel im Heuhafen”. Dies reduziert den zeitlichen Aufwand erheblich.
Automatische Anonymisierung sensibler Daten direkt während der Testdaten-Bereitstellung. Es sind keine zeitaufwendigen Nacharbeiten notwendig.
Zentrale Pflege der Anonymisierungsstrategie in einem eigenen Repository. Die Anonymisierung findet ohne manuelles Zutun bei der Bereitstellung von Testdaten statt.
Geringerer Pflegeaufwand bei strukturellen Änderungen des Datenmodells.

 

DSGVO und andere Vorgaben verlangen die De-Identifikation personenbezogener Testdaten. Es ist sinnvoll, die Anonymisierung in den Prozess der automatisierten Testdatenlieferung zu integrieren.d gelieferten Testdaten müssen automatisch in den Bestand des Testbetts integriert werden.

Wir bieten automatisierte Verfahren zur Bearbeitung der Testdaten hinsichtlich De-Identifikation. Sie sind sowohl nachträglich anwendbar, als sogenannte In-Place-Verfahren, als solche, die Verarbeitung von Massendaten erlauben, als auch in den Bereitstellungsprozess der Testfalldaten direkt integriert werden können.

Der PII Finder (personal info identifier) unterstützt den Prozessmodellierer bei der Erkennung relevanter Spalten/Felder. Die Software bietet standardisierte Methoden zur Anonymisierung/­Pseudonymisierung/Maskierung an: Vor- und Nachnamen, Adressen, Bankdaten, Sozialver­sicherungsnummern, etc. Der Anwender kann die Methoden modifizieren oder eigene einbringen. Das gleiche gilt für die zu verwendenden Wertebereiche, nationale/­internationale Adressbestände, usw.

Methoden und Regeln werden in Anwendungsmodellen für Unternehmensbereiche oder Sparten so integriert, dass je nach zu versorgendem Testbett die definierte Anonymisierung automatisch vorgenommen wird.

Mit unseren Verfahren anonymisieren oder pseudonymisieren Sie unternehmensweit einheitlich, ob Oracle, Db2, IMS, VSAM, LUW, MS SQL Server, PostgreSQL, SAP, applikationsübergreifend, einheitlich.

Anonymisierung nimmt eine wichtige Rolle in jedem Testdatenmanagement-Konzept ein. Produktive Daten dürfen meist nicht ohne weiteres für Testzwecke genutzt werden. Sei es der Schutz vor Mitbewerbern, das Outsourcing von Testabteilungen oder die Einhaltung des Datenschutzgesetzes, all diese Gründe erfordern eine Anonymisierung der Testdaten.

anonymisierungEin professionelles Konzept zur Testdaten-Anonymisierung gliedert sich meist in unterschiedliche Phasen. Es sind wichtige Vorarbeiten sind zu leisten, bevor die eigentliche Anonymisierung stattfinden kann.

Identifizierung
Das Datenmodell muss auf sensible Felder untersucht werden und Spalten, bzw. Attribute die Namen, Anschriften, Bankdaten, etc. enthalten, müssen identifiziert werden. Ohne Unterstützung einer effizienten Software kann diese Phase bereits eine der größten Hürden bei der Umsetzung einer Anonymisierungs-Strategie sein.

Implementierung
Anhand der identifizierten Felder müssen Regeln hinterlegt werden, die die Daten nach den Unternehmensvorgaben anonymisieren. Verfahren zum Umverteilen der bisherigen Daten stellen sicher, dass Randfälle, die in den produktiven Daten enthalten und entsprechend wertvoll für einen Test sind, weiterhin bestehen. Das konsistente Anonymisieren über Tabellen oder auch Systemgrenzen hinweg muss ebenfalls berücksichtigt werden.

Durchführung
Nachdem die relevanten Felder identifiziert und entsprechende Methoden zur Veränderung der Felder festgelegt wurden, müssen die Testdaten bei jedem Auffrischen anonymisiert werden. Dies sollte auf direktem Wege, während des Kopiervorgangs von Produktion nach Test, geschehen.

Die Testdatenmanagement-Suite bietet Ihnen folgende Vorteile:

Unterstützt Sie beim Identifizieren sensibler Daten. Komplexe Heuristiken finden sprichwörtlich “die Nadel im Heuhafen”. Dies reduziert den zeitlichen Aufwand erheblich.
Automatische Anonymisierung sensibler Daten direkt während der Testdaten-Bereitstellung. Es sind keine zeitaufwendigen Nacharbeiten notwendig.
Zentrale Pflege der Anonymisierungsstrategie in einem eigenen Repository. Die Anonymisierung findet ohne manuelles Zutun bei der Bereitstellung von Testdaten statt.
Geringerer Pflegeaufwand bei strukturellen Änderungen des Datenmodells.

 

DSGVO und andere Vorgaben verlangen die De-Identifikation personenbezogener Testdaten. Es ist sinnvoll, die Anonymisierung in den Prozess der automatisierten Testdatenlieferung zu integrieren.d gelieferten Testdaten müssen automatisch in den Bestand des Testbetts integriert werden.

Wir bieten automatisierte Verfahren zur Bearbeitung der Testdaten hinsichtlich De-Identifikation. Sie sind sowohl nachträglich anwendbar, als sogenannte In-Place-Verfahren, als solche, die Verarbeitung von Massendaten erlauben, als auch in den Bereitstellungsprozess der Testfalldaten direkt integriert werden können.

Der PII Finder (personal info identifier) unterstützt den Prozessmodellierer bei der Erkennung relevanter Spalten/Felder. Die Software bietet standardisierte Methoden zur Anonymisierung/­Pseudonymisierung/Maskierung an: Vor- und Nachnamen, Adressen, Bankdaten, Sozialver­sicherungsnummern, etc. Der Anwender kann die Methoden modifizieren oder eigene einbringen. Das gleiche gilt für die zu verwendenden Wertebereiche, nationale/­internationale Adressbestände, usw.

Methoden und Regeln werden in Anwendungsmodellen für Unternehmensbereiche oder Sparten so integriert, dass je nach zu versorgendem Testbett die definierte Anonymisierung automatisch vorgenommen wird.

Mit unseren Verfahren anonymisieren oder pseudonymisieren Sie unternehmensweit einheitlich, ob Oracle, Db2, IMS, VSAM, LUW, MS SQL Server, PostgreSQL, SAP, applikationsübergreifend, einheitlich.

Anonymisierung nimmt eine wichtige Rolle in jedem Testdatenmanagement-Konzept ein. Produktive Daten dürfen meist nicht ohne weiteres für Testzwecke genutzt werden. Sei es der Schutz vor Mitbewerbern, das Outsourcing von Testabteilungen oder die Einhaltung des Datenschutzgesetzes, all diese Gründe erfordern eine Anonymisierung der Testdaten.

anonymisierungEin professionelles Konzept zur Testdaten-Anonymisierung gliedert sich meist in unterschiedliche Phasen. Es sind wichtige Vorarbeiten sind zu leisten, bevor die eigentliche Anonymisierung stattfinden kann.

Identifizierung
Das Datenmodell muss auf sensible Felder untersucht werden und Spalten, bzw. Attribute die Namen, Anschriften, Bankdaten, etc. enthalten, müssen identifiziert werden. Ohne Unterstützung einer effizienten Software kann diese Phase bereits eine der größten Hürden bei der Umsetzung einer Anonymisierungs-Strategie sein.

Implementierung
Anhand der identifizierten Felder müssen Regeln hinterlegt werden, die die Daten nach den Unternehmensvorgaben anonymisieren. Verfahren zum Umverteilen der bisherigen Daten stellen sicher, dass Randfälle, die in den produktiven Daten enthalten und entsprechend wertvoll für einen Test sind, weiterhin bestehen. Das konsistente Anonymisieren über Tabellen oder auch Systemgrenzen hinweg muss ebenfalls berücksichtigt werden.

Durchführung
Nachdem die relevanten Felder identifiziert und entsprechende Methoden zur Veränderung der Felder festgelegt wurden, müssen die Testdaten bei jedem Auffrischen anonymisiert werden. Dies sollte auf direktem Wege, während des Kopiervorgangs von Produktion nach Test, geschehen.

Die Testdatenmanagement-Suite bietet Ihnen folgende Vorteile:

Unterstützt Sie beim Identifizieren sensibler Daten. Komplexe Heuristiken finden sprichwörtlich “die Nadel im Heuhafen”. Dies reduziert den zeitlichen Aufwand erheblich.
Automatische Anonymisierung sensibler Daten direkt während der Testdaten-Bereitstellung. Es sind keine zeitaufwendigen Nacharbeiten notwendig.
Zentrale Pflege der Anonymisierungsstrategie in einem eigenen Repository. Die Anonymisierung findet ohne manuelles Zutun bei der Bereitstellung von Testdaten statt.
Geringerer Pflegeaufwand bei strukturellen Änderungen des Datenmodells.

 

As a high-performance tracking tool, P-Tracker recognizes any program execution in z/OS systems.

It records the program name and the name of the load library from where a program has been loaded. Furthermore, it delivers information about: who, or, what, demanded the execution (user, job, task), where it has been executed (system, LPAR), and when it has been executed (date, time). As a comprehensive software catalog, P-Tracker accommodates all and any pieces of software that move (and sleep) in z/OS systems.

It identifies product names, vendor names, release numbers, module names, libraries with their location, duplicates of modules and libraries. It stores and regularly updates those pieces of information, the resulting catalog can be searched and modified ad libitum.

As a straightforward reporting tool, P-Tracker combines the recorded program executions with the software catalog and reveals accurate figures about the real life of your software assets. Various reports demonstrate software usage, usage periods, intervals, and frequency, and they also show what has not been used for a long time.

CSV output goes directly into your spreadsheets and easily generates graphical images for your reports. P-Tracker is the ultimate tool for clearly answering the usual questions of Software Asset Management, for example:

  • What applications/products are installed on our systems?
  • Who is using them? How often? When?
  • Is the usage ratio increasing or decreasing (trend graphs to support renewal/upgrade negotiations)?
  • Are there products/applications that are never being used?
  • Which products are seldom/frequently used?
  • Is the current license fee justified given the low utilization?
  • Are different users using different versions of the same software product? Or compatible products?
  • How can we consolidate redundant, or similar products (inherited from company mergers)? Which products should remain?
  • How do load libraries, products, features, components, and versions interrelate?
  • Who would be impacted by an upgrade?
  • Who would be impacted by a replacement (training)?
  • Which products/libs/modules is a job using (error analysis)?
  • What maintenance levels are deployed?
  • What needs to be replicated in our Disaster Recovery Systems?

Let‘s take the simple case of LPAR licenses where the LPAR size needs to increase due to higher demands of the core application. Concurrently, the product usage of another vendor‘s products running on the same LPAR will remain the same, but the license fees are due to increase.

P-Tracker‘s usage stats will empower you, the user, during discussions with the vendor, because now you know precisely how much a product is actually being used. And, in situations where a replacement is the only option on the table, you know in advance which in-house users are affected, and, who needs to be retrained in using the new product.

With in-house software, it is estimated that production libraries increase by 5% of defunct software modules each year due to the fact that they must allow for back-out processes (don‘t delete, rename).

That means that after five years, approximately 28% of the modules in a library are no longer being used, and yet, they are still contracted for maintenance by in-house or outsourced staff. P-Tracker identifies unused modules. Change is inevitable, hardware is upgraded, or removed, but, sometimes the license fees of depending and obsolete software are still paid on time! P-Tracker‘s inventory/usage reports can protect you from unnecessary payments.

P-Tracker will also bring you benefits in the following additional areas:
  • Consolidate product machine/system coverage and optimize sub-capacity licenses
  • Prove to management that your budget is fully utilized in order to avoid funding cuts or to justify increases
  • Become »audit ready« to avoid costly license compliance violations
  • Conduct product inventory verification
  • Conduct an audit trail of product use per LPAR

P-Tracker has two components: one is z/OS software, collecting information on the host system in a very simple and efficient way. It is controlled with an easy-to-handle ISPF application.

The other component is a graphical Java application that executes in any Windows or Linux PC of your choice. It provides a modern graphical interface to the user, which is clearly structured and has all the convenient features you nowadays expect from such an application.

  • Manages a relational database where all P-Tracker data is stored permanently
  • Connects to the host system to load recorded program calls and collected program metadata into the database
  • Provides a Product Explorer where the user may manage vendors, products, versions, features, FMIDs, datasets and load modules in a nice tree view
  • A »Library Assignment« panel enables the user to assign datasets and load modules to products in a convenient way – however, for SMP/E products, there exists an automated assign process which not only identifies the right product data by itself but also automatically creates creates missing vendor, product, or version entries.
  • Another area, the Report Explorer, provides functions to define various types of reports: library, vendor, usage, zero usage and compliance report. P-Tracker is delivered with templates for each report. So the specific layout of each report may be defined by the user and at the user‘s needs. This ranges from the column selection over header and filter definition and grouping of data to the specification of sort criteria. Once executed, each report‘s output may be stored with a meaningful name for later view. A report may also be exported to many data formats like PDF or CSV, etc.
  • An Alias Editor provides support for installations with staged or rollout libraries, e.g. for installation, integration, and production environment.

As a high-performance tracking tool, P-Tracker recognizes any program execution in z/OS systems.

It records the program name and the name of the load library from where a program has been loaded. Furthermore, it delivers information about: who, or, what, demanded the execution (user, job, task), where it has been executed (system, LPAR), and when it has been executed (date, time). As a comprehensive software catalog, P-Tracker accommodates all and any pieces of software that move (and sleep) in z/OS systems.

It identifies product names, vendor names, release numbers, module names, libraries with their location, duplicates of modules and libraries. It stores and regularly updates those pieces of information, the resulting catalog can be searched and modified ad libitum.

As a straightforward reporting tool, P-Tracker combines the recorded program executions with the software catalog and reveals accurate figures about the real life of your software assets. Various reports demonstrate software usage, usage periods, intervals, and frequency, and they also show what has not been used for a long time.

CSV output goes directly into your spreadsheets and easily generates graphical images for your reports. P-Tracker is the ultimate tool for clearly answering the usual questions of Software Asset Management, for example:

  • What applications/products are installed on our systems?
  • Who is using them? How often? When?
  • Is the usage ratio increasing or decreasing (trend graphs to support renewal/upgrade negotiations)?
  • Are there products/applications that are never being used?
  • Which products are seldom/frequently used?
  • Is the current license fee justified given the low utilization?
  • Are different users using different versions of the same software product? Or compatible products?
  • How can we consolidate redundant, or similar products (inherited from company mergers)? Which products should remain?
  • How do load libraries, products, features, components, and versions interrelate?
  • Who would be impacted by an upgrade?
  • Who would be impacted by a replacement (training)?
  • Which products/libs/modules is a job using (error analysis)?
  • What maintenance levels are deployed?
  • What needs to be replicated in our Disaster Recovery Systems?

Let‘s take the simple case of LPAR licenses where the LPAR size needs to increase due to higher demands of the core application. Concurrently, the product usage of another vendor‘s products running on the same LPAR will remain the same, but the license fees are due to increase.

P-Tracker‘s usage stats will empower you, the user, during discussions with the vendor, because now you know precisely how much a product is actually being used. And, in situations where a replacement is the only option on the table, you know in advance which in-house users are affected, and, who needs to be retrained in using the new product.

With in-house software, it is estimated that production libraries increase by 5% of defunct software modules each year due to the fact that they must allow for back-out processes (don‘t delete, rename).

That means that after five years, approximately 28% of the modules in a library are no longer being used, and yet, they are still contracted for maintenance by in-house or outsourced staff. P-Tracker identifies unused modules. Change is inevitable, hardware is upgraded, or removed, but, sometimes the license fees of depending and obsolete software are still paid on time! P-Tracker‘s inventory/usage reports can protect you from unnecessary payments.

P-Tracker will also bring you benefits in the following additional areas:
  • Consolidate product machine/system coverage and optimize sub-capacity licenses
  • Prove to management that your budget is fully utilized in order to avoid funding cuts or to justify increases
  • Become »audit ready« to avoid costly license compliance violations
  • Conduct product inventory verification
  • Conduct an audit trail of product use per LPAR

P-Tracker has two components: one is z/OS software, collecting information on the host system in a very simple and efficient way. It is controlled with an easy-to-handle ISPF application.

The other component is a graphical Java application that executes in any Windows or Linux PC of your choice. It provides a modern graphical interface to the user, which is clearly structured and has all the convenient features you nowadays expect from such an application.

  • Manages a relational database where all P-Tracker data is stored permanently
  • Connects to the host system to load recorded program calls and collected program metadata into the database
  • Provides a Product Explorer where the user may manage vendors, products, versions, features, FMIDs, datasets and load modules in a nice tree view
  • A »Library Assignment« panel enables the user to assign datasets and load modules to products in a convenient way – however, for SMP/E products, there exists an automated assign process which not only identifies the right product data by itself but also automatically creates creates missing vendor, product, or version entries.
  • Another area, the Report Explorer, provides functions to define various types of reports: library, vendor, usage, zero usage and compliance report. P-Tracker is delivered with templates for each report. So the specific layout of each report may be defined by the user and at the user‘s needs. This ranges from the column selection over header and filter definition and grouping of data to the specification of sort criteria. Once executed, each report‘s output may be stored with a meaningful name for later view. A report may also be exported to many data formats like PDF or CSV, etc.
  • An Alias Editor provides support for installations with staged or rollout libraries, e.g. for installation, integration, and production environment.

I/O Performance

The overall performance of Db2 z/OS depends highly on its I/O performance, which is in turn mainly influenced by the behavior of the buffer pools.

 

Bufferpool Tool Expectations

A continuous search method for avoidable I/O and its prevention keeps systems healthy, saves machine resources and prevents unpleasant surprises.

Bufferpool Monitoring

A powerful buffer pool analysis tool not only shows suboptimal buffer pool behavior, but should also identify objects that are frequently accessed by inefficient SQL statements.

Essential DB2 Health Check

You have more and more growing databases and Db2 systems to manage, but no additional help to get your job done? There are ways to automate many of the tasks necessary to monitor and control your Db2 systems and databases.

Problem Management

Errors, problems, bottlenecks are inevitable in ever-changing, complex environments, budgets are always tight, data centers are short staffed and service level agreements are ambitious. The only way out is automation.

QA for Dynamic SQL

How can we allow dynamic SQL, benefit from dynamic SQL and ensure quality – guarantee performance?

DSC Analysis

DSCA detects, corrects and avoids the problems associated with executing growing volumes of dynamic SQL statements. What does this mean in detail?