Sonntag, 25. November 2012

1992 GIGAsteps Classics: Insourcing (Teil3)



„Menschliche Wesen nehmen die Dinge nicht in ihrer Ganzheit wahr; wir sind keine Götter, sondern verwundete Kreaturen, zersprungene Linsen, nur zu gebrochener Wahrnehmung fähig".

Salman Rushdie, Dichter, aus: „Heimatländer der Phantasie"[1]

2.0 Die Zerschlagungstheorie

2.1 Konstruktionszeichnung der DV

Datensicht. Ja, ja ‑ vor zehn Jahren hätten ihn „noch viele als Spinner" abgetan, schmunzelt Dr. Max Vetter, Professor an der Eidgenössischen Technische Hochschule (ETH) in Zürich. Nun würden sich sogar Vorstände mit dem ehedem als allzu extravagant verschrienen Thema Datenmodellierung auseinandersetzen. 
Nein, nein ‑ an der Relevanz von Datenmodellen könne heute in der Tat keiner mehr zweifeln. Denn sie seien inzwischen „so etwas wie die Konstruktionszeichnungen der Datenverarbeitung", greift Heinz Münzenberger, bis Juni 1992 Hauptabteilungsleiter Daten und Verfahren bei der Deutschen Lufthansa AG in Frankfurt, den Faden auf. (Heinz Münzenberger wurde geschäftsführender Gesellschafter des Softwarehauses GTI im bergischen Kürten)
Ja, ja ‑ steigt Rudolf Corzilius, Datenbankexperte bei der IBM Deutschland, ein: „Datenmodelle sind das einzige Mittel, um das Datenchaos zu meistern. Sie gewähren allen Mitarbeitern, vom Vorstand bis zum Sachbearbeiter, eine gemeinsame und einheitliche Sicht auf die Daten."
Endlich soll also die subjektive Sicht auf die Daten, wie sie der einzelne Benutzer mit all seinen spontanen Ansprüchen hat, in Übereinstimmung mit einer objektivierten und fundierten Sicht gebracht werden. Denn die Divergenz beider Perspektiven ist die tiefe Ursache für das Chaos. Und nur so, mit Hilfe der Datenmodelle, können alle Integrationsprobleme von grundauf gelöst werden.
Empfehlungen. Gut, gut ‑ postuliert Helmut Rhefus, Leiter des Bereichs Datenbankadministration Data Dictionary und Datenmodellierung bei der Henkel KGaA in Düsseldorf: „Sofort damit beginnen. Man kann frühzeitig die richtigen Dinge in die richtigen Bahnen lenken."
Und schon prasseln die Empfehlungen und Ratschläge auf den IS‑Manager und seine Gemeinde hernieder.
„Mit der Unternehmensdatenmodellierung verbessern Sie die Kommunikationskultur in Ihrem Unternehmen", rät Alfred Werra, Leiter „IS‑Methoden" bei der R+V Allgemeine Versicherung AG in Wiesbaden.
„Nichts tun ‑ das ist auf jeden Fall tödlich", warnt gar der frühere MBB‑Manager Heinz Mistelbauer, nunmehr verantwortlich für das Consulting Datenmanagement bei der CAP debis Integrierte Anwendungssysteme GmbH in Riemerling bei München. „Mit dem Nutzen ist es wie mit den Zinsen. Sie werden erst später erkennbar."
„Bester Ansatzpunkt für die Datenmodellierung sind neue Projekte", setzt A. Schmidt, Prokurist im Bereich Verkaufskoordination bei der Hoechst AG in Frankfurt, auf den Trendbruch zwischen Alt und Neu.
- „Datenmodelle zeichnen sich vor allem durch ihre Stabilität aus", weist Dr. Thomas Brandhofe, Sachgebietsleiter in den Bereichen Programmiersysteme und Datenbanksysteme bei der DG‑Bank in Frankfurt, auf die Langlebigkeit dieser Investition hin.
- Datenmodellierung ist nicht nur eine Chance, sondern schlichtweg eine Notwendigkeit", setzt Professor Bernd Breutmann, Leiter des Studiengangs Informatik an der Fachhochschule Würzburg‑Schweinfurt, nach.
Über die ‑ fast schon therapeutische ‑ Bedeutung der Datenmodellierung herrscht also allgemeine Einstimmigkeit. Sie ist die erste Integrationsebene, über die eine neue Architektur entstehen und der Datensumpf trockengelegt werden kann. Vor diesem Hintergrund hat IBM zum Beispiel für ihre Kunden im Bereich Finanzdienstleistungen, mit denen sie rund zwölf Milliarden Dollar pro Jahr weltweit umsetzt, die Financial Application Architecture (FAA) entwickelt, die  im April 1992 vorgestellt wurde.
Deren größtes Investment sind die Data Model Services, die nicht nur das Datenmodell, sondern auch die darauf aufbauenden Anwendungen und Diensten für den unternehmensweiten Einsatz adressieren. Kunden und Softwarehäuser können dieses Modell nutzen, um nun bestehende und neue Anwendungen daran anzupassen und zu integrieren.[2]

2.2 Das Todesurteil für Programmierer

Revolutionsjahre. Die ganze Unternehmenswelt via Datenverarbeitung zu strukturieren, das war indes schon vor drei Jahrzehnten der große Anspruch gewesen, mit dem die Apologeten der Neuen Technik aufmarschierten. Doch die Versuche scheiterten jedesmal, weil die Grundlagenarbeit immer schnell in Funktionalismus umschlug. Das Ergebnis war stets Chaos. Organisationschaos. Softwarechaos. Datenchaos ‑ dem „Jahrhundertproblem der Informatik", wie es  Vetter nennt.
Schon Ende der sechziger Jahre wurde spürbar, dass die genialen Entwürfe, mit denen die Datenverarbeitung die „reale Welt" abbilden wollte, sich nicht erfüllen ließen. Immerhin wurde bereits 1968 während einer Nato‑Tagung in Garmisch‑Partenkirchen, an der auch Zivilisten teilnahmen, die Softwarekrise ausgerufen, die bis heute nicht beigelegt ist. (Siehe auch: „Welt der Objekte")
Doch damals konnten die Datenverarbeiter die Schuld für das Versagen noch der alten, aus der Zeit vor der Computerisierung überlieferten Ordnung in die Schuhe schieben, die sich der Steuerung durch die Neue Technik widersetzte. So fragte 1970 einer der berühmtesten „Systemanalytiker" der Welt, der Brite James Martin, in seinem mit Adrian R. Norman erstellten Erstlingswerk Halbgott Computer: „Ist es wirklich unvermeidlich, dass die revolutionäre neue Technologie zuerst die alten Ordnungen zerschlägt und der Mensch erst dann versucht, das Chaos wieder zu ordnen?"[3]
Die Revolution frißt ihre Kinder. Zehn Jahre später, 1980, war der Computer selbst zentraler Bestandteil dieser Ordnung geworden. Doch etliche Entwürfe von gestern verstaubten entweder in Schubladen oder waren nur in Rudimenten realisiert. Eines der Schlagworte, das damals aufkam und sich nie erfüllte, war das so genannte Management Information System (MIS)
Der intellektuelle Angriff auf die  reale Welt, der seinerzeit provozierend angezettelt worden war, hatte damit erstmals nachhaltig die Glaubwürdigkeit derer desavouiert, die Martins Hoffnung zufolge der durchprogrammierten Räson zum Triumph über das Chaos verhelfen sollten: die Programmierer, die wahren Kinder dieser Revolution.
Die Software‑Entwicklung fiel immer weiter hinter der realen Welt zurück, die sie allzu mikroskopisch zerlegen und allzu makroskopisch in ihren Systemen wieder zusammensetzen wollte. Fast schon hilflos erklärte James Martin 1980 in einem Interview mit dem Autor: „Die einzige Möglichkeit, die Programmier‑Produktivität zu steigern, besteht darin, die Programmierer zu erschießen". Für Martin waren somit die Revolutionäre an sich selbst gescheitert.
Aber die Programmierer überlebten Martins Todesurteil. Die Welt war schon zu abhängig von ihnen geworden. Der PC kam und vergrößerte das Heer um mindestens eine Million Codierknechte. Mit ihnen wuchs das Chaos unüberwindlich. Mediokrität nistete sich überall ein.
Die großen Entwürfe, deren Durchführung zuvor noch an der Hardware‑Technik gescheitert war, verarmten nun zu unzähligen isolierten Einzelfunktionalitäten. Jede mochte für sich zwar eine zwingende Bedeutung haben. Doch deren bloße Addition entbehrte jedes Sinnes. Es blieben gebrochene Wahrnehmungen ‑ die der Benutzer und die der Systementwickler. Sie schufen keine einheitliche, gemeinsame und unternehmensweite Sicht auf die Daten.
Und nun ‑ wieder gute zehn Jahre später ‑ tritt ein neuer „James Martin" auf. Sein Nachname ist fast schon Programm. Er heißt Michael Hammer. Er ist Präsident der Beratungsfirma Hammer & Co. in Cambridge (Massachusetts) und ein gefeierter Star in den USA. Er fordert, dass Unternehmen ihre Systeme „kurz und klein schlagen" oder gar „in die Luft jagen" sollten. [4] Nicht mehr den Programmierern geht es an den Kragen, sondern ihren Werken. Punctum.
Ein Mann wie Bernhard Dorn zuckt da zusammen. „Wir müssen stattdessen die vorhandenen Systeme integrieren", erklärt er. Dabei weiß er genau, dass das „alles nur ein Kompromiß" ist. Es gibt eigentlich nur eine Chance. Ein Integrationspfad muss geebnet werden, über den der Bestand in die neue Welt geleitet werden kann. Dies ist das große Thema des Reengineering. Bestätigt
Allianz‑Vorstand Hendricks: „Es ist vielleicht eines der wichtigsten Themen der neunziger Jahre." Doch eine vom Büro Vollmer im Oktober 1992 durchgeführte Blitzumfrage bei DV‑Managern aus der deutschen Industrie ergab, dass nach Meinung dieser Fachleute im Topmanagement die Bedeutung des Reengineerings überhaupt noch nicht verstanden wurde.
Zur Erneuerung der IS‑Strukturen gehört eine Vielzahl von Aktivitäten.  Datenmodellierung und Prozessmodellierung. CASE‑Einsatz (AD/Cycle) und Repositorium (Repository Manager). Da wartet die objektorientierte Programmierung (OOP), die Ausgestaltung des Information Warehouse und das Management der unternehmensweiten DV‑Ressourcen, SystemsView. Jede dieser Novitäten ein großer Schritt für sich ‑ und voller Ungewißheiten. Schon führte dies dazu, dass IBM ihr AD/Cycle‑Konzept in einem zentralen Punkt überdachte: beim Repositorium.
Doch gelingt die schrittweise Erneuerung, dann ist mehr gewonnen als mit einer noch so spektakulären Revolution. Die Glaubwürdigkeit ist wiederhergestellt. Der erste Schritt aber muss die  Datenmodellierung sein.
Eine Investition, die keiner sieht...


[1] Die Welt, 4.4.92: „Wort für Wort"
[2] Computerworld, 27.4.92, Thomas Hoffmann: „IBM shows its flexibility to financial users" 
[3] James Martin, Adrian R.D.Norman, München 1972: „Halbgott Computer" (ISBN 3‑405‑11168‑4), zuerst erschienen 1970 unter dem Titel: „The computerized society"
[4] Arthur D. Little (Hrsg.), Düsseldorf 1992: „Der vernetzte Manager", ISBN 3‑430‑16123‑1

Keine Kommentare: