Mittwoch, 29. April 2009

IBM-Pressemitteilung: IDI rollt weiter

IBM kündigt neue Produkte und Services für dynamische IT-Infrastrukturen an
Anwender investieren in stärker automatisierte Betriebskonzepte zur Reduktion von Kosten und Risiken und zur Verbesserung der Servicequalität

Armonk, N.Y., USA und Stuttgart, 28. April 2009: IBM (NYSE: IBM) hat heute eine Reihe wichtiger neuer Produkte und Services vorgestellt, die IT-Infrastrukturen anpassungsfähiger und flexibler machen. Unternehmen erhalten damit die Möglichkeit, ihre Betriebskosten und Risiken zu senken sowie die Qualität von IT-Services weiter zu erhöhen. Gleichzeitig wurden eine Reihe internationaler Referenzkunden vorgestellt, die beispielhaft ihre Betriebskonzepte dynamisiert haben. Im Ergebnis können Kunden auf Veränderungen externer Faktoren und betrieblicher Belange schneller reagieren und ihre IT auf Herausforderungen einer global vernetzten Welt besser anpassen. Die heutige Ankündigung unterstützt Anwender dabei, die laufend steigende Komplexität in der betrieblichen Infrastruktur, bedingt durch den Zuwachs an zu integrierenden Komponenten und die steigende Anzahl an intelligenten Sensoren und Meßpunkten, im Griff zu behalten. Mehr noch, es lassen sich daraus zunehmend entscheidende Betriebsinformationen zum Vorteil eines Unternehmens ableiten.
IDC schätzt die Marktchance für Software, Server, Technologien und Services zum Betrieb einer immer mehr zusammenwachsenden IT- und Real-Infrastruktur verschiedenster Bereiche in der Welt (wie Verkehr, Versorgung, Produktion) auf bis zu 122 Milliarden Dollar im Jahr 2012.

"Wir bereiten unsere Kunden auf die Anforderungen der Zukunft an eine moderne IT-Infrastruktur vor", sagt Prof. Dr. Gunter Dueck, Cheftechnologe und Business Leader Dynamic Infrastructure, IBM Deutschland, "dabei liegt der Fokus auf dem Erreichen schneller, echter Geschäftsvorteile und der Auswahl der dafür richtigen Investitionen."
Ein Beispiel: So überwacht die Baader Bank AG, eine der größeren Wertpapierhandelsbanken in Deutschland, die gesamte Infrastruktur vom Netzwerk über die Server bis hin zu den Kernapplikationen mit IBM Tivoli Software und verarbeitet über 2 Millionen gemeldete Events pro Tag. Durch schnellere und bessere Fehlermeldungen und die Reduzierung von auflaufenden Meldungen kann die Baader Bank signifikante Verbesserung in puncto Produktivität, Zeitersparnis und Sicherheit verzeichnen und flexibel auf Anforderungen reagieren.
IBM kündigt heute eine große Anzahl neuer Produkte und Services an, um Kunden insgesamt dabei zu unterstützen, dynamische Infrastrukturen aufzubauen. Die neuen Lösungen adressieren dabei sowohl Groß- als auch mittelständische Unternehmen.
Dabei geht es vor allem um folgende Teilbereiche:
- Die Integration digitaler und physischer Infrastrukturen, die die Möglichkeit bieten, mittels Informationstechnologie Geschäftsprozesse und eine zunehmend intelligentere physische Infrastruktur zu verwalten und so neue und verbesserte Services zu betreiben .
- Die Fähigkeit, die 15 Petabyte an Informationen - acht mal mehr Informationen als in allen Bibliotheken in den USA zusammen - , die die Welt täglich neu hervorbringt, zu verwalten, zu speichern und zu analysieren. Dies ermöglicht es Kunden, mit den gestiegenen Anforderungen an Informationsmanagement wie rechtlichen Regelungen, Compliance, Verfügbarkeit, Datenvorhaltung, Risikomanagement und Sicherheit umzugehen.
- Eine Reduktion von Ineffizienzen und eine größere Flexibilität in der heutigen vernetzten und instrumentalisierten Welt. So haben sich zum Beispiel die Rechenzentrumskosten für Energie, Raum etc. seit 1996 verachtfacht. Die durchschnittliche Serverauslastung beträgt dagegen nur 6 bis 15 Prozent.
Ein Teil der heute vorgestellten Produkte und Services wurde auch unter Mitwirkung des deutschen IBM Entwicklungs- und Forschungslabors in Böblingen vorbereitet. Mittlerweile haben auch die ersten IBM Business Partner sich im Rahmen der Dynamic Infrastructure-Initiative ausgebildet. So wurde das Unternehmen FRITZ & MACZIOL von IBM als erster Partner in Europa zum Thema "Dynamic Infrastructure" zertifiziert.
- Seit der Vorstellung des Dynamic Infrastructure-Konzepts von IBM im Februar 2009 haben sich bereits mehr als 5000 Kunden weltweit bei über 100 Veranstaltungen in 23 Ländern über die Möglichkeiten dieses Ansatzes im Hinblick auf die Anforderungen an künftige IT-Infrastrukturen informieren lassen.
- Über 100 Veranstaltungen wurden weltweit auch in den IBM Business Partner Centern für Kunden durchgeführt. Dynamische Infrastrukturen können die IT-Kosten verringern, Risiken reduzieren und die globale Integration fördern.
Cloud Computing ist ein zentrales Konzept für diese Form von Optimierung. Mit der "Erfahrungswelt der IT-Transformation" bietet IBM Kunden auf Basis eines neuen interaktiven und dialogorientierten Workshops den Einstieg und entwickelt mit den Teilnehmern eine Roadmap zur eigenen IT-Transformation.Die neuen Produkte und Services zum Betriebskonzept einer dynamischen Infrastruktur umfassen:
- Einen neuen Beratungsservice - die IT-Optimierungs-Business-Value-Roadmap - um Kunden mit multiplen IT-Projekten dabei zu unterstützen, in der gegenwärtigen wirtschaftlichen Situationen Projektprioritäten zu überprüfen und Ressourcen besser einteilen zu können. Dieser Service kann Kunden dabei helfen, einen Optimierungsplan aufzusetzen, der bis zu 40 Prozent an Kosten einsparen kann, und künftige IT-Projekte auf Schlüssel-Geschäftsprioritäten fokussiert. Zusätzlich können mit der IBM Going Green Impact Analyse die effektivsten Lösungen für die Steigerung der Energieeffizienz und Senkung der Gesamtbetriebskosten (TCO) eines Rechenzentrums identifiziert und priorisiert werden. Nach Umsetzung erforderlicher Maßnahmen bietet IBM gemeinsam mit TÜV Rheinland oder der DEKRA eine Energieeffizienz-Zertifizierung des Rechenzentrums an.
- Zwei neue IBM System x Appliances für System- und Anwendungsmonitoring und Servicerequest-Verwaltung. - Das IBM Service-Management-Center für Cloud-Computing, das jetzt IBM Tivoli Identity and Access Assurance, IBM Tivoli Data and Application Security und IBM Tivoli Security Management für z/OS umfasst. Die übergreifende IBM Lösung stellt die notwendigen Werkzeuge und Verfahren bereit, mit denen der Lebenszyklus von Cloud-Services von der Servicedefinition bis zur Beendigung des Service verwaltet werden kann. Das IBM Service Management Center unterstützt sowohl die Bereitstellung virtueller Ressourcen als auch die Optimierung virtueller Operationen.
- Die neue Software IBM Tivoli Identity and Access Assurance, IBM Tivoli Data and Application Security sowie IBM Tivoli Security Management für z/OS ergänzen das IBM Service Management Center for Cloud Computing, eine Zusammenstellung von Ressourcen, um Cloud-Umgebungen zu verwalten.
- Die neue Software IBM Telelogic System Architect ermöglicht es Organisationen, die Auswirkungen des Einsatzes einer Cloud-Umgebung zu visualisieren und zu verstehen. Sie bietet einen Prozessablauf für die Entwicklung von Software-Komponenten, die sich an der Cloud-Strategie ausrichten. Zusätzlich unterstützt die Integration von Telelogic Focal Point die IT-Verantwortlichen dabei, das Feedback von Anwendern im Unternehmen zu sammeln, um strategische Entscheidungen zu erleichtern, Aktivitäten zu gewichten und Projektpläne für den Einsatz von Cloud Computing mit größtmöglicher Wertschöpfung zu entwickeln.
- Der neue IBM Tivoli Foundations Application Manager und der IBM Foundations Service Manager stellen Angebote für System- und Application-Monitoring sowie Service-Request-Managemet bereit, die auf einer Out-of-the-box-System x-Appliance basieren. Die Sichtbarkeit, Kontrolle und Automatisierung, die der Tivoli Foundations Application Manager und der Tivoli Foundations Service Manager ermöglichen, eignen sich besonders für kleine und mittlere Unternehmen, die Kosten reduzieren, Risiken managen und ihre Servicequalität verbessern möchten.Neue Infrastrukturangebote, die Kunden bei Kosteneinsparungen und höherer Energieeffizienz unterstützen sollen:
- Ein neues IBM Business Partner-Programm - Ready for Energy and Environment, das Partnerlösungen, die Kunden bei Energieeffizienz und Kosteneinsparungen helfen sollen, zertifiziert. - Die POWER6+ Mikroprozessor-Technologie bietet gegenüber früheren Systemen eine Leistungssteigerung um bis zu 10 Prozent und kann den Energieverbrauch um bis zu 30 Prozent senken. In POWER6+ sind Features enthalten, die Software-Anwendungen verlässlicher machen und Ausfällen vorbeugen können.
- Die neuen Blade-Server BladeCenter JS23 und JS43 Express sind POWER6+
-Blades für 64-bit-Anwendungen auf IBM i-, AIX- oder Linux-Betriebssystemen. Durch den Einsatz von POWER6+ liefern sie Leistungsverbesserungen von bis zu 20 Prozent gegenüber früheren Versionen.
- Die neuen IBM Power 520 und 550 Express-Server mit POWER6+ Prozessoren (bis zu 5 GHz), die Kunden eine Flächeneinsparung im Serverbetrieb von bis zu 92 Prozent durch Konsolidierung ermöglichen.
- Eine branchenweit erstmalig vorgestellte Virtualisierungssoftware-Eigenschaft
- IBM PowerVM Active Memory Sharing, die es ermöglicht, Hauptspeicher automatisch von einem virtuellen Server oder einen logischen Partition zum nächsten zu verschieben
- für erhöhte Auslastung und Flexibilität bei der Nutzung von Hauptspeicher. Mit dieser Software kann Hauptspeicher gepooled und an fluktuierende Arbeitslasten angepasst werden.
- Zwei neue System x-Server mit der aktuellen x86-Technologie und der vierten Generation der IBM X-Architektur: Die 2-Sockel-Tower-Server x3400 M2 und x3500 M2.
Die Systeme verfügen über neue Wärmeableitungsdesigns, neue Spannungsregler und eine höhere Integration auf der Platine, um die Stromversorgung zu verbessern und Verteilungsverluste zu vermindern. Dabei wird im Vergleich zu Vorgängersystemen eine Energieeffizienz von mehr als 92 Prozent erreicht und eine annähernd sechzigprozentige Reduktion im Stromverbrauch, wenn die Systeme nicht ausgelastet sind bzw. um bis zu fünfundzwanzig Prozent, wenn die Systeme voll ausgelastet sind. Weitere neue Technologien in den Systemen umfassen System-Management-Tools wie das Integrated Management Module, das Unified Extensible Firmware Interface (UEFI) sowie Systems Director and Tools Center, die Kunden dabei unterstützt, virtuelle Infrastrukturen mit weniger Hardware aufzubauen. Kunden können eine 11:1-Konsolidierung erreichen, wenn sie von x86-Servern der Generation aus dem Jahr 2005 auf IBM HS22-Blades migrieren; beim Übergang auf x3650 M2-Server lässt sich eine geschätzte 9:1-Konsolidierung erreichen.
- Neu vorgestellt wurde auch ein überarbeiteter IBM Cluster 1350, eine vollintegrierte Lösung für den HPC-Bereich, der die Strom- und Kühlkosten um bis zu fünfzig Prozent senken konnte.
- Die neuen Software-Angebote IBM Tivoli Monitoring for Energy Management und Tivoli Business Service Manager ermöglichen es Kunden, Daten aus intelligenten Sensoren und anderen Quellen zu ziehen, um durch die Erfassung des Energieverbrauchs von IT und Facility-Ressourcen den Energiebedarf im gesamten Unternehmen und in der IT-Infrastruktur zu verwalten.Neue Angebote zur Verwaltung, Analyse, Speicherung und Sicherung ständig steigender Informationsmengen:- Eine neue Risikomanagement- und Business-Intelligence-Software für System z-Mainframes: Der ACI Proactive Risk Manager (PRM) für System z wurde dafür entwickelt, Betrugsversuchsseinschätzungen bei hohen Transaktionsraten im Kreditkartengeschäft vorzunehmen, wenn es um die Frage geht, ob im Rahmen eines Autorisierungsprozesses eine Transaktion genehmigt oder gestoppt wird. - Eine neue Version des IBM System Storage DS5000, die selbstverschlüsselnde Plattentechnologie für Midmarket-Kunden enthält. Damit werden Daten automatisch gegen nichtautorisierten Zugriff geschützt. Die Lösung unterstützt Kunden so bei der Erfüllung regulatorischer Auflagen. Weitere Verbesserungen umfassen schnellere 8-Gbps-Adapter sowie eine erhöhte Kapazität von bis zu 448 Plattenlaufwerken in einem einzigen System.- IBM Cognos 8 Business Intelligence für Linux auf System z stellt einen schnellen Zugang zu den aktuellsten Geschäftsinformationen von praktisch jedem Ort bereit und unterstützt Handheld-Geräte wie BlackBerries.- Die neue Entwicklungssoftware IBM Rational AppScan On Demand unterstützt Unternehmen dabei, Risiken zu minimieren, indem sie sicherstellt, dass Web-Anwendungen in der Cloud sicher und compliant sind und mit den Geschäftsgrundsätzen übereinstimmen. Sie trägt Sorge dafür, dass Anwendungen frei von Viren, Würmern, Trojanern und anderen Arten von Schadsoftware sind, die immer ausgeklügelter werden.
- Eine neue Version des Tivoli Storage Productivity Center stellt neue Performance-Analyse-Werkzeuge und individuelle Zuschnittsmöglichkeiten bereit, die IT-Administratoren in die Lage versetzen können, sehr große Speicherumgebungen verwalten zu können.Gleichzeitig läßt sich dabei die Systemleistung insgesamt verbessern, die Komplexität vermindern und die Verfügbarkeit erhöhen. Die neue Analysetechnologie hilft bei der Feststellung von Hot Spots für eine bessere Problembestimmung und schnellem Tuning um die Storage-Auslastung zu optimieren. Die Software bietet darüber hinaus erweiterten heterogenen Plattform-Support sowie Sicherheitsmerkmale für Multi-Vendor-Speicherumgebungen.
Neue Networking-Angebote-
IBM hat heute neu Hardware, Software und Services vorgestellt, um die Netzwerk-Konnektivität im Rahmen größerer Infrastruktureffizienz zu verbessern. Auf Basis der langjährigen Erfahrung im Networking stellt IBM dabei ein neues Serviceangebot vor: die IBM Networking, Strategy, Optimization and Implementation Services für Konsolidierung und Virtualisierung- Als Teil der heutigen Ankündigung erweitert IBM auch die Auswahlmöglichkeit für Netzwerkkonnektivität. Dabei wird die OEM-Vereinbarung mit Brocade erweitert zur Vorstellung einer neuen Familie von Ethernet-Switches und Routern mit IBM Logo. Diese ergänzen die gegenwärtigen Angebote. IBM hat darüber die Zusammenarbeit mit Juniper ausgeweitet. Im Februar haben beide Unternehmen hybride Public-Private-Cloud-Möglichkeiten vorgeführt. Als Teil der heutigen Ankündigung hat IBM auch neue Finanzierungsoptionen vorgestellt, um die Beschaffung von Produkten und Services aus dem Dynamic Infrastructure-Portfolio zu erleichtern.
Weitere Informationen: www.ibm.com/dynamicinfrastructure

Montag, 13. April 2009

Die 5.000.000.000-Dollar-Wette (Part 3)

Die Väter der /360: Gene Amdahl, Frederic Brooks, Gerrit Blaauw
Zwischen 1965 und 1995 ‑ so stellte eine Untersuchung fest ‑ wurden mehr neue Informationen produziert als in den 5000 Jahren zuvor. Seitdem ist endgültig klar: Die Geistesmaterie dominiert längst die physische Welt. Von 1985 bis 1995 hat sich die Zahl der Minuten, die jährlich für Gespräche, Fax‑ und Datensendungen auf dem weltweiten Telekomnetz abgewickelt werden, von 15 auf 60 Milliarden vervierfacht. Im Jahr 2000 werden wir bereits 95 Milliarden Minuten telekommunikativ verbrauchen, wie eine Gemeinschaftsstudie von British Telecom/MCI ergab. Tatsächlich explodierte mit dem Internet das Kommunikationsvolumen in kaum mehr fassbare Volumina.
POP-Artist Amdahl
Kein Werkstoff wurde so gründlich erforscht wie Silizium, diesem Rohstoff aus reinem Sand, aus dem die Chips gefertigt werden. Erfahrungen im Umsatzwert von 1000 Milliarden Dollar wurden in den letzten 35 Jahren aus schnödem Sand gewonnen. Ebenso hoch sind die Investitionen, die Computeranwender in aller Welt seit 1964 in Software für Mainframes hineingesteckt haben. Als die /360 entwickelt wurde, befand sich dies alles noch in den Anfängen.
Gene Amdahl propagierte anfangs den sofortigen Sprung in eine mit integrierten Festkörper‑Schaltkreisen (ICs) ausgestattete Rechnerserie. Ein gewagtes Unterfangen. Denn die parallel 1958 von Jack Kilby bei Texas Instruments und von Robert C. Noyce bei Fairchild entwickelten ICs waren äußerst schwierig zu produzieren. Die Ausbeute betrug nur zehn Prozent der Produktion. Die besserte sich zwar, nachdem Noyce 1960 in dem von seinem Schweizer Kollegen Jean Hoerni entwickelten Planar‑Prozess ein geniales Herstellungsverfahren nutzen konnte, aber für den Masseneinsatz der Integrated Circuits in Computern war das noch keineswegs befriedigend. Weder Technologie noch Methodologie waren ausgereift. Zudem klang zu Beginn der sechziger Jahre gerade erst ein Streit aus, bei dem es um die Frage ging, ob nun Silizium oder Germanium der bessere Werkstoff war.
Deshalb hatte IBMs Chefwissenschaftler Emanuel Piore, den Watson Jun. 1956 von der Navy abgeheuert hatte, beschlossen, auf eine hybride Technik, die Solid Logic Technology (SLT), zu setzen. Die Schaltkreise wurden dabei auf halbzollgroße Keramikmodule aufgebracht. SLT versprach eine höhere Packungsdichte als bei Transistoren, war auch schneller und verbrauchte weniger Strom, aber von integrierten Schaltkreisen konnte noch nicht die Rede sein.
Diese Entscheidung, für die Big Blue Mitte der sechziger Jahre noch ausgelacht wurde, sollte sich als Glücksgriff erweisen. Denn IBM umging damit im Unterschied zu ihren Mitbewerbern die Kinderkrankheiten der neuen Chiptechnologie.
1952 war Gene Amdahl zu IBM gekommen und hatte hier an der Entwicklung der Röhrenrechner IBM 704 und 705 mitgewirkt. Es waren die ersten kommerziellen Rechner, die mit Kernspeichern ausgestattet wurden. Ein Jahr nach deren Ankündigung, 1955, verließ Amdahl die Company, um fünf Jahre später, 1960, wieder anzuheuern. Er wurde der »Vater der /360« (Watson über Amdahl). Als er mit deren Entwicklung begann, hatte Amdahl bereits 13 Jahre Erfahrung im Bau von Computern hinter sich. Er wusste, worauf es ankam. Und er akzeptierte Piores Argumente. Er stand über der Materie.
Amdahl formulierte das »Heiligtum«, die Principles of Operations, das Ordnungsprinzip. Es war eine »sehr komplexe und herausfordernde Aufgabe«, beschreibt Amdahl das Unterfangen. Es galt eine Rechnerfamilie zu konzipieren, in der das kleinste Mitglied nach denselben architektonischen Prinzipien operierte wie das größte System. Und dabei bestand durchaus die Möglichkeit, dass eine Leistungs‑Spannweite von 1 zu 600 überdeckt werden musste.[1]
Ein absolut visionärer Ansatz.
Erst 25 Jahre später, 1989, sollte IBM übrigens dieses Ziel erreichen. Die Principles of Operations waren ein Triumph des Computer Engineerings. Alle Entwickler mussten sich danach ausrichten. Nur der konzertierten Einhaltung dieser Grundsätze war es zu verdanken, dass sechs Prozessoren mit 19 unterschiedlichen Varianten gleichzeitig an verschiedenen Orten in den USA und in England entwickelt werden konnten. Hiermit wurde erstmals eine globale Plattform für Know‑how‑Transfer geschaffen, an die im Laufe der Jahre immer mehr Labors andocken konnten. Eine klare Speicherhierarchie wurde festgelegt. Hinzu kamen Entwicklungen bei Platten, Zeilendruckern, Bildschirmterminals sowie jede Menge Optionen und Features. IBM griff tief in das Schatzkästlein ihres intellektuellen Kapitals. Insgesamt mußten mehrere hundert Entwicklungsprojekte koordiniert werden. Das Ergebnis: Am Tag der Ankündigung wurden 131 technologische Errungenschaften der /360 zum Patent angemeldet.
Gute vier Jahre später, am 3. September 1968 wurden sie unter der Patentnummer 3.400.371 als einzigartig anerkannt.[2]
Die Blaauw‑Pause
Doch um die Leistung zu verstehen, muß man tiefer in die Entwicklungsgeschichte der /360 und deren Anfänge einsteigen. So groß die Autorität von Amdahl auch war, um seine Pläne durchsetzen zu können, mußte er zunächst seine stärksten Widersacher auf seine Seite ziehen. Zuerst und sehr früh gelang ihm dies bei Bob Evans.
Er war bis 1961 in der General Systems Division Manager (GSD) in Endicott (New Jersey) mitverantwortlich für die Entwicklung und Produktion der IBM 1401, jenem Transistorrechner, von dem IBM bis 1966 weltweit 10.000 Exemplare verkaufte. Die GSD war indes spinnefeind mit der Data Systems Division (DSD) in Poughkeepsie (New York). Die eigentlich auf technisch‑wissenschaftliche Rechner ausgerichtete DSD versuchte mit ihrem Starprodukt, der IBM 7090, immer häufiger der 1401 das Wasser abzugraben.
Doch Anfang 1961 war Evans Planungs‑ und Entwicklungschef der DSD geworden und wurde ein Verbündeter von Amdahl. Derweil hatte dieser es mit einem noch härteren Brocken zu tun: mit Gerrit Blaauw. Er war ein brillanter, aber eher konservativer Denker. Er hatte noch an der transistorgerüsteten Rechnerserie IBM 8000 gearbeitet, die ursprünglich die Riesenrechner vom Typ 7090 ersetzen sollte.
Und diese Blaupause verteidigte Blaauw gegen die Totalerneuerer um Gene Amdahl. Die beiden überwarfen sich. Amdahl war das Konzept hinter der 8000 nicht homogen genug. Zudem missfiel ihm, dass diese Serie nochmals auf Transistoren basieren sollte.
Es kam in den ersten Monaten 1961 zu heftigen Auseinandersetzungen, denen Evans am 15. Mai 1961 ein Ende setzte. Die 8000er Serie wurde begraben. Evans Urteil: »Nach meiner Meinung war die Maschine in vielerlei Hinsicht inadäquat.«[3] Er verwarf die 8000 vor allem deshalb, weil ihre Lebensspanne kaum über das Jahr 1968 hinaus dauern würde. Und IBM wollte unbegrenzte Zukunft verkaufen.
Damit war ein wichtiges Hindernis auf dem Weg zum SPREAD‑Konzept aus dem Weg geräumt. Dieses Begräbnis bedeutete, dass IBM bei der Entwicklung der /360 ohne echte Ausweich‑Lösung dastand. Denn Learson hatte auch jegliche Erweiterungsarbeiten bei der 7000er Serie gestoppt. Er riß alle Brücken hinter sich ab. »Die Vorgänger‑Systeme waren längst an die Grenzen ihres Adressraumes und ihrer Speichermöglichkeiten angekommen. Es war klar, dass eine neue Technologie mehr Speicherplatz schaffen würde. Und die Kunden hatten unmissverständlich zum Ausdruck gebracht, dass sie mehr Speicher wollen«, analysiert Case, der selbst an der Entwicklung der /360 mitgewirkt hatte, die Situation zu Beginn der sechziger Jahre.[4]
VIER MILLIONEN DOLLAR FÜR EIN MEGABYTE
Das technisch‑wissenschaftliche Größtsystem 7090 hatte maximal 128 Kilobytes Hauptspeicher, im Unterschied dazu bot die /360 einen realen Adreßraum von sensationellen 16 Megabytes. Das war potentiell 125mal mehr. Und mit diesem breiten Horizont erweckte IBM bei den Kunden den Eindruck, dass mit dem Umstieg auf /360 die Superlösung gefunden war, wenngleich bei einem Preis von vier Millionen Dollar pro Megabyte der Speicher nach wie vor sehr teuer war. 64 Millionen Dollar hätten bei einer voll ausgebauten /360 allein die Memories gekostet. Auch wenn keiner der Kunden diesen Adreßraum real ausnutzen konnte, so suggerierte ihnen dieses architektonische Potential eine unendlich groß wirkende Zukunft. Der Bruch mit der Vergangenheit war vollzogen. Blaauw wechselte das Lager. Er wurde »meine rechte Hand in Fragen der Architektur«, erinnert sich Amdahl.[5]
Die Sache war größer als das Ego der Beteiligten.
Brooks' Brocken
So bildete sich allmählich das /360‑Team, aber es war noch sehr stark hardware‑ und architekturlastig. Was fehlte, war der geniale Softwaremann. Diesen Part sollte Frederic Brooks übernehmen. Auch er hatte als Planungschef in Poughkeepsie für die 8000 gekämpft. Noch im März 1961 hatte er selbst vor dem Corporate Management‑Committee das Konzept dieses neuen Rechners präsentiert. Siegessicher war er aus der Sitzung herausgegangen.
Doch dann hatte er zwei Monate später den Tod seiner Serie erleben müssen. Er sah darin auch das Ende seiner Karriere. Als dann die /360 aufgesetzt wurde, machte ihn deren Planungschef Evans zu einem der wichtigsten Projektleiter. »Eine Entscheidung, die eine große Zahl von IBMern überraschte, inklusive Brooks«, kommentierte dies 1966 das Magazin Fortune. Unter Brooks Führungs sollte dann das Betriebssystem OS/360 entwickelt werden. Ein harter Brocken. »Ihm hatten wir vor allem zu verdanken, dass die /360‑Maschinen auch in der Praxis eingesetzt werden konnten«, würdigte Watson das Genie dieses Mannes.
Das Betriebssystem OS/360 ist übrigens der Urgroßvater des MVS , das zwischendurch unter dem Kürzel OS/390 wieder an seinen Ursprung anknüpfte, heute als Z-OS firmiert. Die Erfahrung, die Brooks bei diesem Projekt als Teamchef sammelte, sollte ihn später dazu animieren, das wohl beste Buch zu schreiben, das je über Softwareentwicklung publiziert wurde: »The Mythical Man Month«, das 1974 erschien.
Schon in der Vorzeit der /360 gab es Betriebssysteme. Seit 1953 hatten die Computerpioniere an den Universitäten und bei den Herstellern über die Entwicklung von Betriebssystemen nachgedacht, doch die bisherigen Ergebnisse waren allesamt rechnerspezifisch. Für den technisch‑wissenschaftlichen Rechner IBM 704, einer der stärksten seiner Zeit, gab es 1957 mehrere von den Anwendern selbstgestrickte Betriebssysteme.
IBM hingegen wollte ein einziges Operating System schaffen, das für mehrere Rechner mit derselben Architektur gültig war. Codierumfang: 3 Millionen Zeilen. Niemand hatte wirklich Erfahrung auf diesem Gebiet.
IBM wird 100: Ein Video aus Poughkeepsie

WATSON-MÄRCHEN: SO WURDE EIN BETRIEBSSYSTEM GESTRICKT
Mit welcher Naivität die Entwickler an dieses Unterfangen herangingen, soll folgende, erfundene Anekdote erzählen: Thomas Watson Jun. hatte im Forschungszentrum in Yorktown Heights rund tausend Programmierer in den größten Sitzungssaal geladen. Jeder hatte vor sich einen Bleistift und ein Blatt Papier. Dann sagte Watson nur ein einziges Befehls‑Wort: »Codiert!« Nachdem jeder der Programmier‑Knechte zehn Instruktionen niedergeschrieben hatte, sammelte der Firmenchef persönlich die Blätter ein. Die Loseblattsammlung schickte er dann in die Arbeitsvorbereitung, wo die 10.000 Instruktionen auf Lochkarten erfasst wurden. Anschließend wurden sie in den Prototyp einer /360 eingegeben.
Auf diese Weise soll das erste Betriebssystem der neuen Rechnerserie auf die Welt gekommen sein ‑ mit den Mitteln der Massenproduktion.[6]
Was die Anekdote sagen will: Als viel zu einfach hatte sich IBM die Entwicklung der Systemsoftware für die /360 vorgestellt. So war es kein Wunder, dass sich die Entwicklung des Betriebssystems als »ein absoluter Weichmacher im knallharten Konzept« (Reiboldt/Vollmer: Der Markt sind wir) erweisen sollte.
Allein die Entwicklung des OS/360 verbrauchte zwischen 1963 und 1966 etwa 5.000 Mannjahre. Dabei war spätestens ab 1965 klar, dass die Implementierung eines einzigen Betriebssystems für alle Rechner nicht gelingen konnte. Kurzerhand eliminierte IBM 35 der ursprünglichen Anforderungen, und sie splittete das Einheits‑Angebot. Heraus kamen im Laufe der sechziger Jahre insgesamt vier strategische Betriebssysteme, die nur eins gemeinsam hatten: ihren Ursprung in der /360‑Architektur. Das Investment dahinter war so groß, dass IBM fortan der Sklave dieser Architektur wurde.
Quellen
[1] Computerworld, 24.4.89, Patrick Waurznyak: »The men behind the machine« [2] Datamation, 5/84, Robert L. Patrick: »The seed of empire« [3] Computerworld, 24.4.89, Patrick Waurznyak: »The men behind the machine« [4] Computerworld, 3.11.86, James Connolly, Jeffrey Beeler: »The price of success: IBM /370 system won`t die« [5] Computerworld, 24.4.1989, Patrick Waurznyak: »The men behind the machine« [6] The IBM User, 11/81; »The 360 was born with two rival operating systems. IBM users are still paying the price«

Sonntag, 12. April 2009

Die 5.000.000.000-Dollar-Wette (Part 2)

Größer als das Manhattan-Project
Um die Größe und Grandiosität dieser Ankündigung zu ver­stehen, muß man die Hintergründe durchleuchten, die zu die­sem spek­takulären Ereignis führten. Warum zum Beispiel hatten sich da­mals, im Januar 1961, bei der Sitzung des Topmanagements, die Tech­no­logen durch­set­zen können? Wieso hatte das Topmanagement seine Zu­stim­­mung zu ei­nem Projekt erteilt, bei dem die Firma ihre gesamte Exi­stenz aufs Spiel setzte? Antwort: IBM befand sich in einem tech­no­lo­gi­schen Rückstand. Ihre Produktlinien waren zur Jah­res­wende 1961/62 ausge­reizt und ihre Patente nichts mehr wert.
Die Firma hatte sich in den fünfziger Jahren daran gewöhnt, mit Wachs­tums­raten von mehr als 20 Prozent zu leben. Sie hatte 1957 erstmals eine Milliarde Dollar umgesetzt. Doch seit 1958 hatte sich das Wachs­tum verlangsamt. So waren die Umsätze 1958 nur um 17,1 Prozent und in 1959 um magere 11,8 Prozent geklettert. 1960 war das Wachstum sogar knapp unter die Schwelle von zehn Prozent gerutscht. Der einzige Licht­blick: 1961 legte die Firma wieder ein Plus von 18 Prozent zu.[1] Aber war das ge­nug für eine Firma, die zuvor alle vier Jahre ihre Um­sätze ver­dop­pelt hatte? Wohl kaum. Sie spürte, daß ihre bislang sorg­sam gehüteten Markt­anteile bedroht waren.
Neue Wettbewerber wie die Control Data Corp., Radio Cor­poration of America oder Ho­ney­well tra­ten auf, wäh­rend sich die alten Kon­tra­hen­ten durch Aufkäufe vergrößerten. Mehr noch: die Kon­kurrenz be­gann, das Geschäft mit kompatiblen Rechnern zu entdec­ken, um so der IBM die Kunden abspenstig zu machen. Wut staute sich auf, aber auch Mut. Und beides hatte seinen Ursprung in der Ver­gangenheit.
Trommeln der Macht. 1953 hatte IBM mit dem Magnetic Drum Cal­culator Type 650 einen speicherprogrammierten Röhren‑Rechner vorgestellt, der etwa soviel Computerpower besaß wie ein Videorekorder. Es war die erste Maschine, die eine Magnet­trom­mel als Haupt­spei­cher benutzte ‑ und sie gehörte damit in jener Zeit zur absoluten Avant­garde. Diesen Vorsprung ließ sich IBM gut bezahlen. Die Mo­nats­­miete betrug 3250 Dollar, was nach heutigem Geld etwa der Summe von 18.000 Dollar entspricht. Die Marketiers hatten ausgerech­net, dass die Firma mit einem kleinen Gewinn herauskommen würde, wenn es ihr gelang, wenigstens 50 Magnet­trommeln zu vermieten. Ein Vermögen würde indes die Gesell­schaft er­wirtschaften, wenn sie gar 250 Ma­schi­nen an den Mann zu brächte. Doch es kam viel besser: »Als die Maschine 1962 vom Markt zurück­ge­zo­gen wurde, waren mehrere Tausend die­ser Rechner verkauft worden. So wurde diese primitive Ma­schine der erste massen­pro­du­zierte Rech­ner der Welt«, erinnerte 1994 das Wirtschaftsmagazin The Economist an diese Novität.
Es lohnte sich also, Mut zu haben. Wütend waren Watson und sein Gefolge geworden, als Ende der fünfziger Jahre der Erzrivale Univac mit seinem Tran­­si­stor­rechner Univac 80 genau gegen diesen Magnet­trom­melrechner zu Felde zog und kräftig abstaubte.
Schon zu Hollerith‑Zeiten hatte die Firma erleben müssen, daß immer dann, wenn sich ein Technologiewechsel ab­zeichnete, die Wettbe­wer­ber ihre Riesenchance sahen. In einer solchen Lage war IBM jetzt wieder. Sie musste sich durch einen Befreiungsschlag aus die­sem Di­lem­ma befreien ‑ und sich diesmal an die Spitze der Revo­lu­tion stel­len. Seine Erfahrungen aus den fünfziger Jahren hatten Watson Mut gemacht, ein solches Unterfangen nun im ganz großen Stil zu wagen.
Die einzige Chance, die Brut der Wettbewerber hinter sich zu las­sen, bestand da­rin, viel Geld an­zu­fassen, einen radikalen Bruch mit der Vergangenheit zu wagen und sich durch eine Vielzahl von In­no­va­tio­nen mit deutlichem Vorsprung vom Wettbewerb abzusetzen ‑ und zwar auf weltweiter Basis. Auf all das hatte der 50jährige Vi­ce Pre­­sident T. Vincent (Vin) Lear­son seinen Chef nachdrücklich auf­merk­sam gemacht. Nur eine »New Product Line (NPL)« könne IBM aus dem Dilem­ma be­frei­en. Watson spür­te selbst »den Druck des Marktes«. Er ahn­te, dass er alles auf eine Kar­­te set­zen musste. Die La­ge war brenz­lig. Aber er war Vaters Sohn, und er wollte der Welt zeigen, dass er ebenfalls ein guter Unternehmer war.[2]
Manhattan‑Project. So startete IBM zur Jahreswende 1961/62 in ihr aufregendstes Abenteuer, das von der Öffentlichkeit alsbald in Su­per­lativen gefeiert wurde. »Es war die größte industrielle Inve­sti­tion, die jemals in der In­du­strie­geschichte von einem Privat­un­ter­nehmen aufgebracht wurde. IBM wandte für die Zeugung dieser einen Se­rie fünf Mil­liar­den Dol­lar auf. Das entsprach 1966 den gesamten Ein­­nah­men aller Compu­ter­her­steller der Welt«, staunte 1970 der Spie­­gel‑Journalist Kurt Blauhorn in seinem Buch »Erdteil zweiter Klasse ‑ Europas technologische Lüc­ke«.[3] In der Tat ‑ rund 4,5 Mil­­liarden Dollar Ka­pi­talin­ve­sti­tio­nen für Fabriken, Ausrüstung und Miet­ma­schi­nen hatte IBM im Umfeld der /360‑Ankün­di­gung aufge­bracht. Hinzu kamen weitere 750 Millionen Dollar für die technische Ent­wicklung. Zum Ver­gleich: Für ENIAC, für den ersten praxiserprobten Röhren­rechner der USA, waren bis zu sei­ner In­be­trieb­nahme 1946 Entwicklungsgelder von insgesamt 600.000 Dollar ge­flos­sen.[4] Noch ein Vergleich: als 1965 die Firma Boeing Company mit der Ent­wicklung des Jum­bos begann, sollte sie für die dann 1969 vorgestellte Boeing 747 rund eine Mil­liarde Dollar inve­stie­ren. Der französische Starpublizist Jean‑Jac­ques Ser­van‑Schrei­ber staun­te 1967 in seinem Best­seller »Die amerika­nische Her­aus­for­de­rung« über IBMs Auf­wand, den er in jenen Kategorien sah, in die eigent­lich nur noch der mo­derne Staat dachte: »Das entspricht der jähr­li­chen Gesamt­investition der Ver­einigten Staa­ten, die Re­gie­rungs­gel­der einbe­griffen, für Raum­for­schung.« Zum Vergleich: Das Manhat­tan‑Project, das nach dem japanischen An­griff auf Pearl Har­bor am 7. De­zember 1941 der da­ma­lige US‑Prä­si­dent Franklin Roose­velt als ge­heime Operation ge­star­tet hatte und im August 1945 zum Abwurf der Atombombe auf Hiroshima führte, hatte 2,5 Mil­liar­den Dollar geko­stet und die USA zur ersten Nu­klear­macht emporsteigen lassen. 150.000 Menschen hatten auf dem Höhepunkt der Arbeiten am Manhat­tan‑Project mitgewirkt, das in Los Ala­mos sein Zen­trum hatte.
Brain drain. »Nahezu jeder, der in der amerikanischen Physik Rang und Namen hatte, war damals in diesem Labor be­schäf­tigt«, er­in­nerte 1994 die Frankfurter Allgemeine Zeitung an das gigantische Unter­fan­gen, bei dem der Staat die technische Intelligenz aus aller Welt in seinen Forschungszentren versammelte.[5] IBM, die schon in den dreißiger Jahren in mehr als 70 Ländern der Er­de prä­sent war, konnte auf eine Ingenieurs‑Elite zu­rück­greifen, wie sie vielleicht nicht einmal den mächtigsten Nationen zur Verfü­gung stand. Ihre Techno‑Offensive er­reichte mit der Vor­be­reitung und Ver­mark­tung der /360 einen solchen Druck, daß ihr Mit­bewerber vorwarfen, Ingenieurs‑Intelligenz zu monopo­li­sie­ren. Ser­van‑Schrei­ber be­hauptet, das »IBM ihren Konkurrenten die besten Spezialisten zu wahren Gold­preisen« abgekauft habe. Ein bitterer Vorwurf. Denn die gesamte Kon­kur­renz buhlte weltweit um die­se Intelligenz‑Res­sour­ce, die un­glaub­lich viel zum Wohlstand und zur techno­lo­gischen Über­le­gen­heit der USA beigetragen hatte. Der brain drain Richtung Neue Welt erreichte damals seinen Hö­he­punkt.
Hatte der Krieg beim Manhattan Pro­ject Physiker und Mathe­ma­tiker vornehmlich aus Ungarn, Österreich und Deutschland in die USA ver­trie­ben, so war es jetzt die Macht der Dollars, die das human ca­pi­tal nach Nordamerika lockte. Das Wirt­schafts­magazin Busi­ness Week stellte im September 1967 fest, dass allein zwi­schen 1956 und 1966 insgesamt 9875 Wissenschaftler & Techniker aus dem Aus­land in die USA gekommen waren, ein starkes Drittel davon aus Euro­pa. Kurz­um: das kurze 20. Jahrhundert fand in den USA statt. Und IBM wollte das stolze Vor­zeige‑Unternehmen dieser Ära wer­den.
Fürchterliches Desaster. Mit unglaublichem Mut ging sie an ihr /360‑Werk. Die Investitionen waren so hoch, dass IBM ‑ würde das Experiment miss­lingen ‑ wohl dem Niedergang geweiht gewesen wäre. Es war das »$5.000.000.000 Gamb­le«, wie Fortune im September 1966 titelte. Es war die »ris­kan­teste Ge­schäfts­ent­scheidung«, die bis dahin ein Un­ternehmen gefällt hat­te. Nicht etwa wegen der hohen Zahlungsverpflichtungen, die zwi­schen 1961 und 1967 von 150 Mil­lionen Dollar auf satte 1,16 Mil­li­ar­den Dollar hochschnellten, sondern weil sie praktisch ohne Fall‑Back‑Lösung in das Aben­teuer ge­startet war. Mehr noch: als sie im April 1964 die Rechnerserie voreilig ankündigte, war noch gar nicht sicher, ob diese überhaupt jemals ausgeliefert werden konnte.
Sei­ne Be­gründung: Kein Staat der Erde würde auf Dauer akzeptieren, daß ein multinationales Unternehmen in der Grö­ßen­ordnung der IBM jähr­lich um zehn bis 20 Prozent wächst, während die Volks­wirt­schaften der großen Indu­strie­nationen sich mit einer Rate von zwei Pro­zent be­gnü­gen müßten. Zu diesem Zeitpunkt erreichte IBMs Weltumsatz um­ge­rechnet zehn Prozent des Brutto­so­zial­pro­duk­tes des Vereinigten Kö­nigreichs.
In Frankreich machten sich ein Jahr später, 1979, die beiden Spit­zen­beamten Simon Nora und Alain Minc auf, in ihrer Best­seller‑Stu­die »Die In­formatisierung der Gesellschaft« die Eu­ro­päer zum Ge­gen­angriff aufzurufen. »Die Politik muss vor allem die neuartige Her­ausforderung durch IBM berücksichtigen: Gestern noch Rechner­her­steller, morgen Betreiber von Nachrichtennetzen verfolgt dieses Un­ter­nehmen eine Strategie, die es in die Lage versetzt, ein Nach­rich­ten­netz zu errichten und zu kontrollieren. Es greift damit in ei­ne Sphäre ein, die traditionell eine Staatsdomäne ist.«
Des­halb rie­ten die beiden Autoren dazu, eine internationale »Allianz der Fern­mel­de­gesellschaften« gegen IBM aufzubauen. Kurzum: im Ansehen der Po­li­tik war Big Blue so stark, dass sie die Souveränität und Le­gi­ti­ma­tion der Nationalstaaten gefährdet sa­hen.
Vision impossible. Doch ihre Sorge war unbegründet. Denn zu diesem Zeitpunkt stand längst kein Watson mehr an der Spitze des Unter­nehmens. Nach einem Herzanfall war der Junior 1971 abgetreten. Die Watson‑Ära war zu Ende. Von den Nachfolgern war nie­mand be­reit, noch einmal wegen einer technologischen Herausforderung die ge­samte Company aufs Spiel zu setzen.
Dabei hatte IBMs Wissenselite in den Labors längst ein Modell ent­wickelt, das weit­ge­hend dem ent­sprach, was heute Network Centric Computing heißt. Ziel war es, das papierlose Büro zu schaffen, von dem die Technologen der Company spätestens seit 1964 träumten. Die vernetzte Welt war eine ebenso naheliegende, wie gigantische Vi­sion. Zum einen mußte man nur auf Zeichnungen der Telefonnetze schauen, um zu erkennen, daß sie im Großen jene Strukturen abbil­de­ten, die im Kleinen durchaus de­nen der Computer ähnelten. Die Schalt­­­bilder der Chips und die der Telekomnetze, mit deren Elek­tro­nisierung justament begonnen wurde, unterschieden sich optisch le­diglich in den Dimen­sio­nen. Man brauchte nur eine schnel­­le Verbindung zwischen den Rechnern, um sie genau so einzu­we­ben wie das Telefon ins Fern­mel­denetz. Die Telekom­gesellschaf­ten verhin­der­ten jedoch mit ihren hohen Preisen für Datenübertragung den Aufbau eines solchen Net­work‑Computings. IBM mußte des­halb in das Tele­kom­muni­ka­tions­ge­schäft eindringen, was sie auch ‑ zumindest in den USA ‑ Mitte der siebziger Jahre mit dem Aufbau der Satellite Business Systems tat. Aber es war nur ein halbherziger Versuch.
Um ihre Idee zum Durch­bruch zu bringen, hätte sie es ‑ wie bei der /360 ‑ in einem welt­weiten Maßstab wagen müssen und dabei nicht nur die Datenkommunikation, sondern auch den Sprachverkehr anvisieren müssen. Doch sie traute sich nicht, die Fernmel­de­ge­sell­schaften mit ihren staatlich garantierten Monopolrechten herauszufordern. Die Te­le­­koms ge­hörten au­ßerdem zu ihren größten Kunden. Einen derar­ti­gen An­griff durch die mächtigste Computerfirma der Welt auf ihre wich­tig­sten Geld­quel­­len hätten die Regie­rungen nie zugelassen. So muss­te sich das Network Computing auf eine andere, klammheimliche und höchst anonyme Weise durchsetzen ‑ durch das In­ter­net. Es leg­te eine ganz andere Spur. Es tat das, wogegen letztlich jeder Staat machtlos ist: es plante sich plötzlich selbst. Anarchisch, chao­tisch, spontan.
Diese Methode war sowohl der IBM als auch ihren staat­lichen Wi­der­sachern fremd, obwohl 1961 der Klimaforscher Edward Lorenz die Chaostheorie an einem Computermodell des Wetters bereits ex­em­pli­fiziert hatte. Und hätte Big Blue in ihre eigene Ge­schich­te hineingeschaut, dann hätte sie gesehen, dass bei aller kol­lektiven Ge­nialität der Technologen und der Marketiers der Erfolg nur bis zu einem bestimmten Zeitpunkt planbar ist. Irgendwann ge­winnt der Erfolg den Erfolg aus sich selbst. Er managt sich von al­lein.
Auf je­den Fall hat­ten Big Blues Tech­no­strategen Mitte der siebziger Jahre den nächsten großen Schritt voll im Visier. Aber er wurde ab­ge­würgt. Das Mana­ge­ment des Multis zog nicht mit. Es hatte sich dem Co­dex des späten 20. Jahrhunderts verpflichtet: es wollte über­all als good citizen gel­ten, als bra­ver, biede­rer und an­ge­passter Bür­­ger. Der Ölpreisschock von 1973, der die ganze Welt überraschte und auf die Grenzen des Wachstums hinwies, hatte die revolutionären Kräf­te erlahmen lassen. Es herrschte Restauration.
Watsons Nachfolger Frank T. Ca­ry dachte nur noch in busi­ness ca­ses, in klei­nen über­schau­ba­ren Projekten, die einen schnellen Return on In­vest­ment brach­ten. Das war die neue po­litical cor­rectness, der alle IBMer treublau folgten. An mil­liar­den­schwe­ren, langwie­ri­gen und ris­kan­­ten Projekten war Cary nicht interessiert. Er war kein Watson, der ak­zeptieren konnte, dass Tech­no­logen mitunter intelligenter sind als Manager. Watson wuss­te, wie man mit Primadonnas umging und Zauderer »mutiviert«. Cary & Co. hingegen haben die Superstars entweder vergrault oder ein­fach in Labors ver­kümmern lassen. Die IBM der kleinen Schritte war ge­bo­ren.
Der brain drain, der zu­vor in Richtung Big Blue gezogen war, wech­sel­te zu den Wettbewer­bern. IBM verlor in der Folge ihren Rhythmus, der sie so groß und mäch­tig hatte werden las­sen.
Ohne natürliche Autorität. Sowohl Watson I. als auch Watson II. ha­ben jeweils eine Latenzzeit von zehn Jahren benötigt, bevor sie ih­re ganze un­ternehmerische Stär­­ke ausspielten. Beim Senior war es die Phase von 1914 bis 1924 gewesen. Beim Junior war es der Zeit­raum von 1946 bis 1956 gewe­sen. In dieser Zeit waren beide nach au­ßen hin eher unauffällig ge­we­sen. Sie hatten sich internen Her­aus­­forderungen gestellt wie der Kon­zen­­tration auf das Tabel­lier­ma­schi­nengeschäft (Watson Sen.) in den zwan­ziger Jahren oder der Um­stel­lung auf die Elektronik (Watson Jun.) in den fünfziger Jah­ren.
Dann aber hatten sie aufgedreht und ihre aus der internen Transfor­mation gewonnene Power voll auf den Markt gerichtet. Mitte der siebziger Jahre hätte IBM eben­­falls an den Aufbau einer solchen neuen Au­­to­ri­tät denken müs­sen. Und in der Tat wurde sie Mitte der acht­ziger Jah­re in der Per­son von John Akers sichtbar. 1985 wurde er Chief Exe­cu­tive, ein Jahr später ihr Chairman. Aber er war ein va­ter­loser Watson, eine Kopfgeburt. Kein Un­ter­nehmer vom Schlage des extra­va­ganten Char­les Flint oder des patriarchalischen Watson Se­nior stand wäh­rend der Aufbau­zeit hin­ter ihm. So konnte Akers Mitte der sieb­ziger Jahre nicht die nächste Transformation der Com­pany ein­leiten,
- die sich mental auf den Service‑Gedanken hätte zu­rück­be­sinnen und
- tech­nologisch voll auf die vernetzte Welt kon­zen­trieren müssen.
Das sind die beiden Punkte, die heute, in der Ära von Lou Gerst­­ner den Aktienkurs der IBM wieder explodieren lassen. Aber im Prin­zip knüpft die Firma heute da an, wo sie bereits 1985 hätte sein müs­sen. Nicht, daß ihre Ex‑Partner Intel und Micro­soft in der Börsenkapitalisierung an Big Blue vorbei­ge­schossen sind, hat sich die Gesellschaft vorzuwerfen, sondern dass sie ihre eigene revolutionäre Ge­schich­te nicht weiter geschrieben hat.
Die alte IBM stümperte nur herum und dach­te in Produkten und Pro­duktion, in Ziegel und Mörtel ‑ und Akers trat nicht gegen das herrschende Weltbild an, was die Watsons beide getan haben. Natürlich hatte Akers einen guten Grund: er wäre sonst nie­mals Chef der Company geworden.
Akers war das Kind von Mother Blue, das sich in den sieb­zi­ger Jah­ren zu einem zutiefst selbstbezüglichen System entwickelte und da­bei Trends verpennte ‑ wie zum Beispiel das Aufkommen der Minis. Das System IBM woll­te sich evolutionär allein Richtung und Ziel sein wollte, ohne dabei noch etwas zu riskieren. Akers lehnte sich erst als Chairman dagegen auf ‑ und scheiterte. Ihm wurde schließ­lich die Auto­ri­tät entzogen.
Alles aus dem Nichts. Ein Nachfolger wird daran gemessen, ob er der Vater oder das Kind einer unternehmerischen Revolution ist. Die bei­­den Wat­sons haben ihrer Zeit den Stempel aufgedrückt. Der Senior war Loch­karte, der Junior war Elektronik. Die nächste Phase wäre Tele­kom­munikation gewesen, der Vorstoß in den Cyberspace. Aber jede Phase schafft sich auch ihre eigenen Bedingungen. Sie ver­langt den radikalen Bruch mit dem Bestehenden. Sie braucht eine Stunde Null, den Start aus dem Nichts. Und jeder Unternehmensführer muß dazu die Chance erhalten. Er muß seine eigene Autorität durchsetzen ‑ und zwar nicht erst dann, wenn er an der Spitze steht.
Watson erntete mit der /360 die Erfolge, die er in den frü­hen fünf­ziger Jahren mit dem Umstieg in die Elektronik gesät hatte. Des­we­gen gelang ihm die Einführung dieser Com­puter der dritten Ge­ne­ra­tion. So formuliert der Ex‑IBMer Hart: »Mit dem Schritt zur /360 und weg von dem, was IBM bislang hatte, setzte die Firma bei­nahe ihre Existenz aufs Spiel. Und mit dem Versuch, auf einen Schlag eine neue Architektur, neue Software und neue Tech­­no­lo­gie zu kreieren, hatte IBM wie niemals wieder in ihrer Ge­schich­te alles ris­­­kiert.«[6] Sie konnte es aber wagen, weil sich die Stunde Null bereits früher er­eignet hatte. Die alte IBM hat­te 1956 im Rahmen eines Anti­trust‑Ver­­fah­rens ver­sprochen, al­­le Pa­ten­te, die sie hielt und ihr bis 1961 noch zu­ge­­sprochen wer­den wür­den, gegen eine geringe Gebühr an die Wett­be­­wer­ber abzu­ge­ben.
Das war ein gefährliches Spiel, wie Wat­son Jun. aus der Geschichte der Firma sehr ge­nau wusste.
POP‑Art. Sein Vater hatte 1949 der Bri­tish Ta­bu­lating Machines Co. (BTC) die Ex­klu­sivrechte für die Herstel­lung und Vermarktung von IBM‑Pro­duk­ten sowie die Nutzung von Pa­tenten erteilt ‑ mit dem Ergeb­nis, dass Big Blue selbst in den Ländern des britischen Common­wealth nur auf Platz 2 rangierte.
Im Vereinigten Königreich, in Australien, in Neu­­­seeland, Indien, Pakistan und Südafrika musste IBM gegen sich selbst kon­kur­rieren. Die Umsätze waren entsprechend mager. Schlim­mer noch: nur unter der Bedingung, dass 38 Prozent des Aktienkapi­tals in bri­ti­­sche Hände überging, hatte IBM überhaupt auf der Insel eine ei­ge­ne Ge­sell­schaft gründen dürfen. Für 28 Millionen Dollar hat­te dann 1959 Sohn Wat­son die Anteile zu­rück­ er­wer­ben lassen.[7]
Jeder wollte IBMs Patente ‑ die Japa­ner hatten der Gesellschaft En­de der fünfziger Jahre besonders hart zugesetzt. Sie sahen sich beim Aufbau einer eigenen Computerindustrie hoffnungslos im Rück­stand. Also wollten sie IBM mit staatlichem Druck zum Know‑how‑Trans­­fer zwingen. Doch die Firma blieb standhaft. Watson hatte sich allerdings auch in anderen Ländern nur mit dem Ver­spre­chen aus der Affäre ziehen kön­nen, daß IBM ihre Gewinne in den je­wei­ligen Märkten in den Aufbau von lokalen Fertigungs­stätten hin­ein­stecken würde.
Der Nationalstaat begann, seine Arbeitsplätze zu schützen. Wie aber sollte IBM die­sem Anspruch gerecht werden?
[1] Fortune, 11/60, Robert Sheehan: »Q: What grows fa­ster than I.B.M? A. I.B.M. Abroad«
[2] Computer­world, 4.6.90, Glenn Rifkin: »The price of beeing Watson Jr.«
[3] Kurt Blauhorn, Gü­tersloh 1970: »Erdteil zweiter Klasse? ‑ Eu­ro­pas technologische Lücke«
[4] Elec­tronics, 14.4.80, »Special Com­me­mo­rative Issue«
[5] Frank­fur­ter Allgemeine Zei­tung, 28.4.94: »War Oppenheimer ein Spion?«
[6] Computerworld, 3.11.1986, James Con­nol­ly/Jef­frey Bee­ler: »The price of success: IBM /370 system won`t die«
[7] For­­tune, 11/60, Robert Shee­han: »Q: What grows faster than I.B.M? A. I.B.M. Abroad«

Samstag, 11. April 2009

Die 5.000.000.000-Dollar-Wette (Part 1)


Greenwich (Connecticut). Donnerstag, 28. Dezember 1961. Im Shera­ton New Englander Motel trafen sich 13 IBMer zum Ab­schluß‑Commu­ni­qué. 60 Tage lang hatten sie an dem Papier gear­bei­tet. Wen im­mer sie für ihre Arbeit brauchten, er stand ihnen mit all seinem Wissen zur Ver­fü­gung. Ihr Anführer war Don Spaul­ding, der Chief As­si­stant des allmächtigen Vincent T. Lear­son, seit 1959 als Vice President Herrscher über die wichtigsten Produktlinien der IBM. Nun waren die Er­geb­nisse dieser kollektiven Ar­beit niederge­schrie­ben: 80 Seiten umfaßte das Doku­ment. Das ganze Know­how der Company, ihr intellektuelles Kapital, war darin zusammengefaßt und in eine neue Per­spektive ge­setzt wor­den. Spaulding und seine zwölf Jünger hielten ein gran­dio­ses Kon­zept in der Hand. Der Name des Ma­sterplans lautete kurz & bündig: SPREAD.
Das stand offiziell für Sy­stems Programming Research and Deve­lop­ment. Inoffiziell aber wurden die sechs Buchstaben als Spaul­ding's Plan to Re­organize Each and All Di­vi­sions ent­schlüs­selt.[1] Das war es auch: nachdem IBM in den fünfziger Jahren unter großen Mü­hen den Sprung ins Elektronikzeitalter ge­schafft, sich 1959 erst­mals eine wirkliche Organisation gegeben hatte, war sie endlich so­weit, das gewaltigste und riskanteste Projekt in ihrer Geschichte anzugehen, bei dem sie ihre gesamten Ressourcen neu ausrichtete. Sie wollte ei­ne Computerserie entwickeln, die weltweit nach den­sel­ben Prinzi­pien gebaut und verkauft werden sollte, eine in sich kom­patible Rech­ner­familie, die alles ablösen sollte, was jetzt bei den Kunden installiert war. Der große Wurf sollte gewagt werden.
Dieser SPREAD‑Ausschuß beendete einen Streit, der seit Anfang 1960 in der Company tobte, immer neue Fraktionen hochge­spült hatte ‑ in­ner­halb und zwischen den einzelnen Divisions. Es ging um Tech­no­lo­gien & Produktabgrenzungen, um Prestige & Karrieren, um Markt & Mo­neten. Dahinter verbarg sich sogar ein regelrechter Bru­der­krieg. Thomas Watson Jun. mußte sich als Chief Executive der IBM Corp. gegen Arthur K. Wat­son durchsetzen, der die IBM World Trade wie ein eige­nes Königreich leitete. Zweimal schon hatte Bruder Arthur ver­geb­lich versucht, einen eigenen Computer für sein Imperium zu ent­wic­keln. Justa­ment hatte er einen dritten Versuch gestartet. Das Ziel hinter SPREAD war indes: keine Sonderwege mehr. Stattdessen galt die globale For­mel: »Alle für einen. Einer für alle.« Konzeptionell war die Sache entschieden. Aber würde sich der Genie­streich reali­sieren lassen? Den Beteiligten steckte noch das Stretch‑Fias­ko in den Knochen. Das war ein Super­computer gewesen, mit dessen Ent­wick­lung IBM 1955 be­gonnen hatte. Weder technisch noch wirt­schaftlich erfüllte er die Erwartungen. Deshalb hatte Thomas J. Wat­son wenige Monate zuvor, im Mai 1961, den Preis von 13,5 auf acht Mil­lionen Dollar kürzen müssen. Es war seine erste Amtshandlung als Chairman, zu dem ihn justament der Aufsichtsrat gewählt hatte. Insgesamt hatte das Unternehmen 20 Millionen Dollar bei dem Projekt ver­loren. Watson hat­te seine Leute nachdrücklich ge­warnt: »Wir müssen künf­tig bei un­se­ren Ver­spre­chun­gen erheblich sorgfältiger sein.«[2] Das be­deutete: vor allem die Pla­nun­gen mussten besser werden. Dies­mal durfte es keine Panne ge­ben. Das war der Schwur von Greenwich.
New York. Donnerstag, 4. Januar 1962. Eine Woche nach dem Treffen in Greenwich präsentierte das Team vor 50 Top Exe­cu­tives im da­ma­li­gen Hauptquartier der IBM in New York sei­nen gran­diosen Plan. Die Resonanz war verhalten. Aber es gab auch keine wich­tigen Gegen­ar­gu­mente. Nur eins bereitete den Managern sichtlich Sorgen: die Aus­gaben für die Software. Den Aufwand für ein »SPREAD­sheet« hatte das Spaulding‑Team vorsichtig mit 125 Millionen Dol­lar beziffert. Das lag deut­lich über jenen zehn Mil­lionen Dollar, die IBM sonst jähr­lich in Programme für alle Produktfamilien steckte. Die hohen Her­ren wieg­ten noch voller Bedenken mit ihren Köpfen. Hätten sie die volle Wahrheit gewusst, dann wäre das Projekt erst gar nicht ge­star­ter worden: eine halbe Millarde Dollar sollte nämlich der tatsächliche Preis der Supersoftware werden. Manchem steckte noch die Transformation aus den fünfziger Jahren in den Knochen.
Aber wozu ist eine großartige Or­ga­nisation da, wenn sie sich nicht auch an großartige Dinge her­an­wagt? Da ergriff schließ­lich Learson das Wort und erklärte kurz & knapp: »Okay, wir machen es!« Thomas Watson sah in die Runde. Ein Ent­schei­dungsträger nach dem anderen willigte ein, obwohl jeder erkannte, dass von nun an »alle unsere Ressourcen nur in einem ein­zi­gen Pro­jekt steckten ‑ und wir wussten, dass wir für eine ziem­lich lange Zeit aus unseren Investi­tio­nen nichts herausbekamen.«



Frankfurt. Freitag, 4. April 1964. Die Botschaft erreichte den jun­gen IBMer erst nach Büro­schluß. Als Peter L., 27 Jahre alt, an die­sem Abend daheim seine Post sichtete, tat sich ihm zwischen Bank­aus­zügen und Re­kla­mepost eine Wind­rose auf. Der an­son­sten als cle­ver & smart ein­geschätzte Vertriebsbeauftragte aus der Nieder­las­sung Frank­furt der IBM Deutsch­land GmbH war per­plex: die Postkarte enthielt außer seiner Ad­resse und dem roten Symbol keine weitere Message. Der IBM‑Nach­wuchsmann ver­dräng­te nach einigen Grübeleien diese scheinbar un­sin­nige Nach­­richt. Das Wochenende hatte be­gon­nen...
Frankfurt. Montag, 7. April 1964. Ein wenig verwundert wanderte an diesem Frühlingsmorgen Peter L. durch die Blu­menallee des Frankfurter Pal­mengartens. Zwi­schen den ge­raden er­blüh­­ten Oster­glocken und Tulpen des Früh­lings 1964 rag­ten rund 1000 strahlendweiße Papierwimpel empor, alle ebenfalls mit dem myste­riösen Zei­chen, mit dieser ge­heim­nisvollen Windrose, bedruckt.
Das Zeichen war Signal. An diesem Aprilmorgen sollte sich die Com­pu­terwelt gründlich verändern. Doch davon ahnten Peter L. und seine zweihundert in feierlichem Dunkelblau versammelten Kol­le­gen zu­nächst noch nichts. Nur eins war ihnen klar: den Tu­sche­leien und Flüsterparolen der vergangenen Monate sollte durch die Ankündi­gung eines neuen Computersystems ein Ende gesetzt wer­den. Was kam, war eine neue Rechnergeneration. IBM verkündete der völlig überraschten Computerwelt das Sy­stem /360. Das Datum war gut ge­wählt. Die Firma feierte gerade ihren 50. Geburtstag. Seit einem halben Jahr­hundert regierten Watson & Son. Ein Welt­im­pe­rium mit einem Umsatz von 3,239 Milliarden Dollar war ent­stan­den. An die­sem Tag sollte sich aber vor allem die Zukunft der nächsten Jahrzehnte entscheiden.
Es war das Jahr der Entscheidung, in dem Bob Dylan sein Lied »The times they are a changing« schrieb, die Beatles mit »A hard days night« ihr Filmdebut gaben und erstmals auf Welt­tournee gingen. Doch vor allem sollten sich die Zeiten im Com­puterge­schäft ändern, sollten zwei lange Jahre harte Arbeit mit einer Weltur­auf­führung belohnt werden.
Von dem, was kam, war Peter L. schlicht­weg faszi­niert. Für ihn klärten sich die letzten un­deutbaren In­halte der Windrose auf ‑ stilgerecht abgetönt durch das etwas ge­schrumpfte Orchester des Hessischen Rundfunks: hin­ter der heute bis zur Un­ver­ständ­lich­keit verkürzten Be­zeichnung Schrägstrich 360 verbarg sich der allum­fas­sende An­spruch der IBM, über alle 360 Längengrade hinweg, mit einer neu­en System­ge­ne­ra­tion Tausende von DV‑Benutzern glücklich zu ma­chen. Das »auf­win­dige« An­noun­cement, das gleich­zei­tig auf allen IBM‑Ba­sen rund um den Erdball abrollte, enthüllte die neue Phi­lo­so­phie, die von nun an das weltweite Wech­selspiel zwi­schen Markt und Technologie bestimmen sollte. Zwar war zunächst mehr Wind als Rose. Doch mit dem Wirbel um die neue Serie konnte die IBM vorerst all die Schwierigkeiten hin­weg­blasen, die durch die Schöpfung der dritten Generation dem Com­pu­ter‑Giganten erwuchsen und seinen Kreislauf wiederholt an­griffen. So wurde von der Geburt der Idee im Jahre 1961 bis hin zur Ankün­di­gung der Systemfamilie die Struktur des Weltkonzerns allein dreimal umgekrempelt.
Doch die größte Veränderung lag darin, daß mit dem Aufsetzen des SPREAD‑Plans bei IBM endlich die Technologen das Zepter in die Hand genommen hatten. So schrieb 1966 das amerikanische Wirt­schafts­ma­ga­zin For­tune: »Zum ersten Mal trat eine neue Gruppe von technisch orientierten Managern in den Vordergrund und zerstörten einiges von jener traditionellen Macht, die die Marketiers in der Firma hiel­ten.«[3] In der Folge sollten die sechziger Jahre die aufregendste und innovativste Dekade des Computings werden. Die junge Branche setzte zum Sprung ins 21. Jahrhundert an. Während einige For­scher bereits die Ankunft des Personal Computers prophezeiten, soll­ten die näch­sten zwei Jahr­zehnte jedoch vor allem einer Species ge­hö­ren: den Main­fra­mes, deren erster Erfolgstyp die /360 war.
ZURÜCK ZUR USU-TIMELINE

[1] Da­ta­mation, 15.5.84, Robert L. Patrick: »The seed of empire«
[2] Fortune, 9/66, T. Wise: »I.B.M.'s $5.000.000.000 Gamble«
[3] Fortune, 9/66, T. Wise: »I.B.M.'s $5.000.000.000 Gamb­le«

Freitag, 10. April 2009

Die Mainframe-Ära 1994: Der Wechsel zu CMOS

Diese Story entstand vor 15 Jahren
Die CMOS-Pyramide
Von Raimund Vollmer

»Es hat immer geheißen, die Gestirne sind an einem kri­stal­­lenen Gewölbe angeheftet, dass sie nicht herunterfallen kön­nen. Jetzt haben wir Mut gefasst und lassen sie im Freien schweben, ohne Halt, und sie sind in großer Fahrt, gleich unseren Schiffen, ohne Halt und in großer Fahrt.«
Galileo Galilei in dem Schauspiel »Leben des Galilei« von Bertolt Brecht[1]

Tokio. Dienstag, 5. April 1994. Der wohl erste Landes­fürst im Weltreich der IBM, der an diesem Tag den neuen Pa­ral­lel Sysplex vorstellte, war Ka­­ku­taro Ki­ta­shiro, Präsident der IBM Japan. Und er nutzte natürlich den Zeitvorsprung, um die histo­rische Wendemarke zu be­setzen. »Seit der Ent­wick­lung der ersten Main­fra­me‑Maschine der Welt, des Systems /360 vor 30 Jahren, ist dies heute die An­kün­di­gung der innovativsten Pro­dukt­familie«, er­klärte er dem Publikum im zweitgrößten Mainframe‑Markt der Welt.[2] Und damit hatte er seinen Kunden sugge­riert, dass die Neu­ent­wicklung nun die nächsten 30 Jahre bestimmen würde.
So wurde jedenfalls die Botschaft aufgenommen. »Das Ge­schäft mit Mainframe‑Computer ist mit dem Aufkommen der Pa­ral­­lel­rechner so gut wie beendet«, kommentierte Massahiko Ishi­no, Analyst beim japa­ni­schen Investmenthaus Yamaichi Re­search Institute of Securities & Economics.[3] Richtig. Aber das galt nur für das Innere der Rechner: die Pro­zes­so­­ren. Die Anwendungswelt kam ungeschoren davon.
Die rettende Initiative dazu, mit der dieses Wunderstück, die Grat­wan­derung zwischen neuer und alter Welt zu meistern sei, hat ihren Ursprung nicht in den High‑Tech‑Ländern Japan oder Amerika, sondern in Europa, präziser: in Deutschland, im Entwicklungs­labor in Schönaich bei Böblingen. Es löste zuerst das Prozessor‑Dilemma und wies dann den Weg in die Parallelverarbeitung. Und so war die­ser 5. April in erster Linie der Tag des Herbert Kir­cher, Chef der IBM Deutschland Ent­wick­lungs­systeme GmbH. Stolz konnte er in Deutschland verkünden: »Wir läuten eine neue Phase der Großrechner ein.« Es wurde aber auch höchste Zeit.
Ende des Chipdilemmas. Das erste Problem, das er und seine Mann­schaft lösten, war das Chip‑Dilemma. Das Zauberformel heißt CMOS/Complemtar Metall‑Oxyde Semiconductor). Es ist der Grundbaustein der Parallel‑Pyramide. Mit dieser Logik, die 1974 RCA erstmals im Bereich der Konsumentenelektronik ver­wen­de­te, hatte die IBM 1986 nur Erfahrung im Bereich der massengefertigten Spei­cherchips. Das Labor in Schönaich, das damals für die Entwicklung des kleinen Mainframes IBM 9370 verantwortlich war, nutzte CMOS, um daraus erstmals einen Mikroprozessor zu zeugen, der /370‑kom­pa­tibel war. 1988 war das Problem gelöst. Die IBM 9370 wurde fortan mit diesem Prozessor bestückt.
Damit war ein gewaltiger Brückenschlag geglückt. Denn die bis­heri­ge Domäne der CMOS‑Welt war bis dahin der Desktop‑Markt gewe­sen, den sie mit äußerst preisgünstigen Prozessoren beglückte. Ja, sie waren es gewesen, die den Preis‑Leistungs‑Vergleich zwi­schen Mainframes und PCs ständig zugunsten der Desk­tops verschoben.
Die Entwicklungslabors in Poughkeepsie und Endicott sahen diesen Erfolg mit höchst ge­mischten Gefühlen. Hier hatte man die 9370 nie so richtig ernst ge­nom­men. Sie war der Lumpensammler in der Groß­rech­nerwelt, der sich vornehmlich in exotischen Gefilden bewegte. Würde er als CMOS‑Aus­leger nun in die Domänen der erwach­se­nen Main­frames vorstoßen, oder war er nichts anderes als eine Desktop‑/370?
Statt immer mehr Leistung in auf­wen­dig zu ent­­wickelnde Prozessor hin­einzupressen, werden nun massen­gefertigte Mi­­kro­­pro­zessoren dafür verwendet werden. Technisch be­deutet dies
- die Abkehr von energieintensiven bipolaren Chips (z.B. Emitter Coupled Logic)
- hin zu CMOS‑Halbleitern (Complementary Metal Oxide Semiconductor).
Vorstufen dieser Technologie wurden bereits in den frühen siebziger Jahren in Speicherbausteinen, den RAMs (Random Access Memories) verwendet. In den achtziger Jahren öffnete dann die CMOS‑Techno­logie das Tor zum Megabit‑Speicher. Mehr noch: sie eroberte das neue Feld der Hochleistungs‑Mikroprozessoren.
Was CMOS‑Chips auszeichnet, ist ihr im Vergleich zu den bipolaren Ge­gen­stücken erheblich geringerer Energieverbrauch. Herbert Kir­cher, Chef der IBM Deutschland Ent­wick­lungssysteme GmbH, berichtet, dass der Strombedarf um den »Faktor 10 niedriger ist« als in der bipolaren Welt, die mit ihren ECL‑Chips »gandenlos viel Energie ver­braucht«. Den Vorteil der CMOS‑Technologie bekommen die Kunden in Heller & Pfennig zu spüren. Denn die »Stromrechnung ist ein wichtiger Teil der Systemkosten« (Kircher).
Packungsdichte. So können aber auch Schalt­kreise auf engsten Raum gepackt werden, ohne dass die Gefahr einer Über­hitzung besteht, der nur noch mit auf­wendiger Wasserkühlung begegnet werden kann. Statt »10.000 oder 100.000 Transistorfunktio­nen« können in der CMOS‑Technologie Mil­lionen zusammengepackt werden.
Entwicklungskosten. Obwohl der ECL basierende Einzel­prozessor mit 60 MIPS mehr als doppelt so stark ist wie sein aus CMOS hergestelltes Gegen­stück, schlägt dieser in puncto Wirt­schaft­lichkeit alle­mal seinen großen Bruder. Seine Entwicklung ist zehn­mal preiswerter als bei ECL‑Auslegern.
Preis/Leistungs‑Verhältnis. Zudem kann das Preis‑Lei­stungs­ver­hält­nis bei ECL‑Chips pro Jahr nur um 15 Prozent ge­steigert werden, bei den CMOS‑Ableger aber sind Sprünge von 40 Prozent drin ‑ nicht zuletzt dank Massen­fertigung.
Leistungssprünge. Während sich bei ECL‑Rechnern die Leistung nur alle fünf Jahre verdoppelt, schaffen dies CMOS‑Computer alle zwei Jahre. So arbeitet Kircher be­reits jetzt an dem CMOS‑Prozessor, der 1996 auf den Markt kommen wird.
Was dabei erstaunt, ist die Tatsache, dass diese Vorteile seit mehr als zehn Jahren bekannt sind. 1982 veröffentlichte die Markt­for­schung Strategic Inc. in London eine Studie, die voraussagte, dass spätestens gegen Ende unseres Jahrhundert 80 Prozent aller Chips auf CMOS basieren würden. Die Fir­men müssten anfangen, im großen Stil ihre höchstinte­grier­te Schaltkreise nach diesem Ver­fah­ren zu entwickeln. Wer das nicht täte, würde Marktanteile ver­lie­ren.[4] Aber Firmen wie IBM glaubten, dass dies für alle an­de­ren Märkte stimmen würde, nur nicht für Großrechner. Ein fa­ta­ler Irr­tum, der an die Vorzeit der /360 erinnert, als Gottkönig Watson Jr. mit einem Befehl durchsetzte, nur noch die Transistor­tech­nik zu verwenden.
Natürlich ist es das Rechenprinzip der Paral­lelverarbeitung, dem die CMOS‑Gene­ration es jetzt zu verdanken hat, dass sie mit einem geistigen Trick die Be­gren­zungen der Technik zu über­win­den kann. Kurzum: sie nutzt den Hase‑Igel‑Effekt. Während in einem tradi­tio­nellen Mainframe bis 1993 maximal zehn mächtige Prozessoren (ES/900‑9X2) kooperieren können, sind in den neuen Paral­lelrechner Dutzende von CPUs zu einer Einheit ver­­knüpft. Aus den Ein­zel­blöcken entsteht die CMOS‑Pyramide.
Neues Denken. Das hört sich simpel an. Man fragt sich: Warum ent­deckte die kom­mer­zielle DV die Parallelverarbeitung erst so spät? Der Hauptgrund liegt darin, dass sie auf der Softwareseite letzt­lich das Entstehen von ra­di­kal an­de­ren Algo­rith­men erfordert. Das Pro­gram­­mierwissen hatte sich voll und ganz auf einer seriellen Sicht auf die Welt verschrieben. Das heißt: wollen die Anwen­dungs­ent­wickler die Po­ten­­tiale auch tatsächlich nutzen, müssen sie völlig umdenken. Dahinter steht ein Paradigmawechsel, der weitaus größer ist als IBMs Ab­schied in den sechziger Jahren von der Lochkarte (die damals intern und extern wahre Tumulte auslöste).
Die Ironie da­bei: Die Program­mierer müssen die Welt so sehen, wie sie sich heute in zunehmenden Maße (Schlagwort: Business Reengi­neering) organisiert ‑ in ihrer Gleich­zei­tig­keit. Das lässt sie zögern & zaudern, zumal sie beim Reengineering schon jetzt große Pro­bleme haben. Sie entdecken, dass sie damit eine Pandora‑Büchse geöffnet haben. (Siehe Kasten: Voll erwischt)
Sollen sie dann auch noch das alles so umsetzen, dass die Möglichkeiten der Parallelverarbeitung voll nutzt, dann müssen sie mit noch mehr Überrschungen fertig werden. So werden 1994 im Markt der Parallel­rechner gerade 600 Millionen Dol­­lar weltweit um­gesetzt, davon geht der Hauptteil in die technisch‑wissenschaftliche Welt. Im Ver­gleich da­zu kata­pul­tierte sich zwi­schen 1962 und 1991 das stets hochprofitable Mainframe‑Geschäft von ei­ner auf 30 Milliarden Dollar, um dann allerdings zu einer beispiellosen Talfahrt anzusetzen.[5]
Den Absturz auffangen und einen neuen Aufwärtstrend erzeugen ‑ so sieht die Aufgabe aus. Ist das überhaupt machbar?
Das Gesetz der Trägheit
Hürde & Bürde. Etwa 20 Jahre brauchte also die Idee des John von Neumann, bis sie sich kommerziell durchsetzte, und weitere 20 Jahre lang durfte sie ihren Erfolg voll auskosten. Heute stehen weltweit Anwendungsinve­sti­tionen im Wert von 1.200 Milliarden Dollar hinter den Mainfra­mes. Diese Hürde ist auch die Bürde: Nur eine alternative Technologie, die diesen immensen Auf­wand an pro­gram­mierten Unternehmenswissen in sich aufsaugen konnte, hat überhaupt eine Chance, in die Groß­rech­ner‑Phalanx einzubrechen. Und hier war lange Zeit weit & breit nichts zu sehen ‑ bis zu diesem 5. April 1994. Da verkündete Hug, dass der neue Parallel Sysplex »im hohen Umfang« kompatibel mit der Vergangenheit sei. Das heißt: der An­wen­dungsbestand, der allein hierzulande »einen Wert von 250 Mil­liar­den Mark darstellt« (Hug), kann weitgehend übernommen werden.
Endlich scheint sich die Paral­lel­ver­arbeitung eine Bahn zu brechen, ohne dabei sofort ein völlig neues Denken bei den Entwicklern zu erfordern. Damit wurde ein Signal ge­setzt: »Das goldene Zeitalter der Mainframes, in dem große Rechner und IBM alles beherrschten, ist vorbei«. So lautete bereits im Fe­bruar 1993 das Urteil der New York Times, als einen Monat zuvor die ersten Gerüchte über den neuen »Superserver« in Umlauf kamen.[6] Ein gutes Jahr später kon­terte das ame­ri­ka­nische Nachrichtenmagazin Time: »Das Schwer­metall wird weiter regieren.« Und weiter: »Die Dinosaurier sind weit davon entfernt, ausgelöscht zu werdenn.«[7]
Jetzt wurde deutlich: Seine Retter sind die Paral­lelrech­ner, die zugleich der letzte Abkömmling und der erste Systemüber­win­der der /360‑Generation sind. Kircher, in dessen Verantwortungsbereich, dem Labor in Schönaich bei Böblingen, der Parallelrechner seine Geburtsstunde erlebte: »Wir läuten eine neue Phase der Großrechner ein.« Es wurde aber auch höchste Zeit.
Jahrzehntelang hatte der grandiose Aufstieg der Mainframes die Idee der Parallelverarbeitung überdeckt. Die Technologie war schlichtweg noch nicht so weit, um den neuen Denkansatz in die Rechenzentren zu tragen.
Aber dann nahm die Technologie mit dem Aufkommen der Mikro­pro­zes­soren und der Speicherchips mäch­tig an Fahrt auf. Zu Beginn der achtziger Jahre war sie soweit, um auch von den Parallel‑Denkern ausgebeutet zu werden. Doch nach wie vor nahmen sich nur wenige Pionier­fir­men des Themas an. IBM selbst hatte Mitte der achtziger Jahre einige dieser neuen Kolosse gebaut, aber nur für interne Zwecke ‑ zur Entwicklung von neuen Mainframes. In den Anwendungen der kommerziellen Daten­ver­arbeitung war Parallelprocessing noch nicht einmal ein Randthe­ma.
Invention & Innovation. Es gehört zur Geschichte der kaufmännischen DV, dass die Technologie zwar mit ihrem ungemein schnellen Wandel akzeptiert wird, dass aber neue geistige Prinzipien sich nur sehr langsam durchsetzen. Ex­per­ten sprechen da­von, dass hier der Zyklus von der Invention bis zur Innovation min­destens 20 Jahre beträgt. Durch keine Maß­nahme lässt er sich ver­­kürzen ‑ allenfalls verlängern. Was die Anwender immer wieder zurückschreckt, sind die enormen Kosten, die eine solche Transformation nicht nur in der Umstellung ihrer Softwarebestände erzeugt, sondern auch bei der Schulung.
Dieses Trägheitsgesetz wurde in der Computerbranche von der IBM mit der Ankündigung der /360 erst­mals in einen überwältigenden wirt­schaft­lichen Erfolg umgesetzt. So wurde die /360 sukzessive verbessert. Aus ihr wurde 1970 die /370 und schließlich, 1990, die /390. Firmen wie Intel oder Microsoft waren es dann, die davon nicht minder profitieren soll­ten. Mit kapitalintensiven Verbesserungsinnovationen triumphieren sie über die­jenigen, die wissens­intensive Neuerungen induzieren wollen. Man braucht sich dazu nur die DOS‑basierende Desktopwelt anzuschauen.
Das Innovationspatt. Das Von‑Neu­mann‑Prinzip bescherte zum Beispiel der Mutter aller Mainframes, der IBM, fette Margen, die jeden Entwicklungsaufwand bei der Wei­terentwicklung von Hardware und Software der bipola­ren Großrechner rechtfertigten, aber nur zu einem Bruchteil Geld für wirkliche Novitäten freimachte. Schaut man sich die Neuerungen aus den sechziger Jahren, so sind jene Innovationen am wenigsten auf dem Großrechner realisiert, die dem Benutzer am nächsten kommen. Hier aber ist die Aktion. , dass»Was wir uns wünschen, ist, dass die Großrechner nun auch die PCs in ihren Wirkungskreis mit einbeziehen«, fordert ICR‑Manager Obst.
Gerade im Augenblick größter Er­fol­ge scheuen Unternehmensführer davor, sich auf einen etwaigen Trend­bruch einzustellen, ihn sogar selbst zu inszenieren. Im Verhältnis zwischen IBM und ihren Kunden entstand so eine Situation der gegenseitigen Gefangennahme.

Quellen
[1] Bertolt Brecht, Gesammelte Werke Band 3, Frankfurt 1967: »Das Leben des Galilei«, Seite 1234
[2] Nikkei Weekly, 11.3.94: »Paral­lel‑processors put IBM ahead of the game«
[3] Nikkei Weekly, 11.3.94: »Paral­lel‑pro­cessors put IBM ahead of the game«
[4] Financial Times, 22.7.1982, Elaine Williams: »Major restructuring in processing«
[5] Financial Times, 25.6.91, Della Bradshaw: »An eastern breeze in the Med«
[6] New York Times, 10.2.93, Steve Lohr: »Mainframes aren't dead at all«
[7] Time, 13.6.94, Michael Meyer: »Rethinking your mainframe«

Dienstag, 7. April 2009

IBM /360: Erinnerungen an die Zukunft

IBM Presseinformation

45 Jahre IBM Mainframe


Stuttgart, 04.03.2009: Der IBM Mainframe feiert dieses Jahr auf der CeBIT
seinen 45. Geburtstag. Die Ankündigung des IBM Großrechners System /360 im
Jahr 1964 stellt einen Meilenstein in der Geschichte der
Informationstechnologie dar.
Das wichtigste Designkriterium des System/360 war die Schaffung eines
universellen Rechners für praktisch alle Einsatzgebiete - also ein General
Purpose-System. Daher auch der ursprüngliche Name: 360 Grad des vollen
Kreises. Dank der Innovationsfähigkeit seiner Entwickler ist der Mainframe
seit 45 Jahren die zentrale Plattform für Verfügbarkeit, Sicherheit,
Skalierbarkeit und Wirtschaftlichkeit. Unternehmen schätzen zudem die hohe
Energieeffizienz und die Flexibilität des Großrechners. Damit kann er
einen wichtigen Beitrag für die Dynamisierung von IT-Infrastrukturen
leisten.

Die Ankündigung des IBM System/360 im April 1964 erweiterte die
Einsatzmöglichkeiten von Informationstechnologie für Unternehmen
maßgeblich und hatte dadurch Auswirkungen auf die meisten
Geschäftsprozesse. Die Technologie des IBM Großrechners legte den
Grundstein für viele weitere Entwicklungen in der Informationstechnologie,
wie zum Beispiel den Boom des PCs in den 80er Jahren, das Wachstum des
Internets, elektronische Datenbanken oder auch Transaktionssysteme, die
heute die Grundlage zahlreicher Geschäftsmodelle sind.

Heute vertrauen Kunden zahlreicher Industriezweige auf die
Mainframe-Plattform als Basis für ihre wichtigsten Unternehmensdaten und
-anwendungen und zum sicheren Betrieb ihrer Geschäftstransaktionen. So
nutzen zum Beispiel die Top 50 der Banken weltweit und 22 der 25 größten
Einzelhändler in den USA den IBM Mainframe. Die Marktakzeptanz der IBM
Mainframes führte dazu, dass das IBM System z seinen Marktanteil in diesem
Jahrzehnt verdoppeln konnte, so der IDC High-End Server Quarterly Tracker.
(1) Ausschlaggebend für die Entscheidung von Kunden für den IBM Mainframe
sind auch die beispiellosen Virtualisierungsmöglichkeiten unter anderem
für Konsolidierungsprojekte. Für Mainframes gibt es Virtualisierung seit
1971 und seitdem findet eine rasante Entwicklung auf diesem Gebiet statt.
Verglichen hiermit steht die Virtualisierung in manchen anderen Bereichen
noch ganz am Anfang.

Ursula Wagner, Mainframe Platform Leader IBM Deutschland, erläutert:
?Mainframes können in der IT-Infrastruktur von Unternehmen eine zentrale
Rolle spielen. Insbesondere die seit Jahrzehnten bewährten Eigenschaften
rund um Sicherheit, Skalierbarkeit und Verfügbarkeit bei hoher
Wirtschaftlichkeit haben Großrechner zum Rückgrat der IT in vielen
Bereichen gemacht. Moderne Anwendungen, das Web2.0-Umfeld sowie die
Entwicklung zu dynamischen und serviceorientierten IT-Infrastrukturen bin
hin zu Clouds bringen Stärken von Mainframes neu zur Geltung, da sich über
Virtualisierung und Provisioning die vorhandenen Infrastrukturen mit neuen
Projekten weiter optimieren lassen.?

Auch in Deutschland kann IBM Mainframe-Neukunden verzeichnen. Hierzu
gehört zum Beispiel das Beratungsunternehmen Bearing Point. Die
Technologie- und Managementberatung BearingPoint GmbH ist ein wichtiges
Cosultingunternehmen in Deutschland und ein weltweit operierender System
Integrator. BearingPoint entschied 2008 in Deutschland einen eigenen
Mainframe anzuschaffen, um Entwicklungsaufgaben und Lösungen im Software-
und Anwendungsbereich für ihre Mainframe-Kunden effektiver zu realisieren.

Ein weiterer Mainframe-Neukunde ist die EFiS Financial Solutions AG aus
Frankfurt. Der Zahlungsverkehr-Spezialist beauftragte den Darmstädter IBM
Premium Partner PROFI Engineering Systems AG kürzlich mit der Installation
des IBM System z. Von der Umstellung ihres IT-Systems erwartet EFiS
erhöhte Sicherheit, Skalierbarkeit und Verarbeitungsleistung.
Ausschlaggebend für die Entscheidung für einen Mainframe waren außerdem
die Energieersparnis und optimale Ressourcennutzung im Sinne von Green IT.

Die Finanz Informatik (FI) setzt auch in Zukunft auf IBM
Großrechner-Technologie. Kürzlich verlängerte der IT-Service-Provider der
Sparkassen-Finanzgruppe in Deutschland ihre strategische
Partnerschaftsvereinbarung mit IBM um fünf Jahre. Die Transformation
existierender Rechenzentren der FI ermöglicht eine Reduzierung der
IT-Kostenstruktur, eine Verringerung des Energiebedarfs und eine
Performanceverbesserung der gesamten IT-Infrastruktur.

Als Vereinigung von Unternehmen, Organisationen und Einzelpersonen, die
Information und Communication Technology (ICT)-Anwendungen auf der Basis
von IBM-Architekturen betreiben, begleitet die GUIDE SHARE EUROPE (GSE)
den Mainframe von Anfang an. Dr. Michael Weiß, Regional Manager Germany
der Interessensvertretung GSE: "Aus der IT vieler unserer großen
GSE-Mitgliedsunternehmen ist der Großrechner auch heute, nach 45 Jahren
IBM Mainframe, nicht wegzudenken. Unsere Anwender schätzen am Mainframe
neben der hohen Verfügbarkeit die Auslastbarkeit, die Stabilität und den
sehr hohen Automationsgrad. Diese Faktoren verhelfen der Plattform nicht
nur unter IT-Service-Continuity-Management (ITSCM)-Gesichtpunkten zu einem
Alleinstellungsmerkmal im Businessumfeld. Neue Mainframe-Kunden nutzen den
Mainframe vornehmlich als Host für z/LINUX-Partitionen. Dies rechnet sich
auch finanziell."

Mit der großen Marktakzeptanz der IBM Mainframes gingen folgende
Entwicklungen einher:

Das Wachstum der Mainframe-Anwendungen: 600 neue oder weiterentwickelte
Anwendungen wurden in den letzten Jahrenvorgestellt. Damit gibt es mehr
als 5.000 Anwendungen.
Mehr als 1.400 ISVs (Independant Software Vendors) entwickeln Anwendungen
für IBM System z Mainframes.
Mehr als 130 IBM Business Partner und Systemintegratoren sind als
Verkäufer der IBM System z Mainframes zertifiziert.
Mehr als 500 Universitäten weltweit arbeiten mit IBM zusammen, um die
Mainframe-Ausbildung voranzutreiben. 2004 waren es noch 24 Universitäten.
In den letzten vier Jahren haben mehr als 50.000 Studenten an Kursen
teilgenommen, um ihre Mainframe-Skills zu erweitern.

Auch Deutschland spielte bei der Entwicklung der Mainframes von Anfang an
eine wichtige Rolle. Im deutschen IBM Entwicklungszentrum in Böblingen
entwickeln Experten seit Gründung 1953 Hardware, Betriebssysteme und
Steuerungssoftware für Großrechner. Zu den bedeutenden Innovationen in der
über vierzigjährigen Produktgeschichte des Mainframes zählen die
Entwicklung der energiesparenden
Complementary-Metal-Oxide-Semiconductor-Technologie (CMOS) für den
Großrechner sowie die erfolgreiche Implementierung des offenen
Betriebssystems Linux auf einem Mainframe. Linux sowie CMOS sind längst
zum Standard bei Großrechnern geworden. Bereits das Systemdesign des
damals kleinsten Mainframes der S/360 Reihe stammte aus Böblingen. Heute
kommen beträchtliche Anteile der aktuellen und auch zukünftiger Mainframes
aus dem deutschen IBM Forschungs- und Entwicklungszentrum. Dies gilt
sowohl für Hardware, als auch für Firmware, mehrere Betriebssysteme und
nicht zuletzt auch für verschiedene Softwareprodukte im Mainframe-Umfeld,
für die die weltweite Entwicklungsverantwortung in Böblingen liegt.

Weitere Informationen zum IBM Mainframe unter
http://www-03.ibm.com/systems/de/z/.


(1) According to IDC's high-end +$250K servers quarterly tracker results
from 3Q 2000 to 2Q 2008. IDC 2Q08 WW Server Tracker.