Dienstag, 6. Dezember 2011

IBM & Micron: Die dritte Dimension der Chips

Pressemitteilung
IBM setzt erstmals 3D-Chip-Fertigungsverfahren ein

Produktion des Hybrid Memory Cube HMC für Micron / neuer Prozess ermöglicht einen bis zu 15-mal schnelleren Speichers in um bis zu 90% kleinerem Formfaktor

Armonk, NY, und Boise, Idaho, USA / Stuttgart-Ehningen, 01. Dezember 2011. IBM (NYSE: IBM) und die Micron Technology Inc. haben bekannt gegeben, dass Micron mit der Produktion eines neuen Speichers unter erstmaligem kommerziellem Einsatz einer CMOS-Fertigungstechnologie mit Through-Silicon-Vias (TSV) beginnen wird. Der innovative TSV-Chip-Herstellungsprozess der IBM ermöglicht es, die Geschwindigkeit des Hybrid-Memory-Cube (HMC) von Micron um das bis zu 15-fache gegenüber heutiger Technologie zu steigern.

IBM plant, Einzelheiten der TSV-Herstellungswegs auf dem IEEE International Electron Devices Meeting am 5. Dezember in Washington, DC, USA, vorzustellen. HMC-Komponenten sollen in der modernsten IBM Fabrik für Halbleitertechnologie in East Fishkill, NY, unter Einsatz der 32nm-High-K-Metal-Gate-Prozesstechnologie hergestellt werden

Die HMC-Technologie setzt Through-Silicon-Vias ein: Dies sind vertikale Leiterbahnen, die einen Stapel verschiedener Chips miteinander verbinden. Sie kombinieren Hochleistungslogik mit der DRAM-Technologie von Micron.

HMC liefert eine Bandbreite und Effizienz, die den Fähigkeiten derzeitiger Geräte voraus ist. HMC-Prototypen beispielsweise arbeiten mit einer Bandbreite von 128 GB/s. Im Vergleich dazu liefern aktuelle Geräte eine Bandbreite von 12,8 GB/s. Zudem benötigt HMC 70 Prozent weniger Energie zur Übertragung von Daten und hat gleichzeitig einen geringeren Platzverbrauch - nur 10 Prozent der Grundfläche von konventionellen Speichern.

HMC wird voraussichtlich ein neues Leistungsniveau für viele Anwendungsbereiche ermöglichen, beispielsweise für sehr große Netzwerke, High-Performance Computing, industrielle Automation und am Ende auch für Verbraucherprodukte.

Über Micron:
Micron Technology, Inc., (NASDAQ: MU) ist einer der weltweit führenden Anbieter von Halbleiter-Lösungen. Micron ist ein weltweit handelndes Unternehmen, das eine breite Palette von Produkten herstellt und vertreibt. Darunter DRAM, NAND-und NOR-Flash-Speicher sowie weitere innovative Speichertechnologien, Verpackungslösungen und Halbleiter-Systeme. Weitere Informationen über Micron erhalten Sie unter www.micron.com.

Mittwoch, 16. November 2011

Blue Gene: 20 Petaflops in 2012

Presseinformation

IBM kündigt die nächste Generation von Supercomputern an

Das neue System Blue Gene/Q liefert künftig bis zu 100 Petaflop/s an Höchstleistung und ist für extrem große Herausforderungen ausgelegt

Armonk, NY, USA / Stuttgart-Ehningen, 16. November 2011. IBM (NYSE: IBM) hat die nächste Generation des Supercomputers Blue Gene angekündigt. Der neue Blue Gene/Q wird eine ultra-skalierbare Rechenplattform bieten, die auch sehr umfangreiche Aufgabenstellungen schneller, energieeffizienter und zuverlässiger lösen kann als je zuvor möglich. Der Supercomputer wird voraussichtlich in der Lage sein, mit höherer Genauigkeit als bisher beispielsweise den Weg eines Hurrikans vorherzusagen, den Meeresboden nach Öl abzusuchen oder Gensequenzen zu dekodieren.

Der Blue Gene/Q-Supercomputer arbeitet ungefähr bis zu zehnmal schneller als vorherige Systeme und repräsentiert die dritte Generation der Blue Gene-Supercomputer-Familie. In dem Computer kommt eine 16-Multi-Processing-Kern-Technologie zum Einsatz. Zudem bietet er eine skalierbare Spitzenleistung von voraussichtlich bis zu 100 Petaflop/s, was einen massiven Sprung nach vorne im Parallel-Computing-Bereich darstellt. Blue Gene/Q ist eine Plattform für hochkomplexe Projekte in einem breiten Spektrum an Anwendungsgebieten in Forschung und Technik.

Darüber hinaus belegt Blue Gene/Q aufgrund des geringen Platzverbrauchs und des niedrigen Strombedarfs den ersten Platz der energieeffizientesten Supercomputer der Welt auf der Green500-Liste vom Juni 2011. Der Rechner verbindet geringe Latenzzeiten und hohe Laufzeitleistung, was die Fehlerverfolgung vereinfacht und die Leistung optimiert. Alles fußt auf einer Open-Source-orientierten und Standard-basierten Betriebsumgebung. Dank weniger beweglicher Teile und eingebauter Redundanzen hat sich Blue Gene/Q als Musterbeispiel in Bezug auf Zuverlässigkeit bewiesen. Die Kombination von hoher Zuverlässigkeit und Energieeffizienz macht das System zu einer sehr wirtschaftlichen Supercomputing-Lösung.

Die neue IBM PowerPC ® A2-Processing-Architektur spielt eine wichtige Rolle bei der Bereitstellung der Leistung. Jeder Prozessor enthält 16 Rechenkerne, plus einen Kern, welcher dem Betriebssystem für administrative Funktionen zugeordnet ist sowie einen redundanten Ersatzkern.

Der Supercomputer beinhaltet architektonische Fortschritte, die zu der hohen Leistung des Systems beitragen und die Programmierung vereinfachen. Zum Beispiel erleichtern hardware-basierte Speculative Execution Capabilities ein effizientes Multi-Threading für lange Codeabschnitte, sogar solche mit potentiellen Datenabhängigkeiten. Wenn Konflikte auftreten, kann die Hardware den Arbeitsschritt wiederholen, ohne die Anwendungsleistung zu beeinträchtigen. Darüber hinaus hilft hardware-basiertes Transactional Memory dabei, effizientes und effektives Multi-Threading bereitzustellen und verringert gleichzeitig die Notwendigkeit einer komplizierten Programmierung sowie vermeidet Engpässe, die durch Deadlocking entstehen könnten.

Anwendungsbeispiel des Supercomputers

Im Jahr 2012 wird ein Blue Gene/Q System namens „Sequoia“ am US-Lawrence Livermore National Laboratory (LLNL) eingesetzt und voraussichtlich in geplanter Ausbaustärke funktionsfähig sein. Es wird dann ein Spitzenleistungsniveau von voraussichtlich bis zu 20 Petaflop/s erreichen. Das macht das System zu einem der schnellsten Supercomputer der Welt. Der Computer wird dazu beitragen, die Führungsrolle der Vereinigten Staaten in High Performance Computing (HPC) sicherzustellen. Darüber hinaus wird der Blue Gene/Q voraussichtlich der weltweit energieeffizienteste Rechner sein, mit einer Leistung von 2 Gigaflop/s pro Watt.

Das LLNL ist eines der wichtigsten multidisziplinären US-Labore für nationale Sicherheit , die für die National Nuclear DOE Security Administration (NNSA) arbeiten. Das Labor setzt einige der weltweit leistungsstärksten Supercomputer ein, um die nukleare Abschreckungsfähigkeit des Landes aufrechtzuerhalten, ohne diese testen zu müssen. Zudem soll weiteren Herausforderungen in der Forschung bei Grids und Netzwerkmanagement sowie im Bereich von Energie und Klimawandel begegnet werden. IBM wird bereits Anfang Dezember diesen Jahres beginnen, 96 Racks auszuliefern

Das US-Argonne National Laboratory (ANL) hat im Jahr 2011 angekündigt, ebenfalls Blue Gene/Q einzuführen, mit dem Ziel, unter anderem das Wirtschaftswachstum und die Wettbewerbsfähigkeit der USA voranzutreiben. Beispiele dafür sind die Entwicklung künftiger elektrischer Autobatterien sowie Projekte zum Verständnis des Klimawandels. Das 10-Petaflop-System namens "Mira" kann ein starker wissenschaftlicher und technologischer Innovationsmotor werden.

Weitere Informationen sowie Foto in der US-Presseinformation anbei: http://www-03.ibm.com/press/us/en/pressrelease/35990.wss


Alice Markuly
Unternehmenskommunikation
IBM Deutschland, Systems and Technology Group
markuly@de.ibm.com

Hans-Jürgen Rehm
Unternehmenskommunikation
IBM Deutschland, Systems and Technology Group: Supercomputing, Software: Anwendungsentwicklung, Systems Management, Sicherheit, Banken, Versicherungen und Region Berlin
+49 7034 15 1887
+49 171 556 69 40
hansrehm@de.ibm.com


wwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww

IBM Announces Supercomputer to Propel Sciences Forward


ARMONK, NY: IBM (NYSE: IBM) today announced its next generation supercomputing project, Blue Gene/Q, will provide an ultra-scale technical computing platform to solve the most challenging problems facing engineers and scientists at faster, more energy efficient, and more reliable rates than ever before. Blue Gene/Q is expected to predict the path of hurricanes, analyze the ocean floor to discover oil, simulate nuclear weapons performance and decode gene sequences.

When it is fully deployed in 2012 at Lawrence Livermore National Laboratory (LLNL), the system, named “Sequoia”, is expected to achieve 20 petaflops at peak performance, marking it as one of the fastest supercomputers in the world. The capabilities this system represents will help ensure United States leadership in high performance computing (HPC) and the science it makes possible. Moreover, Blue Gene/Q is expected to become the world’s most power-efficient computer, churning out 2 gigaflops per watt.

LLNL, a premier multidisciplinary national security laboratory for DOE’s National Nuclear Security Administration (NNSA), applies some of the world’s most powerful supercomputers to maintaining the nation’s aging nuclear deterrent without testing, as well as such challenges as grid and network management, energy research and climate change. IBM will deploy 96 racks beginning as early as December of this year.

“It is this emphasis on reliability, scalability and low power consumption that draws the interest of NNSA to this machine and its architecture,” said Bob Meisner, head of NNSA's Advanced Simulation and Computing program. “This machine will provide an ideal platform to research and develop strategies to assure that our most challenging codes run efficiently on multi-core architectures. Such capabilities will provide tremendous information in formulating our code development strategy as we face the challenges of exascale simulation and advance the state of the art in simulation science, advances necessary to ensure our nation's security without nuclear testing.”

Announced earlier in 2011, Argonne National Laboratory (ANL) will also implement Blue Gene/Q to stoke economic growth and improve U.S. competitiveness for such challenges as designing electric car batteries, understanding climate change and exploring the evolution of the universe. The 10-petaflop system, named “Mira”, will provide a strong science and technology engine that will fuel national innovation. Argonne is one of the DOE’s oldest and largest labs for science and engineering research, located outside of Chicago.

“At Argonne, we are already exploiting the power of Mira through our Early Science program, which provides a broad range of researchers the opportunity to work with IBM and Argonne technical staff to adapt their codes to Mira's unique architecture,” said Mike Papka, Deputy Associate Laboratory Director, ANL. “This will ensure that Mira will be prepared to run challenging computational science problems on the first day of operations.”

The third generation in the Blue Gene family of supercomputers, Blue Gene/Q operates at an order of magnitude faster than previous systems, deploying 16 multi-processing core technology and a scalable peak performance up to 100 petaflops—a massive leap forward in parallel computing power. Applicable to a growing set of computationally intensive workloads within the scientific community, Blue Gene/Q is the ideal platform for highly complex projects in a broad range of areas from nuclear energy to climate modeling.

Designed with a small footprint and low power requirements, Blue Gene/Q was ranked as the number-one most energy-efficient supercomputer in the world by the Green500 (June 2011). It provides low latency, high performance runs that simplify tracing errors and tuning performance, all based on an open source and standards-based operating environment. Engineered with fewer moving parts and built in redundancy, Blue Gene/Q has proven to be a class-leader in reliability. Blue Gene/Q’s combination of high reliability and energy efficiency makes it an economic supercomputing solution, with fewer failures translating to faster times for more sound solutions.

“Completing computationally intensive projects for a wide variety of scientific applications that were previously unsolvable is not just possible - it is now probable,” said Brian Connors, VP of technical computing at IBM. “IBM’s historic role in developing the supercomputers that provide the power behind critical applications across every industry has uniquely positioned us to provide reliable supercomputing at the highest level.”

The new IBM PowerPC® A2 processing architecture plays a key role in delivering performance. Each processor includes 16 compute cores (up from four used with Blue Gene/P, the previous system) plus a core allocated to operating system administrative functions and a redundant spare core.

Blue Gene/Q incorporates architectural advances that contribute to the system’s outstanding performance and help simplify programming. For example, hardware-based speculative execution capabilities facilitate efficient multi-threading for long code sections, even those with potential data dependencies. If conflicts are detected, the hardware can backtrack and redo the work without affecting application performance.

In addition, hardware-based transactional memory helps programmers avoid the potentially complex integration of locks and helps eliminate bottlenecks caused by deadlocking—when threads become stuck during the locking process. Hardware-based transactional memory helps to deliver efficient and effective multi-threading while reducing the need for complicated programming.

A commitment to energy efficiency is essential as IBM continues to point forward towards exascale computing. An exaflop, a million trillion calculations per second, is 1000 times or three orders of magnitude faster than today's petaflop-class systems. Exascale computing has the potential to address a class of highly complex workloads that have been beyond traditional reach, not just due to their sheer size, but because of their inherent uncertainties and unpredictability – areas such as hurricane prediction and climate modeling. Blue Gene/Q represents the next step in this HPC evolution.

In 2009, President Obama recognized IBM and its Blue Gene family of supercomputers with the National Medal of Technology and Innovation, the most prestigious award in the United States given to leading innovators for technological achievement. IBM, which earned the National Medal of Technology and Innovation on seven other occasions, was the only company recognized with the award in 2009. A pioneering design, Blue Gene held the number one spot on the top 500 list (www.top500.org) of the world’s fastest supercomputers for a record six consecutive times.

IBM continues to innovate and be a leader in Technical Computing, extending the capabilities of its server and cluster systems while introducing new solutions and business models to address the supercomputing challenges of today.

For more information on IBM, visit www.ibm.com/deepcomputing

Contact(s) information


IBM Media Relations
415.730.6521
thsuiter@us.ibm.com

Related resources

Blue Gene/Q tackles major challenges of the day, delivers up to 100 petaflops at peak performance

When Blue Gene/Q is fully deployed in 2012 at Lawrence Livermore National Laboratory (LLNL), the system, named “Sequoia”, is expected to achieve 20 petaflops at peak performance, marking it as one of the fastest supercomputers in the world.

Dienstag, 8. November 2011

IBM bringt Mainframes und Windows zusammen

PRESSEMITTEILUNG
Armonk, NY, USA / Stuttgart-Ehningen,
7. November 2011. IBM (NYSE: IBM) hat heute bekannt gegeben, dass es IBM zEnterprise 196 Mainframe-Anwendern ab dem 16. Dezember 2011 möglich sein wird, Windows-Anwendungen auf Großrechnern zu integrieren. Dies hilft Kunden, Insellösungen zu reduzieren, um so Komplexität und Kosten zu verringern.

Diese neue Funktion ermöglicht es Kunden mit Multi-Tier-Anwendungen, beispielsweise Windows-Lösungen, die auf Großrechnerdaten zugreifen, diese auf einem System zu konsolidieren. Sie wurde dafür entwickelt, Kosten und Komplexität von großen Unternehmensrechenzentren zu verringern. Somit werden die Eigenschaften des Großrechners wie Zuverlässigkeit und Sicherheit auch für diese Anwendungen zugänglich.

Durch den Hybrid-Computing-Ansatz, für den IBM mit der Einführung von zEnterprise-Systemen bereits im Juli 2010 den Weg vorbereitet hat, wird eine zEnterprise-Blade-Center-Extension (zBX) mit einem Großrechner verbunden. Bei der Anwendung sind keine Veränderungen nötig. Die Integration und das Management der x86-Blades wird durch den zEnterprise-Unified-Resource-Manager gehandhabt. Damit rutschen die Anwendungsserver physisch und logisch ganz nahe an die Daten auf dem Mainframe heran.

Der Unified-Resource-Manager sowie weitere Komponenten zur Integration von Power- und x86-Blades mit dem Mainframe werden maßgeblich unter der Federführung des deutschen IBM Forschungs- und Entwicklungszentrums in Böblingen entwickelt. Thomas Wolf, Director Firmware System z Development und weltweit verantwortlich für die Entwicklung dieser Technologien: "Ein zentrales Thema vieler unternehmensweiten IT-Infrastrukturen heute ist die zentrale Administration und Steuerung von Datenzentren mit unterschiedlichen Plattformen und Betriebssystemen. Der zEnterprise-Unified-Resource-Manager sorgt mit seinem zentralen, virtualisierten und heterogenem Verwaltungssystem dafür, dass erstmals ein „Workload-Kontext“ zur Verfügung steht, in dem physische und virtuelle Systemressourcen für eine Anwendung über unterschiedliche Plattformen gemeinsam verwaltet und optimiert werden können."

Was bietet die neue Funktion?

Die IBM System z-Unterstützung für Windows bedeutet, dass Kunden:

• -- mehr Arbeitslast auf ihrem Großrechner konsolidieren können. Die finanziellen Auswirkungen der Konsolidierung auf System z Server können beträchtlich ausfallen: Mit Einsparungen von bis zu 70 Prozent im Vergleich zu verteilten Plattformen.

• -- bei der Suche nach einer passenden Plattform für bestimmte Anwendungen von ERP-Anwendungen über Business-Analytics bis hin zur Transaktionsverarbeitung über eine größere Auswahl verfügen.

• -- Ihren Front-End Windows-Anwendungen erlauben können, auf Daten des Großrechners zuzugreifen oder sich mit anderen Anwendungen des Großrechners zu verbinden.



Vor welchen Herausforderungen stehen Kunden?

Das Durcheinander der verschiedenen Technologien, die sich im Laufe der Zeit ansammeln und für bestimmte Anwendungen entwickelt werden, führt dazu, daß diese oftmals nicht miteinander kommunizieren können und separate Personal-und Software-Tools zur Verwaltung benötigen. Diese seit Langem bestehende Herausforderung hat sich durch eine starke Steigerung der Kosten und Komplexität inmitten einer steigenden Flut von Workloads mit hohen Datenmengenin einer vernetzten Welt verschärft. Die Kunden möchten mehr Effizienz, eine einfacher zu verwaltende Infrastruktur, so dass sie ihre Ressourcen in strategischen Initiativen wie Cloud Computing und Business Analytics investieren können.

Kunden setzen auf Sicherheit von Großrechnern

Die Ankündigung stellt ein weiteres Beispiel für die Beständigkeit der Großrechner in einem hart umkämpften und dynamischen Servermarkt dar. Großrechner stellen zwar nur ein Teilsegment in der gesamten Server-Landschaft dar, dennoch sind sie für Banken, Versicherungen, Regierungen, große Einzelhändler und anderen Kunden äußerst wertvolle Werkzeuge wegen ihres hohen Masses an Sicherheit und Zuverlässigkeit.

Seit IBM mit der Auslieferung des neuen System zEnterprise 196 Server im Juli 2010 begonnen hat, hat das Unternehmen mehr als 80 neue Mainframe-Kunden hinzugewonnen. Davon befinden sich mehr als 30 Prozent in Wachstumsmärkten in der ganzen Welt. China hat kürzlich angekündigt, System z-Server für den Aufbau einer Cloud-Computing-Plattform zu nutzen. Das Land plant den Aufbau eines Online-Portals, das durch eine Vielzahl von sozialen Dienstleistungen das Leben von mehr als 300 Millionen Bürger in China verbessern soll.

Die Unterstützung von Windows durch IBM System z bedeutet, daß Kunden die bestgeeignete Plattform für die jeweilige Anwendung heranziehen können, Front-End-Windows-Anwendungen sich mit den Daten auf dem Mainframe besser verknüpfen lassen, und der Mainframe noch stärker als Konsolidierungsplattform eingesetzt werden kann. Der finanzielle Vorteil einer solchen Konsolidierung kann enorm sein,mit Einsparmöglichkeiten von bis zu 70 Prozent der TCO (Total Cost of Ownership) im Vergleich zu verteilten Lösungen. [1]

Weitere Informationen finden Sie unter: http://www.ibm.com/systems/z

Montag, 10. Oktober 2011

Pressemitteilung: USU Valuemation 4.2

Neues Modul Release Management sowie Software-Verteilung von baramundi angebunden

USU präsentiert neues Release Valuemation 4.2


Möglingen, 7. Oktober 2011.

An der Schnittstelle zwischen Business und IT konzentriert sich die
USU AG mit ihrem Software- und Beratungsportfolio seit Jahren auf das Kompetenzthema wissensbasiertes Servicemanagement. So wartet das neue Software-Release 4.2 mit einigen Neuerungen auf, die Anwender im Bereich IT-Servicemanagement zielorientiert in ihren Aufgabenbereichen unterstützen: Der Business Process Modeler ist ein Werkzeug zur grafischen Unterstützung bei der Modellierung von Prozessen. Das neue Modul Valuemation Release Manager ergänzt die Suite um einen weiteren ITIL
®-basierten Prozess. Und durch die Partnerschaft mit dem Technologie-Partner baramundi bietet Valuemation eine integrierte Lösung für Software-Verteilung. Des Weiteren steht neben dem bestehenden ITIL-v2-Prozess für das Problem Management nun optional auch ein entsprechender Prozess nach ITIL v3 zur Verfügung.

Zusätzliche Sprachversionen wie Französisch, Chinesisch und Arabisch sowie eine noch stärker rollenbasierte Benutzeroberfläche, Barrierefreiheit und Funktionalitäts-Erweiterungen in bestehenden Modulen komplettieren die Neuerungen. Valuemation 4.2 ist für Kunden und Interessenten ab sofort verfügbar.

Softwareänderungen koordiniert durchführen

Das Release Management verantwortet als zentrale Instanz die Überführung von Software-Releases in die Produktion und ist gemäß ITIL ein wichtiger Teil des IT-Service-Managements. Das neue Valuemation-Modul Release Manager unterstützt bei der Planung und Erstellung des Releases bis zur Freigabe für den Produktivbetrieb in Abstimmung mit dem Change- sowie dem Configuration-Manager. Durch begleitende Risikoanalysen werden die Risiken der Unterbrechung von Geschäftsprozessen bei Softwareänderungen minimiert. Grundlage für alle Prozess-Modellierungen in Valuemation ist der internationale Standard „Business Process Model and Notation“ (BPMN) in der neusten Version 2.0. Für einen effektiven Softwareverteilungs- und Rolloutprozess sorgt zusätzlich das Software Deployment durch zentral gesteuerte und automatisierte Installation, Konfiguration und Wartung von Betriebssystemen und Applikationen. Dieser Baustein basiert auf der Management Suite des Technologiepartners baramundi software AG.

Mehr Datenqualität & Übersicht

Ein neues Funktionspaket zur Datenqualität stellt die Integrität der verwalteten Assets sicher. Der sog. Data Quality Manager gibt Verantwortlichen die Möglichkeit, die Datenqualität zu definieren und zu überwachen. Sobald definierte Standards unterschritten werden, z.B. wenn Zuordnungen zu ungültigen Kostenstellen bestehen oder definierte Kategorien nicht zum Einsatz kommen, erfolgt eine Benachrichtigung. Für mehr Übersicht in der IT-Infrastruktur sorgt die neue Baseline-Funktionalität. Sie erlaubt es, verschiedene historische Datenbestände der CMDB als Messbasis
(= Baseline) zu definieren und diese miteinander, mit dem aktuellen Datenbestand oder mit dem technischen Bestand der Discovery-Daten zu vergleichen. Regelbasiert lassen sich zu den Abweichungen spezifische Aktionen hinterlegen, z.B. das automatisierte Erstellen und Zuweisen eines Request for Change (RfC).

Service-Reporting & mehr

Im Bereich der Module für Service Economics wurden viele Funktionen überarbeitet und erweitert. Hervorzuheben ist dabei die Einrichtung so genannter Welcome-Pages für zentrale Rollen wie Service Portfolio Manager, Planning & Calculation Manager oder Service Level Manager. Diese bieten bereits beim Systemeinstieg individuelle, rollenbasierte Informationen, Sichten und Aufgaben. Stark überarbeitet wurde der Planning & Calculation Manager: Neben ergonomischen Verbesserungen wurden insbesondere die Analysemöglichkeiten und das Berichtswesen wesentlich erweitert. Fachliche Dashboards, z.B. die Sicht auf einzelne Planungsstände, wurden auf Basis der ARIS MashZone aufgebaut. Ergänzt werden sie durch Quality Assurance Dashboards.

Service-Management aus einem Guss

Valuemation ist eine hoch integrierte Suite für das IT- und Service-Management und fokussiert auf vier zentrale Themenfelder: Service Economics, Service Asset Lifecycle Management, Service Operations und Service Monitoring. Das Release 4.2 steht seit Anfang Oktober 2011 zur Verfügung. Unternehmen, die sich an ITIL® orientieren, profitieren von der umfassenden Konformität mit den ITIL Best Practices. Weitere Informationen sind erhältlich unter: http://www.valuemation.de.

Sonntag, 2. Oktober 2011

Der Jahrhundert-Sprung (Teil X)

Von Raimund Vollmer

10. Vom Weltall in den Cyberspace

Wer hilft uns, den hier vor zehn Jahren formulierte Serienteil über P2P zu aktualisieren? Wer weiß, wie es heute steht beim P2P? Email an: bildertanz@aol.com

Eine der berühmtesten Peer-to-Peer-Anwendungen ist bis heute seti@home. Mehr als 2,5 Millionen PCs hatten sich hier vor zehn Jahren zusammengeschlossen, eine Zahl, die seitdem stagniert. Dieses Konglomerat bildete mit seiner potentiellen Leistung von 10.000 Milliarden Operationen pro Sekunde bereits vor einem Jahrzehnt die größte Konzentration an Computerpower in der Welt. Es war damals zehnmal schneller als der bis dahin mächtigste Supercomputer. Mehr als 345.000 Jahre Computerzeit waren hier versammelt.[1] Geradezu überirdische Ziele verfolgt dieses digitale Kollektiv: die gemeinsame Erforschung des Universums nach Radio-Signalen, die von außerirdischer Intelligenz gesendet werden.

Die Idee hinter diesem im Frühjahr 1999 gestarteten Projekt: Wer will, kann aus dem Netz bei seti@home einen ganz besonderen Bildschirmschoner herunterladen. In den Rechenpausen schaltet sich dann dieser Screen-Saver ein, der Daten verarbeitet, die vom Arecibo Observatorium in Puerto Rico stammen. Dieses gewaltige Radiotelescop, durch das permanent 1,4 Milliarden Daten an Weltraum-Rauschen strömen, wäre überfordert, diese Signale danach zu durchforsten, ob sich unter ihnen Nachrichten von Aliens befinden. Diese Suche übernehmen die 2,5 Millionen angeschlossenen PCs in ihrer Freizeit.

Was aus lauter Idealismus geboren wurde, so die Hoffnung damals, könnte sich in den kommenden Jahren zu einer innovativen Geschäftsidee auswachsen, bei der PC-Benutzer dafür entlohnt werden, dass sie ihre Maschinenzeit der Wirtschaft zur Verfügung stellen. So war die Idee damals - ein Cloud-Kollektiv, das aus PCs statt aus Servern bestand. Es galt als ein weiteres Beispiel dafür, wie Konsumenten zu Produzenten werden konnten. Natürlich waren dazu mehrere Herausforderungen zu meistern.

· Erstens mussten die Anwendungen, die diese Maschinen nutzen wollen, auf möglichst vielen Rechnern unterschiedlichen Typs lauffähig sein.

· Zweitens waren Sicherheitsanforderungen zu erfüllen. Nicht jedes Unternehmen möchte so ohne weiteres sensible Anwendungen einem anonymen Computerheer anvertrauen.

· Drittens galt es, Aufgaben zu finden, die sich auch tatsächlich auf Tausende von Maschinen verteilen ließen.

Doch es gab durchaus Ansätze, mit denen diese Hindernisse überwunden werden konnten. Das Unternehmen Parabon Computation aus Fairfax in Virginia entwickelte seine P2P-Software in der Programmiersprache Java, die hochgradig rechnerunabhängig war. Zudem verschlüsselte sie den gesamten Netzwerkverkehr. Und jeder Computer im P2P-Konzert bekam nur wenige Daten zur Verarbeitung. Außerdem konzentrierte sich Parabon auf Anwendungen, die sich recht einfach verteilen lassen: so zum Beispiel auf Berechnungen von Finanzmodellen oder im Bereich der Biotechnologie.

Der Anbieter Distributed Science in Toronto hatte sogar schon 40.000 freiwillige Helfer hinter sich versammelt. Die Firma entwickelt Software, um die Eigenschaften von Atommüllbehältern zu simulieren.[2] Der Chipgigant Intel nutzte zwischenzeitlich 10.000 PCs, um über sie sein hochsensibles Geschäft der Halbleiterentwicklung zu verteilen. Mehr als 500 Millionen Dollar soll die Chipschmiede damit gespart haben. Wie es heute mit dem Projekt aussieht, nicht bekannt. Intel arbeitet aber wohl weiterhin an P2P.

Eine der Anwendungen, die den Konsumenten selbst am meisten dienen würde, war die Nutzung der freien Rechenkapazitäten für Suchmaschinen. Rund einen Monat Zeit benötigten nämlich vor zehn Jahren die Googles der Welt, um alle Websites abzutasten und zu überprüfen, ob sie überhaupt noch existent und ihre Links up-to-date seinen. Würde man diese Aufgabe auf Tausende von PCs transferieren, dann könnten diese von sich aus den Bericht zur Lage der Cyber-Nation zusammenstellen und Veränderungen an die Zentrale melden. So die Idee damals.

Zwei Anbieter Gnutella und FreeNet wollten P2P um marktfähige Produkte anreichern. So wollte GoneSilent (offensichtlich nicht mehr existent) auf der Basis von Gnutella eine Technologie anbieten, mit denen Benutzer über das Netz nach Informationen suchen können, die auf anderen PCs liegen. Mit ihrem Uprizer wollte Freenet es ihren Kunden leichter machen, Dateien einfacher über das Netz zu verteilen. Die Idee dahinter: Je populärer ein Dokument sei, desto mehr Kopien werde es davon im Netz geben, so dass leichter darauf zugegriffen werden kann.

Intels damaliger Chairman Andy Grove war begeistert von diesen Konzepten. Denn es brachte den PC zurück ins Spiel. Er glaubte nämlich, dass darüber das Bandbreiten-Problem sehr viel eleganter gelöst werden könne als mit den Milliarden der Telekoms in Backbone-Netze. Statt über sie Datenmengen von einem Ende der Welt zum anderen zu jagen, würden ihre Inhalte nur noch zentral registriert und dezentral in unzähligen Kopien verteilt. Wer eine Information suche, würde dann zu dem nächstgelegenen Standort weitergeleitet. »Meine Sorge geht dahin, dass wir eine neue Netzwerk-Infrastruktur, die uns 80 Milliarden Dollar im Jahr kosten wird, ausgerechnet zu dem Zeitpunkt errichten, in dem die Auslastung des Netzes mehr in Richtung Peer-to-Peer geht.« Anstatt dass nun die Datenmengen über Breitbandleitungen an die Server im Netz verteilt würden, auf die dann die Verbraucher über ihre Schmalbandnetze zugriffen, würden nun schnelle Netze zwischen den PCs »in der Menge« benötigt. Schon sah er ganz ordinäre PCs als Knoten im Netz. Was für dieses Modell sprach, war die Chance, dass es nicht in einer generalstabsmäßig aufgebauten, großflächigen Initiative aufgebaut werden sollte, sondern gleichsam von unten wuchs: zum Beispiel durch das Verschmelzen von lokalen Netzen.[3]

Die PCs würden nicht nur die kleinen Helfer der Suchmaschinen werden, sondern selbst Träger von Inhalten. Ein äußerst engmaschiges Netz würde entstehen, das alles, was bisher im Internet galt, auf den Kopf stellt. Jeder wäre dann eine Suchmaschine. Und jeder wäre Anbieter von Inhalten. Gewinnen wird der, der die besten Fragetechniken besitzt und unterstützt.

Natürlich steht und fällt dieses Konzept damit, dass die Register auch permanent up-to-date sind. »Das Internet leistet zwei Dinge: Es speichert Daten, und es bewegt Daten«, meinte David Peterschmidt, Chief Executive der Suchmaschine Inktomi. »Das Problem besteht darin, dass die Daten überall auf der Welt gespeichert sind. Es ist unglaublich schwierig, herauszufinden, wo sich gerade das Gesuchte befindet.«[4]

Der IDC-Analyst John Gantz sah gerade in dieser »Suche über viele inaktive PCs« ein wichtiges Betätigungsfeld für P2P.[5] Dies geschähe vor dem Hintergrund, dass Always Online – ermöglicht durch die Einführung von DSL und Flat Rate – der Standard werde für Abermillionen von Usern weltweit. Das eine sorge für mehr Geschwindigkeit bei besserer Ausnutzung der in den vergangenen Jahrzehnten verlegten Kupferkabel, das andere dafür, dass der Faktor Zeit für die Benutzer keine Rolle mehr spielen würde.

Anfang des Jahrhunderts gab es bereits mehr als 60 P2P-Initiativen weltweit. Und sie hatten alle eins im Sinn: Wenn sich ihre Ideen auch nur halbwegs verwirklichen ließen, dann wäre dies nach Meinung des britischen Wirtschaftsmagazins The Economist der »Todesstoß für traditionelle Strukturen. Wenn [die Anbieter] richtig liegen, dann wird eines Tages der größte Anteil an Wissensarbeit von Teams erledigt werden, die sich dann über P2P bilden, wenn sie gebraucht werden, und dann auseinander gehen, wenn das Projekt beendet ist.« [6] So ändere sich nicht nur die Struktur des Netzes, sondern auch die Arbeitsweise der Menschen. Nicht mehr an große Organisationen bänden sie sich ein Leben lang, sondern nur noch an das Netz.

Quellen

[1] The Economist, 29.7.2000: »Divide and conquer«

[2] The Economist, 29.7.2000: »Divide and conquer«

[3] Fortune, 29.5.2000: »Napster is Clouding Grove´s crystal ball«

[4] Financial Times, 29.5.2000, Peter Thai Larsen:»A digital Rosetta stone«

[5] Computerworld, November 20, 2000, John Gantz: »Jump on the P2P bandwagon«

[6] The Economist, 4.11.2000: »Peer-to-peer pressure«