Wirtschaft

"Entwickelt mal die CPU ..." "Big Blue" und die Milliarden-Wette

Der Ex-IBM-Mitarbeiter Helmut Painke posiert im IBM Forschungs- und Entwicklungszentrum in Böblingen.

Der Ex-IBM-Mitarbeiter Helmut Painke posiert im IBM Forschungs- und Entwicklungszentrum in Böblingen.

(Foto: picture alliance / dpa)

1964 schiebt IBM die Entwicklung einer neuen Großrechner-Generation an - und revolutioniert damit die IT-Branche. Der Clou: Die Programme für das System sind über alle Rechnergrößen kompatibel.

So schlicht, so klar war die Anweisung: "Da hat uns mein Chef in einen Raum gesetzt und gesagt, entwickelt mal die CPU", erinnert sich Computer-Entwickler Helmut Painke. Der heute 81-Jährige arbeitete in den 1960er Jahren im Labor des IT-Konzerns IBM in Böblingen. Zusammen mit einem Kollegen aus dem größten IBM-Entwicklungszentrum in Poughkeepsie im US-Staat New York entwickelte der gelernte Nachrichtentechniker den zentralen Hauptprozessor für Teile einer neuen Großrechnergeneration.

IBM
IBM 156,00

Was heute undenkbar wäre - dass zwei einzelne Entwickler die Architektur des zentralen Prozessors eines Rechners ausarbeiten - war in den Pioniertagen der Computerindustrie noch möglich. Dass Painke damals an einer der größten Entwicklungen der IT-Geschichte beteiligt war, realisierte er allerdings selbst erst später.

Wette - mit Erfolg

Vor fast 50 Jahren, am 7. April 1964, kündigte IBM das Großrechnersystem 360 an. Von Technik-Historikern wird es inzwischen in eine Reihe mit dem Ford Model T gestellt. "Das ist so, als ob General Motors beschlossen hätte, alle seine bisherigen Automodelle aus dem  Angebot zu werfen und stattdessen eine neue Autoserie anzubieten, die allen Wünschen gerecht wird, mit nagelneuen Motoren ausgerüstet und mit einem exotischen Treibstoff angetrieben", schrieb die Zeitschrift "Fortune" im September 1966.

Für IBM war das System 360 eine der größten Wetten in seiner Unternehmensgeschichte. "Big Blue" investierte damals fünf Milliarden Dollar in das Projekt - dabei lag IBMs Jahresumsatz 1964 lediglich bei 3,23 Milliarden Dollar. Die Wette ging auf. Der IT-Konzern, heute einer der größten Server-Hersteller der Welt, legte damals den Grundstein für seine Vormachtstellung.

Kompatible Programme

Der damalige IBM-Chef Tom Watson jr. setzte die Entwicklung gegen Widerstände in der eigenen Firma durch. Die Neuheit: Die Programme für das System waren über alle Rechnergrößen kompatibel. Kunden konnten bei höherem Bedarf beliebig erweitern. Bislang mussten sie für jeden größeren Rechner neue Programme verwenden. IBM machte damit seinen bislang eingesetzten Systemen selbst Konkurrenz.

Painke erinnert sich: "Wir haben uns dann überlegt, wie können wir überhaupt soweit runter kommen mit den Kosten."

Painke erinnert sich: "Wir haben uns dann überlegt, wie können wir überhaupt soweit runter kommen mit den Kosten."

(Foto: picture alliance / dpa)

In Böblingen, wo noch heute große Systemkomp onenten von Mainframes entwickelt werden, sollte eine abgespeckte Version des Systems 360 entstehen. Dass gerade Böblingen mit der Aufgabe betraut wurde, war kein Zufall, glaubt Ralf Fischer, der heute bei IBM in Stuttgart für die Hardware-Entwicklung zuständig ist. Die Lage nahe Stuttgart habe eine Rolle gespielt. "Das kleinste Modell ist auch das kostengünstigere", sagt Fischer. "Das ist für den Mittelstand attraktiver." Painke erinnert sich: "Wir haben uns dann überlegt, wie können wir überhaupt soweit runter kommen mit den Kosten."

"Verlässlichkeit war bahnbrechend"

Das System sei nicht nur ein großer kommerzieller Erfolg gewesen, sagt IDC-Analyst Tim Grieser rückblickend. Es diente auch als Plattform für spätere Entwicklungen wie Mehrprogrammbetrieb oder virtuelle Speicher. "Wir haben die Tür aufgemacht, ohne es zu wissen", sagt IBM-Entwickler Painke.

"Das Bahnbrechende war die hohe Verlässlichkeit", sagte Phil Murphy vom IT-Marktforscher Forrester heute. So verlässlich waren die 360-Systeme, dass sie sogar bei der legendären Apollo-Mission zum Mond eingesetzt wurden.

"Mainframes für Transaktionen"

Trotz dieser glorreichen Vergangenheit fristet der klassische Großrechner inzwischen eher ein Dasein im Hintergrund der IT-Landschaft. "Der Großrechner ist in der öffentlichen Wahrnehmung heute komplett verschwunden", räumt IBM-Experte Fischer ein. Zu Unrecht, wie er findet, auch wenn das Mainframe-Geschäft von IBM zuletzt mit massiven Umsatzeinbrüchen kämpfte. "90 Prozent der größten Versicherungen und Banken nutzen Mainframes für Transaktionen", sagt Fischer.

IDC-Analyst Tim Grieser bestätigt: Die hohe Verlässlichkeit und Skalierbarkeit machten den klassischen Mainframe ideal für Finanzdienstleistungen. Als verlässliche Verarbeiter des heutigen Datenhungers habe er "definitiv" noch eine Zukunft.

Quelle: ntv.de, Annika Graf, dpa

Newsletter
Ich möchte gerne Nachrichten und redaktionelle Artikel von der n-tv Nachrichtenfernsehen GmbH per E-Mail erhalten.
Nicht mehr anzeigen