Alois Potton hat das Wort [Nr. : 07, 06/1992 ]


 

Großrechner und die Zipfsche Regel

 

In PIK stehen manchmal schon sehr interessante Artikel (das finden Sie doch auch - oder nicht?). In Heft 2/92 war zum Beispiel einer über die Zipf'sche Regel. Eine Frage vorweg: Was ist beim Apostroph im Wort "Zipf'sche" eigentlich weggelassen worden, auf daß dieses Sonderzeichen seine Berechtigung verdiene? Wahrscheinlich überhaupt nichts - und deshalb ist dieser Apostroph wie viele andere seiner Art nichts als eine lästige Unsitte.

Aber kommen wir zum Thema: Die Zipfsche Regel (ohne Apostroph!) war mir bisher nur aus der Sprachwissenschaft bekannt, wo durch umfangreiche Untersuchungen festgestellt wurde, daß wenige - dafür umso häufiger gebrauchte - Wörter bereits einen erstaunlich hohen Anteil am täglichen Sprachgebrauch ausmachen. Die Bildzeitung läßt grüßen! Unverständlich bleibt nur, daß Schüler auch nach sagen wir sechs Jahren immer noch keinen Schimmer von einer Fremdsprache haben, wo doch ziemlich jede Konversation mit den 300 häufigsten Worten bestritten werden kann.

Aus dem PIK-Beitrag habe ich gelernt, daß die Zipfsche Regel in ähnlicher Form auch für Großrechner zutrifft - und zwar in sich ständig verschärfender Form: Immer weniger Benutzer "fressen" immer mehr von der Gesamtrechenkapazität. Wahrscheinlich machen diese unverschämten "Riesenbenutzer" den Zugang zum Rechner für alle anderen so unattraktiv, daß sie entmutigt aufgeben und sich mit einem PC bzw. einer Workstation begnügen, wobei ihnen ein Vielfaches an Leistung zu einem Bruchteil des Preises angeboten wird.

Am ärgsten ist die Situation bei den sogenannten Supercomputern. In der Tat sind diese für sehr wenige Anwender gedacht. Die zugehörigen Programme werden als steinalte FORTRAN-Pakete vorzugsweise aus den USA teuer eingekauft und dann eingeflogen, worauf denn der Supercomputer Stunden, Tage und Jahre ziemlich sinnlos herumrödelt. Bei freundlicher Interpretation könnte man diese Supercomputer vielleicht mit Braunkohlenbaggern vergleichen, die eminent teuer und ebenso schwerfällig sind, aber durchaus etwas Sinnvolles zuwege bringen. Auch diese Bagger sind nicht dazu gedacht, vom "Mann auf der Straße" bedient zu werden.

Allerdings scheint mir der Vergleich mit dem Braunkohlebagger doch gar allzu freundlich, denn der Nutzen von Supercomputern ist längst nicht so evident. Man mag dem ihm allerdings zugute halten, daß er keine Vernichtung fossiler Energie verursacht, daß er nicht zur Absenkung des Grundwasserspiegels beiträgt und daß er den Kohlendioxydgehalt der Atmosphäre nur unwesentlich erhöht. Das ist aber ein sehr schwacher Trost.

 

Irgendwie ist der Supercomputer ein Mysterium, dessen wirkliches Wesen sich nur wenigen Spezialisten offenbart. Der unbefangene Beobachter kann bzw. muß sich über Sinn bzw. Unsinn aufgrund der vom Computer erbrachten Leistungen ein Bild machen. Bringen wir ein Beispiel: Eine der bekanntesten Anwendungen von Supercomputern ist die Wettervorhersage. Mehrere Exemplare dieser Gattung werden zu nichts anderem verwendet als den hoffnungslosen Versuch zu einer halbwegs brauchbaren Vorhersage zu machen. Am vorigen Wochenende (welches bei Erscheinen dieser Kolumne allerdings schon lange zurückliegen wird) hatte ich Karten für eine Freilichtbühnenaufführung eines bekannten Kabarettisten ergattert. Am Morgen des Aufführungstages regnete es ebenso wie bereits seit den beiden vorigen Tagen allerdings intensiv und dauerhaft. Der vom Supercomputer erzeugte Wetterbericht meldete "weiterhin heiter und trocken", die Veranstalter glaubten dieser Aussage und bestanden auf der Aufführung unter freiem Himmel. Der Regen wurde allerdings - immer gegen die Wettervorhersage (!) - derart stark, daß nach ca. zehnMinuten doch abgebrochen werden mußte. Die Veranstaltung wurde für den nächsten Abend neu angesetzt - wieder im Vertrauen auf den Wetterbericht, der jetzt Regen ankündigte. Folgerichtig wurde die Aufführung in eine trostlose Schulaula verlegt. Selbstverständlich war aber der Himmel an diesem ganzen Tag geradezu unverschämt strahlend blau!

Jeder Leser wird selbst schon entsprechende Erfahrungen gemacht haben. Die Vorhersagegenauigkeit wird offenbar immer schlechter. Ein alter rheumaleidender Schäfer wäre millionenfach zuverlässiger, aber der verfügt ja auch über ein funktionierendes neuronales Netz, während der Supercomputer blödsinnige Vektoren durch seine zahlreichen Register schiebt, um nachher so dazustehen wie der sprichwörtliche Ochs vorm Berg.

Der Verteidiger von Supercomputern zur Wettervorhersage wird möglicherweise argumentieren, daß mein Wohnort möglicherweise zu einem der zahlreichen Mikroklimas (oder sagt man "Klimata" oder gar "Klimaxe"?) gehöre - und daß man nicht jedes solche Kleinklima berücksichtigen könne. Meine Gegenfrage dazu ist allerdings, ob er mir denn nicht ein paar Deziflops von seinen Giga-, Tera-, Peta- oder Exa-Flops abtreten könnte. Solange er das nicht tut, werde ich mir erlauben, seinen Superhobel als einzigen gigantischen Flop zu bezeichnen.

Das Problem scheint mir darin zu liegen, daß zunächst auf die reine Rechenleistung geachtet wird. Die Frage, ob denn ein sinnvoller oder gar effizienter Algorithmus eingesetzt wird, ist demgegenüber völlig zweitrangig. Die meisten Rechenzentrumsbetreiber geraten geradezu in Verzückung, wenn alle von ihnen verwalteten Prozessoren zu 100% ausgelastet sind. Es gibt Managementkonsolen von bekannten Firmen, die solche Auslastungen fast standardmäßig anzeigen. Böse Zungen behaupten, dies erfolge mit einer auf das Terminal aufgeklebten Folie, aber das mag vielleicht doch etwas übertrieben sein. Tatsache ist, daß über den Sinn (!) des Ablaufs eines Programms wenig oder gar nicht nachgedacht wird. Im Gegenteil: Derjenige Kunde, welcher sich um geeignetere Verfahren bemüht, wird in doppelter Hinsicht dafür bestraft: Erstens muß er natürlich viel Zusatzarbeit für das unkonventionelle Nachdenken verrichten, und zweitens wird sein Rechenkontingent für den nächsten Bewilligungszeitraum gefährdet, weil neue und bessere Methoden ja zu einer deutlichen Laufzeitverkürzung führen könnten. Daher ist jeder Anwender eines Supercomputers sehr gut beraten, wenn er sich an der üblichen Giga-, Tera-, Peta-, Exa-Manie beteiligt und möglichst noch aufwendigere Programme mit noch dümmeren Methoden abspulen läßt. Als Ergänzung zur Zipfschen Regel stelle ich deshalb die "Pottonsche Regel" zur Diskussion, welche lautet: "Der Sinn bzw. Nutzen einer auf einem Supercomputer ausgeführten Operation ist umgekehrt proportional zur Megaflopzahl des Computers".

Aber es besteht ja noch Hoffnung - und die ergibt sich aus der im anfangs zitierten PIK-Beitrag genannten Tendenz: Wenn vor wenigen Jahren 20 Prozent der Nutzer "nur" 80 Prozent der Rechenleistung verbrauchten und wenn heute 5 % der Nutzer sich schon 95% der Kapazität unter den Nagel reißen, dann besteht berechtigte Hoffnung, daß in wenigen Jahren die Gesamtkapazität von Null Prozent der Nutzer in Anspruch genommen wird. Zu diesem Zeitpunkt wird das Problem gelöst sein: Dann sind wir diese Hobel nämlich los.


In diesem Sinne
Ihr Alois Potton