Alois Potton hat das Wort [Nr. : 85, 06/2013 ]


 

Hartware, Weichware, Gemeinware

 

Als ich ein kleiner Junge war (auch Alois war einmal jung!), da kam mein Vater auf die glorreiche Idee, mir zu Weihnachten einen Lederfußball zu schenken. Das erwies sich wirklich als geniale, denn meine Position in der Hackordnung der Jungs in Oberlinxweiler stieg dadurch sofort ins Unermessliche, weil außer mir niemand einen solchen Ball besaß. Und sofort hatte ich ca. 3 Jahre lang ungeahnte strategische Vorteile, von denen ich zeitlebens profitiert habe (jedenfalls glaube ich das). Zehn Jahre später dagegen war die Situation völlig anders, denn mittlerweile gab es viele Ballbesitzer – sogar von deutlich runderen Bällen als meiner unförmig zu schnürenden und stark eiernden Pille, die sehr schnell an Luft verlor; (wäre ich Nationalist, würde ich sagen: „Na klar, ein französisches Billigprodukt in der Nachkriegszeit für die Saarfranzosen“). Und es gab auch wieder Fußballvereine, die als Infrastruktur solche „Werkzeuge“ zur Verfügung stellten. Einen Fußball zu besitzen, das war nur noch ein nettes Add-On, aber eine strategische Bedeutung hatte es nicht mehr.

Stattdessen war der Vorteil jetzt hin zu den Besitzern von Autos gewandert. Als einziger Studierender aus Oberlinxweiler besaß ich kein solches. Und daher (auch das glaube ich jedenfalls, wobei ich mir da vielleicht etwas Tröstliches vormache wie der bekannte Fuchs mit den Trauben) waren meine Chancen beim anderen Geschlecht durchaus bescheiden. Wiederum zehn Jahre später war aber auch der fahrbare Untersatz kein wirklicher Balz-Vorteil mehr, weil der Besitz eines solchen zur Gemeinware geworden war.

Es gibt zahllose weitere Beispiele dafür, dass viele Innovationen nur von kurzfristiger strategischer Bedeutung sind und dass ihre Wirkung verschwindet, sobald jeder sie besitzt. Und es gibt Anzeichen dafür, dass der Informations- und Kommunikationstechnik ein ähnliches Schicksal blüht. I+K hat sich zwar in kürzester Zeit überall durchgesetzt. Zum Beispiel ist der Besitz eines Smartphones heute so selbstverständlich wie der Besitz von bunten Smarties. Aber man kann als Nutzer oder auch als Hersteller nur noch geringe Vorteile daraus ziehen. Ausnahmen wie Apple oder Samsung bestätigen nur die Regel. Wenn ein Gut überall verfügbar ist, schwindet seine strategische Bedeutung, weil es sich durch zunehmende Verbreitung quasi zu Tode siegt („Entropietod der I+K“).

Diese Erkenntnis ist nicht auf meinem Mist gewachsen, sondern stammt von Nicholas G. Carr, der sie unter dem Titel „IT doesn´t matter“ im Jahre 2003 im Harward Business Review veröffentlichte und in 2004 ein Buch mit dem Titel „Does IT matter?“ zum selben Thema nachschob. Wobei der deutlich vorsichtigere Buchtitel offenbar der Tatsache geschuldet ist, dass er für den ersten Beitrag furchtbar verprügelt wurde.

Nach Carr wurde und wird IT zur Commodity, also zur Gemeinware (was im Deutschen schöner noch als im Englischen die beiden unterschiedlichen Assoziationen „allgemein“ und „hundsgemein“ wecken kann) – und dadurch steigen die Risiken der Technik stärker als die damit einhergehenden Vorteile. Es kommt hinzu, dass innovative Hersteller (und ebenso die frühen Käufer) einer neuen Technologie einen höheren Preis entrichten müssen und damit längerfristig einen finanziellen Nachteil haben. Schlau ist derjenige Käufer, der wartet bis sich die Preise wegen des beinharten Konkurrenzkampfs zwischen den Herstellern auf vergleichsweise niedrigem Niveau eingependelt haben und dann erst zuschlägt. „Der frühe Vogel fängt den Wurm, aber erst die zweite Maus kriegt den Käse“, wie das Sprichwort sagt. Für die Produzenten entsteht auf diese Weise ein negativer Begleiteffekt dadurch, dass durch den ruinösen Konkurrenzkampf die Profitmargen auf ein unvernünftig niedriges Maß gedrückt werden. Was dann – wie wir alle in den letzten Jahren erlebt haben und heute immer schmerzlicher erleben müssen – die Bereitschaft oder die Fähigkeit von industriellen Partnern zur Finanzierung eines mehrjährigen Grundlagenprojekts deutlich reduziert.

Das heißt: Frühe Kaufentscheidungen zugunsten von möglicherweise noch unausgereiften neuen Produkten sind riskant und teuer, denn der Hersteller muss zunächst einmal seine Investitionen auf geringe Stückzahlen verteilen. Und außerdem wird die Funktionalität solcher „Frühchen“ oft ziemlich eingeschränkt oder gar fehlerhaft sein – mit entsprechenden Folgen für ihren Einsatz. Wir erleben solches natürlich andauernd. In Universitäten sind wir zum Glück vor Strafe für Früh- und Fehlentscheidungen ziemlich gut geschützt. Im Gegenteil, wir werden sogar eher als Tuppes (wie der Aachener sagt) angesehen, wenn wir eine langweilig-biedere Beschaffungs¬maßnahme machen – außer natürlich im Rechenzentrum, wo Langweiligkeit zur üblichen Vorgehensweise zählt. Und wenn es wirklich schief geht, dann wird man es uns als weltfremden Theoretikern hoffentlich verzeihen. Beispielsweise war ich in Aachen vor diversen Jahren für die Beschaffung eines FDDI-Rings (wer kennt ihn noch?) verantwortlich, der nominell 100 Megabit pro Sekunde hatte, aber wegen diverser anderer Faktoren kaum mehr als zwei Megabit an Durchsatz lieferte. Das war damals sensationell – und im deutschen Netzbereich sprach man jahrelang vom „Aachener Modell“, vor allem deshalb, weil es die erste Installation eines 16 Kilometer langen Rings war, der über öffentliches Gelände ging und dennoch von der Deutschen Telekom „geduldet“ wurde. Letzteres galt seinerzeit als eine geradezu unvorstellbare Leistung.

 

Aber ganz generell sollte man bei Beschaffungen eher die potenziellen Ausfallmöglichkeiten (also die Risiken) beachten als die Vorteile (d.h. die Chancen). Denn ein kurzfristiger Systemausfall kann teurer sein als eine vielleicht in ferner Zukunft erzielbare höhere Leistung. Das spricht dann doch sehr zugunsten von vorsichtigen Beschaffungsmaßnahmen, die vielleicht nicht mehr das Nonplusultra an Innovation bieten, aber dafür stabil laufen und preislich sehr vorteilhaft sind (so wie der Kauf eines auslaufenden PKW-Modells, das gewaltig rabattiert, aber „beinahe so gut“ ist wie das neueste preislich völlig überteuerte Schickimicki-Modell – und bei dem man wenigstens noch ein Scheinwerferbirnchen selbst auswechseln kann ohne Stoßstange, Kotflügel und diverse Motorkomponenten abschrauben und wieder einsetzen zu müssen).

Die Veröffentlichung der Thesen von Nicholas G. Carr liegt jetzt schon zehn Jahre zurück (schade, dass ich das so spät entdeckt habe). Dem Vernehmen nach wurde Carr wegen seines Manuskripts als Editor der Harward Business Review gefeuert, lebt aber – wiederum dem Vernehmen nach – inzwischen sehr gut von seinen Vortragshonoraren. Man kennt ja dergleichen aus der deutschen Politik. Dass er gefeuert wurde, war natürlich zu erwarten, weil sich eine ganze Armada von Entrüsteten gegen seine Thesen erhob und weil sich die Betroffenen (bzw. die Getroffenen) um ihre Bedeutung, um ihre Arbeitstechniken und letztlich um ihr Gehalt furchtbare Sorgen zu machen begannen. Man hielt Carr zum Beispiel entgegen, dass zwar I+K vielleicht kaum noch echte strategische Bedeutung habe, dass aber stattdessen das Management der I+K-Infrastruktur und neue Aspekte wie Security umso höhere Anforderungen stellten. Wohl auch aus diesem Grund hat Carr den Buchtitel von „IT doesn´t matter“ zur vorsichtigeren Variante „Does IT matter?“ gemildert.

Rücksichtnahme wird dem Manuskriptautor vom Gutachter nur selten zugebilligt. Schon gar nicht, wenn der Gutachter einen Untergebenen aus seinem Stall als Dummygutachter heranzieht, der an ähnlichen Fragestellungen arbeitet. Denn: der Untertan wird unbedingt zeigen wollen, dass er es natürlich viel besser könnte als der eher grenzdebile Autor. Man erkennt solche untergebenenerstellten Gutachten daran, dass sie mit besonderer Schärfe formuliert sind, dass sie sich über jede Schwäche (und sei sie noch so marginal) des Manuskripts genüsslich auslassen und vor allem natürlich daran, dass sie drastisch viel länger sind als das, was der „reguläre“ Gutachter selbst zusammenfaseln würde. Auch der Programmausschuss von Tagungen müsste das bereits aus der Länge der Stellungnahme erkennen und seine Schlüsse (nämlich Nichtberücksichtigung eines solchen beißerischen Gutachtens) ziehen: Tut er aber nur selten oder nie!

Wenn das alles so ist: Welche Herausforderungen bleiben dann noch für neue Entwicklungen auf dem Gebiet I+K in den nächsten Jahrzehnten oder gar Jahrhunderten? Ich weiß nicht, ob es Ihnen, geneigte Leserin und geneigter Leser, ebenso geht wir mir, nämlich dass Sie erschaudern über die pure Nennung der Zeitdimension „Jahrhundert“ und über die zugehörige Vorstellung, was denn in einem Jahrhundert sein wird. Tröstlich ist zwar, dass wir allesamt dann nicht mehr unter den Lebenden sein werden, wenn nicht die Medizin gewaltige(!) Fortschritte machen wird. Aber was soll denn noch kommen, weil I+K schon jetzt deutlich weniger als 50 Jahre alt ist – von ein paar versprengten Vorläufern wie Bell, Marconi, Turing, Shannon etc. einmal abgesehen? Erleiden wir dasselbe Schicksal wie unsere Mutter Mathematik, die es schon deutlich länger gibt, dass wir nämlich überall drin sind („dank Informatik“), aber gerade deswegen keine nennenswerte Bedeutung mehr hat? Mathematik kommt in jedem Studiengang vor, aber inzwischen eher als stinklangweiliges Lehr- und Lernfach. „Breakthrough“-Resultate der Mathematik scheinen irgendwie immer spärlicher zu werden. Die Physik, der es prinzipiell ähnlich geht, hat es mit ihrer wesentlich clevereren PR-Abteilung und ihrer mächtigen Lobby zur Finanzierung von abenteuerlich teuren Großvorhaben bis heute verstanden, auch in nichtphysikalisch vorbelasteten Bevölkerungs¬schichten immer wieder Aufsehen zu erregen. Man nehme etwa die (falsche) Spekulation über Teilchen, die sich mit Überlichtgeschwindigkeit bewegen. Oder den entsetzlichen und unwürdigen Wirbel, der um die so genannten Higgs-Teilchen geschlagen wird (wobei Higgs irgendwie wie „hicks“ klingt – und das wird mit Besoffenen assoziiert!). Zu solchem sind wir Informatiker oder Informations¬techniker nicht einmal ansatzweise in der Lage (eigentlich zum Glück für uns!). Und deshalb werden wir zwangsläufig erleben, dass wir wie die Mathematik zwar überall dabei sind, aber nirgendwo so richtig drin – und daher ohne wirkliche Bedeutung. Es scheint mir jedenfalls völlig undenkbar zu sein, dass der Chef eines Konzerns wie Siemens (oder auch anderer) ein Informatiker sein könnte.




In diesem Sinne
Ihr Alois Potton