english
 WOS 1 / Proceedings / Panels / 9. Open Content / Friedrich Kittler / skript

Prof.Dr. Friedrich Kittler




Wissenschaft als Open-Source-Prozeß


Meine Damen und Herren, wenn ich diese Intervention von zirka fünfzehn Minuten nicht ganz europäisch eben mit 'meine Damen und Herren' begonnen hätte, sondern im C-Stil mit 'hello world' zu Ihnen gesprochen hätte, dann könnte ich meiner Freiheit vermutlich nicht mehr lange sicher sein. Ich hätte dann zwar das Vergnügen gehabt, meine Zeit statt mit der Eingabe alberner ASCI-Zeichen unter einem Compiler und einem Assembler zuzubringen, aber wer weiß, ob eben diese wunderbare ASCI-Zeichenfolge print f ("Hello world"); nicht schon bald unter ein Quellcode-Copyright fallen wird, auch in Europa.

Ich habe also zwei Sorgen. Die erste: daß ich, weil ich nicht vorher schon da sein konnte, Ihnen nur lauter Eulen nach Athen trage. Und die zweite Sorge eben, daß mit der Freiheit von Quellcode auch die Freiheit der Wissenschaft steht und fällt. Unter Wissenschaft will ich dabei, ohne all zu sehr pro domo sprechen zu wollen, vor allem die Universität verstehen. Denn es gehört nun einmal zur Universität, daß das von ihr erzeugte und durch sie weitergegebene Wissen, anders als das in geschlossenen und gar geheimen Forschungsstellen der Staaten oder der Industrien üblich ist, ohne den Schutz von Patenten und Copyright zirkulieren muß können, seit den Athenern. Und das möchte ich im Blick auf die Gefahren, die dieser Wissenschaft in Freiheit heute wahrscheinlich drohen, in aller Kürze historisch erläutern.

Die europäischen Universitäten, um die es geht, sind eine Schöpfung des Hochmittelalters gewesen, und zwar soweit ich sehen kann, ohne irgendwelche Modelle oder Vorbilder in irgendwelchen anderen Kulturen. Diese Einzigartigkeit hatte einen schlichten medientechnischen Grund: das Wissen wanderte eben nicht bloß in mündlichen Erklärungen oder Vorlesungen von Doktoren zu Studenten, die im Glücksfall ihrerseits dann zu Doktoren promoviert wurden, sondern, im Unterschied etwa zu den Griechen, mußte an der Universität gearbeitet werden anstatt geschwätzt. Das hieß, spätestens mit der Einführung von Papier, das viel leichter und billiger war als das alte Pergament, unterhielten die Universitäten auch sogenannte Skriptorien, die Vorlesungen in handschriftliche Bücher überführten oder verarbeiteten, und Bibliotheken, die diese verarbeiteten Daten für Dauer abspeicherten. Drittens schließlich, um die Parallele zum heutigen globalen Netz vollkommen zu machen, hatten die Universitäten auch ein eigenes Übertragungsmedium: sie unterhielten, so unglaublich das heute auch klingen mag, eigene Universitätsposten wie die Metzger und andere auch.

Diese wundersame Hardware aus Verarbeitung, Speicherung und Übertragung, die ja jeden Computer definiert, haben die Universitäten in der Frühneuzeit eingebüßt. Die entstehenden Territorialstaaten oder später Nationalstaaten verboten oder verschlangen außer den Posten der Klöster und der Metzger auch die Post der Universitäten, was bekanntlich dann erst in jüngster Vergangenheit per Deregulierung wieder anders geworden ist. Der Löwenanteil dessen, was in der Universität an Wissen produziert worden war, fiel aber nach Gutenbergs Erfindung der beweglichen Lettern an das System der Bücher und der Verlage. Auf einen Schlag hörten die Universitäten also auf, selbst Bücher zu schreiben, um statt dessen die von anderen gedruckten Bücher nurmehr in ihren Bibliotheken und in den Köpfen der Studenten abzuspeichern.

Was diese Medienrevolution Gutenbergs alles am Wissen verändert hat, also an den modernen Universitäten, an den Akademien und Labors, das lasse ich hier völlig offen. Mich interessiert diese Revolution nur im Kontext der offenen Quellcodes und der freien Software, als ein ziemlich genaues Modell der Dinge, die heute laufen. Man darf vielleicht, ohne groß zu übertreiben, sagen, daß Computer, zumindest nach der Seite ihrer Software hin, ebenfalls eine Schöpfung der Universität gewesen sind. Mag auch die Hardware auf ihrem langen Weg von Röhren über Transistoren zu integrierten Schaltkreisen auf weitgehend militärische Nachrichtentechniken zurückgreifen, so stammt die universale Turing-Maschine als Konzept, als Software aus einer akademischen Dissertation, die ihrerseits auf ungelöste Fragen des Göttinger mathematischen Instituts antwortete. Turing sagte Hilbert Bescheid, wenn Sie so wollen. Ganz entsprechend stammt die noch immer herrschende von-Neumann-Architektur von einem, der es vom Göttinger mathematischen Privatdozenten schließlich zum Chefberater des Pentagon brachte. Auf diesem Weg zu Macht hat das Wissen, das in Computer und ihre Algorithmen versenkt ist, einmal mehr jene Schließung erfahren, die einst bei der Übernahme der Universitäten durch die Territorialstaaten drohte.

Soweit ich höre, ist und bleibt der derzeit schnellste Algorithmus zum Testen von Primzahlen ein Betriebsgeheimnis dieses Pentagon. Die Hoffnung reiner, und das heißt, akademischer Mathematiker, reine Mathematik lasse sich niemals zu irdisch gemeinen Zwecken mißbrauchen, -- das schrieb Hardy im Zeiten Weltkrieg noch -- diese Hoffnung hat dramatisch getrogen. Wahrhaft aber kommt die von mir versuchte Parallele zwischen der Frühneuzeit und der Gegenwart erst zum Tragen mit der sogenannten PC-Revolution. Jene Garagen und jene Bastelstuben, aus denen dann Weltfirmen wie Appel oder Intel hervorgingen, standen nicht zufällig auf Geländen, die am Rand oder gar im Besitz der Leland Stanford Junior University lagen und liegen. Ganz also wie einst Gutenbergs Buchdruck die Kalligraphie mittelalterlicher Universitäten direkt übernommen und industrialisiert hat, so hält es heute die Computerindustrie. Die Headhunter der Microsoft-Corporation lauern in Stanford und überhaupt an den Türen der Computer Science Departments, fangen neue Programmierknechte mit neuen Algorithmen ein, quetschen sie fünf Jahre lang aus, bis die Algorithmen proprietär und besagte Programmierknechte zu millionenschweren Frührentnern geworden sind.

Das Schlimmste an diesem Skandal scheint mir, daß niemand über ihn auch nur redet. Ein amerikanisches Common Law, dessen Klauen von der Europäischen Kommission bis in die Volksrepublik China reichen, hat es geschafft, seinen unmöglichen Begriff vom 'geistigen Eigentum' ebenso allgegenwärtig wie vor allem fraglos zu machen. Ausgerechnet Maschinen, die nach Turings Beweis nicht nur alle anderen Maschinen sein können, sondern auch alle Berechnungen von Menschenhand, sollen ganz im Gegenteil Patente und Copyrights tiefer denn je begründen können. Ausgerechnet Maschinen, die nach neuesten Ergebnissen am schnellsten oder effektivsten laufen, wenn sie nicht von Programmierern programmiert werden, sondern durch sich selbst, sollen dem Menschen -- diesem Euphemismus für Privatfirmen-Interesse -- als Eigentum angehören. Vielleicht kann man sagen, Humanismus heute, ganz genauso wie damals in der Frühneuzeit, ist ein Feigenblatt, das den proprietären Dingen dient.

Sie alle wissen viel besser als ich, daß die Kritik an diesem System nur praktisch sein kann. Theoretische oder historische Bemerkungen wie die meinen helfen bestenfalls vor lauter Upgrades und Benchmarks nicht den Überblick zu verlieren. Praktisch dagegen war, daß am Massachusetts Institute of Technology einige Programmierer der Käuflichkeit widerstanden und daß an der Universität Helsinki ein einsamer Informatikstudent die herbeigeredete Angst vor Assemblern und Kaltstarts -- denn darum geht es -- überwand. So direkt waren offene Quellen und freie Betriebssysteme an die Freiheit der Universität gekoppelt. Schauen Sie wieviel 'edu' da drinsteht in den Linux-Kernel-Sources. So direkt hängt aber auch die Zukunft der Universität von diesen freien Quellen ab.

Als Buchdruck und Nationalstaat die Medientechniken der mittelalterlichen Universität schluckten, blieben die Inhalte des Wissens ziemlich unberührt. Die Speicherung und Übertragung wurden zwar privatisiert oder verstaatlicht, aber die eigentliche Verarbeitung des Wissens lief weiter in jenem schönen alten Rückkopplungskreis aus Auge, Ohr und Schreibhand. Genau das hat die Computerrevolution verändert. Universale Turing-Maschinen machen auch und gerade die Verarbeitung des Wissens technisch reproduzierbar. Die sorgen also dafür, daß die Unterschiede zwischen technischem, naturwissenschaftlichem und kulturellem Wissen mehr und mehr dahinschwinden. Diese Revolution, mit anderen Worten, geht alle Fakultäten der Universität an, aber nur um ihre alten medientechnisch gewachsenen Grenzen einzuebnen. Der Streit zwischen den Fakultäten, wie Kant ihn einst beschrieb, läßt sich vielleicht friedlich lösen, einfach weil nicht mehr Bücher gegen Labors gegen Räte in den unterschiedlichen Fakultäten stehen, sondern weil alles Wissen, auch das kulturelle, in Computern prozediert wird. Das, scheint mir, gibt den offenen Quellen und freien Betriebsystemen einen wesentlichen Teil ihrer Chance.

Die Mathematiker, wie üblich, dürften als erste begriffen haben, was diese Freiheit bringt. Weltweit teilen sich zwei große Wissenschaftsverlage die mathematischen Fachzeitschriften von heute. Der Gedanke, diese Fachzeitschriften aus der Gutenberg-Galaxis in die Turing-Galaxis zu katapultieren, liegt mehr als nahe, schon nach dem Adobe & Co den guten alten Bleisatz von Garomont bis Zapf einschließlich erfolgreich piratisiert haben. Alles mathematische Wissen würde also in vollelektronische Publikationen einziehen, deren Preis und deren Urheberechte allesamt bei besagten zwei Verlagen lägen. Aber womöglich ist diese schöne Rechnung ohne den Wirt, genauer gesagt, ohne den Gastgeber gemacht. Wochen oder Monate nämlich bevor jene Aufsätze oder Dissertationen, die die Mathematik voranbringen, bei einem Verlagslektor in Heidelberg oder Amsterdam landen, liegen diese Arbeiten schon auf dem Server eines mathematischen Universitätsinstituts. Noch naheliegender als die Vermarktung des Wissens ist mithin eine Art Bypass-Operation. Die Universität stellt ihre Innovationen auf eigene Faust ins Netz.

Wenn dieses Beispiel, das ich nicht aus der Luft gegriffen habe, sondern aus Berlin, allgemeine Schule machen kann, stehen der Kommerzialisierung von Software nicht mehr ganz so rosige Zeiten bevor. Der einzige Weg, Wissen proprietär zu machen, wäre dann nur noch, das Wissen in Hardware zu gießen, also auf Englisch: to embed it. Was einmal in Chips versenkt ist, gehört bekanntlich der Firma, die die Millionen für das Chip-Design und die Milliarden für die Reinstraumfertigung hat aufbringen können. Damit kann keine Universität, gleichgültig, ob sie noch am finanziellen Nabel von Nationalstaaten hängt oder aber -- viel wahrscheinlicher -- wieder in die mittelalterliche Freiheit abgedriftet sein wird, irgend konkurrieren.

Es scheint mir genauso bezeichnend wie traurig, daß unser Kongreß von offenen Quellen und freier Software handelt, aber die Möglichkeit oder Unmöglichkeit von Open Hardware nicht erst diskutiert. Seit Gutenberg scheinen Konstellationen, in denen, wie im Hochmittelalter, die Hardware des Wissens beim Wissen selber liegt, vollkommen undenkbar. So bleiben in meiner Impression für die Hardware zwei und nur zwei Hoffnungen. Erstens kann die Freiheit der Wissenschaft, wenn sie schon keine eigenen CPUs baut, doch eine Kritik hervorbringen, die zumindest schwachsinnigen Befehlssätzen wie etwa dem Complex Instruction Set von Intel oder fehlerhaften Chips den Boden entzieht. Den Divisons-Bug auf den ersten Steps -- A und B, glaube ich, -- des Pentium-Prozessors hat eben denn doch eine Universität entdeckt und damit Intel zu einer millionenschweren Rückrufaktion gezwungen.

Zweitens aber wirkt diese Chip- oder Hardware-Produktion selbst wie ihre einzig mögliche Selbstkritik. Mögen nämlich die Preise für Entwurf und Fertigung auch immer weiter in astronomische Höhen klettern, die Preise für die Massenreproduktion einer Maschine, die alle anderen Maschinen sein kann, stürzen doch ebenso notwendig auf Null. Der erste praktische Erfolg von Turings Maschine beruhte darauf, daß die Wehrmacht einen schlichten Sachverhalt vergessen hatte: alles, was eine Maschine verschlüsseln kann, kann von einer anderen Maschine wieder entschlüsselt werden. Nichts anderes heißt heute, beispielsweise bei AMD (Advanced Micro Devices), Reverse Ingineering und ist eine der härtesten oder besten Gründe dafür, weshalb der Massenmarktpreis von CPUs unaufhaltsam gegen die X-Koordinate tendiert.

Freie Quellen und offene Betriebssysteme haben, scheint mir, nur darum eine Chance, weil die Computer-Industrie ihren eigenen Begriff von Eigentum immer schon untergräbt. Bevor Linux auf unterschiedliche Hardware-Plattformen portiert wurde, war es eine sehr spezielle Software, die zum Entsetzen etwa Andrew Tannenbaums (von Minix) optimal, und das hieß eben unmittelbar, auf der Hardware des Intel 386 aufsetzte. Alles, was Linus Torvalds dafür brauchte, war ein öffentlich zugängliches Programmer's Manual, also die Software-Abstraktion einer Hardware.

Daraus, scheint mir abschließend, fließt vielleicht einige Zuversicht. 'In Zukunft,' soll Bill Gates in einem zwar nicht proprietären, aber doch firmeninternen Memorandum letzthin verlautbart haben, 'In Zukunft werden wir (Microsoft) die Endbenutzer ganz so behandeln wie die Computer: Beide sind programmierbar.' ("Both are programmable.") Aber solange es Leute gibt, die selber programmieren, statt ihre Programmierung zu erdulden, hat diese Zukunftsvision hoffentlich keine Zukunft.

(Transkription Elena Nowak)



[^] nach oben


Creative Commons License
All original works on this website unless otherwise noted are
copyright protected and licensed under the
Creative Commons Attribution-ShareAlike License Germany.