Message 04534 [Homepage] [Navigation]
Thread: oxdeT04518 Message: 2/2 L1 [In index]
[First in Thread] [Last in Thread] [Date Next] [Date Prev]
[Next in Thread] [Prev in Thread] [Next Thread] [Prev Thread]

Re: [ox] "Sozialistische Positionen" Xber Freie Software



KXX4493553 aol.com wrote:

> Oliver Heins, Freie Software - eine Gegen-Ökonomie?.
> Freie Software - so die Generalthese des Autors - ist als ein Phänomen
> von modernen Klassenauseinandersetzungen zu begreifen, die imstande
> sein könnten, die auf Eigentum zentrierte kapitalistische Ökonomie der
> Gegenwart sozialistisch zu transformieren. Copyright und Patentrecht
> stehen dem als Fesseln einer allgemeinen Produktivkraftentwicklung auf
> qualitativ erweiterter Stufenleiter entgegen, weshalb sich die
> Klassenkämpfe der Zukunft gegen diese Fesseln richten könnten. Den
> populärsten Ausdruck freier Software stellt das Betriebssystem Linux
> dar.
> http://www.sopos.org/aufsaetze/3c48ca89b119c/1.phtml

Trotz des "Klassismus" und anderer "traditioneller" Sichtweisen, finde ich das einen interessanten Artikel, deswegen hier als full-quote (leider sind hier die Hervorhebungen und Verlinkungen nicht sichtbar):

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

Freie Software - eine Gegen-Ökonomie?

von Oliver Heins (sopos)

Anleitung zum Lesen

Der folgende Text enthält notwendigerweise einige informationstechnische
Fachbegriffe, die dem sozialwissenschaftlich interessierten Leser nicht
unbedingt geläufig sind. Im Regelfall sind diese Begriffe, soweit zum
Verständnis des Textes notwendig, erläutert; an Stellen, wo dies nicht
der Fall ist, ist das Verständnis der technischen Zusammenhänge nicht
unbedingt nötig. Der Leser kann an dieser Stelle getrost über die ihm
unbekannten Fachbegriffe hinweglesen; wenn es ihn jedoch zu mehr drängt,
sei er auf das Glossar zur Geschichte Freier Software von Stefan Meretz
verwiesen.

Freie Software - so die Generalthese des Autors - ist als ein Phänomen
von modernen Klassenauseinandersetzungen zu begreifen, die imstande sein
könnten, die auf Eigentum zentrierte kapitalistische Ökonomie der
Gegenwart sozialistisch zu transformieren. Copyright und Patentrecht
stehen dem als Fesseln einer allgemeinen Produktivkraftentwicklung auf
qualitativ erweiterter Stufenleiter entgegen, weshalb sich die
Klassenkämpfe der Zukunft gegen diese Fesseln richten könnten.

Den populärsten Ausdruck freier Software stellt das Betriebssystem Linux
dar.

Das Linux-Phänomen

Im März 1991 begann der junge finnische Informatikstudent Linus Benedict
Torvalds die Fähigkeiten des Intel-80386 Prozessor in seinem neuen PC zu
studieren. Im September 1991 war ein kleines funktionsfähiges
Betriebssystem entstanden. Die ersten Versionen stellte er als Quelltext
in die Newsgroups des Internet, wo sie regen Zuspruch fanden. Linux
wurde auf vielen Rechnern weltweit installiert, an die jeweiligen
Verhältnisse angepaßt und weiterentwickelt - es ist ein Kind des
Internet und der egalitären Kommunikation.

Die Anzahl der Benutzer ist schwer schätzbar, da die meisten verkauften
PCs Windows vorinstalliert haben und Linux erst nachträglich installiert
wird. Auch die Menge der verkauften Distributionen gibt keinen guten
Indikator ab, da Linux keiner restriktiven Lizenz unterliegt und auf
beliebig vielen Rechnern installiert werden darf. Es liegt jedoch
nachweislich bei den Serverbetriebssystemen auf Platz 2 und ist das am
schnellsten wachsende Betriebssystem überhaupt. Und auch im
Desktopbereich (den privat oder im Büro genutzten Computern) hält Linux
mittlerweile einen geschätzten Marktanteil von 4%.

Der Name Linux soll übrigens dem Administrator des FTP-Servers, auf dem
die Linuxquellen ursprünglich lagen, zu verdanken sein. Linus selbst
hatte an den Namen Freax gedacht, doch der Administrator packte die
Quellen kurzerhand in ein Verzeichnis, dem er den Namen "Linux" gab.

Freie Software ist in aller Munde. Als Geheimtip wird gehandelt, was
längst zum Common Sense geworden ist. Nicht nur, daß kaum eine
Computerzeitschrift es wagt zu erscheinen, ohne einen übergewichtigen,
feist grinsenden Comicpinguin[1] auf ihrem Cover abzudrucken, auch die
normale Journaille ist voll des Lobs.

Linux lehrt Microsoft das Fürchten; was kein Konkurrent vermochte,
schafft nun das kostenlose Betriebssystem - so hallt es unisono aus dem
Blätterwald, gleich ob Fach- oder allgemeine Presse. Daß auch Microsoft
dies erklärte, wird als Bestätigung begriffen, ungeachtet des zu dieser
Zeit laufenden Kartellprozesses, der den Monopolisten mit Zerschlagung
bedrohte.

Das Phänomen erklären diese reißerischen Aufsätze allerdings nicht, es
bleibt unklar, wie dieses "anarchistische", "kommunistische"
Betriebssystem inmitten eines sich seiner Sache in der Geschichte noch
nie so sicher glaubenden Kapitalismus und einer sich in Auflösung
befindenden Arbeiterbewegung es schafft, die Verkörperung eben dieses
prosperierenden Kapitalismus, Microsoft, unter Druck zu setzen und mit
Siebenmeilenstiefeln zur "Worlddomination" zu schreiten, die Linus
Torvalds nicht ohne Ironie (und eben mit Blick auf Microsoft) als Ziel
proklamiert hat.

Welches Prinzip steckt hinter freier Software, als deren Sinnbild Linux
gelten mag?

Freie Software ist ebenso Kind des Internet, wie das Internet Kind
freier Software ist. Auf gut 80% der Rechner des Internet, die E-Mails
transportieren, läuft das Programm Sendmail - freie Software. Auf 60,5%
der Webserver läuft Apache - freie Software.[2] Auf faktisch sämtlichen
Rechnern, die das Usenet bilden, läuft INN - freie Software. Die
Mehrzahl der Rechner, die zusammen das WWW bilden, verwenden als
Betriebssystem Linux oder ein anderes freies Unix.[3] Der DNS-Dienst des
Netzes wird durch BIND zusammengehalten, und das WWW wäre ohne die
Skriptsprachen Perl und Python nicht zu dem geworden, was es heute ist.
Ja, das Internet selbst basiert auf dem offenen Protokoll TCP/IP; und
nahezu alle Standards liegen als Request for Comment, RFCs vor und
verdanken ihre Existenz öffentlichen Diskussionen.

Dies rührt daher, daß die Entstehung des Internet eng mit den
Universitäten verbunden ist. Seine Anfänge hat das Internet im Jahre
1969, die Kommerzialisierung beginnt erst sehr viel später - Bill Gates
hat das Internet bekanntermaßen erst 1995 "entdeckt". Das Internet ist
im Geiste freier wissenschaftlicher Forschung entstanden, als
Gemeinschaftsprojekt aller Beteiligten und nicht als Tat einzelner
Unternehmen.

Linux lebt in diesem Geiste. Seit Veröffentlichung der ersten Quelltexte
1991 im Usenet haben Tausende von Entwicklern, über das Internet
miteinander verbunden, an diesem Projekt mitgewirkt: Haben es
verbessert, an ihre Hardware angepaßt, neue Funktionen hinzugefügt oder
auch einfach nur Fehlerberichte geschrieben. Das ist das Prinzip freier
Software: vorhandene Programme werden den eigenen Bedürfnissen angepaßt
und erweitert - andererseits heißt es aber auch: Contribute nothing,
expect nothing.

Linux ist streng genommen nichts anderes als der bloße
Betriebssystemkern - ein Programm, daß die Hardware wie Drucker,
Festplatte usw. anspricht, ein Dateisystem bereitstellt, den Speicher
verwaltet, Programmen Rechenzeit zuteilt, usw; es enthält noch nicht
einmal eine Benutzerschnittstelle. Erst durch das Zusammenspiel mit dem
GNU-System wird Linux zum vollwertigen Betriebssystem, das deshalb auch
besser GNU/Linux genannt wird.

Linux ist Teil einer Bewegung, als deren Sinnbild es zugleich fungiert -
der Bewegung der freien Software. Um die Schilderung der Geschichte
dieser Bewegung soll es im folgenden gehen.

Die Geschichte freier Software ist zunächst einmal Technikgeschichte.
Man kann recht gut ihren Anfang bestimmen; es gibt gewissermaßen ein
fixierbares Datum, sofern man sich auf die Beschreibung der Handlungen
von Personen bezieht. Man könnte freilich einwenden, so lediglich
Legenden wiederzugeben; in der Tat liest sich die Geschichte freier
Software oft wie ein Märchen. Aber natürlich ist jede Technikgeschichte
zugleich auch Sozialgeschichte, es gibt auch eine Vorgeschichte freier
Software. Die ist übrigens weitestgehend identisch mit der Geschichte
und Vorgeschichte des Internet - dazu später. Beginnen will ich - mit
einem Märchen!

Die Geschichte freier Software

Der Tag Null

Es war einmal ...

1979 war es noch keinesfalls die Regel, daß an jedem Arbeitsplatzrechner
ein eigener Drucker angeschlossen war.[4] Nicht selten mußten sich
mehrere Abteilungen einen Drucker teilen. Die Forschungsgruppe über
Künstliche Intelligenz am Bostoner Massachusetts Institute of Technology
(MIT) hatte von Xerox einen damals hochmodernen Laserdrucker gestiftet
bekommen. Verantwortlich für die Wartung war Richard M. Stallman. Da die
Druckaufträge von den entfernten Arbeitsplatzgeräten an den Drucker
gesendet wurden, konnten die häufigen Fehlfunktionen meist erst nach
geraumer Zeit bemerkt werden. Stallman war es leid, daß der wichtige
Drucker so lange ruhte und wollte den Druckertreiber so umschreiben, daß
dieser ihn bei einer Fehlfunktion automatisch per E-Mail
benachrichtigte. Dazu aber brauchte er den Quelltext[5] des
Druckertreibers. Zu Stallmans Erstaunen weigerte sich Xerox aber, diesen
herauszugeben. Schließlich fand er zwar jemanden an der Carnegie Mellon
University, der den Sourcecode hatte. Dieser hatte jedoch ein
"Non-Disclosure-Agreement" (NDA) abgeschlossen und durfte den Quelltext
nicht weitergeben. Stallman gibt sich sehr erschrocken über die
asozialen Konsequenzen dieser Vereinbarung. Die Person mit dem
Sourcecode "had promised to refuse to cooperate with just about the
entire population of the Planet Earth".[6]Der Drucker war laut Richard
Stallman damit fast wertlos geworden.

In einem Interview mit dem Online-Magazin Telepolis erzählt Stallman
1999 rückblickend:

"1983 gab es auf einmal keine Möglichkeit mehr, ohne proprietäre
Software einen sich auf dem aktuellen Stand der Technik befindenden
Computer zu bekommen, ihn zum Laufen zu bringen und zu nutzen. Es gab
zwar unterschiedliche Betriebssysteme, aber sie waren alle proprietär,
was bedeutet, daß man eine Lizenz unterschreiben muß, keine Kopien mit
anderen Nutzern austauschen darf und nicht erfahren kann, wie das System
arbeitet. Das ist eine Gräben öffnende, schreckliche Situation, in der
Individuen hilflos von einem 'Meister' abhängen, der alles kontrolliert,
was mit der Software gemacht wird. Vielleicht haben viele Leute, die
damals mit dem Computern begannen, einfach nur diesen Weg gesehen und
ihn akzeptiert."[7]

1984 gründete Stallman die "Free Software Foundation" (FSF), die es sich
zum Ziel gesetzt hat, ein freies Betriebssystem zu schaffen: GNU. GNU
ist ein rekursives Akronym und steht für "GNU's Not Unix".[8] Dieses
Betriebssystem sollte nicht die Entwicklung nehmen, die Unix genommen
hatte. Es sollte frei sein und frei bleiben. Frei im Sinne der Free
Software Foundation bedeutet, daß derjenige, der die Software erhält,
sie ganz erhält: mitsamt den Quelltexten, mit dem Recht, diese zu
verändern, sogar mit dem Recht, die Software - ob verändert oder nicht -
an Dritte weiterzugeben.

Das ist der Punkt, an dem die Bewegung für freie Software ihren
Ausgangspunkt nimmt. Vorher war alle Software gewissermaßen frei
gewesen, es war die Regel, nicht die Ausnahme, daß Software mit ihrem
Quelltext geliefert wurde und den eigenen Bedürfnissen angepaßt werden
konnte. Der Name des Projektes: GNU's Not Unix verweist auf diese
Vorgeschichte freier Software.

UNIX

Vor Ende der 70er, Anfang der 80er Jahre hatte es praktisch keine
nichtfreie Software gegeben. Computerindustrie war Hardwareindustrie,
Software wurde kostenlos dazugegeben, war Beiwerk. "Ich denke, es gibt
einen Weltmarkt für vielleicht fünf Computer", erklärte IBM-Chef Thomas
Watson im Jahr 1943 - Computer blieben noch lange Zeit exotisch und
existierten nur in den Rechenzentren großer Firmen und Universitäten. Es
machte ökonomisch keinen Sinn, Software für diesen Markt zu entwickeln,
die nicht entweder unmittelbar an Hardware geknüpft war (Beiwerk) oder
im Auftrag geschrieben wurde; im letzteren Fall hätten sich die
Auftraggeber kaum mit der Form des "binary only" abgefunden.

1969 entwickelten Ken Thompson und Dennis Ritchie in den
Bell-Laboratories von A.T.&T. das Betriebssystem Unix; der Legende nach,
um auf einer längst ausgemusterten DEC PDP-7 ein Computerspiel laufen zu
lassen. Der Name "Unix" leitet sich von dem sich damals in der Mache der
Bell-Labs befindenden Betriebssystem "Multics" ab, daß sich im Gegensatz
zum Lückenfüller "Unics" (zu Anfang noch so geschrieben) jedoch nicht
durchsetzen konnte.

Aufgrund der Anti-Kartellgesetzgebung der USA durfte der
Telekommunikationsmonopolist A.T.&T. in den frühen 70er Jahren kein Geld
mit Software verdienen. U.a. deshalb gab er das Betriebssystem Unix für
wenig Geld - faktisch für die Kopierkosten - an amerikanische
Universitäten im Quelltext weiter. Diese lockere Lizenzvergabe, die es
den Universitäten auch erlaubte den Quelltext von Unix zu verändern und
weiterzuentwickeln, trug zusammen mit dem geringen Preis maßgeblich zum
Erfolg von Unix bei - Unix ist an den Universitäten entwickelt worden.

Nach der Zerschlagung des Monopols in die sogenannten "Baby Bells" - 7
lokale Telefongesellschaften statt einer großen - durfte A.T.&T. mit
Software wieder Geld verdienen. Das an den Universitäten gewachsene Unix
wurde proprietarisiert und - nunmehr lediglich in Binärform - teuer
verkauft. 1984 verkaufte A.T.&T. das erste kommerzielle Unix. Software
wurde zur Ware.

Software war so lange frei verfügbar, wie sie nicht verwertbar schien.
Mit gestiegener Leistungsfähigkeit bei gleichzeitig gesunkener
Werthaftigkeit der Hardware wurde Software nun auch für die Verwertung
interessant. Die Software, und mit ihr die Informatik, schien ihrer
enthusiastisch-egalitären Jugend entwachsen und nunmehr im Kapitalismus
angekommen.

GNU's Not Unix

Dies stellt für Richard Stallman freie Software dar: derjenige, der sie
besitzt, besitzt sie ganz, und nicht etwa nur ein Nutzungsrecht an ihr.
Stallman wendet auf Software/Information die gleichen Prinzipien an wie
auf "harte Ware" wie etwa Computer, Autos, Tische, etc., die man nach
Belieben (sofern sie einem gehören) auseinandernehmen, verändern,
zerteilen, verschenken, verkaufen etc. darf und stellt sich gegen das
Prinzip vom "geistigen Eigentum". Doch verwirft er nicht einfach das
Copyright, er dreht es um - ins "Copyleft": Freie Software im Sinne der
FSF untersteht einer speziellen Lizenz, der GNU General Public License
(GPL), die dem Besitzer die oben erwähnten Rechte garantiert - und
zugleich bestimmt, daß etwaige Kopien ebenfalls unter der GPL
weitergegeben werden müssen. Der neue Besitzer erhält die Software
ebenfalls mitsamt dem Quellcode, darf diesen verändern und selbst die
Software (nach Gutdünken, aber wenn, ebenfalls unter der GPL) weitergeben.

Dies soll sichern, daß GNU-Software sich nicht wie Unix
proprietarisiert: freie Software darf und soll von vielen besessen
werden, aber niemandes Eigentum sein.

Die GPL spricht bewußt nicht vom Preis, freie Software darf und soll
verkauft werden, es ist ausdrücklich erlaubt, mit ihr Geld zu verdienen.
"Free software means freedom, not price", wird Stallman nicht müde zu
betonen.

Ziel der Free Software Foundation war und ist es, das GNU-Betriebssystem
zu entwickeln. Ein Betriebssystem ist gewissermaßen das Basisprogramm
eines Computers: es spricht die einzelnen Komponenten des Rechners (beim
PC etwa Grafikkarte, Soundkarte, Tastatur, Maus, Massenspeicher wie
Diskettenlaufwerk und Festplatte) an - sonst müßten alle Applikationen
(= Anwendungen wie Textverarbeitung, Tabellenkalkulation, Doom) selbst
jeweils die Treiber für die Geräte mitbringen, stellt den einzelnen
Applikationen Ressourcen (Speicher und Rechenzeit) zur Verfügung, bietet
ihnen definierte Programmierschnittstellen und ermöglicht schließlich
erst die Interaktion zwischen Mensch und Maschine durch Bereitstellung
einer Benutzerschnittstelle (z.B. eine Kommandozeile oder eine grafische
Oberfläche). Weiterhin bedarf es dann natürlich noch jener
Applikationen, mit denen erst ein sinnvolles Arbeiten möglich ist. Ein
Betriebssystem ohne ein Mindestmaß an Applikationen ist keins, da sein
Betrieb nicht möglich ist.

Die Vielzahl von Aufgaben verweist darauf, daß sich ein Betriebssystem
in einzelne Komponenten zerlegen läßt. Es gibt Programmbibliotheken,
diverse Anwendungen wie z.B. Editoren, kleinere nützliche Programme...
Auch die Benutzerschnittstelle braucht z.B. lediglich den Status eines
"einfachen" Programms zu haben. Schließlich gibt es dann den
Betriebssystemkern, der die Treiber für die jeweiligen
Hardwarekomponenten bereithält und die Ressourcen verteilt: den sog.
"Kernel".

Tatsächlich hatte es die FSF bis Anfang der 90er Jahre geschafft, ein
fast komplettes Betriebssystem zu entwickeln: es existierten diverse
Benutzerschnittstellen, Programmbibliotheken, eine C-Bibliothek,[9]
Editoren, Tools etc. Allein der eigentliche Betriebssystemkern fehlte.

Dieser war ein so gewaltiges Projekt, daß die vereinzelten Autoren
freier Software, die diese zumeist bloß in ihrer Freizeit schrieben,
nicht in der Lage zu sein schien, ihn zu schaffen.[10] Das GNU-Projekt
mußte zu dieser Zeit noch auf einen proprietären Kernel zurückgreifen.

Die Bedingungen der Möglichkeit - das ARPA-Net

Das Internet ist ein Produkt des Kalten Krieges.

Das Internet ist ein Produkt des Kalten Krieges. 1957 schoß die
Sowjetunion einen Satelliten ins Weltall - Amerika und die westliche
Welt waren vom "Sputnik-Schock" getroffen. Als Reaktion darauf wurde
1958 die Advanced Research Projects Agency (ARPA) innerhalb des
US-Verteidigungsministeriums gegründet. Aufgabe war die Einrichtung und
Koordinierung von Forschungsprojekten mit dem Ziel der Erringung der
(militär-) technologischen Vorherrschaft. Die vorherige ausschließliche
Förderung militärischer Institutionen und Projekte wurde durch eine
breite Einbindung des wissenschaftlichen Potentials in eine staatlich
gesteuerte, militärische Forschungsstrategie ersetzt. Ziel war es, die
durch den offenen Austausch der Forschungsergebnisse entstehenden
Synergieeffekte zu nutzen. Ein Kind dieser auf offenem Austausch und
offenen Standards beruhenden Forschungsstrategie ist das Internet.

In dem von der ARPA 1963 ins Leben gerufenen Programm namens Information
Processing Techniques (IPT) etwa wurde relativ ins Blaue hinein
geforscht. Alan Kay, Mitarbeiter des damaligen ARPA-Chefs Ivan
Sutherland, erzählte über die Anfangszeit dort:

"Die Grundidee von ARPA ist, dass man gute Leute findet, ihnen eine
Menge Geld gibt und sich dann zurückzieht."[11]

Anfang der 60er Jahre machte sich eine der Denkfabriken des Kalten
Krieges, die "RAND Corporation" (ein Kind der ARPA) Gedanken über ein
strategisches Problem: Wie sollten die US-Machthaber, -Behörden und
-Militärs nach einem Nuklearkrieg untereinander die Kommunikation
aufrecht erhalten?

Ein atomar verwüstetes Amerika würde ein Kommando- und
Steuerungsnetzwerk benötigen, das alle Städte und Staaten, sowie alle
militärischen Stützpunkte miteinander verbindet. Wie schwer auch die
Verwüstungen (auch des Netzes selber) gewesen wären, die
funktionsfähigen Teile sollten nach wie vor in der Lage sein,
untereinander zu kommunizieren.

Wie aber sollte dieses Netzwerk selbst gesteuert werden? Jede zentrale
Behörde oder jede zentrale technische Einheit würde naturgemäß das
Risiko des Ausfalls in sich tragen, egal wie gut sie geschützt wäre. Sie
wäre selbst wahrscheinlich ein bevorzugtes Ziel gegnerischer Angriffe
geworden. Das Grundschema der von Paul Baran erarbeiteten
Lösungsvorschläge war simpel: Das Netz selbst wurde bereits in Annahme
vorhandener Beschädigungen entworfen. Die Strategie bestand im
wesentlichen aus zwei Punkten:

    1. Das Netzwerk sollte keine zentrale Steuerung und damit auch keine
zentrale Autorität erhalten.
    2. Das Netzwerk sollte von Beginn an so ausgebildet werden, daß
schon die kleinsten Komponenten komplett funktionsfähig und autark wären.

Im Frühjahr 1969 wurde der erste Knotencomputer in der kalifornischen
Universität installiert. Im Dezember waren dann schon 4 Universitäten
mit so einem Knotenrechner ausgestattet und über schnelle Datenleitungen
miteinander verbunden. Eben jene Advanced Research Projects Agency war
federführend bei dem Aufbau und gleichzeitig Namensgeber des Netzes: das
ARPA-Net war geboren. Mit Hilfe des ARPA-Netzes waren die
Wissenschaftler in der Lage, Computerdaten und -programme auf fremden
Rechnern über weite Entfernungen direkt zu nutzen und diese Rechner
Ihren Wünschen entsprechend zu steuern.

Das ARPA-Net hatte zu keiner Zeit den Charakter eines militärischen
Netzes; der Hauptverkehr bestand nicht aus Botschaften von Computern an
Computer, sondern von Computerbenutzern an Computerbenutzer. Die
Wissenschaftler nutzten das Netz zum Austausch von
Forschungsergebnissen, Neuigkeiten und persönlichen Mitteilungen.
"SF-Lovers", ein System zum Austausch von Fan-Informationen über Science
Fiction, war eine der ersten großen Mailinglisten im ARPA-Net.[12]

Die dezentrale Struktur des Netzes machte eine Erweiterung sehr einfach.
Solange neu hinzukommende Maschinen nur die paketorientierte "Sprache"
dieses neuen "anarchischen" Netzwerks beherrschten, war es gleichgültig,
wem sie gehörten, welchen Inhalt sie hatten, oder wie ihr Name war. Aus
den anfänglich vier Knoten wurden 1972 bereits 37 Knoten. 1984 bestand
"das Netz" bereits aus 1.000 Knoten, 1992 wurde die Millionengrenze
erreicht. Mittlerweile besteht das Internet aus mehr als 100 Mio. Knoten.

Wie man leicht sieht, ging die Entwicklung des Internet mit der
Entwicklung von Unix synchron. Einher mit der Entwicklung dieser
Technologien ging die Entstehung einer eigenen Kultur, die der Hacker
und des Hackens.

Die Hackerkultur: "Information has to be free"

Unter "Hackern" versteht man gemeinhin Leute, die in die Computer
anderer Leute eindringen, um dort Daten auszuspionieren, zu verändern,
zu löschen oder sonstwie Schaden anzurichten.

Dieses Bild vom Hacker ist allerdings ein sehr einseitiges und zumeist
völlig verkehrtes. Die Hacker selbst bezeichnen ein solches Verhalten
übrigens abfällig als "cracken", knacken, und die Leute, die das tun,
als "Cracker".

Der Beginn der Hackerkultur wird auf das Jahr 1961 datiert, als das
Massachusetts Institute of Technology den ersten Rechner der Reihe PDP-1
erhielt. Hier taucht auch zum ersten Mal der Ausdruck "Hacker" auf. Die
Kultur der Hacker enstand im Umfeld der Entwicklung des Netzes und der
modernen Betriebssysteme, ja ist der ureigene Ausdruck dieser Entwicklung:

"But the ARPANET did something else as well. Its electronic highways
brought together hackers all over the U.S. in a critical mass; instead
of remaining in isolated small groups each developing their own
ephemeral local cultures, they discovered (or re-invented) themselves as
a networked tribe."[13]

Diese durchs Netz betriebende bzw. in und durch dieses lebende
Stammesgesellschaft entwickelte bald eine eigene Sprache,[14] aber auch
eine eigene Ethik. Der deutsche "Chaos Computer Club"[19] beschreibt
diese so:

     * Der Zugang zu Computern und allem, was einem zeigen kann, wie
diese Welt funktioniert, sollte unbegrenzt und vollständig sein.
     * Alle Informationen müssen frei zugänglich sein.
     * Mißtraue Autoritäten - fördere Dezentralisierung.
     * Beurteile einen Hacker nach dem, was er tut und nicht nach
Aussehen, Alter, Rasse, Geschlecht oder gesellschaftlicher Stellung.
     * Man kann mit einem Computer Kunst und Schönheit schaffen.
     * Computer können dein Leben zum Besseren verändern.

"Grundlagen dieser Hackerethik waren unter anderem der freie und
unbegrenzte Zugang zu Computern wie zu Information, ein Mißtrauen
gegenüber Zentralismus und Autorität sowie ein Gleichheitsideal, das nur
informelle Hierarchien qua Fertigkeiten zuließ. Ein Ausfluß dieser Ethik
war beispielsweise, daß BASIC in den 1970ern als 'faschistische'
Programmiersprache angesehen wurde, weil seine Struktur nur
eingeschränkten Zugang zum Rechner bot und daß Informatikstudenten gegen
proprietäre, hierarchisch organisierte Stapelverarbeitungssysteme auf
IBM-Mainframes kämpften. Hacken war ebenso wie andere Protestbewegungen
der 1960er eine Form von antibürokratischer Rebellion."[15]

Die Hackerethik ist eine teilweise recht krude Mischung aus Hippiemoral,
Science-Fiction und Technologiegläubigkeit. Sehr weit verbreitet ist
unter den Hackern die libertäre Ideologie, eine anarchokapitalistische
Haltung.[16] 1996 gaben bei einer Netz-Umfrage 25,1% der Teilnehmer ihre
politische Einstellung als 'libertarian' an.[17]

Das heißt aber nicht, daß die libertäre Ideologie die vorherrschende
Geisteshaltung der Hacker ist. Es sind durchaus auch sozialistische
Vorstellungen verbreitet, etwa im GNU-Projekt. So schreibt Richard
Stallman im GNU-Manifest von 1984:

"Auf lange Sicht ist das Freigeben von Programmen ein Schritt in
Richtung einer Welt ohne Mangel, in der niemand hart arbeiten muß, um
sein Leben zu bestreiten. Die Menschen werden frei sein, sich
Aktivitäten zu widmen, die Freude machen, zum Beispiel Programmieren,
nachdem sie zehn Stunden pro Woche mit notwendigen Aufgaben wie
Verwaltung, Familienberatung, Reparatur von Robotern und der Beobachtung
von Asteroiden verbracht haben. Es wird keine Notwendigkeit geben, von
Programmierung zu leben."[18]

Eine Anti-Ökonomie?

Daß die Hacker die Kommerzialisierung und - schlimmer noch - die
Proprietarisierung der Software nur als Rückschritt begreifen konnten,
ist klar. Software sollte, wie Information allgemein, frei sein; d.h.
vor allem allgemein zugänglich und verwertbar.

Dem kommt der besondere Charakter von Software ebenso zugute wie die
neuen Kommunikationsmethoden des Internet: Die Grenzkosten von
Softwareproduktion gehen gegen Null. Im Gegensatz zu gegenständlicher
Produktion wird die Software nur noch einmal produziert und kann dann
beliebig oft kopiert werden, es fallen lediglich die Kosten für die
Datenträger an; bei Distribution über das Internet nicht einmal mehr
diese. Waren Informationen im vordigitalen Zeitalter immer an
Gegenständlichkeit gebunden: Bücher werden gedruckt, und die Druckkosten
sind ein nicht unerheblicher Kostenfaktor in der Buchproduktion,
entfällt diese Gegenständlichkeit im Bereich Software nunmehr
tendenziell völlig.

Das wissenschaftliche Peer-Review als Produktionsmethode

Dies ermöglichte zugleich eine neue Organisation der Produktion. Im
offenen, durch kein Copyright behinderten Austausch der Experten wird
die Software perfektioniert.[20]

Beim Peer-Review begutachten Fachleute die Arbeit von Kollegen, es
stellt die Qualitätskontrolle der scientific community dar. Diese
wissenschaftliche Basistechnik bildet die Grundlage der Produktion
freier Software als gesellschaftlicher Produktion, d.h. als Produktion
durch die Gemeinschaft und für diese. Während beim traditionellen
Peer-Review die Arbeit der Kollegen lediglich beurteilt werden konnte -
sie war ja bereits in Fachzeitschriften gedruckt und vergegenständlicht
- ermöglichten die neuen Kommunikationsmethoden, daß eventuelle Fehler
und Irrtümer nicht mehr bloß kritisiert, sondern selbst behoben werden
konnten.

"Wenn die Begutachtung von Verfahren und inhaltlichen Vorschlägen ohne
Zeitverlust erfolgt, wandelt sich der Charakter von peer reviews so
radikal, wie sich etwa transkontinentale Kommunikation verändert, wenn
sie statt Briefen, die Wochen mit der Schiffspost unterwegs sind,
Telefon oder Chat nutzt. Die Echtzeitbedingungen der Open-Source-Praxis
schufen so ein interaktives dialogisches Produktionsmittel für
geographisch zerstreute Gruppen."[21]

Das Werkzeug der Freien Software-Gemeinde zur Organisation dieser neuen
Form kollektiver Produktion ist das Concurrent Versioning System (CVS).
Es ermöglicht die gleichzeitige Arbeit vieler Personen an einem Projekt,
ja an einer Datei. CVS ist ein sehr mächtiges Werkzeug, kennt aber nur
zwei Benutzerstatute: Nur Leserecht, oder generelles Lese- und
Schreibrecht. Dies verweist auf den egalitären Charakter der Produktion:
Jeder Mitarbeiter eines Projektes hat Zugriff auf alle Teile desselben.

Eine sozialistische Wende des Neoliberalismus?

Daß solcherart produzierter Software durch mit traditionellen Methoden
erstellter kaum beizukommen ist, ist offensichtlich. Freie Software gilt
im allgemeinen als stabiler, wenn denn mal Fehler auftreten, werden
diese im Regelfall schnell behoben (bzw. können selbst beseitigt
werden), die Software kann den eigenen Bedürfnissen angepaßt werden,
problemlos an Dritte weitergegeben werden - und nicht zuletzt ist sie
zumeist kostenlos.

Allein, solch emanzipative Software ist nicht nur das Produkt der
Selbstermächtigung der Anwender, sondern fordert diese auch ein.[22]
Freie Software stellt eine quasi unermeßliche Bibliothek menschlichen
Wissens dar - für denjenigen, der sie zu benutzen, d.h. eben auch zu
lesen und anzupassen, weiß. Sie ist Bildung im doppelten Sinn, Bildung
des Subjekts und Bildung des gesellschaftlichen Ganzen.

Im Gegenzug glänzt Freie Software deshalb auch zumeist nicht durch
einfache, sog. "intuitive" Bedienbarkeit, sondern erfordert oftmals ein
vorheriges Einlesen in die Dokumentation mit nachfolgender Editierung
von Konfigurationsdateien, etc. An dieser Stelle treten die
"Distributionen" auf den Plan. Das eigentliche Linux ist, wie bereits
oben erwähnt, lediglich der Betriebssystemkern, der Kernel, mit dem
allein ein Arbeiten noch nicht möglich ist. Ein arbeitsfähiges System
zusammenzustellen und mit einer Installationsroutine zu versehen ist die
Aufgabe der Distributionen.

Die meisten der großen Distributionen wie SuSE, RedHat, Caldera,
TurboLinux und Mandrake sind kommerziell, eine Ausnahme bildet das
Debian-Projekt.[23] Zwar sind die Distributionen auch im Internet zum
Download vorhanden, jedoch ist es i.d.R. aufgrund der großen Datenmengen
ökonomischer, sich das CD-Set zu kaufen. Die Distributionen bieten eine
Dienstleistung um Linux (und freie Software insgesamt) herum an und
verdienen daran.

Wollte man diese Firmen jetzt als Parasiten betrachten, die lediglich
die Früchte der Arbeit anderer ernten, läge man falsch. Alle diese
Unternehmen haben ein vitales Interesse an der Weiterentwicklung freier
Software. Den Firmen erscheint als ureigenstes Kapital, was in Wahrheit
allgemeinster Rohstoff wie Luft ist. Sie fördern einzelne Projekte und
bezahlen Entwickler. Doch die Investition in freie Software kommt der
Allgemeinheit zugute - und mit dieser auch den Konkurrenten. Der
ehemalige RedHat-Chef Bob Young hat in diesem Zusammenhang das Kunstwort
von der "Cooptition" kreiert - eine Melange von "Cooperation" und
"Competition". Diese Firmen besitzen nicht mehr das, was die
Betriebswirte den "stragischen Wettbewerbsvorteil" nennen (abgesehen von
den jeweiligen Installationsroutinen, die aber, wie etwa beim
Marktführer RedHat, oftmals ebenfalls frei sind). Ökonomisch ist dies
Modell von der "Cooptition" freilich nur so lange denkbar, wie der Markt
für freie Software derart rasant wächst, daß das einzelne Kapital die
Konkurrenz nicht zu fürchten braucht. Fraglich ist, was passiert, wenn
ein "strategischer Wettbewerbsvorteil" über das Überleben einer Firma
entscheiden mag. Die Versuchung wird groß sein, die vormals freie
Software zu schließen und zu proprietarisieren, in (privates) Eigentum
zu überführen.[24] Ob es der Entwicklergemeinde gelingt, dies zu
verhindern wird der erste Prüfstein sein für die Verbindung von
nicht-warenförmiger Produktion und Kommerz.

Man könnte argumentieren, daß die neoliberale Ideologie, die ja
zumindest zum Teil auch in den Protagonisten der Hackerszene wirkmächtig
ist, sich selbst ihr eigenes Grab schaufelt. Für Marx lag der
Antagonismus bekanntermaßen im Kapitalverhältnis selbst; das "Kapital
ist selbst der prozessierende Widerspruch [dadurch], daß es die
Arbeitszeit auf ein Minimum zu reduzieren strebt, während es andrerseits
die Arbeitszeit als einziges Maß und Quelle des Reichtums setzt."[26]
Die ins Unendliche beschleunigte, globale und digitalisierte
Konkurrenzgesellschaft fängt an, sich nach dem Prinzip freiwilliger
Assoziation und Selbstorganisation neu zu formieren und die
Warenförmigkeit aufzuheben.

"Sobald die Arbeit in unmittelbarer Form aufgehört hat, die große Quelle
des Reichtums zu sein, hört und muß aufhören die Arbeitszeit sein Maß zu
sein und daher der Tauschwert [das Maß] des Gebrauchwerts. Die
Surplusarbeit der Masse hat aufgehört Bedingung für die Entwicklung des
allgemeinen Reichtums zu sein, ebenso wie die Nichtarbeit der wenigen
für die Entwicklung der allgemeinen Mächte des menschlichen Kopfes."[25]

Dies wäre gewissermaßen die "sozialistische Wende des Neoliberalismus".

Eine Neuformierung der Arbeiterklasse als revolutionäres Subjekt?

1980 verkündete der französische Philosoph André Gorz seinen Äbschied
vom Proletariatmit der ernüchternden Einschätzung, der Kapitalismus habe
eine Arbeiterklasse hervorgebracht,

"die in ihrer Mehrheit außerstande ist, die Produktionsmittel in Besitz
zu nehmen, und deren unmittelbar bewußte Interessen mit einer
sozialistischen Rationalität nicht übereinstimmten."[27]

Automatisierung und Informatisierung hätten qualifizierte Arbeiter und
Angestellte immer weiter durch bloße Angelernte ersetzt. Die Arbeiter,
die in ihrer Totalität zwar die Maschinen beherrschten, seien
individuell durch diese versklavt und entmündigt worden, ihrer autonomen
Fähigkeiten beraubt. Die Proletarier konnten individuell den
Produktionsprozeß nicht mehr überblicken. So seien sie zu keinem
eigenständigen Gegenentwurf mehr fähig gewesen, der "kollektive
Gesamtarbeiter" hätte selbst nach der Art und dem Modell von Armeen
funktioniert, als "kollektive Kopie des Kapitals" - und mit ihm seine
Organisationen, die Organisationen der Arbeiterklasse.

"Der Aufstieg der Facharbeiter, ihre Macht im Betrieb, ihre
anarchosyndikalistischen Vorstellungen waren bloß eine Episode, die der
Taylorismus, später die 'wissenschaftliche Arbeitsorganisation',
schließlich Informatik und Roboter beendet haben."[28]

Den Ausgangspunkt dieser Entwicklung stellt für Gorz eine Evolution im
Kapitalverhältnis selbst dar, die Entwicklung der großen Industrie.
"Abenteurer, Eroberer, Schumpetersche Unternehmer haben in dieser
Gesellschaft keinen Ort mehr."[30] Es erscheint so, als sei mit dem
gegenwärtigen Evolutionsschub der Informations- und
Kommunikationstechnik eine Wiederkehr jener historischen Formation
verbunden, mit deren Absenz Gorz seinen "Abschied vom Proletariat"
begründete.

Die Gegenwart ist gekennzeichnet durch eine Umbruchsituation, der
bereits eine komplette Gesellschaftsordnung - der real-existierende
Sozialismus- zum Opfer gefallen ist. "Auflösung der traditionellen
Arbeitsgesellschaft", "Wissensgesellschaft", "Informationsgesellschaft"
sind Stichworte, die auf einen gewaltigen Umwälzungsprozeß hindeuten,
der die Arbeitsorganisation komplett umgestaltet und in seiner Folge
eine Arbeiterklasse erzeugt, die in ihrer Struktur den Facharbeitern des
19. Jahrhunderts stark ähnelt.

Der moderne (Informations-)Arbeiter ist nicht mehr im doppelten Sinne
frei - frei von der Scholle und frei von Produktionsmitteln - sondern
besitzt letztere zumindest tendenziell: Die PCs in der Firma
unterscheiden sich nicht von seinem PC zu Hause. Seine Tätigkeit ist
eine allumfassende, insoweit er tatsächlich fast unmittelbaren Zugriff
auf das Arbeitsvermögen aller anderen hat: über das Internet auf die
frei verfügbaren Informationen und das Wissen - und, nicht zu vergessen,
auf freie Software. Wo die Informationen nicht frei verfügbar sind, wird
dies als Manko begriffen, und bekämpft. Die Kämpfe gegen
Software-Patente und gegen die Patentierung des menschlichen Erbguts
sind moderne Klassenkämpfe.

Es verwundert nicht, daß Gorz mittlerweile auch die Freie Software als
gesellschaftlich relevante Kraft entdeckt hat:

"Gemäß diesen Prinzipien funktionieren auch die virtuellen
Gemeinschaften, die im Internet sogenannte freie Software - Systeme mit
offenem Quellcode - betreiben. Die Programmiersprache, in der die
Software-Programme ursprünglich konzipiert wurden (hauptsächlich der
Quellcode GNU), ist allen bekannt und die Software-Programme (von Linux)
können folglich von den Teilnehmern geändert, verbessert und
weiterentwickelt werden. Je zahlreicher die Teilnehmer, umso größer wird
der Gebrauchswert des Systems für alle. Es entsteht eine
'anarcho-kommunistische Ökonomie des Gebens', wie sie Richard Barbrooke
nennt. Sie weist darauf hin, daß eine auf Schöpfung, Austausch und
kooperativem Einsatz von Wissen gegründete 'Wissensgesellschaft' sich
von der Logik von Waren-, Geld- und Kapitalbeziehungen befreien müßte
und in radikalem Gegensatz zur kapitalistischen Gesellschaft steht."[29]

Copyright? - Copyleft!

Vieles deutet darauf hin, daß substantielle Klassenauseinandersetzungen
der Zukunft über die Verfügbarkeit von Wissen geführt werden. "Wissen
ist Macht!" - dieser alte Slogan der Arbeiterbewegung wird einmal
Bedeutung erlangen. Bereits jetzt ist absehbar, daß der Kampf gegen
freie Software vornehmlich auf der Ebene des Copyrights und des
Patentrechts geführt werden wird; es gibt ähnliche Diskussionen über die
Patentierbarkeit von Software wie über die Patentierbarkeit von
menschlichem Leben und seinen Genen - der Software des Menschen, als die
die Biologen die Gene begreifen.

Beides ist nicht bloß eine Klassenauseinandersetzung, sondern auch eine
zwischen Nord und Süd. Wenn eigentlich billig zu produzierende,
lebensrettende Medikamente nicht produziert werden können, da die
Lizenzgebühren nicht zahlbar sind, könnte der Imperialismus unter neuem
Vorzeichen thematisiert werden.

Aber auch die Forscher in den Industrieländern könnten eine Situation,
die ihnen den Zugriff auf bereits vorhandenes Wissen verwehrt, nicht
länger hinnehmen.

Eine Neuformulierung des Urheber- und Patentrechts, dessen Prinzipien
der Frühzeit der Industrialisierung verpflichtet sind und praktisch wie
ethisch mit dem Potential digitaler Technologien kollidiert, steht aus.

Fußnoten

[1] Der Pinguin Tux ist das Logo von Linux.

[2] Microsofts Internet Information Server liegt mit 27,9% abgeschlagen
auf Platz 2.

[3] FreeBSD, NetBSD oder OpenBSD.

[4] 1979 gab es eigentlich noch nicht einmal PCs. Gearbeitet wurde an
Terminals - Geräten, die nur aus Tastatur und Bildschirm bestanden und
mit einem Großrechner, dem sog. "Mainframe", verbunden waren.

[5] Der Quelltext (engl.: Sourcecode) ist das Programm in seiner für den
Menschen lesbaren Form im Gegensatz zum für den Computer verständlichen,
ausführbaren Binärcode (binary).

[6] http://www.gnu.org/events/rms-nyu-2001-summary.txt

[7] Software muß frei sein! Interview mit Richard Stallman.

[8] "Rekursives Akronym" meint, daß die Abkürzung selbst wieder Teil der
Langform ist. In "GNU's Not Unix" steckt ein nicht aufgelöstes "GNU",
welches wiederum auf "GNU's Not Unix" verweist. Worüber der Mensch
lacht, treibt den (dummen) Computer in eine Endlosschleife.

[9] C ist eine Programmiersprache, die eng mit der Entwicklung von Unix
verknüpft ist.

[10] Am GNU-Kernel HURD ist zwar bereits damals gearbeitet worden,
dieser befindet sich aber bis zum heutigen Tag noch in der Entwicklung
und ist noch nicht aus dem Experimentierstadium herausgekommen.

[11] Zit. nach Peter Mühlbauer, Es klingt wie eine Mischung aus
"liberal" und "pubertär". Libertäre Ideologie, Teil 1: Was ist libertäre
Ideologie? http://www.heise.de/tp/deutsch/special/libi/4221/1.html

[12] Eric S. Raymond, A Brief History of Hackerdom,
http://www.tuxedo.org/esr/writings/hacker-history/hacker-history-3.html

[13] Eric S. Raymond, A Brief History of Hackerdom, a.a.O.

[14] Siehe z.B. den Jargonfile, aber auch das Hackerwörterbuch: Eric S.
Raymond, The New Hacker's Dictionary, MIT Press, 3rd edition 1996.

[15] Peter Mühlbauer, Es klingt wie eine Mischung aus "liberal" und
"pubertär". a.a.O.

[16] Den Anarchokapitalisten in der Szene ist der Begriff der freien
Software denn auch zu politisch und antikommerziell. Sie bevorzugen den
technizistischen Begriff Open Source, der auf die Offenheit der
Quelltexte abzielt und nicht mehr auf die Freiheit der
gesellschaftlichen Aneignung.

[17] Nach ders., Es klingt wie eine Mischung aus "liberal" und
"pubertär". a.a.o.

[18] Richard M. Stallman, Das GNU-Manifest, http://www.gnu.de/mani-ger.html

[19] Deutschland spielt hier eine gewisse Sonderrolle. Aufgrund des
Postmonopols konnte sich eine eigenständige Hackerkultur immer nur in
Auseinandersetzung mit der Legalität entwickeln; noch in den 80er Jahren
kostete etwa ein legales Postmodem 120DM im Monat und war nicht
kompatibel mit internationalen Standards. Im letzten Interview vor
seinem Tod hat Wau Holland, der Alterspräsident des CCC, die Tätigkeit
des deutschen Hackers so beschrieben: "Unterhalb der strafbaren Handlung
steht die Ordnungswidrigkeit. Unterhalb dieser gibt es noch den groben
Unfug. Wir sind aber nicht grob. (...) Wir machen das Gegenteil von
grobem Unfug. Wir machen feinen Fug." ("Mit Geheimdiensten kann man
nicht spielen." Die Hacker-Legende Wau Holland über illegales Verhalten,
Kontrolle und Staubsauger. In: Sonntagszeitung (CH) vom 6.5.2001.)

[20] Vgl. zum folgenden v.a. Gundolf S. Freyermuth, Offene Geheimnisse.
Aus der Open-Source Geschichte lernen, Teil 1. In: c't 20/2001, S.
176ff.; und ders., Die neue Hackordnung. Aus der Open-Source Geschichte
lernen, Teil 2. In: c't 21/2001, S. 270ff.

[21] Gundolf S. Freyermuth, Offene Geheimnisse, a.a.O., S. 182.

[22] Neulinge, die sich in den Welten des Usenets bewegen, werden denn
auch häufig als DAUs, "Dümmste Anzunehmende User", beschimpft. Zwar
kennt die Hackergemeinde auch den neutralen Begriff des "Newbies" für
Frischlinge, um sich dergestalt zu bewegen, um als "Newbie" zu gelten,
muß der Probant sich aber bereits derart geschickt in der für ihn doch
fremden Welt bewegen, daß er bestenfalls "Newbie" in einem bestimmten
Gebiet sein kann - und den Verhaltenskodex bereits verinnerlicht hat.

[23] Debian ist eine nichtkommerzielle, von einigen hundert (z.Zt. ca.
900) Freiwilligen weltweit gepflegte Distribution.

[24] Vorreiter dieser negativen Entwicklung ist Caldera, die ihre
Distribution (bzw. ihre Eigenleistung daran) unter eine sehr restriktive
Lizenz gestellt hat. So darf die Distribution nun z.B. nicht mehr auf
mehreren Computern installiert werden. Allerdings wird damit freie
Software nicht unfrei gemacht; auch Caldera muß sich weiterhin an die
Lizenzen der von ihr vertriebenen Software halten und bspw. den
Sourcecode bereitstellen, dessen freie Kopierbarkeit gewährleisten usw.

[25] Ebd.

[26] Karl Marx, Grundrisse der Kritik der politischen Ökonomie, MEW, Bd.
42, Berlin 1983, S. 601.

[27] André Gorz, Abschied vom Proletariat. Jenseits des Sozialismus,
Reinbek bei Hamburg 1983, S. 10.

[28] Ebd., S. 21.

[29] André Gorz, Vom totalitären Vorhaben des Kapitals. Notizen zu
Jeremy Rifkins "The Age of Access", in: Freitag Nr. 28 vom 6.7.2001.

[30] Ebd., S. 48.


--
     Vereinte Dienstleistungsgewerkschaft ver.di
     Internetredaktion
     Potsdamer Platz 10, 10785 Berlin
--
     stefan.meretz verdi.de
     maintaining: http://www.verdi.de
     private stuff: http://www.meretz.de
--




________________________________
Web-Site: http://www.oekonux.de/
Organisation: projekt oekonux.de


[English translation]
Thread: oxdeT04518 Message: 2/2 L1 [In index]
Message 04534 [Homepage] [Navigation]