AW: DDR und GPL-Gesellschaft (was: [ox] Fwd: Die GPL-Gesellschaft)
- From: "Frederic Thiesse" <frederic.thiesse web.de>
- Date: Sun, 21 Sep 2003 10:40:14 +0200
Die Lösung liegt IMO in einer auf Computer und Internet
gestützten Planwirtschaft.
Dummerweise kommt diese Idee aus dem ehemals real existierenden
Sozialismus und ist deshalb grundsätzlich
schlecht/falsch/eine_Katastrophe/was_auch_immer.
Was meinst du denn mit einer Planwirtschaft genau? In der DDR und
ansonsten im Sowjetblock gab es eine staatliche Zentralplanung.
Nehme ich mal Freie Software als Beispiel, so kann ich da keine
Zentrale
oder gar einen Staat ausmachen - und auch kein Geld, das die
Beziehungen entfremdet regelt. Was kannst du dir in diesem
Spannungsfeld vorstellen?
Lies mal das: http://home.t-online.de/home/hDunkhase/sozmach.pdf
Die Input-Output-Analyse wurde von Leontief entwickelt und der bekam
später den Nobelpreis für Wirtschaft. Laut Wenzel wurde diese
Methode auch in der DDR angewendet (Entgegen der Behauptung in o.g.
Text)
und auch das Statistische Bundesamt nutzt dieses Verfahren. So
schlecht
kann es also nicht sein. Bisher wurde das ganze immer nur für zentrale
Planungen/Auswertungen genutzt, was natürlich sehr rechen- und
zeitaufwändig war. Aber warum das ganze nicht übertragen bis runter
zur kleinsten denkbaren Einheit (Familie/Haushalt/Gemeinde/Stadtteil?)
?
Dafür sollten MySQL, PHP und der Apache doch eigentlich ausreichen.
Das ganze ist bisher nur eine grobe Idee von mir und wie das genau
aussehen soll weiß ich auch noch nicht. Vielleicht haben ja noch ein
paar andere eine Meinung oder Ideen dazu?
Und dein Einwand mit der freien Software, denk doch mal an
Sourceforge z.B. ;-)
aus meiner sicht gibt es dazu folgendes zu sagen:
- eine methode ist immer nur so gut, wie derjenige, der sie
anwendet. insbesondere sollte derjenige wissen, wofür die
methode geeignet ist und wofür nicht. ich schliesse
aus deinem text, dass du dich mit der input-output-analyse
diesbezüglich noch nicht weiter befasst hast.
- dass das statistische bundesamt diese methode einsetzt ist
sicherlich richtig, da sich damit z.b. auf einer hoch aggregierten
ebene verflechtungen zwischen den sektoren einer volkswirtschaft
analysieren lassen. Dies ist aber eine analyse (!) auf basis
von groben vergangenheitsdaten, keine detaillierte planung in
die zukunft hinein.
- bei der anwendung auf produktionsplanung stellt sich das problem,
dass der produktionsprozess vollständig bekannt sein muss, damit
die input-output-matrix aufgestellt werden kann. dies ist
in der praxis im detail für einige prozesse machbar, nicht
aber für eine ganze volkswirtschaft. dies ist wohlgemerkt
kein performanceproblem, welches durch cpu-power lösbar wäre,
sondern ein datenerfassungsproblem.
- hinzu kommt, dass in einer solchen planung technologie-,
produkt- und prozessinnovation nicht berücksichtigt würde,
d.h. die planung geht von einer statischen wirtschaftsstruktur
aus. um dies zu vermeiden, müsste die matrix möglichst zeitnah
und fortlaufend aktualisiert werden - und das für sämtliche
produktionsprozesse! genausogut könnte man sandkörner am
strand zählen. da hilft auch dezentralisierung nichts.
- darüber hinaus stellt sich ausserdem die frage,
wie neben der i/o-matrix selbst die bedarfe nach outputs
ermittelt werden sollen. bei einer zentralplanung geschieht
dies letztlich durch rationierung durch eine übergeordnete
planungsinstanz. wie soll dies aber bei einer dezentralen
organisation aussehen, wo jeder akteur seinen bedarf
zunächst einmal selbst definiert?
grüsse
frederic thiesse
________________________________
Web-Site: http://www.oekonux.de/
Organisation: projekt oekonux.de