DISCLAIMER DISCLAIMER DISCLAIMER DISCLAIMER

Die hier archivierte Mail kann, muss sich aber nicht auf den Themenkomplex von Oekonux beziehen.

Insbesondere kann nicht geschlossen werden, dass die hier geäußerten Inhalte etwas mit dem Projekt Oekonux oder irgendeiner TeilnehmerIn zu tun haben.

DISCLAIMER DISCLAIMER DISCLAIMER DISCLAIMER

Message 00152 [Homepage] [Navigation]
Thread: choxT00152 Message: 1/1 L0 [In date index] [In thread index]
[First in Thread] [Last in Thread] [Date Next] [Date Prev]
[Next in Thread] [Prev in Thread] [Next Thread] [Prev Thread]

[chox] Mit Distributed Computing gegen Webzensur



Mit Distributed Computing gegen Webzensur

Mit weltweit verteilten lokalen Clients, die bei Gelegenheit Webadressen auf 
deren Erreichbarkeit abklappern, wollen Forscher einen Atlas über 
Zensurmaßnahmen im WWW zusammenstellen. Jonathan Zittrain, Professor an der 
Harvard Law School, sowie sein Kollege Benjamin Edelman kooperieren zu diesem 
Zweck mit dem englischen Cambridge Programme for Security in International 
Society sowie dem Citizen Lab der Universität Toronto. 

 Die Aktivisten sind keine Unbekannten: Zittrain und Edelman hatten bereits 
mit Erkenntnissen über Zensurmaßnahmen bei Google viel Aufmerksamkeit erregt. 
Und die Entwickler in Toronto haben ein Programm geschrieben, mit dem man die 
Erreichbarkeit einer Web-Adresse in 15 Ländern überprüfen kann. Um die oft 
unbemerkten Auswirkungen von Filtermaßnahmen durch Internet-Provider, 
LAN-Administratoren oder staatliche Behörden im gesamten WWW öffentlich zu 
dokumentieren, bastelt man jetzt in Harvard an einem Client-Programm für 
freiwillige Zuarbeiter.

 Die Software, über deren Entwicklungsfortschritte man sich über die 
zugehörige Webseite informieren kann, soll Listen mit zensurgefährdeten 
Webadressen von einem zentralen Server entgegennehmen und vom Ort des 
Projektteilnehmers aus auf Erreichbarkeit testen. Die Versorgung mit 
prüfwürdigen URLs sollen Google und das Webverzeichnis Alexa übernehmen. 
"Nicht erreichbar"-Befunde des Clients gelangen zurück zum Server und lösen 
dort zusätzliche Nachforschungen aus, um Nichtzugänglichkeiten auf Grund 
technischer Probleme oder Netzüberlastungen auszusondern. Ähnlich wie beim 
Programm des Projekts SETI home soll dem Anwender nur dann Rechenzeit 
abgezwackt werden, wenn der Computer sowieso nicht ausgelastet ist. Damit die 
Client-Betreiber nicht um ihre Intimsphäre bangen müssen, soll zur Erstellung 
des Atlasses nicht deren rückverfolgbare Internetadresse verwendet werden, 
sondern bloß Daten über die Region des Zugriffs. Mit Zittrains Worten heißt 
das: "Wir interessieren uns nur für die Nachbarschaft, nicht für das Haus". 
(hps/c't)

http://www.heise.de/newsticker/data/hps-26.06.03-000/

_______________________
http://www.oekonux.de/



[English translation]
Thread: choxT00152 Message: 1/1 L0 [In date index] [In thread index]
Message 00152 [Homepage] [Navigation]