Die hier archivierte Mail kann, muss sich aber nicht auf den Themenkomplex von Oekonux beziehen.
Insbesondere kann nicht geschlossen werden, dass die hier geäußerten Inhalte etwas mit dem Projekt Oekonux oder irgendeiner TeilnehmerIn zu tun haben.
Message 00152 | [Homepage] | [Navigation] | |
---|---|---|---|
Thread: choxT00152 Message: 1/1 L0 | [In date index] | [In thread index] | |
[First in Thread] | [Last in Thread] | [Date Next] | [Date Prev] |
[Next in Thread] | [Prev in Thread] | [Next Thread] | [Prev Thread] |
Mit Distributed Computing gegen Webzensur Mit weltweit verteilten lokalen Clients, die bei Gelegenheit Webadressen auf deren Erreichbarkeit abklappern, wollen Forscher einen Atlas über Zensurmaßnahmen im WWW zusammenstellen. Jonathan Zittrain, Professor an der Harvard Law School, sowie sein Kollege Benjamin Edelman kooperieren zu diesem Zweck mit dem englischen Cambridge Programme for Security in International Society sowie dem Citizen Lab der Universität Toronto. Die Aktivisten sind keine Unbekannten: Zittrain und Edelman hatten bereits mit Erkenntnissen über Zensurmaßnahmen bei Google viel Aufmerksamkeit erregt. Und die Entwickler in Toronto haben ein Programm geschrieben, mit dem man die Erreichbarkeit einer Web-Adresse in 15 Ländern überprüfen kann. Um die oft unbemerkten Auswirkungen von Filtermaßnahmen durch Internet-Provider, LAN-Administratoren oder staatliche Behörden im gesamten WWW öffentlich zu dokumentieren, bastelt man jetzt in Harvard an einem Client-Programm für freiwillige Zuarbeiter. Die Software, über deren Entwicklungsfortschritte man sich über die zugehörige Webseite informieren kann, soll Listen mit zensurgefährdeten Webadressen von einem zentralen Server entgegennehmen und vom Ort des Projektteilnehmers aus auf Erreichbarkeit testen. Die Versorgung mit prüfwürdigen URLs sollen Google und das Webverzeichnis Alexa übernehmen. "Nicht erreichbar"-Befunde des Clients gelangen zurück zum Server und lösen dort zusätzliche Nachforschungen aus, um Nichtzugänglichkeiten auf Grund technischer Probleme oder Netzüberlastungen auszusondern. Ähnlich wie beim Programm des Projekts SETI home soll dem Anwender nur dann Rechenzeit abgezwackt werden, wenn der Computer sowieso nicht ausgelastet ist. Damit die Client-Betreiber nicht um ihre Intimsphäre bangen müssen, soll zur Erstellung des Atlasses nicht deren rückverfolgbare Internetadresse verwendet werden, sondern bloß Daten über die Region des Zugriffs. Mit Zittrains Worten heißt das: "Wir interessieren uns nur für die Nachbarschaft, nicht für das Haus". (hps/c't) http://www.heise.de/newsticker/data/hps-26.06.03-000/ _______________________ http://www.oekonux.de/
[English translation] | |||
Thread: choxT00152 Message: 1/1 L0 | [In date index] | [In thread index] | |
---|---|---|---|
Message 00152 | [Homepage] | [Navigation] |