Rubrik-Archiv „Netz und Web“

Schützt die Jugend! Studiert Jura!

16.02.2010 Netz und Web Kommentieren

Wer kommt denn bitte auf die Idee, dass sich Eltern um die Erziehung und den Schutz ihrer Kinder kümmern müssten? Dafür sollte doch lieber der Staat die grobe Keule schwingen und vorsichtshalber die Freiheit aller „ein wenig“ einschränken.

Was den Urhebern des Entwurfs des überarbeiteten Jugendmedienschutz-Staatsvertrages durch den Kopf gegangen oder eher in rauen Mengen durch die Kehle geflossen ist, möchte man sich gar nicht vorstellen.

Mit Sicherheit ist das alles gut gemeint und man hat ja nur den Schutz der Kinder im Sinn. Liest man ein wenig in dem Entwurf, gewinnt man allerdings den Eindruck, dass es in Zukunft weniger juristische Konsequenzen haben wird, an einem Samstagnachmittag sturzbetrunken mit einem gestohlenen Panzer durch eine Fußgängerzone zu rasen, als einen privaten Blog mit eingeschalteter Kommentarfunktion zu betreiben.

Sollte der JMStV in dieser Form zustande kommen, dürfte einem wohl kein ISP oder Webhoster erlauben Inhalte ins Netz zu stellen, wenn man nicht ein einschlägiges Jurastudium vorweisen kann. Also Jura studieren und Kinder schützen!

Diesem zurecht besorgten Aufruf von Peter folgend, möchte ich auch auf die Stellungnahme des AK-Zensur hinweisen.

Als Bill das Web reparierte und so die Welt rettete

23.12.2009 Allgemein, Netz und Web Kommentieren

Alles hatte zwischen den Feiertagen des Jahres 2009 seinen Anfang genommen. Die Eindrücke der gescheiterten Klimakonferenz in Kopenhagen ließen Bill einfach keine Ruhe. Immer wieder stellte er sich die Frage „Was kann meine Firma für die Umwelt tun?“ Zwar hatte er sich aus dem Tagesgeschäft zurückgezogen, aber warum sollte nur seine Stiftung, nicht auch der von ihm gegründete Weltkonzern, Gutes tun?

Nachdem er sich einige Wochen in seine Garage zurückgezogen hatte (Bill hatte gehört, dass sich Garagen in den zurückliegenden Jahrzehnten als Ort der Inspiration erwiesen hatten), war ein Plan geboren. Sein Vorhaben würde zum einen der Umwelt dienen und sorgte somit für ein positiveres Image und zum anderen würde ein Geschäftszweig wiederbelebt, der einst prosperierte, zwischenzeitlich unterschätzt und vernachlässigen wurde, mittlerweile aber wieder massiv an Wichtigkeit gewonnen hatte. Sofort rief er den Mann an, der nun bereits seit 10 Jahren die Geschicke seiner Firma lenkte.

Nach einem anstrengenden Auftritt bei einer Entwicklerkonferenz, der ihn, dank des Fitnesstrainings, nicht mehr ganz so sehr körperlich mitgenommen hatte wie in den Jahren zuvor, nahm Steve B. das Telefon mit dem sauber entfernten Apfellogo aus seiner Jackentasche. Sofort fiel ihm die SMS von Bill auf, deren Inhalt später so legendär werden sollte, wie Aussprüche von Präsidenten, Astronauten und Nobelpreisträgern. „Steve, ich muss dringend mit Dir sprechen … Wir müssen die Welt retten. Komm sofort in meine Garage!“ Sofort stieg Steve in seinen Privatjet und flog nach Seattle. In der Auffahrt zu Bills Haus traf er Melinda, die gerade den zehn Zentimetern Neuschnee aus der vergangenen Nacht mit einer Aufsitzschneefräse zu Leibe rückte. „Hallo Melinda. Ist Jorge krank oder warum kümmerst Du Dich heute um den Schnee?“ „Steve, schön Dich zu sehen. Jorge ist nicht krank, er ist jetzt nur noch jeden zweiten Tag da. Bill meint, dass wir das Geld demnächst noch für sein neues Projekt brauchen werden. Am besten gehst Du gleich zu ihm, er verlässt schon seit Wochen die Garage nur wenn der Pizzabote am Tor klingelt.“

Drei Stunden und etliche von Melindas berühmten selbst gemachten Zitronenlimonaden später.

„Und Du sagst, das alles ist Dir eingefallen, als Du mit Deinem ausrangierten Notebook, das Du hier in der Garage gefunden hast, einen Artikel über den Stromverbrauch des Internets gelesen hast?“ „Ja genau. Es war noch unser Browser aus dem Jahr 2001 installiert und dann hatte ich beim Lesen den Eindruck, dass Teile des Texts fehlen würden, die aber beim Scrollen plötzlich wieder erschienen. Interessant wurde es dann, als ich diesen Open Source Browser benutzt habe, den der Nachbarsjunge auf dem Notebook installiert hat, als ich es ihm vor einigen Jahren einmal geliehen hatte. Hier sah alles völlig normal aus, wie man es erwartet.“
Steve ging einige Male nervös in der Garage auf und ab. Hatte Bill den Verstand verloren als er sich in den letzten Wochen mit diesem gefährlichen Zeug beschäftigt hatte oder was war mit seinem alten Freund los? „Aber Bill, ich verstehe nicht, was das alles mit der Umwelt und unserem Image zu tun hat.“ Bill deutet mit einer Geste an, dass Steve sich zu ihm vor den Bildschirm des antiquierten Geräts setzen solle. „Es steht alles hier im Web. Siehst Du? Hier! Hier und hier.“ „Was genau meinst Du Bill? Das sind alles Tipps, wie man moderne Webseiten auch mit den älteren Modellen unseres Browsers vernünftig darstellen kann. Das ist doch super, einige Tipps verwenden wir doch auch mit Rücksicht auf die Abteilung, die noch unser altes Intranet nutzen muss.“
In seinem Augenwinkel zuckte ein kleiner Muskel, wie er es immer Tat, wenn Bill eine brillante Idee hatte. „Verstehst Du nicht? Wir sind schuld daran, dass all diese Tricks existieren und in Millionen von Webseiten eingebaut sind. Webmaster auf der ganzen Welt verbringen Stunden damit diese Macken zu beheben. Server senden täglich Terabytes an Daten um den Globus, die einzig dazu da sind veraltete Software weiterhin benutzbar zu halten. Das alles kostet Strom und dessen Produktion verursacht CO2-Ausstoß.“ „Ach Du meinst wir sollte in die Erforschung umweltfreundlicher Technologien zur Stromerzeugung investieren?“ Bill schaute etwas enttäuscht, als er bemerkte, dass Steve noch immer nicht den Kern seines Planes erkannt hatte. „Nein Steve. Wir werden dafür sorgen, dass kein Benutzer mehr mit einem alten Browser unterwegs ist, dass kein Unternehmen aus Rücksicht auf sein Legacy-Intranet bei einem veralteten Stück Software verharren muss, dass kein Webdesigner Zeit und Strom verschwendet um irgendwelche Tricks und Hacks für eine antiquierte Technik zu implementieren und dass nicht weiter Terabytes nutzloser Daten durch die Datenleitungen dümpeln um Relikte des vergangenen Jahrzehnts in eine völlig andere technische Realität hinüberzuretten.“

Der Rest ist Geschichte: Bill hatte während der Wochen in seiner Garage, einen Wurm entwickelt, der – unter Ausnutzung einer Backdoor – sämtliche veralteten Browser nutzlos werden ließ. Zur gleichen Zeit hatte Steve veranlasst, dass in Redmond eine neue Version des Browsers entwickelt wurde, die im Hinblick auf Standards und Komfort nahezu mit der Konkurrenz gleichziehen konnte. Das Resultat dieses von verschiedenen Seiten als „Angriff auf die Souveränität des Anwenders“ bezeichneten Coups war, dass der Traffic und damit der Stromverbrauch, welcher durch Browserhacks verursacht wurde, in den Folgemonaten signifikant sank.
Wesentlich bedeutungsvoller waren allerdings die Nebeneffekte, die sich ausgehend von den technischen Möglichkeiten des Webs über einen Wandel in der Informationsverbreitung, -wahrnehmung und -verarbeitung auf ökonomische, soziale, kulturelle und interkulturelle Aspekte aller Gesellschaften auswirkten.
Bill mochte es nicht, wenn man ihm großspurig für den Weltfrieden dankte. So war seine Rede auch sehr bescheiden und zurückhaltend, als man ihm nach einigem Zögern den Friedensnobelpreis verlieh (man hatte in der Vergangenheit schlechte Erfahrung bei der vorschnellen Verleihung an einen US-Präsidenten gemacht). Melinda konnte sich wieder anderen Aufgaben widmen, denn man hatte weniger Geld für Bills Plan gebraucht als angenommen. Steve führte weiterhin die Geschäfte des Softwarekonzerns, widmete sich aber mehr und mehr der wissenschaftlichen Ausarbeitung seines Managementkonzepts, bei dem es im wesentlichen darum ging, dass der Chef sich auf öffentlichen Veranstaltungen zum Affen macht. Jorge war übrigens in seine mexikanische Heimat zurückgekehrt, da das mittelamerikanische Land einen massiven Aufschwung verzeichnen konnte. Die Arbeiten die auf Bills und Melindas Grundstück anfielen übernahmen seitdem Webworker, die massiv an Arbeitszeit und Entspanntheit gewonnen hatten, weil sie nun keine Browserhacks mehr implementieren mussten.
Die Welt lebte fortan glücklich und in Frieden … bis zu dem Tag, als der Bau einer intergalaktische Umgehungsstraße ihr ein jähes Ende setze.

Jede Ähnlichkeit mit realen Personen oder Handlungen sofern vorhanden, ist rein zufällig.

Saubere URLs I: Aber sicher doch!

17.12.2009 Merkblätter, Netz und Web Kommentieren

Saubere URLs gehören längst zum guten Ton. Zwar werden diese vom „Otto-Normal-Nutzer“ während des Surfens meist gar nicht wahrgenommen, der Vorteil von:
http://www.example.com/de/products/productname-12/details gegenüber:
http://www.example.com/index.php?section=products&show=details&id=12&lang=de wird aber spätestens bei der Verwendung in E-Mails, SMS oder auf Papier deutlich. Selbst dem ein oder anderen Internetausdrucker dürfte hierbei auffallen, dass es eben auf die Länge und die Technik ankommt.

Neben rein ästhetischen und die Optimierung für Benutzer und Suchmaschinen betreffenden Aspekten können saubere URLs auch einen gewissen – wenn auch geringen – Sicherheitsvorteil gegenüber Ihrem Pendant im 90er-Jahre-Stil bieten. Letzterer liefert gegebenenfalls schneller Informationen über den internen Aufbau der Web-Applikation und bietet somit einen zusätzlich Ansatzpunkt für Angriffe, sofern entsprechende Schwachstellen in der Anwendung existieren. So könnte, hinter den oben genannten Beispiel-URLs die gleiche Anwendung laufen, allerdings geht nur aus der zweiten Adresse hervor, dass es sich um eine PHP-Anwendung handelt (Das Wissen über die verwendete Skript- oder Programmiersprache ermöglicht unter Umständen grundlegende Annahmen über den Aufbau der Applikation und könnte daher für einen Angriff relevant sein.). Darüber hinaus offenbart die zweite URL-Adresse über die GET-Parameter gegebenenfalls die Namen der verwendeten Variablen und zum Teil auch deren Funktion innerhalb der Applikation. Sofern im ersten Beispiel die expose_php-Direktive in der php.ini deaktiviert ist, lässt sich ohne Weiteres nicht herausfinden, dass PHP im Spiel ist und ein Rückschluss auf Variablennamen ist nicht möglich.

Sicherlich handelt es sich hierbei nur um „Securiy through obscurity“ und den Daten die vom Benutzer kommen – also neben Cookies und POST-Daten auch den GET-Parametern – sollte man grundsätzlich mit dem nötigen Misstrauen begegnen. Eine zusätzlich Hürde für potentielle Angreifer kann jedoch nie schaden.

Nach diesem mehr oder weniger allgemeinen Vorgeplänkel, schneidet der zweite und letzte Teil der Kurzreihe mögliche Sicherheitsvorteile bei der Verwendung von mod_rewrite im Gegensatz zu einer PHPRewrite-Engine an und setzt sich mit der Frage auseinander, an welcher Stelle in der Webapplikation das Umschreiben der URL denn eigentlich stattfinden sollte.

Einfaches Bookmarklet für Sidewiki [Update]

24.09.2009 Netz und Web Kommentieren

Mit Sidewiki nimmt Google ein Tool in sein Portfolio auf, dass es ermöglicht Kommentare zu Webseiten zu hinterlassen. Benutzer können somit etwa weiterführende Informationen zu einzelnen Abschnitten ergänzen.

Wer sich kurz die Kommentare zu einer Webseite – zum Beispiel der eigenen – ansehen und dabei nicht gleich die Google Toolbar installieren möchte, kann sich der Möglichkeiten der Sidewiki API bedienen. Der folgende URL zeigt beispielsweise einen Feed mit den Sidewiki-Kommentaren zur Startseite von heise online:
http://www.google.com/sidewiki/feeds/entries/webpage/http%3A%2F%2Fwww.heise.de%2F/full
Damit lässt sich sehr leicht ein Bookmarklet erstellen, dass den Kommentar-Feed zur aktuell angezeigten Seite im Browser aufruft. Dazu legt man einfach ein Bookmark mit dem folgenden Code als Adresse an:
javascript:void(document.location='http://www.google.com/sidewiki/feeds/entries/webpage/'+encodeURIComponent(document.location)+'/full')
Wem das zu umständlich ist, der kann auch einfach den nachfolgenden Link per „Drag and Drop“ in die „Lesezeichen-Symbolleiste“ seines Firefox ziehen: Sidewiki-Kommentare.

An sich ist Sidewiki eine feine Sache, erweitert es doch die Interaktionsmöglichkeiten zwischen Anbieter und Nutzer und greift gleichzeitig den Community-Aspekt à la Wikipedia auf. Allerdings darf man wohl einige Diskussionen und Gerichtsurteile (Als Stichworte seien hier nur „Schmähkritik“, „Mitstörerhaftung“ oder „Unlauterer Wettbewerb“ genannt) erwarten, welche die Probleme einer solchen universellen Kommentarfunktion – außerhalb des Einflussbereichs des Webmasters – aufwirft. Bleibt abzuwarten, wie Sidewiki von den Nutzern angenommen und welche Eingriffsmöglichkeiten Google den Webmastern eventuell noch an die Hand geben wird.

[Update]
Nachdem ich mich zwischenzeitlich darüber gewundert habe, dass mit dem oben beschriebenen Bookmarklet keine Einträge mehr angezeigt werden, lag die Vermutung nah, dass es einfach nicht mehr richtig funktioniert. Zum Glück erspart mir Google höchstselbst weitere Nachforschungen, da es mittlerweile ein offizielles Sidewiki-Bookmarklet gibt.
(via stadt-bremerhaven.de)

Browser-Update.org

25.03.2009 Netz und Web, Webwork Kommentieren

Browser-Update.org: Logo Peter Kröner weist in der 40. Ausgabe seiner wöchentlichen Linksammlung unter Anderem auf die Initiative Browser-Update.org hin. Ziel der Initiative ist es, per dezentem Hinweis und sachlichen Argumenten, Benutzer zum Update auf einen aktuellen Browser zu bewegen. Das entspricht ziemlich genau meiner – vor einem Jahr geäußerten – Vorstellung von einer Browser Upgrade Initiative. Gerade gestern hatte ich mit einer webseiten-spezifischen Implementierung dieser Idee begonnen. Die Gestaltung einer Infoseite zu den Nachteilen alter und den Vorteilen neuer Browser kann ich mir dank Browser-Update.org nun sparen.

Minimal-Profiling für PHP mit Xdebug und Webgrind

19.02.2009 Netz und Web Kommentieren

Die effiziente Nutzung begrenzter Ressourcen, ist nicht nur ein ökonomisches und ökologisches Anliegen, auch bei der Entwicklung von Webanwendungen ist der schonende Umgang mit der zur Verfügung stehenden Rechen- und Speicherkapazität ein wichtiger Aspekt.

Bei einem kleinen Backend-Skript mag es wenig sinnvoll sein auch noch die letzte Mikrosekunde rauszukitzeln. Bei offenen Webpräsenzen, deren Server der potentiellen „Gefahr“ ausgesetzt ist, durch einen Link von einer großen Webseite aufgrund des Besucheransturms in die Knie gezwungen zu werden, sollten allzu enge Flaschenhälse jedoch vermieden werden.

Zum Aufspüren von Geschwindigkeitsproblemen in PHP-Anwendungen, die durch einzelne Funktionen verursacht werden, bietet sich die Kombination aus Xdebug und Webgrind an, um ein minimales Profiling durchzuführen.

Xdebug installieren und einrichten

Xdebug-LogoXdebug wird als PHP-Modul installiert und bietet neben dem Profiling auch nützliche Möglichkeiten zum Debugging von PHP-Skripten. Für Ubuntu gibt es ein Paket in den Repositories, weshalb die  Installation auch schnell erledigt ist (ein installierter Apache mit PHP vorausgesetzt):
sudo apt-get install php5-xdebug
Anschließend muss man in der Datei /etc/php5/conf.d/xdebug.ini das Profiling aktivieren. Dabei empfiehlt es sich die Trigger-basierte Variante zu wählen, da ansonsten bei jeder Ausführung eines PHP-Skripte eine Profiler-Datei geschrieben wird, was bei umfangreichen Anwendungen schon mal einige Megabyte sein können.
; Laufendes Profiling deaktivieren
xdebug.profiler_enable = 0
; URL-Trigger ?XDEBUG_PROFILE aktivieren
xdebug.profiler_enable_trigger = 1

Standardmäßig werden die Profiler-Dateien in das Verzeichnis /tmp geschrieben. Dies lässt sich jedoch über die Option xdebug.profiler_output_dir nach belieben anpassen. Ruft man nun eines seiner PHP-Skripte mit dem zusätzlichen Parameter XDEBUG_PROFILE (z.B. http://localhost/MeinSkript.php?XDEBUG_PROFILE) auf, so landet eine Datei mit dem Namen cachegrind.out.???? im eingestellten Verzeichnis. Der Inhalt dieser Datei ist auf den ersten Blick nicht wirklich aufschlussreich, allerdings lässt sich das ändern.

Auswertung mit Webgrind

Als Mittel der Wahl zur Auswertung der Cachegrind-Dateien werden in der Xdebug-Dokumentation KCacheGrind und WinCacheGrind empfohlen. Möchte man aber weder KDE-Komponenten, noch das Betriebssystem aus Redmond auf seinem Rechner installieren, muss man sich nach einer Alternative umsehen. Als betriebssystemunabhängige und unkomplizierte Möglichkeit bietet sich Webgrind an.

Webgrind

Die Installation ist denkbar einfach und in drei Schritten erledigt (vorausgesetzt man hat einen lauffähigen Webserver, wovon auszugehen ist, wenn man PHP-Skripte testen will): 1. Herunterladen 2. An geeigneter Stelle entpacken 3. Im Browser aufrufen.
Wer für Xdebug ein anderes Verzeichnis für die Profiler-Dateien gesetzt hat, der muss allerdings noch den Pfad in der config.php entsprechend anpassen.
Sofern entsprechende Profiler-Dateien vorhanden sind, lassen sich diese unter Webgrind über die Dropdown-Box am oberen Bildrand auswählen und per Klick auf den Button auswerten. Die Auswertung lässt sich wahlweise prozentual, nach Milli- oder Mikrosekunden vornehmen. Die Übersicht bietet die Möglichkeit sich anzeigen zu lassen durch welche Funktion die jeweils betrachtete Funktion aufgerufen wurde und die dazugehörige Stelle lässt sich auch im Quelltext anzeigen.

Fazit

Mit Xdebug und Webgrind lässt sich relativ einfach ein kurzer Überblick, über die Laufzeiten der einzelnen Funktionen eines PHP-Skripts, erreichen. Flaschenhälse lassen sich so schnell identifizieren und potentiellen Problemen bei steigenden Besucherzahlen, kann somit vorgebeugt werden.

Blog günstig abzugeben

17.01.2009 Netz und Web 3 Kommentare

Ein kurzer Streifzug durch einige Blogs mit Kommentaren zum Verkauf von „Basic Thinking“ zeigt, dass es durchaus unterschiedliche Meinungen zur Höhe des erzielten Preises (46.902 Euro) gibt. Während die einen es als ordentliche Summe auffassen (was es aus dem Kontext losgelöst ja auch ist), zeigen sich andere eher enttäuscht. Ich bin in Anbetracht des Bekanntheitsgrades von „Basic Thinking“ und dessen Präsenz in Suchmaschinen und allgemein im Web, schon etwas verwundert und zähle mich eher zu letzteren. Ob knapp 46.000 Euro (das bekannte Internetauktionshaus möchte ja auch seinen Teil vom Kuchen bekommen) ein angemessener Betrag für – in drei Jahren fleißig zusammengebloggtes – mehr oder weniger sinnvolles Text-, Bild-, Ton- und Video-Material ist, muss jeder für sich beurteilen. Die durch das ZDF festgehaltene Freude von Robert Basic, scheint mir jedoch etwas verhalten.

Das Problem mit dem Wert eines Blogs liegt wohl zum Teil darin begründet, dass sich der Erfolg eines Blogs anhand der Größe der Stammleserschaft und der damit indirekt zusammenhängenden Verlinkung durch andere Blogs bemisst. Stammleser werden aber blind für Werbeanzeigen und über die Kommentarfunktion lassen sich auch keine umfangreichen Kontaktdaten sammeln (zumindest würde wohl der Versuch verwertbare Daten zu sammeln, die Anzahl der Kommentare erfolgreich auf einen Wert nahe Null reduzieren). Andere Blogger, welche sich auf den Inhalt eines Artikels beziehen, sind noch stärker auf den Inhalt fokussiert und dürften noch weniger auf Werbung klicken. Hinzukommt außerdem noch, dass viele Abonnenten von Fullfeeds die Webseite gar nicht erst besuchen.

Ein weiterer Aspekt der die Einzigartigkeit und damit den Erfolg eines Blogs ausmacht, ist die persönliche Note. Blogs behandeln Themen die eine konkrete Person interessieren und in den Artikeln sind in der Regel Meinungen und Wertungen zu finden oder der Inhalt bezieht sich grundsätzlich auf ein persönliches Thema. Themenblogs die sich möglichst objektiv und umfangreich mit einem Themenbereich auseinandersetzen, gleichen meiner Meinung nach eher Newsseiten oder Magazinen, die sich lediglich der Technik von Blogs bedienen. Bei „echten“ Blogs spielt hingegen entweder die Persönlichkeit des Bloggers, der individuelle Schreibstil oder die persönliche Themenauswahl eine wichtige Rolle und machen damit den Wert aus.

Auf den Fall „Basic Thinking“ bezogen bedeutet es eben, dass die Domain und das Blog ohne Robert Basic wesentlich weniger wert sind. Ich würde vermuten, dass Blogs wie Macnotes oder Netbooknews (ehemals Eee PC News) für einen weit höheren Betrag den Besitzer wechseln würden, da hier die möglichst objektive Berichterstattung im Vordergrund steht und sie somit losgelöst von einer bestimmten Person(engruppe) funktionieren. Allerdings ist die Frage, ob diese Seiten wirklich als Blog im engeren Sinne einzustufen sind. Letztendlich sind 46.000 Euro dann vielleicht doch ein ordentlicher Betrag für das meistverlinkte Blog Deutschlands.

Neuere Artikel
Zum Seitenanfang