Rubrik-Archiv „Netz und Web“

Gigantische Weitsicht(igkeit)

20.04.2012 Netz und Web Kommentieren

Letzte Woche hatte sich Steve Wozniak zu Wort gemeldet und seine Sorgen über das, für Start-Ups gefährliche und dadurch eventuell sogar innovationshemmende Patentsystem geäußert. In dieser Woche mahnt Sergey Brin, dass die Offenheit des Internets durch restriktive Gesetzgebungen und Walled Gardens von Unternehmen gefährdet wird.

Damit liegen sie meiner Meinung nach auch vollkommen richtig und da es sich bei den beiden um die Mitgründer zweier IT-Giganten handelt, erfahren diese Äußerungen zum Glück auch einiges an Aufmerksamkeit. Schade ist dabei nur, dass beide dabei eine erhebliche Weitsichtigkeit aufweisen. Die Probleme in der Ferne, also bei den anderen Firmen und den Regierungen, sehen die beiden sehr scharf und legen den Finger in die Wunde. Für das was sich direkt vor ihrer Nase, also bei dem jeweils eigenen (ehemaligen) Unternehmen abspielt, sind sie aber pflichtgemäß blind. Apple teilt im Zuge der Patentstreitigkeiten auch mächtig aus und Google versucht ebenfalls Benutzer an die eigenen Dienste zu binden.

Dennoch gut, dass die beiden Probleme mit lauter Stimme angesprochen wurden.

Soziale Netzwerke: Protokolle statt Plattformen

27.01.2012 Netz und Web Kommentieren

Wem noch nicht klar ist, warum Soziale Netzwerke besser als offene Protokolle des Internets statt als Plattformen einzelner Unternehmen umgesetzt werden sollten, der schaue sich bitte die News der letzten Tage zu Google+, Facebook und Twitter noch einmal genau an.

Wer jetzt nicht unbedingt den Drang verspürt irgend etwas „plussen“, „liken“ oder „tweeten“ zu müssen kann noch hier weiterlesen.

Stellungnahme des Innenministers zum Bundestrojaner

09.10.2011 Allgemein, Netz und Web Kommentieren

Nach ausführlicher Beratung mit seinem Amtsvorgänger gab der Bundesinnenminister eine erste kurze Stellungnahme zu den Bundestrojaner-Analyseergebnissen des CCC:

„Irgendwelche Hacker mögen immer irgendwas hacken können!“

Raubmordkopierer treiben Amy Winehouse in den Tod

25.07.2011 Netz und Web Kommentieren

„Der frühe Tod der britischen Sängerin zeigt einmal mehr wie wichtig ein hartes Vorgehen gegen Raubmordkopierer ist. Mit Three-Strikes hätte ihr Tod wahrscheinlich verhindert werden können.“ wäre ein zulässiger Schluss, wenn Logik so funktionieren würde, wie Hans-Peter Uhl sie versteht. Zwar ist die Steilvorlage für die Forderung nach einem Verbot von „Killerspielen“ so offensichtlich, dass sie Futter für alle Verschwörungstheoretiker dieser Welt liefert, aber zur Zeit steht halt „Vorratdatenspeicherung“ auf der Agenda, weshalb die schrecklichen Ereignisse und damit auch die Opfer von Norwegen für diese politische Forderung instrumentalisiert werden. Wenn sich nach der Uhlschen Logik durch Vorratsdatenspeicherung eine präventive Wirkung bei derartig unvorhersehbaren Katastrophen erzielen lässt, dann bleibt grundsätzlich die Frage, ob schlüssige und konsistente Argumentationen im bundespolitischen Umfeld überhaupt notwendig sind.

$Suchmaschine bestraft fehlende Verlinkung [Update]

21.06.2011 Netz und Web Kommentieren

…werden wir wohl leider nicht sobald als Schlagzeile auf einschlägigen Newsseiten finden. Auf die viel beschworene User Experience des Gesamtwebs würde sich das aber sehr positiv auswirken.

Der letzte Artikel über das seltsame Linkgebaren einiger Nachrichtenseiten ist jetzt schon über ein Jahr her und aufgrund meiner überbordenden Schreibfreude auf Seite Zwei dieses Blogs gerutscht. Da wird es doch mal wieder Zeit für einen kurzen Aufreger. Golem schafft es tatsächlich in einem Artikel über die neuste Version der Open-Source-Bankingsoftware Hibiscus die betreffende Produktseite nicht zu verlinken. Neben einem obligatorischen internen befinden sich noch zwei externe Links im Artikel, die aber allenfalls für geschätzte 0,2 Prozent der Leserschaft interessant sind.

Es wäre wirklich an der Zeit, dass $Suchmaschine den Algorithmus so anpasst, dass Nachrichten- oder Blogartikel zu Produkt X Abschläge beim Ranking erfahren, sofern sie nicht über einen einzigen ausgehenden Link zur entsprechenden Seite verfügen. Aber das dürfte einfach nicht im Interesse von $Suchmaschine sein, da der interessierte Leser bei fehlender Verlinkung auf $Suchmaschine angewiesen ist, sofern er die URL von Produkt X nicht zufällig im Kopf hat. Schade, eigentlich.

[Update]Nachdem jemand in den Kommentaren zum Golem-Artikel auf die fehlende Verlinkung hingewiesen hat, konnte man sich doch noch erbarmen zwei zusätzliche Links zu setzen.[/Update]

Willst Du mein Geld – will ich Dein Geld

13.04.2011 Netz und Web Kommentieren

Die neu gegründete „Deutsche Content Allianz will die Netzbetreiber in die Pflicht nehmen“, ist bei heise online in einem länglichen Artikel zu lesen. Da es um nicht weniger als die Existenz, der am Hungertuch nagenden, Content-Wirtschaft geht, darf natürlich nicht das übliche Gejammer über die Raubmordkopierer fehlen und die Formulierung „Rechtsfreier Raum“ ist selbstverständlich auch nicht weit. Man macht sich also in illustrer Runde (Vertreter von Rundfunk, Musikindustrie, Buchhandel, Filmwirtschaft und GEMA) fleißig Gedanken darüber, wie man die aufwändig und teuer produzierten, vielleicht sogar hochwertigen, Inhalte bloß nicht unter Preis an den Verbraucher bringen kann. Dazu will man den Kreis der Zahlungspflichtigen ein wenig ausdehnen und so äußert GEMA-Vorstandsvorsitzender Dr. Harald Heker die glorreiche Idee: „Auch Provider, die sehr viel Geld verdienen mit den Inhalten, die auf ihren Datenautobahnen kursieren, müssen herangezogen werden.“. Moment … der Mann will tatsächlich bei den Netzbetreibern kassieren, die ihrerseits gerade am Ast der Netzneutralität sägen, um zusätzliches Geld bei den Content-Anbietern kassieren zu können? Man darf gespannt sein, wer die größeren schwarzen Köfferchen bei den politischen Entscheidern in der Empfangshalle stehen lässt und damit am Ende den anderen zur Kasse beten darf. Aber davon abgesehen ist die von Heker geäußerte Sicht der Dinge schon sehr bemerkenswert. Wann werden sich die Versandhändler zu Wort melden und vorschlagen, dass Speditionen und Paketdienste dafür zahlen sollen, dass sie ihre kostbaren Waren transportieren dürfen? Schließlich verdient man in der Logistikbranche ja auch Geld.

Global denken – lokal zensieren

19.03.2011 Netz und Web Kommentieren

Versetzen wir uns mal für eine Minute in eine Welt, in der die Bekämpfung von Darstellungen von Kindesmissbrauch nicht nur Vorwand sondern tatsächlicher Grund für die Forderung nach der Etablierung einer Zensurinfrastruktur ist. So schwierig ist das gar nicht, denn vordergründig wird die Debatte um Internet-Sperren mit dieser Vorstellung geführt und ist damit Teil unserer Realität. In dieser Welt wird sich darum gestritten welche der beiden Maßnahmen (Löschen oder Sperren) effizienter ist. Die Effizienz wird zur Zeit wesentlich daran festgemacht, wie viel Prozent der entdeckten und gemeldeten Webseiten nach einer, zwei, drei oder mehr Wochen noch abrufbar sind. Während Gegner von Internet-Sperren gute Erfolge, sprich eine hohe Effizienz, aus den Statistiken herauslesen, interpretieren die Befürworter die vorliegenden und zum Teil selbst ermittelten Zahlen als Beweis für die Ineffizienz des Löschens. In der Gegenrechnung wären also durch Sperren innerhalb von 24 Stunden nahezu 100 Prozent der Webseiten in Deutschland nicht mehr abrufbar. Im Hinblick auf die Effizienz steht der Sieger beider Maßnahmen also fest.

Allerdings mutet diese Definition von Effizienz in unserer ach so globalisierten Welt geradezu klein-geistig und anachronistisch an. Während global, international, multilateral etc. zum Grundvokabular politischer Reden geworden ist, Bildungs- Umwelt- und ganz vorne Wirtschaftspolitik heute kaum noch ausschließlich nach nationalen Gesichtspunkten gestaltet wird, stellt sich eine Frage: Wie kommt es bei einem so wichtigen Thema wie dem Schutz von Kindern dazu, dass man zwar die Welt im Blick hat, sich aber mit seinem Handeln auf den Wirkungsbereich des eigenen Grundgesetzes zurück ziehen will?

Ändert man den Effizienzbegriff hin zu einer globalen Betrachtungsweise, dann stellen sich Internet-Sperren als drastische Verlierer heraus. Kommen die zuständigen Behörden zweier Länder (ein meldendes Land und das Land in dem gehostet wird) zu dem Schluss, dass eine Webseite Darstellungen von Kindesmissbrauch bereitstellt und somit gelöscht werden muss, dann stehen diese Inhalte an dieser Stelle dem pädophilen Anteil von rund einer Milliarde Internetnutzer nicht mehr zur Verfügung. Wird die gleiche Webseite hingegen nur in Deutschland gesperrt, dann betrifft dies den pädophilen Anteil von maximal 60 Millionen Internetnutzern, der Rest der pädophilen Welt kann weiterhin auf die Inhalte zugreifen. Welcher Vorgang nun schneller durchzuführen ist, spielt dabei keine Rolle mehr. Selbst wenn man die Geschwindigkeit mit berücksichtigt, können Internet-Sperren nicht mehr als Sieger aus dieser Effizienzbetrachtung hervorgehen, weil sie im Hinblick auf die Reichweite gnadenlos verlieren. „Sperren bis Löschen“ wäre in diesem Zusammenhang übrigens nur eine Möglichkeit eine schwache Leistung der jeweiligen Behörden zu vertuschen. Nimmt man nun noch hinzu, dass die fallbezogene und allgemeine bilaterale Zusammenarbeit bei der Löschung von Missbrauchsdarstellungen einen positiven moralischen Einfluss – auf das was man im jeweiligen Kulturkreis überhaupt als Kindesmissbrauch betrachtet – haben kann, dann packt man das Problem gleichzeitig noch etwas weiter in Wurzelnähe an, statt diese kulturellen Unterschiede einfach nur als gegeben hinzunehmen. Multilaterale Verhandlungen insbesondere bei unterschiedlichen Rechtsauffassungen (Wobei ich mich frage, ob nicht bereits ein relativ weitreichender Konsens bezüglich der der Ächtung von Missbrauchsdarstellungen angenommen werden kann.) sind sicherlich alles andere als leicht, aber das sollte kein Grund sein, sich gerade in dieser Sache auf eine nationale Sicht zu beschränken. Zumal bei der Bekämpfung des tatsächlichen Missbrauchs entsprechend gute Kontakte ins Ausland von Vorteil sind, weil eine Scheuklappenpolitik hier einfach nicht weiterhilft.

Die Minute ist um. Zurück in die Realität, zurück in eine Welt in die Missbrauchsdarstellungen weiterhin nur als Vorwand missbraucht werden und der Streit um die Effizienz nichts anderes als eine Scheindebatte ist, welche die wahren Beweggründe hinter einer Fassade dramatischer Rhetorik verstecken soll.

Cloud Computing ist das neue SOA

13.11.2010 Netz und Web Kommentieren

Wenn es zur Zeit ein gehyptes Thema in der IT-Welt gibt, dann ist es sicher „Cloud Computing“. Alles wird in die Cloud geladen oder über die Cloud abgewickelt – Cloudsourcing ist der Trend. Der Hype dürfte seinen Zenit zwar mittlerweile überschritten haben, dennoch wird uns das Thema höchstwahrscheinlich noch einige Zeit begleiten. Dass der Hype langsam abebbt merkt man unter anderem daran, dass sich bei Nachrichten mit Cloud-Computing-Bezug auf den einschlägigen IT-Webseiten, die Kommentare der IT-Foren-Experten mehren, die dem Cloud Computing ein unrühmliches Ende prophezeien: „Cloud Computing sei das neue SOA und in Kürze wird sich das alles in Wohlgefallen auflösen – die Cloud wird also abregnen und es bleibt der strahlend blaue IT-Himmel.” Aber ist das wirklich der deterministische Lauf der Dinge?

Im Anfang war das Wort

Betrachtet man die aktuelle Nachrichtenpräsenz des letzten großen IT-Hypes SOA, dann ist es damit nicht besonders weit her. Vor wenigen Jahren war alles noch irgendwie SOA, wessen Systeme keine serviceorientierte Architektur hatten, der gehörte zum alten Eisen. Heute wird wenig und wenn dann relativ nüchtern über SOA berichtet. Auf der anderen Seite finden sich jedoch serviceorientierte Architekturen als Grundlage vieler Systeme und sind fester Bestandteil von Geschäftsprozessen. Nahezu jeder API populärer Webdienste, liegen Webservices als Ausprägung einer SOA zugrunde. Geblieben ist die Essenz, also die Technik oder das Paradigma, welches hinter dem Hype steckte.

Im Anfang war die Tat

Seltsamerweise existiert diese Essenz oder zumindest deren Grundlage oft schon lange vor dem Hype. Was den „IT-Experten“ einen Anreiz liefert, sich bei ihrer „Kritik“ besonders zu echauffieren. Techniken wie CORBA oder RPC beispielsweise existierten schon lange bevor jemand in der IT von Serviceorientierung sprach. SETI@home oder Folding@Home verteilten ihre Rechenaufgaben bereits rund 10 Jahre bevor jemand auf die Idee kam, die symbolische Darstellung (eine Wolke) für etwas nicht näher im Diagramm Spezifiziertes, wie etwa das Internet, als Schlagwort für einen Ansatz zu verwenden, wie man mit vernetzten Ressourcen umgehen kann. Doch wie kommt es dann plötzlich zum Hype?

Im Anfang war die Kraft

Was ein im Kern eigentlich völlig trockenes und zuweilen langweiliges Thema zu einem Hype macht, der sich schließlich auch im Mainstream manifestiert, ist in erster Linie ein einprägsamer und pragmatisch wirkender Begriff. Einmal geprägt erschwert er zuerst und vereinfacht dann massiv die Kommunikation. Wo anfangs wenig Inhalt vermutet wird, bildet sich aus einem weichen Kern zuerst eine vage Vorstellung und letztendlich ein greifbares Thema. Ein Hype lenkt schließlich die Aufmerksamkeit auf ein Themenfeld. Die betroffenen ITler haben einen griffigen Namen (was im Zusammenhang mit der Cloud zugegebenermaßen etwas widersprüchlich wirkt) der einen Blumenstrauß von Techniken und Herangehensweisen beschreibt mit denen sie sich einmal befassen sollten. Die Medien können – in der Regel völlig überhöht – über einen Trend in der IT-Welt berichten, der sich mit einem einzigen Wort bezeichnen lässt, ohne dabei zu sehr auf die Hintergründe eingehen zu müssen.

Am Ende ist der Sinn

Und am Ende des Hypes bleibt idealerweise etwas übrig, das das bereits Dagewesene systematisiert, sinnvoll ergänzt und fortan dabei hilft Aufgaben besser oder eleganter zu lösen. Besser und eleganter als die etablierten Ansätze derjenigen, die einem solchen Hype überhaupt nichts abgewinnen wollen, sondern damit beschäftigt sind, ihre verbalen Messer für den nächsten Hype zu wetzen.

Cloud Computing ist wirklich eines der neuen SOAs.

Externe Links für ein besseres Surferlebnis

16.05.2010 Netz und Web 1 Kommentar

Nach aktuellen „Forschungsergebnissen“ der illustren SEO-Gemeinde wird es wahrscheinlich nicht unbedingt als optimal angesehen externe Links zu setzen, basierend auf meiner eigenen subjektiven Erfahrung, habe ich allerdings den Eindruck, dass es sich durchaus positiv auf das Surferlebnis und damit die Nutzerzufriedenheit auswirkt, wenn verlinkte Produktbezeichnungen oder Firmennamen auch tatsächlich zu der erwarteten externen Webseite führen.

Schaue ich mir beispielsweise diesen Golem-Artikel über Diaspora an, dann rechne ich eigentlich nicht damit, dass die ersten Nennungen von Facebook und Diaspora mit sogenannten „Specials“ zu diesen Begriffen verlinkt sind. Gerade bei einem Artikel zu einem Projekt, das der Inselwirtschaft sozialer „Netzwerke“ den Kampf ansagen will, wirkt eine derartige interne Verlinkung fast verstörend. Ein noch extremeres Beispiel ist das ansonsten wirklich umfangreiche und informative Handyportal inside-handy.de. Hier scheinen externe Links in den Artikeln völlig tabu zu sein.

Vermutlich ist es sogar kontraproduktiv für die Nutzerbindung, wenn der interessierte Leser einen kurzen Blick auf das betreffende Produkt, Projekt etc. werfen will, bevor er den Artikel weiter liest, sich dazu aber einer Suchmaschine bedienen muss, weil der vermeintliche externe Link eigentlich nur Suchmaschinenfutter ist. Denn hat der Leser erst einmal diverse Suchergebnisse zum Thema unter dem Mauszeiger, kann es ebenso gut sein, dass er sich die Informationen an anderer Stelle holt.

Wenn der eigentlich Artikel gut ist, dann erzielen die Links zu eigenen verwandten Themen auch am Ende des Textes ihre Wirkung. Eine Webpublikation mit journalistischem Anspruch, die Angst hat durch einen relevanten externen Link am Anfang seines Artikels den Leser zu verlieren, macht vermutlich ohnehin irgendetwas falsch.

Was haben ein U-Boot und das iPad gemeinsam?

29.03.2010 Allgemein, Netz und Web 3 Kommentare

Seitdem Steve auf der Keynote Ende Januar 2010 den Netbooks bescheinigt hat, dass sie die von ihnen geschaffene Nische schlechter ausfüllen, als es das iPad tun wird, führt Sascha im Netbooknews-Blog einen vehementen Kreuzzug gegen diese Behauptung, das Gerät, die Firma und ihren charismatischen Chef.

Zwischenzeitlich war ich mir sicher, dass es nur eine clevere Strategie des Netbooknews-Machers ist, im wesentlichen die negativen Aspekte rund um das iPad zu beleuchten um mit der Provokation der euphorisierten Massen Aufmerksamkeit und Traffic zu generieren. Zum einen darf man das vom Betreiber eines der – wenn nicht sogar dem – in finanzieller Hinsicht erfolgreichsten deutschen Blogs erwarten. Andererseits kann man auch nicht erwarten, dass er ein Produkt lobt, dass den Objekten seiner Berichterstattung die Daseinsberechtigung absrechen will. Zwar betont er in nahezu jedem der über zwanzig Artikel zum iPad, dass er einen kritischen – teilweise auch ironischen – Gegenpol zu der medialen iPad-Manie und den zahlreichen Lobhudeleien bieten will, allerdings lassen mich die teilweise recht harschen Reaktionen auf kritische Kommentare zu seinen Artikeln immer wieder an dem vermeintlich strategischen Vorgehen zweifeln. Immer wieder macht es den Eindruck, dass hier jemand genauso emotional bei der Sache ist, wie die Fangemeinde des magischen Gerätes aus Cupertino.

Der aktuellste Beitrag aus der Sascha-vs-Steve-Story greift einen Artikel von Laptopmag.com auf und kommt zum weisen Schluss, dass „man beide Plattformen nicht wirklich miteinander vergleichen kann“. Richtig, das iPad ist eben nur ein Couch-Gadget (zumindest was die erste Generation angeht) und Netbooks sind tatsächlich ultramobile Computer. Fragt sich, warum Sascha dennoch Angst hat, wenn sich Steve bis jetzt irrt, wenn er behauptet U-Boote wären die besseren Mähdrescher.

Der geneigte Leser fragt sich jetzt sicher, was das Ganze mit U-Booten und Mähdreschern zu tun hat. Ganz einfach, der Vergleich „Netbook vs. iPad“ ist meiner Meinung nach zur Zeit genauso zu beantworten wie die folgende Kinderfrage:

Was ist besser? Ein Mähdrescher oder ein U-Boot?

Ältere Artikel
Zum Seitenanfang