von Bianka Boock
Beim Aufrufen von Internetseiten geschehen scheinbar seltsame Dinge. Wie aus heiterem Himmel kann ein Video von der Mondlandung auftauchen – verbunden mit dem Spruch „Houston, we have a problem“ und der Aufforderung „Return to base“1.
Oder der Besucher findet sich plötzlich in einer U-Bahn-Station wieder – zwischen Werbeplakaten zu „Lost“ und „Missing“ sowie einer Anzeigetafel mit dem Appell „Please proceed to main level“. Zur Vollendung fährt ein Zug mit quietschenden Rädern ein2. Solche Internetseiten sind ohne Frage kreativ. Doch eine lustige Angelegenheit sind sie nicht.
Dahinter steckt die Idee, Besucher der Website nicht zu verärgern und nicht zu verlieren, wenn sie eine ungültige Seite aufrufen, zum Beispiel indem sie sich bei der Eingabe in der Adresszeile des Browsers verschreiben oder einen nicht funktionierenden Link anklicken. Normalerweise würden sie dann eine Meldung mit einem „404“-Vermerk und einem Zusatz wie „Beitrag nicht gefunden“ erhalten. „404 not found“ ist nämlich ein HTTP-Statuscode, den ein Webserver als Antwort liefert, wenn die angeforderte Ressource nicht gefunden werden kann3. Dies ist für den Visitor eintönig und frustrierend. Genervt verlässt er die Seite. Damit dies nicht passiert, setzen einige Unternehmen als Alternative auf kreative Fehlermeldungen. Manche unterhalten ihre Besucher und leiten sie zur Hauptseite oder einem anderen Beitrag auf der Website. Ein alternativer Weg, um mit einem Fehler umzugehen – doch kein geeigneter Weg, um der zugrunde liegenden Problematik zu begegnen.
Ein ungelöstes Problem
In den seltensten Fällen ist ein Tippfehler die Ursache dafür, dass die gewünschte Seite nicht aufgerufen werden kann. Vielmehr handelt es sich um ein ungelöstes Problem des Hypertextes. Es trägt mehrere Namen: tote Links, Totlinks, Broken Links und Linksterben. Dafür gibt es mehrere Gründe: Einer besteht darin, dass die gesuchte Domain nicht mehr existiert, neu vergeben worden und noch ohne Inhalt oder der Webserver nicht mehr erreichbar ist. Darüber hinaus entstehen oft tote Links, wenn der Inhalt einer Website neu organsiert oder das Content Management System gewechselt wird, was auch in prominenten Unternehmen und Institutionen an der Tagesordnung ist. Beispielsweise liefen nach der Auffrischung des Webauftritts des Schweizer Kantons Basel bestehende Links zur Website des Großen Rats ins Leere4.
In solchen Fällen werden meist Beiträge in ein anderes Verzeichnis verschoben, umbenannt oder gelöscht. Wird beispielsweise ein Text, der zuvor in der Kategorie „Aktuelles“ beziehungsweise unter dem Pfad
www.firmaxy.de/Aktuelles
angesiedelt war, etwa in eine neue Kategorie wie „News“ verschoben, verändert sich in vielen Fällen auch der entsprechende Teil des Linknamens automatisch in
www.firmaxy.de/News
Wurde der ursprüngliche Link in E-Mails, Presseinformationen, Newslettern, Blogeinträgen oder ähnlichem angegeben oder von Suchmaschinen gefunden, klicken die Leser auf einen Link, der nicht mehr zum gewünschten Ziel führt. Gleiches gilt, wenn nachträglich, zum Beispiel aufgrund eines Fehlers, eine Überschrift verändert wird. Denn oft wird der Link automatisch auch aus der Titel-Bezeichnung generiert. So verwandelt sich
www.firmaxy.de/News/Unser-neues-Release-istt-da
bei einer Korrektur des Tippfehlers in der Überschrift in
www.firmaxy.de/News/Unser-neues-Release-ist-da
Der Rechtschreibfehler ist zwar berichtigt, aber der Name des Links ist ein anderer und jener kann nicht mehr ohne weiteres zur ursprünglichen Meldung führen.
Solche Fälle sind häufig – weltweit. Die Harvard University fand heraus5, dass die Hälfte aller Links, die in den Dokumenten des Obersten Gerichtshofs der Vereinigten Staaten auftauchen, nicht mehr zur ursprünglichen Information führt. Betroffen sind auch soziale Medien. So haben Informatiker der amerikanischen Old Dominion University mehr als 11.000 Links in Tweets zu sechs Großereignissen von 2009 bis 2012 untersucht. Sie stellten fest6, dass nach einem Jahr 11 Prozent der Quellen verschwunden waren und nach zweieinhalb Jahren im Durchschnitt 27 Prozent. Internet-News, die von Google an 1. bis 3. Stelle gerankt werden, vergisst das Internet ebenfalls – 23 Prozent innerhalb des ersten Jahres, wie ein laufendes Experiment von Dr. Anja Johanning und Dr. Lutz Goertz7 belegt.
Besorgniserregende Entwicklung
Seit langer Zeit ist bekannt, dass Linksterben zu Problemen führt. Welche das sind, ist auch nicht neu. 1997 erkannten etwa 60 Prozent der User das Linksterben als eines der größten Probleme bei der Nutzung des Webs – zehn Prozent mehr als ein Jahr zuvor8. In einer Umfrage aus dem Jahre 19989 heißt es zudem, Linksterben irritiert User. Doch noch schlimmer sei es, dass Linksterben zur Auflösung des Webgefüges beitrage. Es bestehe die Gefahr, dass das Web aufhören werde, ein universeller, miteinander verbundener Hypertext zu sein und sich in eine Reihe isolierter Info-Inseln verwandle. Alles, was die Verbreitung und den Nutzen seitenübergreifender Verknüpfungen reduziere, sei ein direkter Angriff auf das Grundprinzip des Webs.
Dass das Linksterben trotzdem anhält, ist besorgniserregend. Denn eng mit dieser Entwicklung verbunden ist nicht nur die Frage, was einmal angegebene Links überhaupt wert sind, wenn sie über kurz oder lang mit großer Wahrscheinlichkeit nicht mehr funktionieren. Es drängt sich auch die Frage auf, inwieweit ein Text, der defekte Verlinkungen enthält, insgesamt an Bedeutung verliert, weil vielleicht wichtige Referenzen nicht mehr betrachtet werden können. Was passiert angesichts der Tatsache, dass sehr viele Beiträge im Internet Links enthalten?
Eine Antwort hat der ehemalige Reuters-Autor Felix Salmon. Er stellte fest10: „Wir haben uns in eine Welt der Streams hinein bewegt, in der der Fluss wichtiger ist als der Bestand und in der die Halbwertzeit von jedem Teil des Inhalts nie kürzer gewesen ist. Auch ist es nie einfacher gewesen, große Mengen von Inhalten auf einen Schlag zu löschen.“ Salmon fürchtet sich davor, dass das gesamte Web im Grunde zu einer Art Kurzmitteilungsdienst in Zeitlupe wird, in dem Inhalte für einige, unbekannte Zeit existieren, bevor sie sterben und für immer verloren sind.
Salmon nimmt Bezug auf den Blogging-Pionier Anil Dash, der über Social Networks, in denen Streams charakteristisch sind, gesagt hat11: „Wir haben Schlüsselfunktionen verloren, auf die wir früher vertraut haben, und schlimmer, wir haben Werte aufgegeben, die grundlegend für die Web-Welt sind. Das Verdienst der heutigen sozialen Netzwerke ist, dass sie hunderte von Millionen neuer Teilnehmer zu diesen Netzwerken gebracht haben und sie haben sicherlich auch eine geringe Anzahl von Menschen reich gemacht. Diese haben aber dem Web selbst nicht den Respekt gezeigt und die Pflege angedeihen lassen, die es verdient als ein Medium, das ihnen den Erfolg ermöglicht hat. Stattdessen haben sie die Möglichkeiten des Webs für eine ganze Generation von Nutzern, die nicht erkennen, wie viel innovativer und bedeutungsvoller ihre Erfahrung sein könnte, verringert.“
Unsichtbarer Lösungsweg
Zumindest eine Lösung ist bekannt: Jede URL, die jemals ins Internet gebracht wurde, sollte für immer erhalten bleiben. URL steht dabei für Uniform Resource Locator und bezeichnet im deutschen Sprachgebrauch allgemein eine Internetadresse beziehungsweise einen bestimmten Pfad. Er zeigt, wo sich etwas befindet und wie man dorthin kommt. Ein URL ist eine Teilmenge eines Uniform Resource Identifier (URI), eines einheitlichen Bezeichners für Ressourcen. Der Erfinder des Internets, Tim Berners-Lee, brachte es 1998 in einem Satz auf den Punkt, als er sagte: „Cool URIs don’t change“12. Doch der Weg zur Lösung scheint nicht so einfach zu sein. Für die meisten Nutzer des Internets ist er unsichtbar. Denn Tim Berners-Lee identifizierte mangelnde Voraussicht als einen Grund für die Vielzahl toter Links.
Dahinter steckt die Problematik, dass die wenigsten jeden ihrer Schritte im Internet kritisch hinterfragen. Die Mehrzahl handelt sicherlich mit bestem Wissen und Gewissen. Unternehmer, Webmaster, Redakteure – sie hoffen ihre Websites aufzuwerten, indem sie die Struktur verbessern oder alte Inhalte löschen. Dabei denken sie oft gar nicht daran, dass sie Links zerstören oder ihnen ist nicht bewusst, welche weit reichenden Folgen dies hat.
Ernste Folgen
In jedem Fall ist mit toten Links ein Imageschaden verbunden13. LEGO dürfte ebenfalls schon Probleme mit toten Links gehabt haben, wie dieser Post belegt:
„Schon wieder taucht auf einer neuen Bauanleitung ein Link zu einer Webseite auf, dienicht existiert… Es ist zum Kotzen! Seit Jahren wird hier (nicht nur von mir) immer wieder auf tote Links hingewiesen, aber LEGO reagiert einfach nicht. LEGO, Ihr seid unfähig, stellt Eure Internet-Präsenz doch ein, wenn Ihr zu blöd seid und spielt lieber ein bisschen mit bunten Plastikklötzchen anstatt Eure Kunden ständig mit solchem Mist in die Irre zu leiten.“14
Besser formuliert, aber mit einem ebenso niederschmetternden Urteil, fällt eine Bewertung einer App der Daimler AG auf CHIP online aus:
„Wollen Sie im Markenbereich der iOS-App mehr über Mercedes-Benz erfahren, gelangen Sie nur zu einem toten Link. Peinlich für so ein großes Unternehmen wie Daimler“15
Zum Imageschaden hinzu gesellen sich meist negative Auswirkungen auf das Ranking von Suchmaschinen. Denn Links geben den Suchmaschinen Aufschluss über die Glaubwürdigkeit einer Seite. Daher „mögen“ sie tote Links nicht. Das Beste, was einem Seitenbetreiber angesichts dessen passieren ist, dass fehlerhafte Links kein Vertrauen erhalten, wie Matt Cutts, Webspam-Teamleiter des Suchmaschinenanbieters Google sagt16. Schwerer wiegt eine mögliche Abstrafung der Website, wenn die Anzahl der fehlerhaften Links zu hoch ist17.
Zudem könnten andere Webnutzer tote Links für ihre Zwecke verwenden. „Kreatives Linkbuilding“ oder auch „Broken Link Building“ heißen die Schlagworte. Das Prinzip besteht darin, dass diese anderen Webnutzer, die vielleicht Geld mit Anzeigen auf ihren Seiten verdienen wollen, gute themenverwandte Links finden, die auf Fehlerseiten verweisen, und diese dann auf eigene Inhalte umlenken. Wie das umsetzbar ist, wird in Online-Anleitungen beschrieben. Demnach gibt es zwei verschiedene Ansätze – die Keyword-Recherche und die gezielte Recherche bei ausgewählten Domains18.
Bei der Recherche von Schlüsselwörtern werden zunächst Ziel-Keywords identifiziert, wobei neben der Thematik auch Faktoren wie räumliche Nähe und Zielgruppe eine Rolle spielen können. Anschließend werden mit Google, Bing oder spezieller Tools Seiten mit entsprechenden Inhalten, so genannte „passende Ressourcen“, gesucht. Aus diesen werden im nächsten Schritt die externen Links herausgesucht, aus jenen diejenigen, die 404-Fehler erzeugen und aus jenen wiederum die mit möglichst vielen eingehenden Links. Alternativ dazu besteht die Möglichkeit, 404-Seiten mit Hilfe von Software ausfindig zu machen. Linkanalyse-Tools und Excel können helfen, „brauchbare“ tote Links zu identifizieren, auch bei der gezielten Recherche auf einer bestimmten Domain.
Wie mit diesen Links verfahren wird, ist unabhängig vom Ansatz ähnlich: Über ein Webarchiv wird der verlorene Inhalt des Links abgefragt. Auf Grundlage dessen erfolgt die Anpassung des Inhalts der eigenen Website und – möglichst unter einem ähnlichen Namen – das Hochladen dieser Datei. Zu guter Letzt werden die Webmaster der Seiten, die den toten Link verwenden, um auf seinen Inhalt hinzuweisen, darüber informiert, dass er nicht mehr funktioniert, der Content aber unter dem mitgelieferten Link zur Verfügung steht. Dies gilt als schwierigster Teil. Aber: „Viele Webmaster werden den Hinweis auf die neu erstellte Seite dankbar aufnehmen, da sie damit ihren Usern wertvolle Informationen bieten können. Wer in der Vergangenheit auf eine externe Seite verlinkt hat, ist oftmals auch bereit, auf eine „Ersatzseite“ zu verlinken. Es besteht keine Garantie für einen Link, aber die Chancen stehen nicht schlecht.“, so SEO Marcus Obermeier19.
Nach einem schlechten Gewissen, fremde Links für eigene Zwecke zu benutzen, sucht man vergebens. „Ziel ist es nicht, Inhalte zu stehlen, sondern verlorenen Mehrwert wieder zur Verfügung zu stellen.“, erläutert Tino Schade in einem Blogbeitrag20. So gilt Broken Link Building sogar als eine der effektivsten Taktiken für den Link-Aufbau21,22. Doch letztlich dürfte stark anzuzweifeln sein, dass dieses Vorgehen im Interesse des Unternehmens ist, das den toten Link produziert hat.
Noch weiter geht übrigens das Desert Scraping. Dabei handelt es sich um eine Black-Hat-SEO-Technik, welche die Reaktivierung von toten Domains zur Steigerung der Leistung der eigenen Website beinhaltet23.
Die Schlussfolgerung: Unternehmen sind gut beraten, Links nach Möglichkeit am Leben zu erhalten.
Was ist ein Black Hat SEO?
In der Hackerkultur unterscheidet man zwischen drei Arten von Hackern. Die White Hats sind die Guten. Sie weisen durch ihre Hacks auf Sicherheitslücken hin, engagieren sich nicht selten politisch und wollen ihr Wissen mit anderen teilen. Ihre Hackerethik reicht zurück bis in die 60er Jahre und ihr Ethos lautet unter anderem: „Alle Informationen sollen frei sein“ und „mit Computer kann man Kunst und Schönheit schaffen„.
Nicht ganz so eng sehen es dagegen die Grey Hats. Zerstörung von anderen Systemen und Gesetzesüberschreitungen nehmen sie nicht so ernst, sofern es einem höheren gesellschaftlichen Zweck dient. Sie sehen ihr Handeln nicht als kriminell, sondern rechtfertigen den angerichteten Kollateralschaden eher mit „Konstruktive Destruktion„. Von vielen Hackerkulturen oft verachtet sind die Black Hats. Der klischeebehaftete digitale Bankräuber, der nur zum Selbstzweck Systeme hackt oder einfach nur seiner Wut freien Lauf lassen möchte, ist der typische „böse Hacker“. Seine einzige Rechtfertigung ist ein verdrehtes Rechtsbewusstsein: „Wir sind die Elite, alle anderen haben hier nichts verloren!“
Lösungswege
Die Tipps von Tim Berners-Lee12 bilden dabei einen der sinnvollsten Anhaltspunkte. Sie sind Hinweise für eine vorausschauende Konstruktion von Links. „Vorausschauend“ ist dabei ein Schlüsselwort. Es impliziert nämlich das Vorhandensein eines Problembewusstseins. Das bedeutet: Alle, die in einem Unternehmen etwas mit der Website zu tun haben, müssen immer im Hinterkopf haben, dass in vielen Fällen bereits auf den bestehenden Inhalt verlinkt worden ist, auch ohne ihren Einfluss, beispielsweise in Social Networks und in Suchmaschinen.
Damit verfügen sie über eine Grundvoraussetzung, um zu erkennen, dass es gar nicht ohne Folgen bleiben kann, wenn sie eine einmal veröffentlichte Datei auf ihrer Website umbenennen (lassen), weil ihnen der Titel nicht mehr gefällt, sie verschieben (lassen), weil sie im falschen Verzeichnis abgespeichert ist, oder sie gar löschen (lassen), nur, weil sie nicht mehr aktuell ist. Im Umkehrschluss wissen sie, dass sich viele Links, die sie selber in einem Text angeben, ändern können. Die Sicht auf einen möglichen Lösungsweg zu unveränderlichen URIs wird klarer.
Eigentlich gibt es keinen Grund URIs zu ändern. Zur Praktik des Verschiebens, Umbenennens und Löschens existieren einfache Alternativen, wie Tim Berners-Lee aufgezeigt hat. Beispielsweise können die Steuerungsmöglichkeiten des Servers genutzt werden. Sie ermöglichen eine flexible Beziehung zwischen URI eines Objekts und Ort, an dem eine Datei sich befindet, die den Link repräsentiert. Somit müssen Dateien nicht verschoben werden und die URIs ändern sich nicht, wenn man nur Mechanismen ändert. Darüber hinaus können Unternehmen in jedem Dokument dessen Verteilung, das Erstellungs- und idealerweise das Ablaufdatum in den Metadaten erfassen. Dies hilft, einen Überblick darüber zu behalten, was aktuell ist, auch bei einem hohen Informationsaufkommen.
Die Aufgabe sieht der Vater des Webs in der Konstruktion dauerhafter URIs. Da sich der URI ändere, wenn sich Informationen in ihm ändern, bedeute die Konstruktion eines stabilen URI, auf Informationen zu verzichten. Einen guten Ausgangspunkt dafür bilde das Erstellungsdatum. Es ändere sich nämlich nicht. Alle anderen Informationen sorgen früher oder später auf irgendeine Weise für Ärger, beispielsweise der Autorenname, der sich mit neuen Versionen verändern könne. Themen und deren fachliche Gliederung ändern sich ebenfalls mit der Zeit. Gleiches gelte für den Server-Namen. Wer solche Aspekte bereits bei der Konstruktion der URIs berücksichtigt, wirkt toten Links entgegen, bevor sie entstehen und erspart sich Folgearbeit.
Sind tote Link entstanden, sollten diese aufgespürt werden. Dies gilt für tote interne und externe Links auf der eigenen Website, für fehlerhafte Links, die von anderen Seiten zur eigenen Website führen sollen – so genannte Backlinks – und für nicht funktionierende Links in Newslettern und anderen Publikationen. Dabei helfen Werkzeuge wie Google Webmaster Tools, der Dead Link Checker, SEOmoz Open Site Explorer und Majestic SEO. Aber auch eingehende Hinweise auf Twitter, Facebook oder per E-Mail sind hilfreich.
Werden Fehler in Backlinks entdeckt, können Unternehmen die Betreiber der betroffenen Seiten kontaktieren und um Korrektur bitten. Auf Self-Service-Portalen haben sie die Möglichkeit, selber Berichtigungen vorzunehmen. Kann ein Link nicht berichtigt werden, weil er beispielsweise getwittert oder in einem Newsletter verschickt worden oder der Beitrag verschoben beziehungsweise umbenannt worden ist, hilft es, eine Weiterleitung einzurichten: einen so genannten 301-Redirect. Sauber angelegt, führt er den Besucher – inklusive Suchmaschinen – direkt zum neuen URI. So stellt er sicher, dass der Inhalt wiedergefunden wird24. Zudem sorgt er bei einem Relaunch dafür, dass ein Großteil der vorhandenen Linkpopularität auf die neue Domain übertragen wird25.
Verantwortung bei allen
Verschiedene Initiativen unterstützen den Erhalt von Links. Dazu gehört als erste Anlaufstelle das gemeinnützige Internet Archive archive.org. Es wurde 1996 gegründet, um eine Internet-Bibliothek aufzubauen. Seine Wayback Machine ermöglicht es, gespeicherte Websites in verschiedenen Versionen zu betrachten. Dafür werden über den Serverdienst Alexa ausgewählte Seiten in regelmäßigen zeitlichen Abständen aufgerufen und archiviert. Diese Sammlung erreichte im Oktober 2012 eine Größe von 10 Petabyte26 und speist seit dem vergangenen Jahr eine Zeitmaschine. Diese befördert 404-Seiten mit Hilfe eines Scripts in eine frühere Zeit zurück, wenn eine Kopie der Seite in der Wayback Machine vorliegt. In diesem Fall wird die 404-Seite mit einem Link dorthin versorgt, sodass der User auf den Inhalt zugreifen kann27.
Das On-Demand-Webarchivierungssystem WebCite archiviert Websites auf Wunsch. Es wendet sich speziell an Autoren, Redakteure und Herausgeber von wissenschaftlichen Arbeiten und Büchern. Memento verfolgt das Ziel, den Zugriff auf das Web der Vergangenheit genauso einfach zu gestalten wie den Zugriff auf das aktuelle Web. Um die Linkstabilität zu verbessern, arbeitet das Memento-Team an der Los Alamos National Laboratory und der Old Dominion University seit kurzem auch mit Kollegen an der Harvard University zusammen – im so genannten „404-No-More-Projekt“28: Über ein spezielles Attribut29, das dem HTML-Code hinzugefügt wird, soll der Zugriff auf frühere Versionen verlinkter Inhalte ermöglicht werden30. Darüber hinaus hilft der Service Perma.cc beim Erstellen stabiler Links. Er befindet sich in der Beta-Phase und ist ein Angebot unter Regie der Harvard Law School Library. Wenn ein User einen Perma.cc-Link kreiert, archiviert Perma.cc eine Kopie des Inhalts und generiert einen unveränderlichen Link zu der Seite. Dieser kann in Veröffentlichungen angegeben werden und wird nach einer Bestätigung festgesetzt31.
All diesen Initiativen ist gemein, dass sie sich den Erhalt von Inhalten auf ihre Fahnen geschrieben haben und gegen ein Digital Dark Age arbeiten – ein Zeitalter, in dem es schwer oder gar nicht mehr möglich ist, historische elektronische Dokumente zu lesen. Dabei sind sie mit einem vielschichtigen Problem konfrontiert: der Frage, was vom Netz erhalten bleiben soll. Sie beschäftigt im Übrigen auch die Deutsche Nationalbibliothek in Frankfurt, die einen Sammelauftrag für elektronische Publikationen hat und den Anspruch, alles zu archivieren, ad acta legen musste32. Denn niemand kann alles archivieren – und auch gemeinsam gestaltet sich dies schwierig. Während die Menge der digitalisierten Daten exponentiell wächst, sich der Datenbestand in Westeuropa der Digital-Universe-Studie von EMC zufolge alle zweieinhalb Jahre verdoppelt und die Technologie so schnell wie nie zuvor verändert, laufen Projekte zur Langzeitarchivierung erst langsam an. Sehr viele Seiten fallen durch das Raster dieser Initiativen33.
Somit liegt die Verantwortung für den Erhalt von Links bei jedem selber. Tim Berners-Lee hat den Webmastern diese Arbeit zugewiesen. Ebenso sind aber auch die Entscheidungsträger in Unternehmen gefordert, die Redakteure und alle anderen, die Beiträge im Web veröffentlichen – es sei denn, sie wollen Kurzmitteilungen schaffen, die für einige Zeit existieren, bevor sie für immer verloren sind – Inhalte fürs Abstellgleis.
Quellen
- blueleaf, bit.ly/1xsLpOm
- Daniel Karcher, „bluedaniel.com“, bit.ly/1jcC03K
- Wikipedia, „Toter Link“, bit.ly/1xsLKk5
- TagesWoche, „Basels vergessene Links“, bit.ly/1mstfn6
- Social Science Electronic Publishing, „Perma: Scoping and Addressing the Problem of Link and Reference Rot in Legal Citations“, bit.ly/1rYfTHF
- Hany M. SalahEldeen and Michael L. Nelson, Old Dominion University, „Losing My Revolution – How Many Resources Shared on Social Media Have Been Lost?“, bit.ly/1idpFfo
- Dr. Anja Johanning, Dr. Lutz Goertz, „Das Internet vergisst doch!“, bit.ly/1hHBYGg
- Georgia Tech Collage of Computing, „Problems Using the Web“, b.gatech.edu/1p9BURH
- Jakob Nielsen, „Fighting Linkrot“, bit.ly/TvhJAo
- Felix Salmon, „The spread of link rot“, reut.rs/Tvi3PM
- Anil Dash, „The Web We Lost“, bit.ly/1kaPj5Q
- Tim Berners-Lee, „Cool URIs don’t change“, bit.ly/1jlu5WA
- Marius Däpp, „404 Fehler bei Lexmark“, bit.ly/1kWUjd0
- Hümpfch, „Warum ist LEGO bloß so unfähig?“, bit.ly/1ids0XI
- CHIP online, „App-Experte Nicole Hery-Moßmann sagt“, bit.ly/1hHEjB0
- Matt Cutts, „Free links to your site“, bit.ly/TvknpQ
- Abhik Biswas, „Tracking 404 Error Pages“, bit.ly/1o2uMXV
- SEO Südwest, „Broken Link Building – effektiver Linkaufbau“, bit.ly/1idt8dW \
- AKM3 Team, „44 kreative Linkbuilding-Ideen made in Germany“, Tipp 25, bit.ly/1hHFe4s
- trafficmaxx, „Linkbuilding Tipp: Broken Links finden – und auf die eigene Seite leiten“, bit.ly/Umx3A7
- Popularity Reference GmbH, „PR Wochenrückblick KW29 – Die Highlights der Woche“, bit.ly/1oKDqGm
- The Moz Blog, „Link Building Survey 2013 – The Results“, bit.ly/UmxlHo
- Blueverse, „Desert Scraping: How it can help your online business“, bit.ly/1nsU7Xo
- Ralf Zosel, „Cool URIs don’t change“, bit.ly/1p9HAvc
- isiCore GmbH, „SEO beim Website Relaunch – Wie Sie die Katastrophe verhindern“, bit.ly/1ozfUOn
- Wikipedia, „Internet Archive“, bit.ly/1msEmfM
- Eric Herrmann, „Waybackmachine-Fallback statt 404-Error“, bit.ly/1k9CBTe
- memento, „404-No-More“, bit.ly/TvqSsG
- Ryan Westphal, Herbert Van de Sompel, Michael L. Nelson, „The mset Attribute“, bit.ly/1kRHaGM
- Patrick Howell O’Neill, „This project aims to make ‚404 not found‘ pages a thing of the past“, bit.ly/1msFdgC
- perma.cc, „About Perma“, bit.ly/1k9DY4r
- Frankfurter Allgemeine Zeitung, Thomas Thiel, „Am Boulevard der toten Links“, bit.ly/1p9K6Bx
- Derek Mead, „When Will the Internet Defeat Link Rot? „, bit.ly/1d7Y0ZF