Linksterben: Tote Links

Tote Links im Internet

von Bianka Boock

Beim Aufrufen von Internetseiten geschehen scheinbar seltsame Dinge. Wie aus heiterem Himmel kann ein Video von der Mondlandung auftauchen – verbunden mit dem Spruch „Houston, we have a problem“ und der Aufforderung „Return to base“1.

Oder der Besucher findet sich plötzlich in einer U-Bahn-Station wieder – zwischen Werbeplakaten zu „Lost“ und „Missing“ sowie einer Anzeigetafel mit dem Appell „Please proceed to main level“. Zur Vollendung fährt ein Zug mit quietschenden Rädern ein2. Solche Internetseiten sind ohne Frage kreativ. Doch eine lustige Angelegenheit sind sie nicht.

Dahinter steckt die Idee, Besucher der Website nicht zu verärgern und nicht zu verlieren, wenn sie eine ungültige Seite aufrufen, zum Beispiel indem sie sich bei der Eingabe in der Adresszeile des Browsers verschreiben oder einen nicht funktionierenden Link anklicken. Normalerweise würden sie dann eine Meldung mit einem „404“-Vermerk und einem Zusatz wie „Beitrag nicht gefunden“ erhalten. „404 not found“ ist nämlich ein HTTP-Statuscode, den ein Webserver als Antwort liefert, wenn die angeforderte Ressource nicht gefunden werden kann3. Dies ist für den Visitor eintönig und frustrierend. Genervt verlässt er die Seite. Damit dies nicht passiert, setzen einige Unternehmen als Alternative auf kreative Fehlermeldungen. Manche unterhalten ihre Besucher und leiten sie zur Hauptseite oder einem anderen Beitrag auf der Website. Ein alternativer Weg, um mit einem Fehler umzugehen – doch kein geeigneter Weg, um der zugrunde liegenden Problematik zu begegnen.

Ein ungelöstes Problem

In den seltensten Fällen ist ein Tippfehler die Ursache dafür, dass die gewünschte Seite nicht aufgerufen werden kann. Vielmehr handelt es sich um ein ungelöstes Problem des Hypertextes. Es trägt mehrere Namen: tote Links, Totlinks, Broken Links und Linksterben. Dafür gibt es mehrere Gründe: Einer besteht darin, dass die gesuchte Domain nicht mehr existiert, neu vergeben worden und noch ohne Inhalt oder der Webserver nicht mehr erreichbar ist. Darüber hinaus entstehen oft tote Links, wenn der Inhalt einer Website neu organsiert oder das Content Management System gewechselt wird, was auch in prominenten Unternehmen und Institutionen an der Tagesordnung ist. Beispielsweise liefen nach der Auffrischung des Webauftritts des Schweizer Kantons Basel bestehende Links zur Website des Großen Rats ins Leere4.

In solchen Fällen werden meist Beiträge in ein anderes Verzeichnis verschoben, umbenannt oder gelöscht. Wird beispielsweise ein Text, der zuvor in der Kategorie „Aktuelles“ beziehungsweise unter dem Pfad

www.firmaxy.de/Aktuelles

angesiedelt war, etwa in eine neue Kategorie wie „News“ verschoben, verändert sich in vielen Fällen auch der entsprechende Teil des Linknamens automatisch in

www.firmaxy.de/News

Wurde der ursprüngliche Link in E-Mails, Presseinformationen, Newslettern, Blogeinträgen oder ähnlichem angegeben oder von Suchmaschinen gefunden, klicken die Leser auf einen Link, der nicht mehr zum gewünschten Ziel führt. Gleiches gilt, wenn nachträglich, zum Beispiel aufgrund eines Fehlers, eine Überschrift verändert wird. Denn oft wird der Link automatisch auch aus der Titel-Bezeichnung generiert. So verwandelt sich

http://www.firmaxy.de/News/Unser-neues-Release-istt-da

bei einer Korrektur des Tippfehlers in der Überschrift in

http://www.firmaxy.de/News/Unser-neues-Release-ist-da

Der Rechtschreibfehler ist zwar berichtigt, aber der Name des Links ist ein anderer und jener kann nicht mehr ohne weiteres zur ursprünglichen Meldung führen.

404 Beispiel

Eine 404-Meldung

Solche Fälle sind häufig – weltweit. Die Harvard University fand heraus5, dass die Hälfte aller Links, die in den Dokumenten des Obersten Gerichtshofs der Vereinigten Staaten auftauchen, nicht mehr zur ursprünglichen Information führt. Betroffen sind auch soziale Medien. So haben Informatiker der amerikanischen Old Dominion University mehr als 11.000 Links in Tweets zu sechs Großereignissen von 2009 bis 2012 untersucht. Sie stellten fest6, dass nach einem Jahr 11 Prozent der Quellen verschwunden waren und nach zweieinhalb Jahren im Durchschnitt 27 Prozent. Internet-News, die von Google an 1. bis 3. Stelle gerankt werden, vergisst das Internet ebenfalls – 23 Prozent innerhalb des ersten Jahres, wie ein laufendes Experiment von Dr. Anja Johanning und Dr. Lutz Goertz7 belegt.

Besorgniserregende Entwicklung

Seit langer Zeit ist bekannt, dass Linksterben zu Problemen führt. Welche das sind, ist auch nicht neu. 1997 erkannten etwa 60 Prozent der User das Linksterben als eines der größten Probleme bei der Nutzung des Webs – zehn Prozent mehr als ein Jahr zuvor8. In einer Umfrage aus dem Jahre 19989 heißt es zudem, Linksterben irritiert User. Doch noch schlimmer sei es, dass Linksterben zur Auflösung des Webgefüges beitrage. Es bestehe die Gefahr, dass das Web aufhören werde, ein universeller, miteinander verbundener Hypertext zu sein und sich in eine Reihe isolierter Info-Inseln verwandle. Alles, was die Verbreitung und den Nutzen seitenübergreifender Verknüpfungen reduziere, sei ein direkter Angriff auf das Grundprinzip des Webs.

Dass das Linksterben trotzdem anhält, ist besorgniserregend. Denn eng mit dieser Entwicklung verbunden ist nicht nur die Frage, was einmal angegebene Links überhaupt wert sind, wenn sie über kurz oder lang mit großer Wahrscheinlichkeit nicht mehr funktionieren. Es drängt sich auch die Frage auf, inwieweit ein Text, der defekte Verlinkungen enthält, insgesamt an Bedeutung verliert, weil vielleicht wichtige Referenzen nicht mehr betrachtet werden können. Was passiert angesichts der Tatsache, dass sehr viele Beiträge im Internet Links enthalten?

Eine Antwort hat der ehemalige Reuters-Autor Felix Salmon. Er stellte fest10: „Wir haben uns in eine Welt der Streams hinein bewegt, in der der Fluss wichtiger ist als der Bestand und in der die Halbwertzeit von jedem Teil des Inhalts nie kürzer gewesen ist. Auch ist es nie einfacher gewesen, große Mengen von Inhalten auf einen Schlag zu löschen.“ Salmon fürchtet sich davor, dass das gesamte Web im Grunde zu einer Art Kurzmitteilungsdienst in Zeitlupe wird, in dem Inhalte für einige, unbekannte Zeit existieren, bevor sie sterben und für immer verloren sind.

Salmon nimmt Bezug auf den Blogging-Pionier Anil Dash, der über Social Networks, in denen Streams charakteristisch sind, gesagt hat11: „Wir haben Schlüsselfunktionen verloren, auf die wir früher vertraut haben, und schlimmer, wir haben Werte aufgegeben, die grundlegend für die Web-Welt sind. Das Verdienst der heutigen sozialen Netzwerke ist, dass sie hunderte von Millionen neuer Teilnehmer zu diesen Netzwerken gebracht haben und sie haben sicherlich auch eine geringe Anzahl von Menschen reich gemacht. Diese haben aber dem Web selbst nicht den Respekt gezeigt und die Pflege angedeihen lassen, die es verdient als ein Medium, das ihnen den Erfolg ermöglicht hat. Stattdessen haben sie die Möglichkeiten des Webs für eine ganze Generation von Nutzern, die nicht erkennen, wie viel innovativer und bedeutungsvoller ihre Erfahrung sein könnte, verringert.“

Unsichtbarer Lösungsweg

Tim Berners Lee

Tim Berners-Lee ist der Erfinder des World Wide Web

Zumindest eine Lösung ist bekannt: Jede URL, die jemals ins Internet gebracht wurde, sollte für immer erhalten bleiben. URL steht dabei für Uniform Resource Locator und bezeichnet im deutschen Sprachgebrauch allgemein eine Internetadresse beziehungsweise einen bestimmten Pfad. Er zeigt, wo sich etwas befindet und wie man dorthin kommt. Ein URL ist eine Teilmenge eines Uniform Resource Identifier (URI), eines einheitlichen Bezeichners für Ressourcen. Der Erfinder des Internets, Tim Berners-Lee, brachte es 1998 in einem Satz auf den Punkt, als er sagte: „Cool URIs don’t change“12. Doch der Weg zur Lösung scheint nicht so einfach zu sein. Für die meisten Nutzer des Internets ist er unsichtbar. Denn Tim Berners-Lee identifizierte mangelnde Voraussicht als einen Grund für die Vielzahl toter Links.

Dahinter steckt die Problematik, dass die wenigsten jeden ihrer Schritte im Internet kritisch hinterfragen. Die Mehrzahl handelt sicherlich mit bestem Wissen und Gewissen. Unternehmer, Webmaster, Redakteure – sie hoffen ihre Websites aufzuwerten, indem sie die Struktur verbessern oder alte Inhalte löschen. Dabei denken sie oft gar nicht daran, dass sie Links zerstören oder ihnen ist nicht bewusst, welche weit reichenden Folgen dies hat.

Ernste Folgen

In jedem Fall ist mit toten Links ein Imageschaden verbunden13. LEGO dürfte ebenfalls schon Probleme mit toten Links gehabt haben, wie dieser Post belegt:

„Schon wieder taucht auf einer neuen Bauanleitung ein Link zu einer Webseite auf, dienicht existiert… Es ist zum Kotzen! Seit Jahren wird hier (nicht nur von mir) immer wieder auf tote Links hingewiesen, aber LEGO reagiert einfach nicht. LEGO, Ihr seid unfähig, stellt Eure Internet-Präsenz doch ein, wenn Ihr zu blöd seid und spielt lieber ein bisschen mit bunten Plastikklötzchen anstatt Eure Kunden ständig mit solchem Mist in die Irre zu leiten.“14

Besser formuliert, aber mit einem ebenso niederschmetternden Urteil, fällt eine Bewertung einer App der Daimler AG auf CHIP online aus:

„Wollen Sie im Markenbereich der iOS-App mehr über Mercedes-Benz erfahren, gelangen Sie nur zu einem toten Link. Peinlich für so ein großes Unternehmen wie Daimler“15

Zum Imageschaden hinzu gesellen sich meist negative Auswirkungen auf das Ranking von Suchmaschinen. Denn Links geben den Suchmaschinen Aufschluss über die Glaubwürdigkeit einer Seite. Daher „mögen“ sie tote Links nicht. Das Beste, was einem Seitenbetreiber angesichts dessen passieren ist, dass fehlerhafte Links kein Vertrauen erhalten, wie Matt Cutts, Webspam-Teamleiter des Suchmaschinenanbieters Google sagt16. Schwerer wiegt eine mögliche Abstrafung der Website, wenn die Anzahl der fehlerhaften Links zu hoch ist17.

Zudem könnten andere Webnutzer tote Links für ihre Zwecke verwenden. „Kreatives Linkbuilding“ oder auch „Broken Link Building“ heißen die Schlagworte. Das Prinzip besteht darin, dass diese anderen Webnutzer, die vielleicht Geld mit Anzeigen auf ihren Seiten verdienen wollen, gute themenverwandte Links finden, die auf Fehlerseiten verweisen, und diese dann auf eigene Inhalte umlenken. Wie das umsetzbar ist, wird in Online-Anleitungen beschrieben. Demnach gibt es zwei verschiedene Ansätze – die Keyword-Recherche und die gezielte Recherche bei ausgewählten Domains18.

Bei der Recherche von Schlüsselwörtern werden zunächst Ziel-Keywords identifiziert, wobei neben der Thematik auch Faktoren wie räumliche Nähe und Zielgruppe eine Rolle spielen können. Anschließend werden mit Google, Bing oder spezieller Tools Seiten mit entsprechenden Inhalten, so genannte „passende Ressourcen“, gesucht. Aus diesen werden im nächsten Schritt die externen Links herausgesucht, aus jenen diejenigen, die 404-Fehler erzeugen und aus jenen wiederum die mit möglichst vielen eingehenden Links. Alternativ dazu besteht die Möglichkeit, 404-Seiten mit Hilfe von Software ausfindig zu machen. Linkanalyse-Tools und Excel können helfen, „brauchbare“ tote Links zu identifizieren, auch bei der gezielten Recherche auf einer bestimmten Domain.

Wie mit diesen Links verfahren wird, ist unabhängig vom Ansatz ähnlich: Über ein Webarchiv wird der verlorene Inhalt des Links abgefragt. Auf Grundlage dessen erfolgt die Anpassung des Inhalts der eigenen Website und – möglichst unter einem ähnlichen Namen – das Hochladen dieser Datei. Zu guter Letzt werden die Webmaster der Seiten, die den toten Link verwenden, um auf seinen Inhalt hinzuweisen, darüber informiert, dass er nicht mehr funktioniert, der Content aber unter dem mitgelieferten Link zur Verfügung steht. Dies gilt als schwierigster Teil. Aber: „Viele Webmaster werden den Hinweis auf die neu erstellte Seite dankbar aufnehmen, da sie damit ihren Usern wertvolle Informationen bieten können. Wer in der Vergangenheit auf eine externe Seite verlinkt hat, ist oftmals auch bereit, auf eine „Ersatzseite“ zu verlinken. Es besteht keine Garantie für einen Link, aber die Chancen stehen nicht schlecht.“, so SEO Marcus Obermeier19.

Nach einem schlechten Gewissen, fremde Links für eigene Zwecke zu benutzen, sucht man vergebens. „Ziel ist es nicht, Inhalte zu stehlen, sondern verlorenen Mehrwert wieder zur Verfügung zu stellen.“, erläutert Tino Schade in einem Blogbeitrag20. So gilt Broken Link Building sogar als eine der effektivsten Taktiken für den Link-Aufbau21,22. Doch letztlich dürfte stark anzuzweifeln sein, dass dieses Vorgehen im Interesse des Unternehmens ist, das den toten Link produziert hat.

Noch weiter geht übrigens das Desert Scraping. Dabei handelt es sich um eine Black-Hat-SEO-Technik, welche die Reaktivierung von toten Domains zur Steigerung der Leistung der eigenen Website beinhaltet23.
Die Schlussfolgerung: Unternehmen sind gut beraten, Links nach Möglichkeit am Leben zu erhalten.

Was ist ein Black Hat SEO?

In der Hackerkultur unterscheidet man zwischen drei Arten von Hackern. Die White Hats sind die Guten. Sie weisen durch ihre Hacks auf Sicherheitslücken hin, engagieren sich nicht selten politisch und wollen ihr Wissen mit anderen teilen. Ihre Hackerethik reicht zurück bis in die 60er Jahre und ihr Ethos lautet unter anderem: „Alle Informationen sollen frei sein“ und „mit Computer kann man Kunst und Schönheit schaffen„.

Nicht ganz so eng sehen es dagegen die Grey Hats. Zerstörung von anderen Systemen und Gesetzesüberschreitungen nehmen sie nicht so ernst, sofern es einem höheren gesellschaftlichen Zweck dient. Sie sehen ihr Handeln nicht als kriminell, sondern rechtfertigen den angerichteten Kollateralschaden eher mit „Konstruktive Destruktion„. Von vielen Hackerkulturen oft verachtet sind die Black Hats. Der klischeebehaftete digitale Bankräuber, der nur zum Selbstzweck Systeme hackt oder einfach nur seiner Wut freien Lauf lassen möchte, ist der typische „böse Hacker“. Seine einzige Rechtfertigung ist ein verdrehtes Rechtsbewusstsein: „Wir sind die Elite, alle anderen haben hier nichts verloren!“

Lösungswege

Die Tipps von Tim Berners-Lee12 bilden dabei einen der sinnvollsten Anhaltspunkte. Sie sind Hinweise für eine vorausschauende Konstruktion von Links. „Vorausschauend“ ist dabei ein Schlüsselwort. Es impliziert nämlich das Vorhandensein eines Problembewusstseins. Das bedeutet: Alle, die in einem Unternehmen etwas mit der Website zu tun haben, müssen immer im Hinterkopf haben, dass in vielen Fällen bereits auf den bestehenden Inhalt verlinkt worden ist, auch ohne ihren Einfluss, beispielsweise in Social Networks und in Suchmaschinen.

Damit verfügen sie über eine Grundvoraussetzung, um zu erkennen, dass es gar nicht ohne Folgen bleiben kann, wenn sie eine einmal veröffentlichte Datei auf ihrer Website umbenennen (lassen), weil ihnen der Titel nicht mehr gefällt, sie verschieben (lassen), weil sie im falschen Verzeichnis abgespeichert ist, oder sie gar löschen (lassen), nur, weil sie nicht mehr aktuell ist. Im Umkehrschluss wissen sie, dass sich viele Links, die sie selber in einem Text angeben, ändern können. Die Sicht auf einen möglichen Lösungsweg zu unveränderlichen URIs wird klarer.

Eigentlich gibt es keinen Grund URIs zu ändern. Zur Praktik des Verschiebens, Umbenennens und Löschens existieren einfache Alternativen, wie Tim Berners-Lee aufgezeigt hat. Beispielsweise können die Steuerungsmöglichkeiten des Servers genutzt werden. Sie ermöglichen eine flexible Beziehung zwischen URI eines Objekts und Ort, an dem eine Datei sich befindet, die den Link repräsentiert. Somit müssen Dateien nicht verschoben werden und die URIs ändern sich nicht, wenn man nur Mechanismen ändert. Darüber hinaus können Unternehmen in jedem Dokument dessen Verteilung, das Erstellungs- und idealerweise das Ablaufdatum in den Metadaten erfassen. Dies hilft, einen Überblick darüber zu behalten, was aktuell ist, auch bei einem hohen Informationsaufkommen.

Die Aufgabe sieht der Vater des Webs in der Konstruktion dauerhafter URIs. Da sich der URI ändere, wenn sich Informationen in ihm ändern, bedeute die Konstruktion eines stabilen URI, auf Informationen zu verzichten. Einen guten Ausgangspunkt dafür bilde das Erstellungsdatum. Es ändere sich nämlich nicht. Alle anderen Informationen sorgen früher oder später auf irgendeine Weise für Ärger, beispielsweise der Autorenname, der sich mit neuen Versionen verändern könne. Themen und deren fachliche Gliederung ändern sich ebenfalls mit der Zeit. Gleiches gelte für den Server-Namen. Wer solche Aspekte bereits bei der Konstruktion der URIs berücksichtigt, wirkt toten Links entgegen, bevor sie entstehen und erspart sich Folgearbeit.

Sind tote Link entstanden, sollten diese aufgespürt werden. Dies gilt für tote interne und externe Links auf der eigenen Website, für fehlerhafte Links, die von anderen Seiten zur eigenen Website führen sollen – so genannte Backlinks – und für nicht funktionierende Links in Newslettern und anderen Publikationen. Dabei helfen Werkzeuge wie Google Webmaster Tools, der Dead Link Checker, SEOmoz Open Site Explorer und Majestic SEO. Aber auch eingehende Hinweise auf Twitter, Facebook oder per E-Mail sind hilfreich.

Werden Fehler in Backlinks entdeckt, können Unternehmen die Betreiber der betroffenen Seiten kontaktieren und um Korrektur bitten. Auf Self-Service-Portalen haben sie die Möglichkeit, selber Berichtigungen vorzunehmen. Kann ein Link nicht berichtigt werden, weil er beispielsweise getwittert oder in einem Newsletter verschickt worden oder der Beitrag verschoben beziehungsweise umbenannt worden ist, hilft es, eine Weiterleitung einzurichten: einen so genannten 301-Redirect. Sauber angelegt, führt er den Besucher – inklusive Suchmaschinen – direkt zum neuen URI. So stellt er sicher, dass der Inhalt wiedergefunden wird24. Zudem sorgt er bei einem Relaunch dafür, dass ein Großteil der vorhandenen Linkpopularität auf die neue Domain übertragen wird25.

Verantwortung bei allen

Verschiedene Initiativen unterstützen den Erhalt von Links. Dazu gehört als erste Anlaufstelle das gemeinnützige Internet Archive archive.org. Es wurde 1996 gegründet, um eine Internet-Bibliothek aufzubauen. Seine Wayback Machine ermöglicht es, gespeicherte Websites in verschiedenen Versionen zu betrachten. Dafür werden über den Serverdienst Alexa ausgewählte Seiten in regelmäßigen zeitlichen Abständen aufgerufen und archiviert. Diese Sammlung erreichte im Oktober 2012 eine Größe von 10 Petabyte26 und speist seit dem vergangenen Jahr eine Zeitmaschine. Diese befördert 404-Seiten mit Hilfe eines Scripts in eine frühere Zeit zurück, wenn eine Kopie der Seite in der Wayback Machine vorliegt. In diesem Fall wird die 404-Seite mit einem Link dorthin versorgt, sodass der User auf den Inhalt zugreifen kann27.

Wayback Machine

Mit der Wayback Machine kann auf Websites historisch zurückblicken

Das On-Demand-Webarchivierungssystem WebCite archiviert Websites auf Wunsch. Es wendet sich speziell an Autoren, Redakteure und Herausgeber von wissenschaftlichen Arbeiten und Büchern. Memento verfolgt das Ziel, den Zugriff auf das Web der Vergangenheit genauso einfach zu gestalten wie den Zugriff auf das aktuelle Web. Um die Linkstabilität zu verbessern, arbeitet das Memento-Team an der Los Alamos National Laboratory und der Old Dominion University seit kurzem auch mit Kollegen an der Harvard University zusammen – im so genannten „404-No-More-Projekt“28: Über ein spezielles Attribut29, das dem HTML-Code hinzugefügt wird, soll der Zugriff auf frühere Versionen verlinkter Inhalte ermöglicht werden30. Darüber hinaus hilft der Service Perma.cc beim Erstellen stabiler Links. Er befindet sich in der Beta-Phase und ist ein Angebot unter Regie der Harvard Law School Library. Wenn ein User einen Perma.cc-Link kreiert, archiviert Perma.cc eine Kopie des Inhalts und generiert einen unveränderlichen Link zu der Seite. Dieser kann in Veröffentlichungen angegeben werden und wird nach einer Bestätigung festgesetzt31.

All diesen Initiativen ist gemein, dass sie sich den Erhalt von Inhalten auf ihre Fahnen geschrieben haben und gegen ein Digital Dark Age arbeiten – ein Zeitalter, in dem es schwer oder gar nicht mehr möglich ist, historische elektronische Dokumente zu lesen. Dabei sind sie mit einem vielschichtigen Problem konfrontiert: der Frage, was vom Netz erhalten bleiben soll. Sie beschäftigt im Übrigen auch die Deutsche Nationalbibliothek in Frankfurt, die einen Sammelauftrag für elektronische Publikationen hat und den Anspruch, alles zu archivieren, ad acta legen musste32. Denn niemand kann alles archivieren – und auch gemeinsam gestaltet sich dies schwierig. Während die Menge der digitalisierten Daten exponentiell wächst, sich der Datenbestand in Westeuropa der Digital-Universe-Studie von EMC zufolge alle zweieinhalb Jahre verdoppelt und die Technologie so schnell wie nie zuvor verändert, laufen Projekte zur Langzeitarchivierung erst langsam an. Sehr viele Seiten fallen durch das Raster dieser Initiativen33.
Somit liegt die Verantwortung für den Erhalt von Links bei jedem selber. Tim Berners-Lee hat den Webmastern diese Arbeit zugewiesen. Ebenso sind aber auch die Entscheidungsträger in Unternehmen gefordert, die Redakteure und alle anderen, die Beiträge im Web veröffentlichen – es sei denn, sie wollen Kurzmitteilungen schaffen, die für einige Zeit existieren, bevor sie für immer verloren sind – Inhalte fürs Abstellgleis.

Die letzten Artikel zum Thema SEO

Linksterben Tote Links im Web

Wenn URLs geändert werden, entstehen Tote Links – ein negativer SEO Faktor. Doch im Social Web haben tote Links noch eine ganz andere Auswirkung!


Facebook SEO Facebook SEO

Wie kann man eigentlich seine eigene Facebook Page besser ranken?


Foren SEO Foren SEO

Die größte SEO-Power geht oft von aktiven Foren aus, weil sie ein ständiges Content Freshness bieten. Wenn ein Unternehmen es schafft ein erfolgreiches Forum aufzubauen, ist eine der erfolgreichsten Etappen im SEO erreicht.


Wikipedia SEO Wikipedia SEO (Teil 1)

Kann man eigentlich mit Online Marketing mit Wikipedia betreiben, vor allem SEO? Das Problem liegt darin, dass Wikipedia im Grunde die Informationsfreiheit und den Gedanken des WWW versucht auszuhebeln. Nicht ohne Grund haben sich im Netz eine Schar von Menschen gegen Wikipedia ausgesprochen.


Wikipedia SEO Wikipedia SEO (Teil 2)

Wer versucht seine eigene Website oder Produkte durch Wikipedia-Maßnahmen hochzuranken, sollte aufpassen. Das Spiel kann auch nach hinten losgehen. Das Prinzip ist eigentlich klar: Wer Artikel bei Wikipedia veröffentlicht, gibt die Kontrolle über die Artikel ab.


Was dürfen Suchmaschinen Was dürfen Suchmaschinen?

Wenn Suchmaschinen Inhalte von Websites indexieren, ist das denn eigentlich nicht Urheberrechtsverletzung? Immerhin kopiert doch dabei die Suchmaschine Werke von verschiedenen Autoren, obwohl das gem. des Gesetzes doch die Einwilligung des Autors bedarf. Dieser Frage sind wir nachgegangen und stellen etwas sehr interessantes fest.


Twitter SEO und Marketing Twitter SEO

Beim Twitter Marketing mit SEO handelt es sich um die sogenannte Königsdisziplin. Hierbei geht es darum den eigenen Twitter-Kanal bei Suchmaschinen wie Google so hoch wie möglich zu ranken. Doch Twitter tut derzeit alles dafür, um bei Google nicht gerankt zu werden. Und Google hat bereits darauf negativ reagiert.

>> Übersicht alle SEO Artikel

Die letzten Artikel zum Thema Social Media:

Social Media am Beispiel bruno banani Markenstärkung durch Social Media am Beispiel bruno banani

Markenbildung, Markenstärkung und Markenmanagement müssen sich in Social Media neuen Disziplinen beugen: eine Case Study der Marke bruno banani.


Internet Trolle Trolle im Web: Bitte nicht füttern!

Wer in Internetforen Kommentare liest, kennt sie: Störenfriede, die keinen relevanten Beitrag leisten. Sie werden Trolle genannt und es gibt eine wichtige Regel zu beachten: Nicht füttern!


Social Media Finanzindustrie Banken in Social Media

Banken haben in den sehr viel Vertrauen verloren, vor allem durch die Finanzkrise vor einigen Jahren. Dieses Vertrauen versuchen sie nun durch Social Media Marketing wieder aufzubauen.


Mode Bloggerin Carl Zeiss: Social Media Best Practice

So engagierte Carl Zeiss ihre Social Media Kampagne mit Bloggern und wusste, wie man mit einer Social-Media-Strategie erfolgreich damit wird.


Mode Bloggerin Lifestyle und Mode Blogs in Deutschland

Welches sind eigentlich die größten Mode-Blogs? Erstaunlicherweise sind es nicht unbedingt die bekannten Lifestyle- und Mode-Magazine!


Social Media Fake Accounts Geister in Social Media

Wie viele Accounts in Social Media sind eigentlich Fakes? Die Untersuchung zeigt, dass viele Ghost Accounts existieren. Der Zweck ist Spaß, Betrug oder Manipulation von Meinungen.


Twitter Vogel Twittern wie Hitchcocks Vögel

Social Media Managerin Bianka Boock erklärt, wie man nicht twittert Es sei denn, man möchte twittern, wie Hitchcocks Vögel.

>> Alle Artikel zum Thema Social Media

Quellen

  1. blueleaf, bit.ly/1xsLpOm
  2. Daniel Karcher, „bluedaniel.com“, bit.ly/1jcC03K
  3. Wikipedia, „Toter Link“, bit.ly/1xsLKk5
  4. TagesWoche, „Basels vergessene Links“, bit.ly/1mstfn6
  5. Social Science Electronic Publishing, „Perma: Scoping and Addressing the Problem of Link and Reference Rot in Legal Citations“, bit.ly/1rYfTHF
  6. Hany M. SalahEldeen and Michael L. Nelson, Old Dominion University, „Losing My Revolution – How Many Resources Shared on Social Media Have Been Lost?“, bit.ly/1idpFfo
  7. Dr. Anja Johanning, Dr. Lutz Goertz, „Das Internet vergisst doch!“, bit.ly/1hHBYGg
  8. Georgia Tech Collage of Computing, „Problems Using the Web“, b.gatech.edu/1p9BURH
  9. Jakob Nielsen, „Fighting Linkrot“, bit.ly/TvhJAo
  10. Felix Salmon, „The spread of link rot“, reut.rs/Tvi3PM
  11. Anil Dash, „The Web We Lost“, bit.ly/1kaPj5Q
  12. Tim Berners-Lee, „Cool URIs don’t change“, bit.ly/1jlu5WA
  13. Marius Däpp, „404 Fehler bei Lexmark“, bit.ly/1kWUjd0
  14. Hümpfch, „Warum ist LEGO bloß so unfähig?“, bit.ly/1ids0XI
  15. CHIP online, „App-Experte Nicole Hery-Moßmann sagt“, bit.ly/1hHEjB0
  16. Matt Cutts, „Free links to your site“, bit.ly/TvknpQ
  17. Abhik Biswas, „Tracking 404 Error Pages“, bit.ly/1o2uMXV
  18. SEO Südwest, „Broken Link Building – effektiver Linkaufbau“, bit.ly/1idt8dW \
  19. AKM3 Team, „44 kreative Linkbuilding-Ideen made in Germany“, Tipp 25, bit.ly/1hHFe4s
  20. trafficmaxx, „Linkbuilding Tipp: Broken Links finden – und auf die eigene Seite leiten“, bit.ly/Umx3A7
  21. Popularity Reference GmbH, „PR Wochenrückblick KW29 – Die Highlights der Woche“, bit.ly/1oKDqGm
  22. The Moz Blog, „Link Building Survey 2013 – The Results“, bit.ly/UmxlHo
  23. Blueverse, „Desert Scraping: How it can help your online business“, bit.ly/1nsU7Xo
  24. Ralf Zosel, „Cool URIs don’t change“, bit.ly/1p9HAvc
  25. isiCore GmbH, „SEO beim Website Relaunch – Wie Sie die Katastrophe verhindern“, bit.ly/1ozfUOn
  26. Wikipedia, „Internet Archive“, bit.ly/1msEmfM
  27. Eric Herrmann, „Waybackmachine-Fallback statt 404-Error“, bit.ly/1k9CBTe
  28. memento, „404-No-More“, bit.ly/TvqSsG
  29. Ryan Westphal, Herbert Van de Sompel, Michael L. Nelson, „The mset Attribute“, bit.ly/1kRHaGM
  30. Patrick Howell O’Neill, „This project aims to make ‚404 not found‘ pages a thing of the past“, bit.ly/1msFdgC
  31. perma.cc, „About Perma“, bit.ly/1k9DY4r
  32. Frankfurter Allgemeine Zeitung, Thomas Thiel, „Am Boulevard der toten Links“, bit.ly/1p9K6Bx
  33. Derek Mead, „When Will the Internet Defeat Link Rot? „, bit.ly/1d7Y0ZF

Hinterlasse einen Kommentar: