Wie wählt man das richtige Social Media Monitoring Tool aus?

Richtige Social Listening Software evaluieren

Bestes-Social-Media-Monitoring
Social Media Monitoring Agenturen 2024 Welche sind die größten Social Listening Agenturen?

LISTE ANSCHAUEN

Social Media Monitoring Tool

Dr. William Sen

von Dr. William Sen
digitalwelt-Kolumnist für Social Media Monitoring

digitalwelt logo

Agenturen, die Social Media Monitoring anbieten, sind aufgrund der Menge der Daten in Social Media oft gezwungen, die Dienstleistung mit der Unterstützung spezieller Software bzw. Social Media Monitoring Tools zu realisieren. Hierbei ist zwischen selbst entwickelten und eingekauften Lösungen zu unterscheiden.

Ist die Software eingekauft, hat der Auftraggeber keine oder nur geringe Steuerungsmöglichkeiten.

Wurde die Software dagegen von der Monitoring-Agentur selbst entwickelt, ist hier meist der direkte Einfluss möglich. Da die Entwicklung, die stetige Verbesserung sowie die Korrektur etwaiger Fehler bei der Agentur angesiedelt sind, kann der Kunde davon ausgehen, dass Wünsche und Anregungen die Entwickler erreichen.

Diese und weitere Punkte sollte man beachten und wissen bei der Auswahl des richtigen Social Media Monitoring Tools:

Inhalt

Einleitung

Der technische Aufwand zur Entwicklung einer Software ist groß, die in der Lage ist, Daten zu indexieren und aufzubereiten.

Die entwickelnde Agentur muss nicht nur eine für sich verständliche Oberfläche anbieten, sondern auch dem Kunden durch Zugriff auf ein Cockpit die Möglichkeit geben, Auswertungen selbst vorzunehmen. Bei der Implementierung eines Cockpits arbeiten normalerweise Agenturen, etwa zum Zwecke der Rechtevergabe, mit dem Auftraggeber zusammen. Die Zugriffe des Kunden muss die Software schnell bearbeiten können. Zudem muss das Unternehmen meist kostenaufwändige IT- bzw. Serverstrukturen bereithalten, um die Menge der Daten auch langfristig abrufbar anbieten zu können. Durch die stetige Suche in Social Media kommen große Mengen an Daten zustande, die große Speicherkapazitäten fordern. Die Entwicklungskosten für Social-Media-Monitoring-Technologien sind also bezüglich der Finanz- und Zeitressourcen nicht zu unterschätzen.

Ist das Monitoring-Unternehmen lediglich ein Lizenznehmer, so hat es auch keinen Einfluss auf die zukünftige Marktsituation des Softwareentwicklers.

Die Entwicklung einer neuen Software, die kommerziell genutzt werden soll, passt sich logischerweise immer den Marktverhältnissen an. Daher sollte eine Software, die dazu geschaffen wurde, Social-Media-Inhalte zu indexieren und zu bearbeiten, dementsprechend konzipiert werden.

Sie muss vor allem mit der sich ständig verändernden Social-Media-Landschaft mithalten. Plattformen wie Twitter, Facebook und ggf. Google+ haben nach ihrer Einführung im Web schnell an Bedeutung gewonnen und sind heute wichtige Quellen für das Social Media Monitoring.

Der Markt in Deutschland

Im Bereich des Social Media Monitoring gibt es zahlreiche Tools am Markt. Vor allem der amerikanische Markt ist derzeit überfüllt mit Social Media Software, meist im günstigen Preissegment. Die meisten dieser Tools beschränken sich jedoch auf den US-Markt. Dort sind derzeit Blogs die Quellen mit der hohen Relevanz. In Deutschland sind es vermehrt Foren. Daher können diese US-Amerikanischen Tools oftmals den deutschen Markt nicht abbilden. Zudem ist es äußerst kritisch, ob diese Tools datenschutzrechtlich und auch urheberrechtlich in Deutschland genutzt werden können.

infospeed bietet seit Jahren bereits eine etablierte Lösung an, die sich auf dem deutschen Markt durchgesetzt hat. Die Social Media Monitoring Maschine web2monitor ist in der Lage alle relevanten Quellen so aufzubereiten, dass Unternehmen nur noch die relevanten Quellen zur Verfügung stehen.

Erwartungen

Mit Social Media Tools ist es Unternehmen möglich, die Bandbreite und die Kanäle dies Social Media auf ein Minimum so zu beschränken, so dass am Ende nur die relevanten Ergebnisse übrig bleiben. Es ermöglicht Unternehmen die Online-Kommunikation in Social-Media besser greifbar zu machen. Denn in den Unternehmen ist das Bewusstsein für Big Data erst in den letzten Jahren aufgekommen. Zwar bedienen sich viele Unternehmen an einer Vielzahl freizugänglicher Social Media Monitoring Tools, allerdings sind diese oft nicht an die strategische Kommunikation angepasst. Unternehmen benötigen daher integrierte Social Listening Tools, das bedeutet, dass das Social Media Monitoring Feature an abgestimmte Bedürfnisse sinnvoll angepasst werden muss. Nur solche abgestimmten Methoden des Social Media Monitoring können individuell auch an Kampagnen ausgerichtet werden. Diese Mängel werden in individuellen Monitoring Tools ausgehebelt.

Daher soll das Social Listening Tool Social-Media-Analysen anbieten, die dem Nutzer die Möglichkeit geben auf auf Stimmungswechsel, Tendenzen im Social Web, auf Aussagen von Wettbewerbern (beispielsweise im Business Intelligence), in einschlägigen Social-Media-Plattformen zeitnah zu reagieren und ihre Businessstrategien bzw. Strategien insgesamt im Unternehmen auszurichten.

Besonders gut strukturierte Social Media Monitoring Tools besitzen verschiedene Technologien, die modularen Ansprüchen der IT gerecht werden: Das heißt, dass im Social Media Monitoring Tool alle einzelnen Instrumente individuell den Wünschen des Kunden angepasst und programmiert werden können sollte.

Unser Software-as-a-Service-Version (SaaS) bzw. das Social-Media Dashboard, kann unter anderem auch beinhalten

  • Trendbarometer
  • Trendentwicklungen
  • Zeitreihenanalysen
  • Analyse von Tonalität wie positive oder negative Verbreitung von Informationen

Zudem können kann man die Resonanzen untersuchen, beispielsweise im Tool selbst mit Suchtermen arbeiten und dadurch relevante Beiträge finden.

Die Instandhaltungskosten der Technologie für Unternehmen ist oft sehr hoch, weswegen eigene Entwicklung sich vor allem für Socia-Media-Marketing-Unternehmen kaum noch lohnt. Statt einer Neuausrichtung, können Unternehmen von den Serviceleistungen und der Lösung von Drittanbietern profitieren. Auch das sollte bei der Auswahl berücksichtigt werden, ob es sich bei der Agentur um eine selbstentwickelte oder dazugekaufte Software handelt.

Testversion

Eine Testversion der Software kann hilfreich sein, um einen Eindruck von den Funktionalitäten zu erhalten.

Allgemeingültige Testversionen können vor allem größere Anbieter von Social Media Monitoring nicht ohne weiteres liefern, da sie oft Modulsysteme anbieten, die nach den Wünschen ihres Auftraggebers ausgestattet werden. Daher ist eine Testversion nur dann aussagekräftig genug, wenn auffällige Charts die gewünschten Features beinhalten. Zu bunte Charts können von den eigentlichen Problemen und Zielen des Unternehmens ablenken. Denn sie geben keinen Aufschluss darüber, was die Software in der Praxis zu leisten imstande ist. Erst in der Planungsphase eines konkreten Projekts kann sich das Tool bewähren und seinen Mehrwert unter Beweis stellen. Hier gilt das informationswirtschaftliche Prinzip nach Stock: Erst durch die tatsächliche Nutzung des Informationsgutes wird der Mehrwert klar (vgl. Stock, 2000).

Doch allein die Technologie ist noch kein Garant dafür, dass Ergebnisse auch relevant sind. Vor allem der menschliche Faktor spielt eine Rolle. Social-Media-Expertisen sind also wichtig. Daher sollte es sich bei einem professionellen Social Media Monitoring im Grunde um eine Full-Service-Dienstleistung handeln, es sollte also bei der Testphase der Software über ein autonomes Ausprobieren auf der Basis von „Trial & Error“ hinausgehen. Empfohlen wird ein Testprojekt, das der Anbieter mitsamt einer Vorschau auf die tatsächliche Software-Lösung realisiert. Dem Auftraggeber wird im Rahmen eines solchen Projekts per Cockpit Zugang zu den Daten gewährt. So kann grundsätzlich der Ablauf eines echten Projekts simuliert werden.

Eine klassische Testversion ohne direkten Bezug zum Auftraggeber kann in Form eines Webinars bereitgestellt werden. Der Nutzer hat hier die Möglichkeit, sich mit einem Moderator, also einem Kenner der Software, im Tool zu bewegen und sich die einzelnen Funkionen näher erläutern zu lassen.

Die Qualität der angebotenen Technologien im Bereich des Social Media Monitoring ist heterogen. So unterscheiden sich viele Anbieter nicht nur in der Anzahl der Funktionen im Cockpit, sondern auch in der Qualität der Daten sowie in der Auswertung dieser. Webinare bieten eine gute Möglichkeit dem Anbieter kritische Fragen zu stellen.

Voll funktionsfähige Testversionen, die dem tatsächlichen Produkt in Form und Umfang entsprechen, sind dagegen selten. Das Endprodukt richtet sich in vielen Fällen sowohl bezüglich seiner Funktionalitäten als auch in seiner Optik nach den Wünschen des Kunden. Die Monitoring Tools sehen dementsprechend nicht alle gleichermaßen aus. Wichtig hierbei ist es zu wissen, inwieweit der Anbieter in der Lage ist, individuelle Anforderungen des Unternehmens zu realisieren.

Für eine adäquate Testversion muss ein komplettes Cockpit mit vollem Funktionsumfang eingerichtet werden. Das heißt, dass auch Daten darin einzupflegen sind. Das Setup stellt für Social-Media-Unternehmen mit einem hohen Qualitätsanspruch einen sehr großen Aufwand dar.

Monitoring Dashboard

Social Media Monitoring SaaS

Es ist zu beobachten, dass die meisten Social Media Monitoring Cockpits über den Webbrowser erreicht werden. Browserbasierte Softwarelösungen werden als „Software as a Service“ (SaaS) bezeichnet. Hierbei wird der Grundsatz verfolgt, dass die Software bei der Monitoring-Agentur installiert und dort betrieben wird. Der Kunde greift auf die Oberfläche mittels eines Browsers zu und kann somit von jedem System und Ort die Software der Agentur nutzen. „Durch das SaaS-Modell werden dem Servicenehmer die Anschaffungs- und Betriebskosten teilweise erspart. Der Servicegeber übernimmt die komplette IT-Administration und weitere Dienstleistungen wie Wartungsarbeiten und Updates. Zu diesem Zweck wird die gesamte IT-Infrastruktur, einschließlich aller administrativen Aufgaben, ausgelagert, und der Servicenehmer kann sich auf sein Kerngeschäft konzentrieren“ (Central-IT, 2008).

In diesem Zusammenhang sind weitere Vorteile eines SaaS zu nennen: Im Vordergrund stehen die hohe Sicherheit und die geringe Komplexität. Da der Monitoring-Anbieter Experte für sein eigenes Systems ist, kann er aufgrund seines Know-how für die ständige Erneuerung der Technologie sorgen. Fehler und Sicherheitslücken können so schneller behoben werden, als es bei einer extern gelagerten IT-Infrastruktur der Fall wäre. Preisgestaltung und Kostenaufteilung können flexibel vonstatten gehen, da Lizenzgebühren für eine Drittnutzung oft nicht anfallen. Bei einem extern lizenzierten System müssen dagegen oft feste Vereinbarungen darüber getroffen werden, wie viele Terminals oder Systeme die Software nutzen. Somit werden bei einem SaaS ein Audit sowie weitere Lizenzmodellierungen, Einzelplatzlizenzen und ähnliche Verfahren unnötig. Die Agentur kann stattdessen das eigene System protokollieren und verfolgen, auf welche Weise der Zugriff des Kunden stattfindet. Diese Transparenz hilft bei der begründeten Preisgestaltung für aktuelle und zukünftige Kunden (vgl. Central-IT, 2008).

Als problematisch können sich hingegen Lösungen erweisen, die an ein Betriebssystem gebunden sind: Kompatibilitätsprobleme zu anderen Systemen können dazu führen, dass die Software nicht verlässlich funktioniert. Liegt die Software zudem nur auf einem Terminal vor, ist der Zugang für mehrere Nutzer nicht gewährleistet. Gerade der Aspekt gleichzeitiger Nutzung der Software, etwa in verschiedenen Abteilungen, ist Unternehmen häufig wichtig. Auch Updates des Betriebssystems können ein Hindernis darstellen.

Vor allem im Bereich Social Media Monitoring haben sich browserbasierte Systeme durchgesetzt.

Quellenerfassung

Social-Media-Quellenerfassung

Auf der ersten Stufe umfasst die Software lediglich grundlegende Funktionen. So ist es zunächst nur wichtig, dass Daten aus Web-Plattformen indexiert werden können.

Vor allem Foren folgen keinem allgemeinen Standard, sodass die etablierte und fortschrittliche Software in diesem Bereich auch in der Lage ist, Foren-Inhalte strukturiert zu erfassen. Ein Teil der Software arbeitet daher häufig wie eine spezielle Suchmaschine, die eigens für die Erfassung von Social Media entwickelt wird. Diese Technologie nennt man Crawler. Sie durchstöbern Websites und speichern die Inhalte in einer Datenbank. Hierbei muss berücksichtigt werden, dass eine Quelle nicht durchgehend oder vollständig indexiert werden kann. Ein solches Vorgehen wird von den Betreibern der Portale häufig nicht toleriert, da es dabei zu einer hohen Auslastung der Server kommt.

Somit wird es notwendig, dass die Software in der Lage ist, neue Daten (etwa neue Postings in einem Forum) zu erkennen. Mit diesem Vorgehen wird gewährleistet, dass nur noch ein Bruchteil der Quelle abgerufen wird. Sogenannte „Observer-Technologien“ führen zu einer Ressourcenschonung sowohl für den Monitoring-Anbieter als auch für den Foren-Betreiber.

Fortgeschrittene Monitoring-Indexierungsmaschinen arbeiten mit derartigen Observer-Technologien. Diese beobachten Inhalte auf einer höheren Ebene und erkennen etwaige Veränderungen.

Datenbearbeitung

Social Media Daten

Sobald die Software zuverlässig Daten indexiert, spielt die Datenaufbereitung und Speicherung eine große Rolle. An dieser Stelle müssen zum Beispiel HTML-Codes oder Werbung (zum Beispiel Banner) aus den Social-Media-Daten entfernt werden, da sie für die Bearbeitung der Daten nicht relevant sind. Des Weiteren muss darauf geachtet werden, dass Daten nicht doppelt gespeichert werden. Ein ausgiebiger Prozess der Dublettenfilterung wird daher in den meisten Fällen notwendig.

Qualität der Daten

Social-Media-Qualität

In der dritten Stufe muss die Software weiter ausgebaut werden, um die Qualität der Daten zu überprüfen oder zu verbessern. So können zum Beispiel Foren, deren User häufiger und qualitativ bessere Beiträge schreiben, bevorzugt und öfter indexiert werden. Allgemein werden nur Quellen berücksichtigt, die für das Thema des Kunden relevant sind. Auch wenn sich beispielsweise in einem Handy-Forum Beiträge finden ließen, die auf das Profil eines Kunden aus der Automobilindustrie passen, muss das Forum nicht dauerhaft indexiert werden.

Information Retrieval

In dieser Phase werden Methoden und Funktionen programmiert, die es erlauben, die indexierten Daten aus der Datenbank abzufragen.

Hier ist es wichtig, die zur Verfügung stehenden Module näher zu betrachten. In einer solchen Umgebung ist normalerweise ein Login und User Rights Management vorhanden.In dieser Phase werden Methoden und Funktionen programmiert, die es erlauben, die indexierten Daten aus der Datenbank abzufragen. Hier ist es wichtig, die zur Verfügung stehenden Module näher zu betrachten. In einer solchen Umgebung ist normalerweise ein Login und User Rights Management vorhanden.

Ansprüche an die Technologie

Erweiterbarkeit

Social Media Monitoring Entwicklung

Aufgrund der sich ständig verändernden Marktverhältnisse sind die Monitoring Tools der größeren Anbieter im Grunde beliebig erweiterbar. Als empfehlenswert und in der Praxis erfolgreich gelten vor allem Modelle, die als Baukastensystem entwickelt worden sind. Einzelne Abfragemodule könnten wunschgemäß in die Software eingebunden werden. Eine solche Erweiterbarkeit bietet den Nutzern die Möglichkeit, die für sie notwendigen Funktionalitäten nach Bedarf beim Technologieentwickler in Auftrag zu geben. Auch die Kosten sind bei einem Baukastenprinzip wesentlich leichter steuerbar. Der Einsatz der Programmierer kann ebenfalls besser koordiniert werden, da nicht allen zwingend die gesamte Infrastruktur der Technologie bekannt sein muss. Da im Baukastenprinzip gearbeitet wird, kann sich ein Entwickler auf seine Module konzentrieren und nahezu unabhängig vom übrigen Programmierteam arbeiten.

Umstrukturierte Technologien

Nicht jede Software lässt derartige Möglichkeiten zu. Vor allem Suchtechnologien, die nicht als Social Media Monitoring Software konzipiert worden sind, können sich oftmals nicht flexibel an die Bedürfnisse der Kunden anpassen. Daher ist es notwendig, zu erfahren, ob die genutzte Technologie ursprünglich eine andere Funktion erfüllt hat.

Modularer Aufbau

Ist eine Software nicht nach dem Baukastenprinzip konstruiert, ist eine spätere Weiterentwicklung meist nicht mehr oder nur noch mit immensem Aufwand möglich. Der Kunde müsste sich dann mit den zur Verfügung stehenden Funktionalitäten zufrieden geben. Neue Anforderungen können von der Software in diesem Fall nur eingeschränkt umgesetzt werden.

Sicherheit des Social Media Monitoring Tools

Social Media Monitoring Sicherheit

Leitungsausfälle und Datenverluste können jederzeit auftreten und sind überall, wo technische System zum Einsatz kommen, unvermeidlich.

Die Folgen eines solchen Ausfalls können jedoch dadurch eingeschränkt werden, dass die Agentur selbst über die gesammelten Daten verfügt. So kann das Unternehmen sich darauf verlassen, dass alle Systemkomponenten in vollem Rahmen wiederherstellbar sind. Der Verlust von Informationen muss nicht befürchtet werden.

Regelmäßige Back-ups

Monitoring-Agenturen stellen gewöhnlicherweise sicher, dass regelmäßige Backups erfolgen. Hier wird der Fokus auf die wichtigsten Daten gerichtet. Zudem wird im Optimalfall darauf geachtet, dass sich die Backups physisch nicht in den selben Serverräumen befinden wie die übrigen Daten. Bei äußeren Einwirkungen, wie einem Brand oder einer Überschwemmung, könnte sonst auch das Backup verlorengehen. Wenn die Technologie langfristig ausfällt, können die Ergebnisse aus Social Media nicht dazu verwendet werden, Entscheidungen zu treffen. In diesem Zusammenhang muss auch die Frage gestellt werden, ob die Agentur gewährleisten kann, dass bei einem Datenverlust die alte technische Struktur gänzlich wiederhergestellt wird.

Stromausfall

Incidents sind mögliche Vorfälle und geben Auskunft darüber, wie beispielsweise mit einem Stromausfall umgegangen wird. Agenturen sind in der Lage zu sagen, ob sie etwa über eine unterbrechungsfreie Stromversorgung (USV) verfügen. Die Server können auf diese Weise trotz Stromausfall oder -schwankungen weiter funktionieren. Größere Datenbanksysteme wie Microsoft, SQL-Server oder Oracle sind besonders anfällig, wenn der Server plötzlich ausgeschaltet und nicht ordnungsgemäß heruntergefahren wird.

Prozesse bei Ausfällen

Bei größeren IT-Projekten sorgen vor allem sogenannte Incident-Prozesse für die Wiederherstellung der Daten. Diese Incidents können je nach Agentur und IT-Infrastruktur unterschiedlich sein. Professionelle Monitoring-Agenturen sind in der Lage, auf Anfrage des Kunden, ihre Incident-Prozesse zu skizzieren.

Neben Incident-Prozessen garantiert auch das Vorhandensein ausreichender Hardware die Sicherheit eines Systems. So sind für ein verlässliches Backup vor allem viele Terabytes an Festplattenkapazitäten erforderlich, um Social-Media-Inhalte zu sichern.

Hardware-Defekte

Des Weiteren können Serverausfälle und Hardwaredefekte nur dann in angemessener Zeit behoben werden, wenn Ersatzteile und -geräte bereitstehen. Dies betrifft auch die Software-Umgebung: Sind alle Daten in einer einzigen Datenbank gespeichert, ist nach einem Fehler häufig eine komplette Neuinstallation notwendig. Wird hingegen eine komplexere Infrastruktur verwendet, kann der alte Zustand in kurzer Zeit wiederhergestellt werden.

Daten unter Verschluss

Die Überprüfung der Ausfallsicherheit kann bei einer Agentur, deren Technologie ein Nischenprodukt darstellt oder die gar Technologieführer ist, nicht ohne weiteres vorgenommen werden. Datenbanksysteme und Quellcodes sind in der Regel streng vertraulich. Entwickler von Social Media Monitoring Tools halten daher ihre Systeme und Strukturen geheim. Dieses Vorgehen ist bei IT-Dienstleistern, insbesondere bei Suchmaschinen, ein Garant für die Sicherung von Wettbewerbsvorteilen. Da die meisten Monitoring Tools Suchmaschinentechnologien beinhalten und mit innovativen und von der Agentur selbst erforschten und entwickelten Algorithmen ausgestattet sind, wird ihre Funktionsweise gut gehütet. Veröffentlichungen von Datenbankarchitekturen sind daher äußerst selten und umfassen in den meisten Fällen nur grobe Skizzen der Konzepte.

Abhängigkeit der Technologie

Der Auftraggeber kann von der Agentur jedoch zumindest ein Konzept zur Ausfallsicherheit verlangen. Im Anfangsstadium eines Projekts sind Forderungen nach umfassenden Einblicken häufig unangemessen, da die gewonnenen Erkenntnisse noch nicht ausschlaggebend für das Tagesgeschäft des Unternehmens sind. Sinn ergibt die Preisgabe interner Konzepte dann, wenn die Abhängigkeit von der Monitoring-Agentur so stark gestiegen ist, dass ein Ausfall einen direkten und messbaren Schaden verursachen könnte.

Technische Umgebung des Social Media Monitoring Tools

Technische Umgebung

Jede Software benötigt eine eigene IT-Infrastruktur. Je weiter fortgeschritten eine Software ist, desto komplexer wird sich auch die IT-Infrastruktur darstellen.

Eine Social-Media-Monitoring-Agentur, die über eine fortschrittliche Software verfügt, hat also einen dementsprechend hohen technischen Entwicklungsstand. Das Konzept einer IT-Infrastruktur wird gewöhnlich über die derzeitigen Ressourcen und Anforderungen hinaus geplant. Die strategische Komponente ist daher nicht zu vernachlässigen. Auf diese Weise kann ein Software-Hersteller seine Software und Hardware effizienter ausbauen. Bei erfolgreichen Monitoring-Anwendungen ist die Konzeption von Anfang an auf Wachstum und Veränderung ausgerichtet.

Social Media Server

Social Media Server

Social Media bedeutet in erster Linie ein hohes Datenaufkommen. Die Anzahl der verwendeten Server spielt daher eine große Rolle. Je mehr Server im Einsatz sind, desto komplexer kann sich die Technologie entwickelt haben.

Weiterhin kommen aufwändige Rechenoperationen hinzu: So ist die Datenbereinigung ein langwieriger und belastender Prozess für die Hardware. Für eine Monitoring-Agentur empfiehlt es sich daher, eigene und selbstständig arbeitende Server bereitzustellen, die nur für die Datenbereinigung zuständig sind.

Dauerhaft in Betrieb sind häufig auch die Server für die Indexierung. Dabei spielt es nicht unbedingt eine Rolle, ob ein eigener Crawler am Werk ist oder Schnittstellen für die Datengewinnung eingesetzt werden. In beiden Fällen sind umfangreiche Rechenoperationen notwendig. Für jeden dieser Prozesse steht normalerweise ein eigener Server zur Verfügung.

Die Datenbank selbst spielt eine wichtige Rolle: Sie ist aufgrund ihrer großen Menge an Daten häufig auf mehreren Servern verteilt.

Zuletzt benötigt auch der Auftraggeber eine Oberfläche, das sogenannte Cockpit, von dem aus er auf die erarbeiteten Resultate zugreifen kann. Diese Oberfläche nimmt unter Umständen ebenfalls hohe Serverkapazitäten in Anspruch.

Eine solche Arbeitsaufteilung auf Hardware-Ebene bedeutet also eine große Menge an Servern. Daher ist davon auszugehen, dass eine Monitoring-Agentur, die die oben genannten Arbeitsschritte leistet, zwangsläufig viele Server bereitstellen muss.

Social Media Rechenzentrum

Social-Media-Rechenzentrum

Gewöhnlich reichen reine Dedicated Server für die Umsetzung von Social Media Monitoring nicht aus: meist handelt es sich hierbei um virtuelle Server, die von einem Rechenzentrum einem Kunden zugeordnet sind.

Der Einsatz eines Dedicated Servers kann also als Zeichen dafür angesehen werden, dass das Unternehmen noch am Anfang seiner Entwicklungsphase steht. Diese Vermutung erhärtet sich, wenn neben dem Dedicated Server keine weiteren Server genutzt werden.

Diese Feststellung lässt sich wie folgt begründen: Erstens erlauben Dedicated Server dem für die Entwicklungen zuständigen Administrator häufig keinen uneingeschränkten Zugriff. Social Media Monitoring erfordert jedoch die ständige Wartung von Servern. Die Anwesenheit des Adminis-trators vor Ort, der in die Entwicklung der Technologie integriert ist, ist daher oft notwendig. Zweitens sind Dedicated Server in der Anschaffung wesentlich teurer als beispielsweise eigene Server in Colocations (individuell platzierte Server in Rechenzentren). Die Anschaffung eines Dedicated Servers ist durchaus sinnvoll, wenn nur ein einziger oder wenige Server benötigt werden. Sind die Bedürfnisse für den Monitoring-Verlauf jedoch gestiegen, kann die Anschaffung von neuen Dedicated Servern aus ökonomischer Sicht suboptimal sein. Drittens sind Dedicated Server bezüglich ihrer Aufrüstbarkeit oft beschränkt. Gewöhnlich bieten sie nur limitierte Möglichkeiten, Haupt- und Festplattenspeicher aufzurüsten. Dedicated Server mit hohen Speicherkapazitäten sind dagegen wesentlich teurer. Auch in diesem Fall kann die Beschaffung von mehreren Dedicated Servern für die Monitoring-Agentur eine ökonomische Fehlentscheidung bedeuten. Dagegen ist die Nutzung von Dedicated Servern, die lediglich als Zusatz oder Backup dienen, um eine bestehende Serverarchitektur zu unterstützen, durchaus sinnvoll und ökonomisch vertretbar.

Social Media Provider: Colocation

Social-Media-Provider

Colocation bedeutet, dass eine Monitoring-Agentur ihre eigene Hardware bei einem ausgewählten Provider abstellt, der sich in vielen Fällen in örtlicher Nähe befindet. Oft handelt es sich hierbei um feuergeschützte und kameraüberwachte Serverstellplätze, die eine direkte Anbindung ans Internet haben. Derartige Colocations werden auch von großen Technologie-Herstellern genutzt und bieten ausreichende Möglichkeiten für den Aufbau einer eigenen Server-Umgebung. Die Preise einer solchen Installation variieren je nach Host. Üblicherweise werden Serverschränke gebucht, in denen der Entwickler seine Server nach Belieben stapeln und verändern kann.

Der Einsatz von Colocations kann ein Indiz für das fortschrittliche Entwicklungsstadium eines Technologie-Entwicklers sein. Die meisten fortgeschrittenen Monitoring-Agenturen haben bereits eine große Menge an Servern in ihren Colocations im Einsatz.

Standort der Server

Eine weitere Möglichkeit eine Server-Umgebung aufzubauen, sind die eigenen Unternehmensstandorte. Dabei müssen die Server selbst nicht in der Nähe der Büroräume stehen. Sie können durchaus in eigens angemieteten oder gekauften Immobilien gelagert sein. Das Prinzip hierbei ähnelt dem der Colocations. Jedoch leistet die Monitoring-Agentur bei einem Inhouse Server die komplette Verwaltung ihrer technischen Umgebung. Verantwortungen, die gewöhnlich vom Host einer Colocation getragen werden, sind in diesem Fall durch die Agentur zu organisieren. Dies können beispielsweise eine unterbrechungsfreie Stromversorgung (USV), der Aufbau professioneller Router und Switches, Serverschränke, Einbruchschutzsysteme, Kameraüberwachung und mehrere sowie schnelle Internet-Anbindungen sein.

Der Vorteil eines Inhouse Servers liegt vor allem darin, dass das Unternehmen die komplette IT selbst kontrollieren kann. Das spart Kosten, vor allem, wenn große Mengen an Hardware für die Verwaltung der Technologie benötigt werden: Schließlich kann das Unternehmen seine Hardware selbst einkaufen und zusammenbauen. Auch Vorschriften, wie sie etwa beim Betrieb einer Colocation gelten können, können nach eigenem Ermessen aufgestellt werden. Weitere Vorteile einer solchen Struktur sind der unkomplizierte Zugang zur Hardware durch einen Administrator in der Agentur und schnelle Research-Ergebnisse, sofern sich der Inhouse Server in räumlicher Nähe befindet und eine direkte Verbindung zu den Servern mit Kabeln gewährleistet ist. Da viele Entscheidungen in der Hand des Monitoring-Anbieters liegen, setzt eine solche Infrastruktur weitreichende IT-Kenntnisse voraus. Das Betreiben von Dedicated Servern und Colocations ist natürlich zusätzlich zu einem Inhouse Server möglich.

Bandbreite

Wer Social-Media-Daten aus dem Web indexiert und auf seiner Datenbank sammelt, braucht große Bandbreiten. Vor allem Agenturen, die sich auf das Indexieren von Foren spezialisiert haben und solche Daten nicht einkaufen, haben zwangsläufig mit einer großen Datenflut zu kämpfen. Hierbei reicht eine gewöhnliche Anbindung ans Internet in der Regel nicht aus.

Bei einer gleichzeitigen Indexierung von mehreren hundert Foren kann eine normale Bandbreite, wie sie beispielsweise eine 100-Mbit-DSL-Leitung bereitstellt, sehr schnell an ihre Grenzen stoßen. Um mehr Foren gleichzeitig indexieren zu können, werden daher stärkere Anbindungen notwendig. Hinzu kommen die vielen Schnittstellen, die ebenfalls täglich neue Social-Media-Daten liefern können. Social-Media-Agenturen mit eigener Technologie betreiben häufig zahlreiche verschiedene Datenkanäle. Um weiterhin hohe Datenmengen verarbeiten und auch neuen Ansprüchen gerecht werden zu können, können erfolgreiche Agenturen ihre Bandbreiten skalieren. Das bedeutet, dass die IT-Infrastruktur so beschaffen ist, dass die Erweiterung durch neue Server auch einhergeht mit der Vergrößerung der Bandbreiten.

Die Frage nach der verfügbaren Bandbreite ist von besonderer Bedeutung. Hier kann der potenzielle Auftraggeber erkennen, ob die Agentur eigene Daten indexiert und Technologie in einer fortgeschrittenen Entwicklungsphase bereitstellt. Beschäftigt sich die Agentur intensiv mit derartigen Fragestellungen und kann auf Anhieb kompetente Antworten zu ihrer Bandbreite liefern, kann bezüglich der Technologie von höherer Professionalität ausgegangen werden.

Inhouse-Server

Vor allem Agenturen, die ihre Serverarchitektur innerhalb ihrer eigenen Räume (Inhouse Server) eingerichtet haben, können meist ihre Bandbreiten strategisch managen. In der Regel sind Agenturen mit eigenen Suchmaschinen in der Lage, beliebige Bandbreiten zu skalieren. Dabei können Colocations durchaus eine Lösung sein. Doch eine Inhouse-Struktur kann dafür sorgen, dass durch den Zukauf von Telekommunikationsdienstleistungen Bandbreiten beliebig erhöht werden können.

Die Frage nach der verfügbaren Bandbreite ist von besonderer Bedeutung. Hier kann der potenzielle Auftraggeber erkennen, ob die Agentur eigene Daten indexiert und Technologie in einer fortgeschrittenen Entwicklungsphase bereitstellt. Beschäftigt sich die Agentur intensiv mit derartigen Fragestellungen und kann auf Anhieb kompetente Antworten zu ihrer Bandbreite liefern, kann bezüglich der Technologie von höherer Professionalität ausgegangen werden.

Anzahl der Prozesse

Social-Media-Prozesse

Dieses Unterkapitel beschäftigt sich mit der Frage, wie viele Indexierungsprozesse die Server gleichzeitig abarbeiten bzw. verwalten können. Je mehr Prozesse möglich sind, desto schneller können Daten indexiert werden.

Das heißt, dass auch aktuelle Daten schneller verfügbar sind. Für den Gesamtablauf des Social Media Monitoring kann das bedeuten, dass eine Agentur schneller von wichtigen Ereignissen im Social Web Kenntnis erhält und sie dem Auftraggeber weiterleiten kann.

Je mehr Indexierungsprozesse gleichzeitig ausgeführt werden können, desto mehr Daten werden aus dem Social Web gewonnen. Die Menge der möglichen Indexierungsprozesse zeigt also auch, wie viele Kunden eine Agentur ungefähr betreut und mit welcher Menge an Daten sie täglich umgehen muss.

Crawler bei der Indexierung

Social-Media-Crawler

Bei der Indexierung von Daten im Rahmen einer Suchtechnologie kommen, wie bereits erwähnt, Crawler zum Einsatz. Sie sorgen dafür, dass die Suchmaschine täglich oder sogar mehrmals am Tag Daten aus dem Social Web indexiert und in einer im besten Fall strukturierten Datenbank ablegt. In der Praxis sind oft mehrere Crawler im Einsatz. Je höher die Anzahl der gleichzeitigen Prozesse, desto mehr Haupt- bzw. Arbeitsspeicher (RAM) wird beansprucht. Daher müssen Suchmaschinen mit größeren Hauptspeichern ausgerüstet sein. Kleinere Server bis zu 8 Gigabyte RAM können schnell an ihre Grenzen stoßen. Mit wenig Arbeitsspeicher sind große Mengen an gleichzeitigen Indexierungsprozessen nicht möglich. Darüber hinaus kann eine intelligente IT- bzw. Datenbank-Struktur dafür sorgen, dass mehrere Server gleichzeitig arbeiten. Dadurch lässt sich die Anzahl der Prozesse addieren. Ein Server, der beispielsweise 260 Prozesse bearbeitet und damit an seine Grenzen stößt, kann mit der Installation eines zweiten, ähnlichen Servers unterstützt werden.

Indexierung von Social-Media-Daten

Voraussetzung ist allerdings, dass die IT- bzw. Datenbank-Struktur auf eine solche Skalierbarkeit hin entwickelt worden ist. Hat eine Agentur dagegen eine feste Struktur etabliert, kann der Anschluss eines neuen Servers dazu führen, dass die gesamte IT-Struktur überarbeitet werden muss. Dies kann längere Umbauphasen in Anspruch nehmen sowie höhere Auslastung und Kosten für die Agentur bedeuten, die schließlich vom Auftraggeber mitgetragen werden müssen.

Bekanntere Agenturen können nicht nur eine bestimmte Anzahl gleichzeitiger Prozesse gewährleisten, sondern auch darlegen, dass sie in der Lage sind, die Anzahl der Indexierungsprozesse beliebig und ohne hohe Mehraufwände zu skalieren. Die verursachten Kosten können im Idealfall die Aufwendungen für den Anschluss und die Konfiguration des neuen Servers nicht überschreiten.

Gewöhnlich sind bei großen Monitoring-Agenturen mit eigener Indexierungstechnologie bis zu 1.000 Prozesse gleichzeitig möglich. Mehr als 5.000 Prozesse parallel durchführen zu können, kann als ineffizient bezeichnet werden, da die gefundenen Daten die Menge der relevanten Ergebnisse mit hoher Wahrscheinlichkeit überschreiten. Werden beispielsweise 5.000 Foren gleichzeitig indexiert, entspricht dies mehr als 10 Terabytes an Textdaten täglich. Mit dieser Menge an Daten ist ein wirtschaftliches Monitoring kaum noch möglich, da von einer großen Zahl an Redundanzen auszugehen ist. Es ergibt für den Auftraggeber daher Sinn, darauf zu bestehen, dass nur für das jeweilige Projekt relevante Daten indexiert werden.

Datenspeicher

Social-Media-Speicher

Social-Media-Daten können in kurzer Zeit große Datenkapazitäten in Anspruch nehmen. Die Indexierung eines einzigen Forums kann mehr als 20 Millionen Datensätze bedeuten.

Wenn im Rahmen eines Monitoring-Projekts mehrere hundert Foren als Quelle hinzukommen und darüber hinaus beispielsweise Bloginhalte, Video- und Bilddaten verwaltet werden sollen, wächst der Umfang der Datensätze in riesige Größenordnungen. Die auf dem Markt etablierten Agenturen sind in der Lage diese Daten zu speichern. Große Monitoring-Projekte erfordern mehrere Terabytes an Speicherkapazitäten, die ebenfalls nach oben skalierbar sein müssen.

Skalierbarkeit der IT-Infrastruktur

Weiterhin sind die marktführenden Agenturen in der Lage zusätzliche Kapazitäten durch den Zukauf von Hardware zu schaffen, wenn Projekte wachsen und dies notwendig machen. Um dies zu leisten, muss die IT-Struktur bereits vor ihrer Entwicklung für etwaige Erweiterungen ausgelegt sein. Muss dagegen im Falle einer Überschreitung der Datenkapazitäten die gesamte IT-Struktur neu angepasst werden, sind diese Erweiterungen mit hohem Kosten- und Zeitaufwand verbunden. Das kann unter Umständen bedeuten, dass über einen längeren Zeitraum von mehreren Wochen oder gar Monaten keine neuen Daten gespeichert werden können.

Rückwirkende Speicherung

Die rückwirkende Speicherung von Daten wird meist bis zu einem bestimmten Zeitpunkt gewährleistet. Allerdings sollte der Auftraggeber im Sinne seines Mehrwerts bedenken, dass alte Daten oft nicht mehr relevant sind und so nur zu Ballast führen. Es ist daher in Ausnahmefällen sinnvoll, Daten für mehr als zwei Jahre zu speichern. Konsumentenmeinungen sind schnelllebig, die Lebenszyklen von Produkten werden stetig kürzer. Die Auswertung alter Daten wird daher nur äußerst selten benötigt. Die wichtigste Frage lautet also, ob die IT-Struktur darauf ausgelegt ist, die große Fülle aktueller Daten zu bewältigen.

Social-Media-Datenbankmodell

Social-Media-Datenbankmodell

Social-Media-Daten sind ausgesprochen komplex. Jedes Medium besitzt eigene Entitäten. Bei Foren spielen Username, Postingdatum, das Posting selbst, Replies und weitere Angaben eine Rolle. Bei Twitter dagegen stehen Follower, Retweets, Hashtags und Keywords im Vordergrund. Bei Blogs kommen zu den Beitragstexten Kommentare und Links hinzu. Betrachtet man dann noch Bild- und Videoportale, spielen weiterhin Tags und Visits eine wichtige Rolle.

Wenn man in dieser Fülle von Daten sinnvolles Information Retrieval betreiben möchte, wird ein effizientes Datenbank-Konzept notwendig.

Datenbanksysteme im Monitoring

Datenbanksysteme sind in der Regel kostenintensiv. Alternative günstige Datenbanken sind am Markt zwar genügend vorhanden. Datenbanksysteme wie MySQL, PostgreSQL, Firebird, aber auch Berkeley DB, db4o, Ingres, MariaDB, MaxDB und SQLite sind Open Source. Das Open-Source-Datenbanksystem MySQL gehört dabei zu den weltweit populärsten freien Datenbanksystemen. Diese haben jedoch einen Nachteil: Sie eignen sich kaum für die Verwaltung von extrem großen Datenmengen. Die Bewältigung solcher Mengen von Daten ist meist den kommerziellen Datenbankanbietern wie zum Beispiel Microsoft SQL Server, Oracle, Sybase oder dBASE vorbehalten.

Kosten vs. Zweck von Datenbanken

Es ist daher nicht nur zum Zwecke der Kostenkalkulation wichtig, zu wissen, welche Datenbanken im Unternehmen Verwendung finden. Dabei sind freie Datenbanksysteme nicht grundsätzlich negativ zu betrachten. Gewöhnlich sind in einer Monitoring-Agentur mehrere Datenbanken im Einsatz. So kann beispielsweise die Verwaltung extrem großer Datenmengen mit einer kostenpflichtigen Lösung wie etwa Oracle bewältigt werden, während sich kleinere Datensätze und Tabellen durchaus mit MySQL verwalten lassen. Die Vermischung verschiedener Datenbanken kann also durchaus sinnvoll sein.

Ist Open-Source für Monitoring geeignet?

Grundsätzlich bilden in den großen Monitoring-Agenturen kostenfreie Datenbanksysteme nicht die alleinige Lösung. Außerdem ist der Einsatz von mehreren Datenbanktabellen üblich. Abfragen können oftmals nicht an eine einzige Datenbanktabelle gestellt werden, da die Bearbeitung zu viel Zeit in Anspruch nehmen würde. Daher sind Suchmaschinenentwickler, aber auch Anbieter von Social Media Monitoring häufig gezwungen, mehrere Datenbanktabellen, sogenannte Data Marts, zu generieren. Partitionierte Tabellen und der Einsatz mehrerer Festplatten sind teilweise unvermeidbar.

Struktur der Daten

Social-Media-Struktur

Darüber hinaus sollte bezüglich der Monitoring-Technologie die Frage nach der Strukturierung der Datenbanktabellen gestellt werden. Diese liegen bestenfalls nach Entitäten, wie zum Beispiel Posting, Username und Datum, geordnet vor. Befinden sich die Daten dagegen als Volltext in der Datenbank, wie es bei vielen öffentlichen Suchmaschinen der Fall ist, ist eine Suche zwar möglich, allerdings können die Entitäten nicht als Filter verwendet werden. Auch KPIs können bei Volltextdatenbanken meist nicht adäquat oder gar nicht dargestellt werden.

Fazit

Jede dieser Stufen benötigt eine eigene Entwicklungsphase. In der Regel können sie nicht zeitgleich implementiert werden.

Die Stufen müssen in den meisten Fällen separat und aufeinander aufbauend erstellt werden. Eine Software, die erst seit kurzer Zeit im Einsatz ist, kann bestimmte evolutionäre Stufen nur sehr schwer erreicht haben. Viele der dazu nötigen Erfahrungen können nur im praktischen Einsatz gesammelt werden.

Dr. William Sen

Dr. William Sen
digitalwelt-Kolumnist für strategisches Social Media Management

digitalwelt logo

Dr. William Sen ist Social Media Monitoring und Big-Data-Experte und entwickelt seit über 10 Jahren Software zur Erfassung von Social-Media-Daten.

Dr. William Sen war über 10 Jahre Geschäftsführer von infospeed, einem der größten Anbieter für Social Media Monitoring und Social Media Analytics in Europa. Er ist außerdem u. a. Gründer des ersten staatlich zertifizierten Lehrgangs zum Social Media Manager (TH Köln) und hat dort im Fachbereich Social Media Monitoring gelehrt. Zu seinen Kunden gehörten Unternehmen wie Deutsche Telekom, Hasbro, 3M, Ford, Allianz, Bayer, Brother und viele mehr.

Dr. William Sen lebt und arbeitet in San Diego, Kalifornien.

> Mehr über Dr. William Sen


Social Media Thema
Themen rund um Social Media Unser Themenfokus rund um Social Media

ARTIKEL LESEN

Letzte Artikel über Social Media Monitoring ALLE ARTIKEL ANSCHAUEN
Letzte Artikel über Social Media ALLE ARTIKEL ANSCHAUEN

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

* Please select reCAPTCHA