Künstliche Intelligenz

Mensch versus Maschine

Künstliche Intelligenz

Mit künstlicher Intelligenz analysieren Unternehmen die große Menge an relevanten Daten im Social Web. Das Verfahren erlaubt den Unternehmen nicht nur, Meinungen über ihre Produkte, Dienstleistungen oder das Unternehmen selbst zu erfahren, sondern auch Benchmarks durchzuführen, Rechtsverletzungen zu identifizieren und Trends zu erkennen.

Vor allem spielt Künstlicher Intelligenz jedoch in der Initiierung von Marketing-Maßnahmen eine wichtige Rolle. Erst wenn das Gefüge im Web bzw. innerhalb der Netzkultur über die Branche bekannt wird, können auch klare Maßnahmen oder Strategien entwickelt werden. Doch wie kann man die Fülle von Daten erfassen und im Dschungel der Informationen überhaupt eine gezielte Meinung erkennen?

Sentiment Analysis

Der Nutzen von Sentiment Analysis wurde in letzter Zeit kontrovers diskutiert. Das Verfahren erlaubt, beispielsweise durch das Natural Language Processing (NLP), Texte automatisch zu erkennen.

Das Ziel dabei ist es, ohne oder mit geringem Einsatz menschlicher Arbeitskräfte, Texte nach Themen zu sortieren und die darin enthaltenen Meinungen automatisch zu bewerten. Die Sentiment-Analyse ist ein Verfahren, welches aus Texten die Meinung eines Nutzers durch künstliche Intelligenz zu erfassen versucht. Hierbei werden linguistische Mittel eingesetzt, die gezielt Bedeutungen in einem Text identifizieren sollen. In der Theorie erkennt die Maschine, ob der Nutzer über ein bestimmtes Produkt negativ oder positiv spricht oder rechtsverletzende Inhalte publiziert. Bestenfalls soll der Computer daraufhin automatisch Handlungsempfehlungen generieren. Die Rede ist vom Traum eines Computers mit menschlichen Eigenschaften. Aufgrund der hohen Menge an Social-Media-Inhalten scheint der Gedanke, die Auswertung einer Maschine zu überlassen, zunächst logisch und nahe liegend.

Schwächen der Sentiment Analyse

Künstliche Intelligenz

Diese und weitere Verfahren weisen im praktischen Einsatz allerdings noch deutliche Schwächen auf, insbesondere wenn es um User Generated Content geht.

Das Problem liegt häufig darin begründet, dass Nutzer dazu tendieren, ihre persönliche „Story“ zu ihrem Posting zu schreiben und der Computer nicht mehr in der Lage ist, den Inhalt nachzuvollziehen. Fehler werden schließlich erst sichtbar, wenn die Auswertungen und Resultate aus diesen Verfahren daraufhin von Menschen geprüft werden.

Zudem stellen auch ironische Beiträge ein großes Problem dar, welche in Social Media allerdings gang und gäbe sind. Nutzer erläutern oftmals ihre Probleme, zeigen Mängel von Produkten auf und bringen ihre Empörung hierbei mit verschiedenen Wortspielereien zum Ausdruck. Sie äußern sich nicht selten emotional und mit sarkastischem Ton, indem sie von „Begeisterung“ sprechen: Ausrufe wie „Na Klasse!“, „Scheiße ist das geil!“ oder Formulierungen wie „Da gehe ich bestimmt wieder hin.“ sollen häufig genau das Gegenteil ausdrücken.

Darüber hinaus muss dabei nach Branche und Community unterschieden werden. Während in Fachkreisen grammatikalisch korrekte Sätze und ein klarer Ton verwendet werden, unterhalten sich Foren-Mitglieder in größeren Foren durchaus zügelloser. Ironie, verbunden mit Polemik und inkorrekter Schreibweise, können Ergebnisse verfälschen. Unternehmen, die in diesem Bereich Erfahrungen sammeln konnten, beschränken sich mittlerweile nicht auf derartige automatische Auswertungen und bauen ihre Entscheidungen nicht darauf auf.

„Hier stellt sich die entscheidende Frage, ob die automatisierte Auswertung von Sentiments Resultate erzielen kann, welche den Anforderungen der unterschiedlichen Nutzergruppen gerecht werden. Häufig hört man von Unternehmen die Forderung, dass mindestens 80% der Sentiments korrekt klassifiziert werden müssen, um den Einsatz zu rechtfertigen.

Verfahren

Viele der derzeit verfügbaren Sentiment-Analysis-Anwendungen und -Dienste nutzen aber ausschließlich einfache lexikonbasierte Verfahren, die lediglich nach bestimmten positiv oder negativ gefärbten Schlüsselbegriffen suchen und auf diese Weise versuchen, Dokumente in Bezug auf vorkommende Sentiments zu klassifizieren.

Die menschliche Sprache ist jedoch sehr komplex und die Anzahl einfach zu analysierender Sätze wie: ‚Ich finde Produkt x gut.‘ oder ‚Der Service der Firma y ist schlecht.‘ sind deutlich in der Unterzahl. Aus diesem Grund weisen derart rudimentäre Systeme häufig Fehlerraten von weit über 50% auf und sind (…) für seriöse Analysen nicht geeignet (Schönhalz, 2010)“.

Das Problem der mangelhaften Qualität automatisch ausgewerteter Daten sollte dem Auftraggeber bewusst sein. Die Nachvollziehbarkeit der Ergebnisse von automatisch ausgewerteten Daten wird dementsprechend von den etablierten Monitoring-Agenturen auch gewährleistet.

Qualität

Die Software muss zusätzlich zu den jeweiligen grafisch aufgearbeiteten Ergebnissen (zum Beispiel „positiv“, „negativ“, „neutral“ oder sogar „Freude“, „Ärger“, „Trauer“, „Liebe“) auch in der Lage sein, die Beiträge auflisten zu können.

Ein sogenannter Drill Down auf die Social-Media-Beiträge muss möglich sein. Nur so kann der Auftraggeber erkennen, welche Texte von der Maschine tatsächlich auf welche Art und Weise bewertet wurden. Wenn die Qualitätskontrolle deutliche Defizite in den Analyseergebnissen aufzeigt, wird schließlich ein Rollback notwendig, in dem geprüft werden muss, an welchen Prozesspunkten die Text-Mining-Software Fehler verursacht hat. Das setzt allerdings voraus, dass die Software auch den Einblick in ihre Strukturen erlaubt und detailliert ihre Vorgehensweise aufzeigen kann.

Sentiment-Analysen werden vom Aufwand her oft unterschätzt. Die Annahme, dass eine vollkommen automatisierte Lösung Kosten spare, muss daher immer hinterfragt werden. Auch wenn durch die Bewertung der Inhalte kein zusätzlicher Aufwand entsteht, da das System diese automatisch vornimmt, ist die Einrichtung des Systems sowohl branchen- als auch themenbezogen mit Zeit und hohen Kosten verbunden, die oftmals übersehen werden.

Bedenklich ist es, wenn derartiger Aufwand erst gar nicht betrieben wird und automatische Analysen ohne tiefgehende Betrachtung und Konfiguration auf Social-Media-Inhalte angewendet werden. In diesem Fall kann die Fehlerquote derart hoch ausfallen, dass die Ergebnisse als unbrauchbar zu bewerten sind. Der Worst Case entsteht, wenn das Unternehmen sich auf die Auswertungen verlässt und die Korrektheit der Informationen nicht hinterfragt.

Während bei einer intellektuellen Analyse durch ein menschliches Team davon ausgegangen werden kann, dass die Qualität der Ergebnisse größtenteils gegeben ist, muss bei einer automatischen Lösung ein klarer Prozess der Qualitätsprüfung aufgebaut werden.

Gefährlich ist es immer dann, wenn Unternehmen in der Hoffnung auf eine schnelle und kostengünstige Alternative auf automatische Lösungen setzen, ohne das Thema differenziert betrachtet zu haben.

Wie durch ein menschliches Researcher-Team Social-Media-Daten ausgewertet werden, wird im Kapitel „Cockpit-Funktionen / Flagging“ näher erläutert.

Gegen den Information Overflow

In Deutschland spielen nebst Social Media wie Facebook & Co. auch Foren eine große Rolle, da hier eine große Menge an Inhalten zu finden ist.

Allein im Automobilforum Motor Talk befinden sich beispielsweise ca. 20 Millionen Beiträge rund um das Thema KFZ. Schränkt man den Zeitraum und die Themen weiter ein, bleiben immer noch mehrere tausende Beiträge übrig, die für das Unternehmen relevant sein können. In die gleiche Kategorie fallen beispielsweise Groups in Facebook, die innerhalb von Social-Media-Portalen eingerichtet werden. Darüber hinaus existiert eine Fülle von Quellen, wie Blogs und auch Twitter, in denen Blogger nicht nur Inhalte produzieren, sondern auch anderen Lesern durch Kommentare oder sogenannte Retweets bei Twitter die Möglichkeit zur inhaltlichen Beteiligung geben. Zieht man also weitere Quellen dem Gesamtgeflecht Social Media hinzu, hat man es schließlich mit einer nicht mehr überschaubaren Anzahl von Beiträgen zu tun. Daher scheint der Gedanke, die Auswertung einer Maschine zu überlassen, zunächst logisch und naheliegend.

Sentiment-Analyse

Die Sentiment-Analyse ist im Grunde ein Verfahren, welches aus Texten die Meinung eines Nutzers durch künstliche Intelligenz zu erfassen versucht.

Hierbei werden linguistische Mittel eingesetzt, die gezielt Bedeutungen in einem Text identifizieren sollen. In der Theorie erkennt die Maschine, ob der Nutzer über ein bestimmtes Produkt negativ oder positiv spricht und/oder rechtsverletzende Inhalte publiziert. Bestenfalls soll der Computer daraufhin automatisch Handlungsempfehlungen generieren. Die Rede ist vom Traum eines Computers mit menschlichen Eigenschaften.

Schreibstil in Social Media

Darüber hinaus muss dabei je nach Branche und Community unterschieden werden. Während in Fachkreisen grammatikalisch korrekte Sätze und ein klarer Ton verwendet werden, unterhalten sich Foren-Mitglieder in größeren Foren durchaus zügelloser.

Ironie, verbunden mit Polemik und inkorrekter Schreibweise, können Ergebnisse soweit verfälschen, dass dies verheerende Folgen für das Unternehmen haben kann. Außerdem enthalten Beiträge wesentlich differenziertere Ergebnisse als nur negativ oder positiv.
Das hat auch das Forschungsteam an der -Universität Düsseldorf, Abteilung für Informationswissenschaft am Institut für Sprache und Information Stock erkannt. Dort forscht man derweil an Erkennungsmerkmalen in Form von Gefühlen innerhalb von User Generated Content. Emotional Information Retrieval, abgekürzt EmIR, heißt das Forschungsthema, in dem man Inhalte, beispielsweise von Texten und Bildern, Gefühlen zuzuordnen versucht. Hier nutzt man Merkmale, wie Freude, Liebe, Ärger, Traurigkeit und Ekel. Dabei konzentriert sich das Forschungsteam auf die von Nutzern vergebenen Bewertungen innerhalb des Social Webs.

Qualitätsmanagement in Social Media

Das Thema der Social-Media-Bewertung ist für die meisten Unternehmen noch ein unbekanntes Feld, so dass ein Qualitätsmanagement oft weitgehend unbeachtet bleibt. Die Frage, ob die Ergebnisse korrekt sind, wird aufgrund der fehlenden Nachvollziehbarkeit oftmals vernachlässigt.

Das Problem der mangelhaften Qualität von automatisch ausgewerteten Daten ist derweil aber einigen Unternehmen durchaus bewusst, so dass sie vermehrt die Nachvollziehbarkeit solcher Ergebnisse einfordern. Die Software muss zu den jeweiligen grafischen Ergebnissen (z. B. positiv, negativ, neutral oder Freude, Ärger, Trauer, Liebe) auch in der Lage sein, die Beiträge bzw. Postings auflisten zu können. Nur so kann der Auftragnehmer erkennen, welche Texte von der Maschine tatsächlich auf welche Art und Weise bewertet wurden.

Wenn die Qualitätskontrolle deutliche Defizite in den Analyseergebnissen aufzeigt, wird schließlich ein Rollback notwendig, in der geprüft werden muss, an welchen Prozesspunkten die Text-Mining-Software Fehler verursacht hat. Das setzt allerdings voraus, dass die Software auch den Einblick in ihre Strukturen erlaubt und detailliert ihre Vorgehensweise aufzeigen kann.

Im Bereich der künstlichen Intelligenz, in dem komplexe Algorithmen zum Einsatz kommen, haben sich im Laufe der Jahre Prinzipien entwickeln, die Qualitätskontrollen erlauben sollen. Claude Shannons vom Massachusetts Institute of Technology, der Entwickler des ersten Schachprogramms, hatte bereits in den frühen 60er Jahren vorgewarnt: Wenn komplexe Algorithmen zum Einsatz kommen, werden deren Mängel und Fehler unter dem Vorwand der Sicherheit geschlossen gehalten. Eine Software, die grundsätzlich ihre Ergebnisse nicht preisgeben kann, arbeitet laut Shannon nach dem Prinzip des „Security by Obscurity“ (zu Deutsch: Sicherheit durch Unklarheit). Bereits vor mehr als 100 Jahren hatte auch Auguste Kerckhoffs erkannt, dass ein Algorithmus nicht auf einer Geheimhaltung beruhen darf und formulierte daraufhin das Kerckhoffs’sche Prinzip, das unter anderem die Offenheit und Transparenz von Systemen verlangt.
Daher sollten Ergebnisse also nur dann in die unternehmerischen Prozesse eingebunden werden, wenn sie zurückverfolgbar sind und eine Qualitätskontrolle möglich ist.

Blödmarkt Mediamarkt

Etablierte Lösungsvorschläge in diesem Bereich sind beispielsweise schon seit längerer Zeit von Presseclipping-Agenturen bekannt.

Diese setzen bereits seit Jahren das Prinzip der intellektuellen Bewertung durch menschliche Teams ein, wie auch beispielsweise das Düsseldorfer Unternehmen Pressrelations. Diese Methode lässt fälschlicherweise vermuten, dass dadurch höhere Kosten entstehen könnten. Der Aufwand der automatischen Auswertung, der beim Aufbau der Text-Mining-Infrastruktur entsteht, wird allerdings unterschätzt. Zwar gibt es eine große Anzahl von Wörterbüchern, die bei der automatischen Auswertung zum Einsatz kommen und standardmäßig vorkonfiguriert sind, dennoch muss für jedes Unternehmen und jede Branche individuell eine Fülle von branchenbezogenen Keywords erstellt werden. Das liegt daran, dass Nutzer je nach Themenbereichen verschiedene Abkürzungen und Synonyme verwenden. Eine Analyse von kritischen oder negativen Beiträgen ohne das Synonym „Blödmarkt“ würde beispielsweise Tausende von Beiträgen in der Elektronik-markt-Branche unberücksichtigt lassen. Genauso fatal wäre es jedoch, im System derartige Synonyme ohne weiteres als negativ einzustufen. Im Web haben sich bestimmte Verwendungen von Begriffen etabliert, die nicht unbedingt in einem negativen Kontext genutzt werden, wie beispielsweise: „Ohne die Beratung bei Blödmarkt, hätte ich mir fast den falschen TV gekauft“. Weiterhin müssen auch branchenbezogene Abkürzungen gesammelt und das System damit gefüllt werden. Spezialthemen in den Bereichen wie Healthcare, Versicherungen und Elektronik beinhalten zahlreiche Abkürzungen, die Nutzer täglich benutzen. Dabei werden Falschschreibweisen häufig erst in der Gesamtbetrachtung durch einen Menschen erkannt und richtig interpretiert. Somit müssen branchenspezifische Kombinationen zum Einsatz kommen. Die Maschine muss also ständig mit neuem Wissen gefüllt werden und eine derartige Konfiguration des Systems kann bis zu mehreren Wochen oder Monaten dauern. Da sich die Produkte des Unternehmens und die Themen im Social Media rapide ändern, werden zudem kontinuierliche Nachkorrekturen und Aktualisierungen notwendig.

Tonalitätsanalyse

Das Problem der mangelhaften Qualität automatisch ausgewerteter Daten sollte dem Auftraggeber bewusst sein. Die Nachvollziehbarkeit der Ergebnisse von automatisch ausgewerteten Daten wird dementsprechend von den etablierten Monitoring-Agenturen auch gewährleistet.

Die Software muss zusätzlich zu den jeweiligen grafisch aufgearbeiteten Ergebnissen (zum Beispiel „positiv“, „negativ“, „neutral“ oder sogar „Freude“, „Ärger“, „Trauer“, „Liebe“) auch in der Lage sein, die Beiträge auflisten zu können. Ein sogenannter Drill Down auf die Social-Media-Beiträge muss möglich sein. Nur so kann der Auftraggeber erkennen, welche Texte von der Maschine tatsächlich auf welche Art und Weise bewertet wurden. Wenn die Qualitätskontrolle deutliche Defizite in den Analyseergebnissen aufzeigt, wird schließlich ein Rollback notwendig, in dem geprüft werden muss, an welchen Prozesspunkten die Text-Mining-Software Fehler verursacht hat. Das setzt allerdings voraus, dass die Software auch den Einblick in ihre Strukturen erlaubt und detailliert ihre Vorgehensweise aufzeigen kann.

Sentiment-Analysen werden vom Aufwand her oft unterschätzt. Die Annahme, dass eine vollkommen automatisierte Lösung Kosten spare, muss daher immer hinterfragt werden. Auch wenn durch die Bewertung der Inhalte kein zusätzlicher Aufwand entsteht, da das System diese automatisch vornimmt, ist die Einrichtung des Systems sowohl branchen- als auch themenbezogen mit Zeit und hohen Kosten verbunden, die oftmals übersehen werden.

Bedenklich ist es, wenn derartiger Aufwand erst gar nicht betrieben wird und automatische Analysen ohne tiefgehende Betrachtung und Konfiguration auf Social-Media-Inhalte angewendet werden. In diesem Fall kann die Fehlerquote derart hoch ausfallen, dass die Ergebnisse als unbrauchbar zu bewerten sind. Der Worst Case entsteht, wenn das Unternehmen sich auf die Auswertungen verlässt und die Korrektheit der Informationen nicht hinterfragt.

Während bei einer intellektuellen Analyse durch ein menschliches Team davon ausgegangen werden kann, dass die Qualität der Ergebnisse größtenteils gegeben ist, muss bei einer automatischen Lösung ein klarer Prozess der Qualitätsprüfung aufgebaut werden.

Gefährlich ist es immer dann, wenn Unternehmen in der Hoffnung auf eine schnelle und kostengünstige Alternative auf automatische Lösungen setzen, ohne das Thema differenziert betrachtet zu haben.

Wie durch ein menschliches Researcher-Team Social-Media-Daten ausgewertet werden, wird im Kapitel „Cockpit-Funktionen / Flagging“ näher erläutert.

Fazit Künstliche Intelligenz

Sentiment-Analysen werden vom Aufwand her oft unterschätzt. Die Annahme, dass allein eine technische und automatisierte Lösung Kosten spare, muss daher immer hinterfragt werden.

Auch wenn für die Bewertung der Inhalte kein zusätzlicher Aufwand entsteht, da das System diese automatisch vornimmt, ist die Einrichtung des Systems, sowohl branchen- als auch themenbezogen, mit Zeit und hohen Kosten verbunden, die oftmals übersehen werden.

Bedenklich ist es, wenn derartiger Aufwand erst gar nicht betrieben wird und automatische Analysen ohne tiefgehende Betrachtung und Konfiguration auf das Social Web losgelassen werden. In diesem Fall kann die Fehlerquote schließlich derart hoch sein, dass die Ergebnisse als unbrauchbar zu bewerten sind. Der Worst Case entsteht, wenn das Unternehmen sich blind auf die Auswertungen verlässt und erst gar nicht mehr die Korrektheit der Informationen hinterfragt.

Während bei einer intellektuellen Analyse durch ein menschliches Team davon ausgegangen werden kann, dass die Qualität der Ergebnisse größtenteils stimmt, muss bei einer automatischen Lösung ein klarer Qualitätsprozess aufgebaut werden. Die Ergebnisse einer automatischen, emotionalen Intelligenz bleiben daher weiterhin fraglich. Derartige Auswertungen befinden sich derzeit noch im Aufbau, und künstliche Intelligenz wird auch in Zukunft kontrovers diskutiert werden.

Die Gefahr ist immer dann gegeben, wenn Unternehmen, in der Hoffnung auf eine schnelle und kostengünstige Alternative, auf derartige automatische Lösungen setzen, ohne das Thema differenzierter betrachtet zu haben. Vielleicht spielt beim Einsatz solcher Technologien auch verstärkt ein Glaube oder Wunsch an die Wundertechnik eine Rolle. „Künstliche Intelligenz“ oder „Automatismus“ klingt so schön nach Prozessoptimierung und Zukunft. Welches Unternehmen kann da schon widerstehen?


Social Media Monitoring Anbieter Social Media Monitoring Anbieter 2017

Der Markt in Deutschland, Europa und weltweit insgesamt ist weiterhin turbulent. Vor 10 Jahren noch über 170 Anbieter am Markt, sind es mittlerweile über 300, und immer mehr Agenturen behaupten die Dienstleistung Social Media Monitoring bestens zu beherrschen. Doch wie kann man als Unternehmen die Spreu vom Weizen trennen?


Social Media Monitoring Tool auswählen Social Media Monitoring Tool

Auf dem Markt gibt es mittlerweile zahlreiche Social Media Tools zur Auswahl. Von kostenlosen Monitoring Tools, Subscription based bis hin Full-Service-Modellen ist alles zu finden. Doch welche Anforderungen sollten an ein Social Listening Tool gestellt werden?


Deutsche Telekom Monitoring Social Media Monitoring bei der Deutschen Telekom

Ein interner Bericht der Deutschen Telekom zeigt, wie das Unternehmen seit mehr als 10 Jahren Social Media beobachtet und auswertet.


Datenhandel im Social Media Monitoring llegaler Datenhandel im Social Media Monitoring

Bei der Nutzung von Social-Media-Daten handeln viele Unternehmen illegal, ohne es wirklich wahrzunehmen. Das Problem liegt an amerikanischen Social Listening Tools. Was dort legal ist, ist hierzulande illegal. Wenn diese Daten aus USA genutzt werden, kann das ein Problem darstellen.


Social Media Monitoring Kosten Kosten eines Social Media Monitorings

Oft machen Unternehmen den Fehler, dass Sie mit einer bestimmten Erwartungshaltung versuchen die Kosten eines Social Media Monitorings zu erschließen. Allerdings handelt es sich beim Social Listening um eine besondere Form des Informationsguts.


Social Media Monitoring Projekt Ablauf eines Social Media Monitoring in Schritten

Ein typisches Social-Media-Monitoring-Projekt beginnt logischerweise mit einem Projekt-Kickoff. Danach folgt der Zeitplan. Ab diesem Zeitpunkt unterscheidet sich das Monitoring von üblichen Abläufen im Projektmanagement. Denn es kommen spezifische Aufgaben in Frage, die auf ein Social Listening zugeschnitten sind.


Sentiment-Analyse Sentiment-Analyse: Meinungen auswerten

Die größte Herausforderung im Social Listening ist es die Fülle von Meinungen auszuwerten. Dabei gibt es zwei Möglichkeiten: Die manuelle Auswertung mühsam durch Lesen und per Hand. Oder die automatische durch einen Computer. Welche Vor- und Nachteile bringen diese Methoden?


Text Mining Text Mining: Automatische Linguistik

Meinungen aus dem Social Web mit Text Mining auslesen bedeutet, der Computer versucht mit linguistischen Methoden herauszufinden, wie jemand über ein bestimmtest Produkt spricht. Doch die Meinungen im Social Web sind für einen Computer eine große Herausforderung.


Social Media Monitoring Social Media Monitoring auf der dmexco

Die dmexco gilt als die größte Marketing-Messe der Welt und findet jährlich in Köln statt. Nebst den großen Ausstellern wie Google, Yahoo und Microsoft finden sich dort auch eine Menge Aussteller, die Social-Media-Monitoring-Lösungen anbieten. Das haben Social-Media-Interessierte zu erwarten.


Themenmonitoring Themenmonitoring

Im Themenmonitoring geht es darum im Social Web aus der Fülle von Daten die relevanten Themen auszufiltern. Hierzu gibt es zwei Methoden im sogenannten „Topic Detection“: Die automatische oder die manuelle Themenerkennung. Entweder mühsam per Hand oder durch künstliche Intelligenz.


Produktmonitoring Produktmonitoring

Wenn Unternehmen wissen wollen, wie ueber ihre Produkte im Social Web gesprochen wird, sind sie zunächst mit einer Fuelle von Daten konfrontiert. Die Produktbeobachtung scheint schier unmöglich zu sein. Doch im Social Listening bietet hier verschiedene Konzepte um die Daten auszuwerten.


Unternehmensbeobachtung Unternehmensbeobachtung

In der Unternehmensbeobachtung geht es darum zu wissen, wie ueber eine Firma um Netz gesprochen wird. Die Wahrnehmung des Brandings ist hierbei von Bedeutung. Fuer das Reputationsmanagement ist es enorm wichtig die Meinungsströmungen im Social Web zu erkennen – am besten noch bevor bestimmte Themen viral geworden sind.


Meinungsführer Opinion Leader identifizieren

Millionen von Nutzern diskutieren täglich über allemöglichen Themen. Inmitten dieses Chaos gibt es allerdings bestimmte Meinungsmacher, die die sogenannten Gatekeeper des Social Webs ausmachen. Mit ausgefeilten Social Listening Konzepten ist es möglich diese Meinungsführer ohne Weiteres zu identifizieren.


  Medien Monitoring Medienresonanzanalyse und Social Media Monitoring

Gehören im Social Listening eigentlich auch Presseportale dazu? Im ersten Blick scheinen klassische Presseportale keine Social-Media-Quellen zu sein. Doch im zweiten Blick wird deutlich, dass unter den Artikeln eine Menge Nutzerkommentare zu finden sind.


Social Media Kanäle Social-Media-Quellen

Beim Social Media Monitoring gilt es verschiedene Kanäle des Social Web zu beobachten. Jede dieser Quellen, seien es Foren, Blogs oder sei es Facebook oder Twitter, brauchen eine individuelle Monitoring-Strategie und technische Vorgehensweise.


Künstliche Intelligenz Künstliche Intelligenz – Mensch vs. Maschine

Die Künstliche Intelligenz von heute kann Meinungen aus dem Social Web erkennen und somit den Unternehmen mitteilen, wie die Nutzer über ihre Produkte und Dienstleistungen denken. Und es geht mehr als nur gut oder böse … Computer erkennen auch Liebe und Ekel.


Social Media APIs Social Media APIs

Das Gewinnen von Daten aus verschiedenen Social-Media-Quellen bereitet vor allem Social-Media-Monitoring-Agenturen Schwierigkeiten vor. Die großen Anbieter wie Facebook und Twitter bieten APIs an. Doch wie ist es mit Foren, die selbst entwickelte Software anbieten?


Social-Media-Daten indexieren Social-Media-Daten aus dem Web

Beim Research im Social Web ist man auf eins angewiesen: Daten. Allerdings ist die manuelle Datengewinnung mühsam. Die technische Erfassung ist ebenfalls nicht ganz reibungsfrei. Daher gilt es ein Erfassungskonzepte beim Scrapen von Social-Media-Daten zu kennen und einzusetzen.


Social Media Monitoring Ansatz Social-Media-Monitoring-Konzept

Social Listening braucht ein Management-Ansatz um erfolgreich zu sehen. Bei der Fülle von Daten im Social Web ist ein Prozess, der vom Bauchgefühl her kommt nicht zielfrürend. Bereits vor ca. 15 Jahren hab es wissenschaftliche Modelle.


Ford FanAward Ford FanAward – das erste Social Media Engagement

Mit dem Ford FanAward startete Ford Deutschland eines der ersten Social Media Engagements der Welt. Die Maßnahme ist auf ein Social Media Monitoring zurückzuführen, bei der Ford feststellte, dass die größte Fan Community in Foren zu finden waren. Prompt belohnte es die Foren-Betreiber mit Awards.


Vollautomatisches Monitoring Technisches Social Media Monitoring

Beim technischen Monitoring werden Social-Media-Quellen von einer Maschine erfasst und ausgewertet. Hierbei findet keine intellektuelle Auswertung der Inhalte statt, d. h. die Beiträge im Social Web werden von keinem Menschen gelesen. Die Frage hierbei ist, wie gut sind solche Technologien?


Externe Technologie Die passende Social Listening Agentur finden

Social Media Monitoring Dienstleister gibt es wie Sand am Meer. Doch nur einige wenige haben selbst-entwickelte Tools und platzieren sich als Full-Service-Dienstleister. Worauf muss man bei der Auswahl achten und welche Typen von Agenturen gibt es?


Social Media Research Social Media Research

Social Media Research geht einher mit einem Social Media Monitoring. Doch welche Herausforderungen stellt sich an ein solches Research?


Manuelles Social Listening Manuelles Social Media Monitoring

Beim Social Listening kann man auch ohne Technologie durchführen. Obwohl es eine schier unendliche Menge von Beiträgen und Kommentaren im Social Web zu geben scheint, kann ein Mensch mit anderen Methoden das Web relativ gut auswerten, wenn ein Prozess vorhanden ist.


Social-Media-Monitoring-Studien:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.