Facebook Skandal

Cover meiner Doktorarbeit in 2012

Bereits in 2012 hatte ich auf die Manipulierbarkeit der Daten bei Facebook hingewiesen

von Dr. William Sen

Auf die Manipulierbarkeit der Daten bei Facebook, und den Zusammenhang zu George Orwell, hatte ich schon in meiner Doktorarbeit in 2012 hersgestellt, als ich die Graph API von Facebook untersucht hatte. In 2018 nun ist das Thema auch öffentlich geworden – 6 Jahre zu spät.

Beim aktuellen Facebook-Skandal hat Cambridge Analytica mehr persönliche Daten aus der Facebook-Datenbank gezogen. Ja, aber moment mal. Das wusste wir als Facebook-Entwickler doch schon in 2010, als wir im Social Media Monitoring Zugang auf personenbezogene Daten für Marktforschungszwecke hatten. Ein Jahr später (2013) Jahr hat das auch das Entwicklerteam bei Cambridge Analytica festgestellt.

Bei Facebook damals hatte ich mich schon gefühlt wie Anfang in den 90er Jahren, als ich noch als Jugendlicher Hacker mein Unwesen trieb. Die Datenbank schien offen zu sein wie ein Scheunentor, wenn man Zugang zu der sogenannten Graph-API hatte: Ein Zugang, das Entwicklern ermöglicht Daten von Facebook-Mitgliedern zu ziehen – einfach so.

Hier ein kleiner Auszug aus meiner Dissertation*:


Gehen wir mal davon aus, wir befänden uns in Georges Orwells dystopischem Roman „1984“. Alles Gesprochene würde mit Teleschirmen aufgezeichnet werden und jeder Mensch wäre klar identifizierbar. Verständlicherweise hat George Orwell mit seiner dystopischen Idee, als er 1949 sein Roman veröffentlichte, noch nicht vorhersehen können, dass in unserer heutigen Welt Dinge wie Data Mining und relationale Datenbanken existieren werden.

Die Idee, Muster innerhalb von erhobenen Daten zu erkennen, ist allerdings nicht neu. Sie geht sogar zurück auf das 6. Jhd. v. Chr. Die jetzige Anwendung im Management zum Zwecke der Marktforschung, Erhebung sowie Erkennung von Zielgruppen und Meinungsführern gibt es allerdings erst seit Anfang der 90er Jahre.

Hätte Orwell derartiges Wissen über Data Mining bereits 40 Jahre zuvor besessen, hätte er vielleicht seine Welt im Roman noch weiter dramatisiert. In seinem Roman werden jedoch lediglich vordergründig die Überwachung und Identifikation von Einzelpersonen durch den sog. „Big Brother“ als Hauptmerkmale einer Überwachung geschildert. Mit einem derartigen Überwachungsapparat aus Teleschirmen, wie sie der „Big Brother“ im Roman einsetzt, wäre es allerdings auch möglich, Menschengruppen und Meinungscluster zu bilden. Es bedürfte im Grunde keiner Echtzeitüberwachung mehr, wie im Roman geschildert, sondern wichtig wäre lediglich eine Speicherung des Gesprochenen in einer Datenbank. Mit solch einer Möglichkeit ließen sich auch in Orwells Roman Trends, Gefahren und Chancen für und gegen jegliche Institutionen bzw. Interessensgruppen, Meinungsführer, geordnet nach Themen, identifizieren. Es bräuchte also keine Echtzeitüberwachung durch Menschen, sondern nur eine strukturierte Auswertung durch Maschinen.

Kommen wir zurück in die Realität und in das 21. Jahrhundert unserer Zeit: (…) Eine Überwachung ist möglich, sobald sich die Überwachungstechnologie auf das Social Web anstatt auf das Gesprochene fokussiert. (…)

Es wird deutlich, dass Facebook viel Wert auf die „Manipulierbarkeit der Daten“ legt. Schließlich kann man aufgrund der Fülle von Objekten, die durch die Facebook APIs verfügbar sind, beliebig viele Verknüpfungen herstellen und sie für Marktforschungszwecke, auf diverse Fragen bezogen, in verschiedenen Varianten – z. B. grafisch – darstellen.

Facebook bezeichnet seine Entitäten als „Objects“. Insofern nutzt Facebook die allgemein verbreitete Bezeichnung der Informatik (…). Wie allerdings erkennbar wird, bestehen in der Tabelle 1 fast alle Objekte aus Entitäten.

Insgesamt unterteilt Facebook seine Graph API, wie in der Tabelle 1 sichtbar, unter allen den Nutzern zur Verfügung stehenden Funktionalitäten des Portals, die eine Partizipation erlauben (…).

Für Marktforschungszwecke bieten diese APIs eine wichtige Grundlage, da dadurch strukturierte Daten aus einer Datenbank bezogen werden können. Auf Basis derartiger strukturierter Daten können beispielsweise Data-Mining-Abfragen stattfinden und spezielle, marktforschungsrelevante Fragen beantwortet werden.

Diese Daten bilden oft die Grundlage für den Bau einer Datenbank, die Information Retrieval möglich macht, aus der schließlich Wissen in Bedeutungszusammenhängen dargestellt werden kann. Doch ohne „elaborierte Technologien der Wissensrepräsentation ist es unmöglich das ’semantische Web‘ zu gestalten“


Links:


Die letzten Artikel zum Thema digitale Revolution


Facebook-Skandal Der Facebook-Skandal in meiner Doktorarbeit in 2012

Der Informationswissenschaftler Dr. William Sen hatte die Datenschnittstelle von Facebook bereits in 2012 untersucht und auch einen Zusammenhang zu George Orwells Roman 1984 hergestellt.


Usenet Das Usenet

Über 10 Petabyte an Daten sind in diesem Forum vorhanden und über 100.000 Themen. Kein Forum auf der Welt hat mehr Inhalte als das Usenet.


Geschichte des Usenet Die Geschichte des Usenet

Was war eigentlich das erste Forum der Welt? Die Antwort: Das Usenet – und es ist heute noch online!


Typo3 vs WordPress Typo3 versus WordPress

Open Source CMS wie Typo3 sind kaum noch am Markt bekannt und werden nicht mehr weiterentwickelt. Doch einige Hosts wie Mittwald setzen immer noch auf konservative Open Source Systeme aus bestimmten Gründen.

*Quellenangaben nach dem wissenschaftlichen APA-Style habe ich entfernt, um den Lesefluss zu ermöglicht. Die Originalabschrift bzw. Werk ist durch den Buchhandel zu beziehen (oben)

Hinterlasse einen Kommentar: