Facebook und Big Data

Facebook and big data research

“Every day, people are breaking up and entering into relationships on Facebook. When they do, they play songs that personify their mood. With Valentine’s Day just around the corner, we looked at the songs most played by people in the U.S. on Spotify as they make their relationships and breakups ‘Facebook official’.”
(Facebook Data Team 2012)

In öffentlichen Debatten ist bereits viel spekuliert worden, auf welche Weise das soziale Netzwerk Facebook die nutzungsbedingten Aktivitäten seiner Mitglieder in Metadaten verarbeitet. Es ist jedoch wenig über die konkreten Verfahren der digitalen Methoden bekannt, die Facebook zur Herstellung seines Datenwissens über das Verhalten seiner Mitglieder verwendet. Daher versucht mein Aufsatz, die von Facebook modellierten Datenstrukturen methodologisch einzuordnen, um einerseits den Positivismus der sehr großen Datenanalysen in Frage zu stellen und zweitens den Stellenwert von Theorie in der Onlineforschung des Facebook Data Teams kritisch zu sondieren. Im ersten Teil meines Essays versuche ich, Facebook im Kontext der datenbasierten Wende in der Sozial- und Kulturforschung zu thematisieren. Der zweite Teil baut auf der allgemein-methodischen Sondierung von Big Data Research auf und untersucht die konkreten Datenpraktiken auf exemplarische Weise.

Monitoring the social

Welche Musik werden eine Milliarde Menschen in Zukunft hören, wenn sie frisch verliebt sind und welche Musik werden sie hören, wenn sie gerade ihre Beziehung beendet haben? Diese Fragestellungen hat das “Facebook Data Team” im Jahr 2012 zum Anlass genommen, um die Daten von über einer Milliarde Nutzerprofilen (mehr als 10 Prozent der Weltbevölkerung) und 6 Milliarden Songs des Online-Musikdienstes Spotify mittels einer korrelativen Datenanalyse auszuwerten, die den Grad des gleichgerichteten Zusammenhangs zwischen der Variable “Beziehungsstatus” und der Variable “Musikgeschmack” ermittelt.1 Diese Prognose über das kollektive Konsumverhalten basiert auf Merkmalsvorhersagen, die mittels Data Mining in einer simplen Kausalbeziehung ausgedrückt werden. Unter Leitung des Soziologen Cameron Marlow erforschte die aus Informatikern, Statistikerinnen und Soziologen bestehende Gruppe das statistische Beziehungsverhalten der Facebook-Nutzerinnen und -Nutzer und veröffentlichte am 10. Februar des gleichen Jahres zwei Hitlisten von Songs, die Nutzerinnen und Nutzer hörten, als sie ihren Beziehungsstatus änderten und nannte sie lapidar “Facebook Love Mix” und “Facebook Breakup Mix”.2 Die Forschergruppe im Back-End3 destillierte aus der statistischen Ermittlungsarbeit der “Big Data” (vgl. Fredric Wolf et.al. 2011, S. 217-219) nicht nur eine globale Verhaltensdiagnose, sondern transformierte diese auch in eine suggestive Zukunftsaussage. Sie lautete: Wir Forscher und Forscherinnen im Back-End bei Facebook wissen, welche Musik eine Milliarde Facebook-Nutzer und -Nutzerinnen am liebsten hören werden, wenn sie sich verlieben oder trennen.4

Die Zukunftsaussagen des “Facebook Data Teams” sind also nur vordergründig mathematisch motiviert und verweisen auf den performativen Ursprung eines datenbasierten Wissens. Trotz fortgeschrittener Mathematisierung, Kalkülisierung und Operationalisierung des Zukünftigen bezieht das Zukunftswissen seine performative Macht immer auch aus Sprechakten und Aussageordnungen, die sich in literarischen, narrativen und fiktionalen Inszenierungsformen ausdifferenzieren können. In diesem Sinne sind die Bedeutungen im Möglichkeitsraum der Zukunft nicht eindeutig determiniert, sondern erweisen sich vielmehr als ein aggregatähnliches Wissen, dessen konsenserzwingende Plausibilität sich nicht in Wahrheitsdiskursen und epistemischen Diskursen erschöpft, sondern auch von kulturellen und ästhetischen Kommunikationsprozessen und Erwartungshaltungen (patterns of expectation) gestützt wird, die Imaginäres, Fiktives und Empirisches in Beziehung setzen.

Das Format der Hitliste und ihrer beliebtesten zehn Songs versucht, durch Vereinfachung komplexe Sachverhalte auf einen Blick darstellbar zu machen. Es handelt sich um ein popularisierendes Zukunftsnarrativ, das eine verhaltensmoderierende, repräsentationale und rhetorische Funktion übernehmen soll und die Zukunftsforschung als unterhaltsame und harmlose Tätigkeit herausstreichen soll. Um in diesem Sinn glaubwürdig zu sein, muss die futurische Epistemologie immer auch auf eine gewisse Weise überzeugend in Szene gesetzt werden, sie muss theatralisch überhöht und werbewirksam inszeniert und erzählt werden, damit sie Aufmerksamkeit generieren kann. Insofern ist den futurischen Aussageweisen immer auch ein Moment der prophetischen Selbst- und Wissensinszenierung inhärent, mit dem die wissenschaftlichen Repräsentanten den gesellschaftsdiagnostischen Mehrwert der sozialen Netzwerke unter Beweis stellen wollen (Doorn 2010: 583-602).

Unter dem Deckmantel des bloßen Sammelns und Weitergebens von Informationen etabliert die Online-Plattform auf unterschiedliche Art und Weise eine Deutungsmacht gegenüber den Nutzern und Nutzerinnen. Oft werden die Formen der direkten Adressierung zur Datenfreigabe nicht bemerkt, wenn z.B. die Nutzer und Nutzerinnen im automatisch generierten Update-Modus “What’s going on?” aufgefordert werden, regelmäßig Daten und Informationen auf ihre Timeline zu posten. In unternehmerischer Hinsicht kann Facebook als eine konzernkontrollierte soziale Medienplattform verstanden werden, die ihr signifikantes Interesse an einem nutzergenerierten Datenfluss in die Interface-Architektur übersetzt. (Leistert/Röhle 2011, S. 9f.) Darunter versteht man ein digitales Anwendungssystem, das seinen Nutzern und Nutzerinnen Funktionalitäten zum Identitätsmanagement – zur Darstellung der eigenen Person in Form eines Profils – zur Verfügung stellt und darüber hinaus die Vernetzung mit anderen Nutzern – und damit die Verwaltung eigener Kontakte – ermöglicht.

Eine der Grundthesen meines Beitrags basiert daher auf der Annahme, dass das Metawissen von sozialen Netzwerken auf einer asymmetrisch verlaufenden Machtbeziehung beruht, die sich in die technisch-mediale Infrastruktur verlagert hat und das bipolare Schema von Front-End und Back-End hervorgebracht hat. Mit seinen spezifischen Registrierungs-, Klassifizierungs-, Taxierungs- und Ratingverfahren hat Facebook, so meine These, die Anforderungen für Subjektivierungsprozesse in der Vernetzungskultur maßgeblich verändert.

Front-End – Back-End

Um personenzentriertes Wissen über die Userinnen und User herzustellen, offeriert die Social Software von Facebook standardisierte E-Formulare für Subjekte, die sich in Selbstbeschreibungs-, Selbstverwaltungs-, und Selbstauswertungsprozeduren eigenständig organisieren sollen. Diese elektronischen Formulare sind tabellarisch angeordnete Rastergrafiken, die aus logisch vorstrukturierten Texten mit Slot- und Filler-Funktionen bestehen, die eine einheitliche, standardisierte Inventarisierung, Verwaltung und Repräsentation des Datenmaterials ermöglichen sollen. Die grafische Rasterform und die determinierende Vereinheitlichung der Tabellenfelder etablieren Standards der informationellen Datenverarbeitung: sie machen aus den personenzentrierten Darstellungs- und Erzählformen des Front-End-Bereichs einheitliche Informationsbausteine, die der formallogischen Verarbeitung der Datenbanksysteme im Back-End-Bereich zugeführt werden.

Bereits beim Anlegen eines Accounts müssen sich künftige Facebook-Mitglieder einer vielschichtigen Prozedur der Wissenserfassung unterwerfen. Bei der Erstanmeldung auf der Internetplattform Facebook werden die Systemnutzer aufgefordert, ihre persönlichen Daten in standardmäßig vorgegebene Erfassungsmasken und dokumentspezifische Datenfelder, die gleichzeitig als Orientierungsinstanzen fungieren, einzutragen. Die Darstellung von Profilen in Tabellenform signalisiert Überblick und liefert ein einfaches Raster der Personenbeschreibung, das zum gemeinsamen Referenzpunkt der Betrachtung, Beurteilung und Entscheidung werden kann. (vgl. zur Veralltäglichung von Testverfahren Lemke 2004, S. 123) Der kategoriale Ordnungsanspruch der Selbstthematisierung wird im Enduser-Interface nicht sprachlich, sondern grafisch vollzogen. Das elektronische Datenblatt wird somit zu einer Instanz, welche die Transparenz des Überblicks herstellt und Entscheidungen standardisiert.

Mit seinen vorstrukturierten Applikationen erstellt Facebook spezifische Gestaltungsimperative der Wissenserfassung und -repräsentation persönlicher Daten. Elektronische Formulare stellen Formansprüche, die zunächst die Autoren und Autorinnen betreffen. So können bestimmte Einträge nur auf eine bestimmte Art und Weise vorgenommen werden. Die grafische Autorität setzt sich sowohl aus qualitativen als auch quantitativen Kriterien zusammen und diktiert nicht nur die inhaltlichen Kategorien der Selbstbeschreibung, sondern fordert auch das vollständige Ausfüllen des Formulars, mit welchem erst der Vorgang abgeschlossen werden kann. Um im Raster der E-Formulare verortet werden zu können, muss lineares und narratives Wissen in Informationsbausteine zerlegt werden. Diese formimmanenten Regeln begründen die Autorität des E-Formulars. Es handelt sich jedoch um eine brüchige und instabile Autorität der grafischen und logischen Struktur, die im Formulargebrauch permanent unterwandert werden kann (etwa durch das Erstellen von Fake-Profilen). Die kulturelle Einbettung der Kompilatoren bzw. Kompilatorinnen in historisch bedingte und sozial differenzierte Lektüre-, Schreib-, Erzähl- und Wahrnehmungspraktiken relativiert die expliziten Anweisungen, Belehrungen und Direktiven der formimmanenten Regelfassung des E-Formulars.

Es gibt also unter allen Umständen eine Vielzahl taktischer Möglichkeiten, ihr formimmanentes Diktat zu unterlaufen. Die Praktiken der Kompilation stellen das Gesamtschema der elektronischen Formulare in Frage und können somit widersprüchliche Dateneinträge produzieren. Es gibt jedoch eine weitere Ausprägung des Formulargebrauchs. Sie bietet die Basis stillschweigender Akzeptanz des Formulars als einer adäquaten Form der Aufzeichnung und Darstellung von Daten und Informationen. Die Autorität der elektronischen Wissenserfassung und -repräsentation hängt folglich auch von der Bereitschaft der Enduser und Enduserinnen ab, die Benutzung der elektronischen Formulare als neutral, evident und selbsterklärend anzuerkennen. Einer solchen Akzeptanz liegen historische Lese- und Schreibgewohnheiten zu Grunde (Buchhaltung, Prüfungs- und Testverfahren), die dazu führen, dass die elektronischen Formulare als gebräuchliche und geläufige Wissensmanuale der empirischen Datenermittlung wiedererkannt werden. Insofern stützt sich die Formautorität elektronischer Formulare weniger auf die individuelle Autorisierung des Dokumentes durch Institutionen, sondern ist von der kulturellen Akzeptanz der Form abhängig. Die fraglose Überzeugungskraft des Formulars basiert wesentlich auf historisch gemachten Erfahrungen mit dieser Form, d.h. dem Wiedererkennen der Form.

Die E-Formulare machen mehr als einen bloßen Kontext der Information verfügbar, denn sie setzen ein Raster der Erfassung persönlicher Merkmale ins Werk. Mit diesem Rasterwerk können die Profile miteinander verglichen und einzelne Parameter bestimmten Suchanfragen zugeordnet werden. Die Raster biografischer Wissenserfassung erheben also auch einen Anspruch auf universale Geltung. Autorität der Form meint in diesem Zusammenhang, dass das Frageprotokoll und der Auskunftgeber in einem hierarchischen Bezugsrahmen zueinander positioniert sind: das Dokument soll als solches unveränderlich bleiben und von jedem Einzelnen beliebig oft benützt werden können. Durch das schriftlich vorformulierte und grafisch strukturierte Frageschema hat sich die Autorität in den Bereich der Form verschoben, d.h. dass die formimmanente Festlegung der Reihenfolge und die Art und Weise der Fragen einen kommunikativen Rahmen absteckt.

Das elektronische Formular kann Potenziale formaler Autorität entwickeln, wenn der Umgang mit ihm streng geregelt wird und Verstöße sanktioniert werden. Seine formale Strenge gewährleistet, dass das E-Formular geplante Informationen vorhersehbar übertragen kann. Die immanente Formautorität markiert jedoch keinen feststehenden Status, sondern bleibt anfällig für das Entstehen einer informellen Regelausweitung, die mittels der kulturellen Praktiken im Bereich der Anwendung entsteht. Die Formulare der Wissenserfassung zielen zwar darauf ab, den Zufluss an Daten schon im Vorfeld zu standardisieren und zu kategorisieren, doch je weiter sich das Raster in die Grafik der Formalität zurückzieht, d.h. nicht explizit wird, desto erfolgreicher scheint es bei der Hervorbringung intimer Bekenntnisse zu sein. Es sind die scheinbar ‘zwanglosen’ Datenfelder, die informellen Spielraum zur persönlichen Gestaltung aufweisen und zur Führung individueller Listen und Tabellen einladen und Gelegenheit zu persönlichen Bekenntnissen und intimen Enthüllungen bieten. Vor diesem Hintergrund vermitteln die ‘freien’ und ‘ungezwungenen’ Kommunikationsräume auf Facebook eine äußerst tragfähige Motivation zur eigenständigen Wissensproduktion. Der Rückzug des Rasters in den informellen Bereich bewirkt also nicht per se die Desorganisation der Wissensregistraturen. Im Gegenteil: die Individualisierung der Datenkummulation suggeriert eine ‘dezentrale’, ‘herrschaftslose’ und letztlich ‘wahrhaftige’ Praxis der Wissensermittlung und ‘belebt’ in vielen Fällen die Bereitschaft des Subjekts zur Selbstauskunft (Adelmann 2011, S. 127-144).

Im Rezeptionsmodus seiner Mitglieder – aus der Sicht des Front-End – markiert Facebook den Aufstieg einer neuen Subjektkultur, die sich vor allem im Erwerb von kultureller und sozialer Distinktion herstellt: “Entsprechende Definitionen von Zugehörigkeit und Ausschlussstrategien und das Verhandeln der Werte und Normen sowie der davon abgeleiteten Machtrelationen definieren nicht nur die jeweiligen ‘Außengrenzen’ derselben, sondern auch die Auseinandersetzungen um deren Erhalt.” (Lummerding 2011, S. 209) Selbstredend zählen Distinktionsmechanismen zum Grundbestand sozialer Organisation. Mit dem Aufstieg von konzernkontrollierten sozialen Medien wie etwa Facebook werden Distinktionen aber rechnerbasiert mit Hilfe algorithmischer Verfahren generiert. Die Prozeduren ihrer Bereitstellung, Auswahl, Verteilung und Archivierung bleiben jedoch für die Mitglieder von Facebook nicht nachvollziehbar und werden nicht einsichtig gemacht. Die rechnerbasierte Datenverarbeitung der von den Userinnen und Usern generierten Daten und Informationen vollzieht Facebook im Back-End, einem Rechenraum hinter dem für die User und Userinnen zugänglichen Interface der graphischen Benutzeroberfläche, der ausschließlich der unternehmensinternen Datenerhebung dient.

Die Nutzer haben aber nur eine ganz vage Vorstellung davon, welche Arten von Informationen gesammelt und wie sie verwendet werden. So gehen die Formen der Personalisierung zwar auf Informationen zurück, die von den Mitgliedern selbst ausgehen, aber der Prozess der Vorhersage und des Anbietens von Inhalten, die auf vergangenem Verhalten basieren, ist eine Push-Technologie, welche die Mitglieder von Beteiligung und Einflussnahme konsequent ausschließt.

In diesem Zusammenhang möchte ich folgende Fragestellungen aufwerfen: Wie berechnet die soziale Netzwerkseite Facebook die Zukunft ihrer Mitglieder? Welche Verfahren der Registrierung, der Berechnung, der Auswertung, der Adressierung verwendet sie zur Herstellung prognostischen Wissens? Wie werden diese Verfahren eingesetzt, um prognostische Modellierungen über das Verhalten von Usern und Userinnen herzustellen?

Happiness Index

Die Glücksforschung nutzt heute vermehrt die sozialen Netzwerke zur Auswertung ihrer Massendaten. Innerhalb der Big-Data-Prognostik stellt die so genannte “Happiness Research” eine zentrale Forschungsrichtung dar. Doch die sozioökonomische Beschäftigung mit dem Glück wird überwiegend unter Ausschluss der akademischen Öffentlichkeit durchgeführt. In diesem Zusammenhang warnen einflussreiche Theoretiker wie Lev Manovich (vgl. 2012) und Danah Boyd (vgl. 2011) daher vor einem “Digital Divide”, der das Zukunftswissen einseitig verteilt und zu Machtasymmetrien zwischen Forschern innerhalb und außerhalb der Netzwerke führen könnte. Manovich kritisiert den limitierten Zugang zu sozialstatistischen Daten, der von vornherein eine monopolartige Regierung und Verwaltung von Zukunft schafft: “[…] only social media companies have access to really large social data – especially transactional data. An anthropologist working for Facebook or a sociologist working for Google will have access to data that the rest of the scholarly community will not.” (Manovich 2012: S. 467)

Dieses ungleiche Verhältnis festigt die Stellung der sozialen Netzwerke als computerbasierte Kontrollmedien, die sich Zukunftswissen entlang einer vertikalen und eindimensionalen Netzkommunikation aneignen: (1) Sie ermöglichen einen kontinuierlichen Fluss von Daten (digitale Fußabdrücke), (2) sie sammeln und ordnen diese Daten und (3) sie etablieren geschlossene Wissens- und Kommunikationsräume für Expertinnen und Experten und ihre Expertisen, welche die kollektiven Daten zu Informationen verdichten und interpretieren. Das Zukunftswissen durchläuft folglich unterschiedliche mediale, technologische und infrastrukturelle Schichten, die hierarchisch und pyramidal angeordnet sind: “The current ecosystem around Big Data creates a new kind of digital divide: the Big Data rich and the Big Data poor. Some company researchers have even gone so far as to suggest that academics shouldn’t bother studying social media data sets – Jimmy Lin, a professor on industrial sabbatical at Twitter argued that academics should not engage in research that industry ‘can do better’.” (Boyd/Crawford 2011) Diese Aussagen verdeutlichen – neben der faktisch gegebenen technologisch-infrastrukturellen Abschottung des Zukunftswissens –, dass das strategische Entscheidungshandeln im Back-End-Bereich und nicht in der Peer-to-Peer-Kommunikation angelegt ist. Die Peers können zwar in ihrer eingeschränkten Agency die Ergebnisse verfälschen, Fake-Profile anlegen und Nonsens kommunizieren, besitzen aber keine Möglichkeiten der aktiven Zukunftsgestaltung, die über taktische Aktivitäten hinausgehen.

Warum ist eigentlich die Erforschung des Glücks für die Gestaltung des Zukunftswissens so relevant geworden? Die Dominanz der Glücksforschung hat zwei historische Gründe (vgl. Frey/Stutzer 2002, S. 402). Seit der griechischen Antike wird dem Glück eine zentrale Stelle im menschlichen Leben eingeräumt und nach Aristoteles besteht das Ziel alles menschlichen Tuns darin, den Zustand der Glückseligkeit zu erlangen.5 Ein weiterer maßgeblicher Diskursstrang ist der seit Jeremy Bentham einflussreich gewordene Utilitarismus der Glücksdiskurse. Mit dem Greatest Happiness Principle entwickelte Bentham die Vorstellung, dass das größte zu erreichende Gut das Streben nach dem größtmöglichen Glück für die größtmögliche Anzahl von Menschen bedinge (vgl. Bentham 1977, 393f.). An diese sozioökonomische Konzeption des Glücks knüpft die “Happiness Research” an, die Glück nach rationalem Kalkül als individuellen Nutzen interpretiert und in der Hochrechnung von aggregierten Glücksbekundungen das soziale Wohlbefinden berechnet.

Eine maßgebliche Spielart der futurologischen Prophetie stellt der seit 2007 eingeführte “Facebook Happiness Index” dar, der anhand einer Wortindexanalyse in den Statusmeldungen die Stimmung der Nutzerinnen und Nutzer sozialempirisch auswertet. Auf der Datengrundlage der Status-Updates errechnen die Netzwerkforscher und -forscherinnen in ihrem “Gross National Happiness Index” (GNH) das so genannte “Bruttonationalglück” von Gesellschaften. Der Soziologe Adam Kramer arbeitete von 2008 bis 2009 bei Facebook und errechnete gemeinsam mit den Mitarbeiterinnen und Mitarbeitern des Facebook Data Team, der Sozialpsychologin Moira Burke, dem Informatiker Danny Ferrante und dem Leiter der Data Science Research Cameron Marlow den Happiness Index. Kramer konnte dabei das intern verfügbare Datenvolumen des Netzwerks nutzen. Er evaluierte die Häufigkeit von positiven und negativen Wörtern im selbstdokumentarischen Format der Statusmeldungen und kontextualisierte diese Selbstaufzeichnungen mit der individuellen Lebenszufriedenheit der Nutzer (convergent validity) und mit signifikanten Datenkurven an Tagen, an denen unterschiedliche Ereignisse die Medienöffentlichkeit bewegten (face validity): “‘Gross national happiness’ is operationalized as a standardized difference between the use of positive and negative words, aggregated across days, and present a graph of this metric.” (Kramer 2010, S. 287) Die von den Soziologinnen und Soziologen analysierten individuellen Praktiken der Selbstsorge werden mit Hilfe von semantischen Wortnetzen letztlich auf die Oppositionspaare “Glück”/”Unglück” und “Zufriedenheit”/”Unzufriedenheit” reduziert. Eine binär strukturierte Stimmungslage wird schließlich als Indikator einer kollektiven Mentalität veranschlagt, die auf bestimmte kollektiv geteilte Erfahrungen rekurriert und spezifische Stimmungen ausprägt. Die soziologische Massenerhebung der Selbstdokumentationen (self reports) in sozialen Netzwerken hat bisher die Stimmungslage von 22 Nationalstaaten ermittelt. Mit der wissenschaftlichen Korrelation von subjektiven Befindlichkeiten und bevölkerungsstatistischem Wissen kann der “Happiness Index” nicht nur als Indikator eines “guten” oder “schlechten” Regierens gewertet werden, sondern als Kriterium einer möglichen Anpassungsleistung des Politischen an die Wahrnehmungsverarbeitung der sozialen Netzwerke. In diesem Sinne stellt der “Happiness Index” ein erweitertes Instrumentarium wirtschaftlicher Expansion und staatlicher-administrativer Entscheidungsvorbereitung dar.

Zusammenfassung und Ausblick

In der Ära von Big Data hat sich der Stellenwert von sozialen Netzwerken radikal geändert, denn sie figurieren zunehmend als gigantische Datensammler für die Beobachtungsanordnungen sozialstatistischen Wissens und als Leitbild normalisierender Praktiken. In den meisten Fällen geht es bei der Erforschung sehr großer Datenmengen um die Aggregation von Stimmungen und Trends. Mittlerweile gibt es zahlreiche Studien, welche die textuellen Daten der sozialen Medien untersuchen, um politische Einstellungen (Conover et.al. 2011), Finanztrends und Wirtschaftskrisen (Gilbert/Karahalios 2010), Psychopathologien (Wald/Khoshgoftaar/Sumner 2012, S. 109-115) und Aufstände und Protestbewegungen (Yogatama 2012) frühzeitig vorherzusagen. Von einer systematischen Auswertung der Big Data erwarten sich die Prognostiker eine effizientere Unternehmensführung bei der statistischen Vermessung der Nachfrage- und Absatzmärkte, individualisierte Serviceangebote und eine bessere gesellschaftliche Steuerung. Einen großen politischen Stellenwert hat vor allem die algorithmische Prognostik kollektiver Prozesse.

Internet Biosurveillance, oder Digital Disease Detection, stellt ein neues Paradigma der Public Health Governance dar. Während die klassischen Ansätze der Gesundheitsprognostik mit den in der klinischen Diagnose erhobenen Daten operierten, nutzen die Studien der Internet Biosurveillance die Methoden und Infrastrukturen der Health Informatics. Konkret nutzen sie die unstrukturierten Daten von unterschiedlichen webbasierten Quellen und zielen mit Hilfe der gesammelten und aufbereiteten Daten und Informationen auf die Veränderung des gesundheitsbezogenen Verhaltens. Die zwei wesentlichen Aufgabenbereiche der Internet Biosurveillance liegen (1) in der Früherkennung epidemischer Krankheiten, biochemischer, radiologischer und nuklearer Gefahren und (2) in der Umsetzung von Strategien und Maßnahmen nachhaltiger Governance in den Zielbereichen der Gesundheitsförderung und der Gesundheitsbildung.

Die Internet Biosurveillance nutzt die Verfügbarkeit von Daten und Analyse-Tools der digitalen Infrastrukturen der Social Media, der participatory sources und der non-text-based sources. Der digitale Strukturwandel als Haupttreiber für Big Data bietet für die Sensorik sowie die Biometrie als bedeutungsvolle Schlüsseltechnologien ein vielfältiges Einsatzgebiet. Biometrische Analysetechnologien und -methoden halten Einzug in sämtliche Lebensbereiche und hiermit verändern den Alltag. Insbesondere die Sensorik, biometrische Erkennungsverfahren und der allgemeine Trend zur Konvergenz von Informations- und Kommunikationstechnologien stimulieren die Big-Data-Forschung. Die Eroberung der Massenmärkte durch Sensoren und biometrische Erkennungsverfahren ist mitunter dadurch zu erklären, dass mobile, webbasierte Endgeräten mit einer Vielzahl diverser Sensoren ausgerüstet sind. Immer mehr Nutzer kommen auf diesem Wege mit der Sensortechnologie oder der Messung individueller Körpermerkmale in Verbindung. Durch die stabiler und schneller werdenden Mobilfunknetze sind viele Menschen mit ihren mobilen Endgeräten auch permanent mit dem Internet verbunden, was der Konnektivität einen zusätzlichen Schub verleiht.

Mit den Apps, der Anwendungssoftware für Mobilgeräte wie Smartphone (iPhone, Android, BlackBerry, Windows Phone) und Tablet-Computer, hat sich die Anwendungskultur der Biosurveillance maßgeblich verändert, da sie wesentlich von der Beteilungsdynamik des bottom-up geprägt sind. Andreas Albrechtslund spricht in diesem Zusammenhang von der “Participatory Surveillance” (2008) auf den Social-Networking-Sites, die mit ihren Kommentarfunktionen, Hypertextsystemen, Ranking- und Votingverfahren durch kollektive Rahmungsprozesse dafür sorgen, dass Biosurveillance immer mehr zum Schauplatz offener Bedeutungsproduktion und permanenter Aushandlung geworden ist.

Literatur

Adelmann, Ralf (2011): “Von der Freundschaft in Facebook: Mediale Politiken sozialer Beziehungen in Social Network Sites”, in: Oliver Leistert / Röhle, Theo (Hg.): Generation Facebook: Über das Leben im Social Net, Bielefeld: transcript,. S. 127-144.
Albrechtslund, Anders. “Online Social Networking as Participatory Surveillance”, in: First Monday vol. 13/3 (2008), Online: http://firstmonday.org/ojs/index.php/fm/article/viewArticle/2142/1949
Bollen, Johan (2011): “Happiness Is Assortative in Online Social Networks”, in: Artifical Life 17 (3), S. 237-251.
Bollen, Johan/Mao, Huina/Zeng, Xiaojun (2011): “Twitter mood predicts the stock market”, in: Journal of Computational Science 2 (1), S. 1-8.
Bollier, David (2010): “The promise and peril of big data”, Washington, DC: The Aspen Institute, Online: http://www.aspeninstitute.org/sites/default/files/content/docs/pubs/The_Promise_and_Peril_of_Big_Data.pdf, zuletzt gesichtet am 27. Dezember 2013.
Boyd, Danah/Crawford, Kate (2011): “Six Provocations for Big Data”, in: Conference Paper, A Decade in Internet Time: Symposium on the Dynamics of the Internet and Society, September 2011, Oxford: University of Oxford und Online: http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1926431, zuletzt gesichtet am 27. Dezember 2013.
Castelluccia Claude (2012): “Behavioural Tracking on the Internet: A Technical Perspective”, in: Serge Gutwirth u.a. (Hg.): European Data Protection. Good Health?, New York/London: Springer, S. 21-33.
Conover, Michael D./ Goncalves, Bruno/ Ratkiewicz, Jacob/ Flammini, Alessandro/ Menczer, Filippo (2011): “Predicting the Political Alignment of Twitter Users.” Proceedings of the 3rd IEEE Conference on Social Computing, forthcoming”, Online: http://www.criticalinsight.net/publications/conover_prediction_socialcom.pdf, zuletzt gesichtet am 19. Dezember 2014.
Doorn, Niels Van (2010): “The ties that bind: the networked performance of gender, sexuality and friendship on MySpace”, in: New Media and Society 12 (4), S. 583-602.
Frey, Bruno S./Stutzer, Alois (2002): “What can economists learn from happiness research?” In: Journal of Economic Literature 40 (2), S. 402-435.
Freyer-Dugas, Andrea et. al. (2012): “Google Flu Trends: Correlation With Emergency Department Influenza Rates and Crowding Metrics”, in: Clinical Infectious Diseases, 54(15), S. 463-469.
Gilbert, Eric/ Karahalios, Karrie (2010): “Widespread Worry and the Stock Market”, in: 4th International AAAI Conference on Weblogs and Social Media (ICWSM), Washington, DC: George Washington University.
Kramer, Adam D. I. (2010): “An Unobtrusive Behavioral Model of ‘Gross National Happiness'”, in: Association for Computing Machinery (Hg.): Conference on Human Factors in Computing Systems 28 (3), S. 287-290.
Leistert, Oliver/Röhle, Theo (2011) (Hg.): Generation Facebook: Über das Leben im Social Net, Bielefeld: transcript.
Lummerding, Susanne (2011): “Facebooking. What You Book is What You Get – What Else? “, in: Oliver Leistert / Röhle, Theo (Hg.): Generation Facebook: Über das Leben im Social Net, Bielefeld: transcript,. S. 199-216.
Manovich, Lev (2012): “Trending: The promises and the challenges of Big Social Data”, in: Matthew K. Gold (Hg.), Debates in the digital humanities, Minneapolis: University of Minnesota Press, S. 460-475.
Wald, Randall/ Khoshgoftaar, Taghi M./ Sumner, Chris (2012): ” Machine Prediction of Personality from Facebook Profiles”, in: 13th IEEE International Conference on Information Reuse and Integration, S. 109-115.
Yogatama, Dani (2012): “Predicting the Future: Text as Societal Measurement”, Online: http://www.cs.cmu.edu/~dyogatam/Home_files/statement.pdf, zuletzt gesichtet am 27. Dezember 2013.

Facebook Data Science, https://www.facebook.com/data (letzter Zugriff: 28.12.2013).

Unter dem Titel "Facebook Reveals Most Popular Songs for New Loves and Breakups" äußerte sich "Wired" begeistert über die neuen Möglichkeiten des Data Minings: www.wired.com/underwire/2012/02/facebook-love-songs/ (letzter Zugriff: 28.12.2013) .

Das auf dem Server installierte Programm wird bei Client-Server-Anwendungen mit dem Terminus "Back-End" umschrieben. Das im Bereich der Client-Anwendung laufende Programm wird als "Front-End" bezeichnet.

Die kollektive Figur "Wir" meint in diesem Fall die Forscher im Back-End-Bereich und hat futurologische Verschwörungstheorien angeheizt, die das Weltwissen in den Händen weniger Forscher vermuteten.

Dieses unveräußerliche Recht des Menschen auf Glück (the pursuit of happiness) nahmen die Vereinigten Staaten von Amerika in die Eröffnungspassage ihrer Unabhängigkeitserklärung auf.

Published 23 December 2014
Original in German
First published by Eurozine (English and German versions)

© Ramón Reichert / Eurozine

PDF/PRINT

Discussion