Schwerpunkt | Mensch-Maschine Interaktion im Web 2.0: Ein nie-endendes Spiegelstadium? Über die maschinelle Personalisierung des Internets und dessen Folgen

Filterblase, Suchmaschinenoptimierung, Targeted Advertising. All diese Begriffe sind aus dem Diskurs über den Diskurs im Internet nicht mehr wegzudenken. Gemein haben sie, dass sie die Frage danach stellen, welche Mechanismen der Repräsentation im Internet bestimmen, was gesehen wird und was unsichtbar bleibt. Ausschlaggebend hierfür ist die Personalisierung in Form von ihrerseits personalisierten Algorithmen. Wie Personalisierung durch Algorithmen funktioniert und wie sich das äußerst komplexe Verhältnis von Mensch und Maschine im Internet gestaltet, wird in diesem Aufsatz unter Zuhilfenahme der Theorien von Elena Esposito und Friedrich Kittler zu komplexen algorithmischen Maschinen sowie der Konzeption des Spiegelstadiums durch Jacques Lacan dargestellt. Insbesondere die Wechselwirkungen zwischen Menschen und Maschine sollen hierbei unter die Lupe genommen und die Frage gestellt werden, ob die Verfahren der Personalisierung zu einer automatisierten Radikalisierung des Menschen führen können.

Wie kommuniziert der Mensch mit der Maschine? Virtuelle Kontingenz bei Elena Esposito und das lacansche Spiegelstadium

Für Elena Esposito ist es in ihrem Aufsatz „Zwischen Personalisierung und Cloud: Medialität im Web eine der zentralen Fragen, wie es dazu kommen kann, dass zwei Personen an zwei verschiedenen Computern beim gleichen Suchbegriff im Internet unterschiedliche Ergebnisse erhalten. Sie bemerkt, dass entgegen der früheren Massenmedien das Internet nicht nur im Individuellen personalisiert sei, nämlich durch die Art und Weise in der jedes Individuum es nutzt, sondern auch auf öffentlicher Ebene.[1] Während etwa eine gekaufte Zeitung zwar auf unterschiedliche Arten gelesen oder genutzt werden kann, ist ihr Inhalt, ihre Oberfläche und ihre Struktur etc. mit allen anderen Exemplaren derselben Ausgabe identisch. Für das Internet gilt dies nicht, es unterscheidet sich von Person zu Person, es ist in seiner Struktur flexibel. „Das Medium selbst ist etwas anderes“[2], schreibt Esposito und benennt als einen Grund dafür die Mensch-Maschine-Kommunikation, die sich grundlegend von der Kommunikation Mensch-Mensch unterscheide. Den primären Unterschied sieht sie darin, dass der Computer kein eigenes Bewusstsein und auch keine eigene Kontingenz besitze.[3] Während eine vollzogene menschliche Handlung auch in einer komplett anderen Art und Weise hätte vollzogen werden können, also immer prinzipiell offen und ungewiss und somit kontingent ist, fehlt der Maschine eine eigene Kontingenz, weil ihr Handeln durch ihre eigenen Algorithmen und deren Programmierung determiniert ist. Zwar hätten die Maschinen auch ihre eigene Evolution simuliert, durch verschiedenste Operationen eingeständig ihre Programme verändert und somit den Eindruck von Unberechenbarkeit evoziert. Jedoch sei die Unberechenbarkeit selbst der besten selbstlernenden Algorithmen wiederum erwartet und vorgesehen, domestiziert.[4]

Kommunizieren zwei Menschen miteinander, bezeichnet Esposito deren Kommunikation als doppelt kontingent und die Kommunizierenden als Blackboxes. Beide Kommunikationsteilnehmenden seien nämlich insofern als kontingent zu bezeichnen, als dass sie jeweils ein eigenes Bewusstsein besäßen und sich frei verhalten könnten, dabei aber auch wüssten, dass dies ebenso für ihr Gegenüber gilt.[5] Sie beschreibt es wie folgt: „Doppelte Kontingenz bedeutet endlose Unsicherheit in dem Verweis zwischen Beobachtungsperspektiven, die einander ewig widerspiegeln“[6]. Beide denken und handeln also frei, wissen aber, dass dies für ihr Gegenüber ebenso gilt und passen ihr Handeln an ihr Gegenüber an, ohne aber wissen zu können, was es denkt. Sie wissen aber auch, dass ihr Gegenüber sich in der identischen Situation wie sie selbst befindet und ihr eigenes Handeln ebenfalls reflektiert. Daraus ergibt sich dieFormulierung des ewigen Widerspiegelns, aus dem eine endlose Unsicherheit resultiere.

Kommuniziert aber ein Mensch anstatt mit einem Menschen mit einer Maschine, ändere sich die Form der Kommunikation grundlegend. Die Maschine, die also kein Bewusstsein und keine eigene Kontingenz hat, ernährt sich, so Esposito, von der Kontingenz des Menschen und stellt sie ihm in überarbeiteter, nicht vorhersehbarer und überraschender Form wieder dar.[7] Entgegen künstlicher Intelligenzen, deren Vorrat an Informationen endlich seien, sei das Verhalten der Maschine unvorhersehbar, da es die unerschöpfliche Varietät des Verhaltens und der Perspektive des jeweiligen Individuums absorbiere und reflektiere. Die Maschine simuliere also eine doppelte Kontingenz, aber in Wirklichkeit kommuniziere das Individuum in einer nicht erkennbaren und überraschenden Form mit sich selbst. Esposito spricht infolgedessen von einer virtuellen Kontingenz der Maschine, die aber auf eine originäre Kontingenz angewiesen sei, in der sie sich reflektiert. Von daher sei auch die Varietät der virtuell kontingenten Maschine unendlich, weil die Kontingenz des Menschen, die sie verarbeitet und reflektiert, unendlich ist.[8] Die Maschine liest das Individuum und dessen Kontingenz aus, verarbeitet sie, verformt sich und entwickelt sich selbst weiter. Esposito vergleicht die Funktionsweise der Maschine mit der eines Einwegspiegels für das Individuum.[9]

Diese Spiegelmetaphorik ruft Jacques Lacans Konzept des Spiegelstadiums ins Gedächtnis. In seinen Écrits schreibt Lacan über die Subjektwerdung eines sechs Monate alten Kindes, das sich selbst vor dem Spiegel erblickt. Es befindet sich noch in einem Stadium der sich ausbildenden motorischen Entwicklung, steht noch in einem Lauflerngerät vor einem Spiegel, aber als es das eigene Spiegelbild erblickt, erkennt es sich wieder. Es erkennt sich jedoch selbst als eine Urgestalt, ein Ideal-Ich und freut sich über die wahrgenommene Vollkommenheit des Spiegelbilds. Das Kind, das in Wirklichkeit nicht so vollkommen ist, weil es sich körperlich noch in einem frühen Entwicklungsstadium befindet, verkennt sich und identifiziert sich mit der Gestalt im Spiegel. Es erlebt sich in einer Ganzheit und lernt das eigene, noch sehr chaotische Innen von dem Außen, der Umwelt, zu unterscheiden. Lacan skizziert den Weg des Kindes vom zerstückelten Körper zur Vollkommenheit seiner Gestalt, woraus sich eine Struktur ergibt, die die gesamte spätere Entwicklung des Kindes prägen wird.[10] Lacanbeschreibt mit seinem Konzept den ersten Moment der Subjektwerdung. Dieses kann aber auch produktiv auf das Verhältnis von Mensch und Maschine im Internet angewendet werden.

Friedlich Kittler über den Linear Prediction Code und Erfassungsalgorithmen im Internet

Ein Mensch ist online, er sucht in einer Suchmaschine nach Begriffen, besucht verschiedene Websites, kauft in Online-Shops ein usw. Jede Aktion, die er im Internet ausführt, ist gleichzeitig auch eine Selektion und mit jeder Aktion, die er ausführt, generiert er Informationen und Daten. Die so erzeugten Daten werden im Zeitalter von Big Data gespeichert und durch Algorithmen ausgewertet und analysiert. Die Daten der Benutzer*innen werden von den Algorithmen kombiniert sowie multipliziert und gewinnen daraus eine Art Logik, die sie auf das gesamte Netzwerk anwenden. Je zahlreicher die Selektionen sind, so schreibt Esposito, desto raffinierter werde die resultierende Logik.[11]

Diese Feststellung Espositos taucht bereits in Friedrich Kittlers Beschreibung des Linear Prediction Codes in seinem Aufsatz „Fiktion und Simulation“ auf.[12] In diesem Aufsatz beschreibt Kittler die Konzeption des Linear Prediction Codes durch den Mathematiker Norbert Wiener, der gemeinhin als Vater der Kybernetik gilt. Dieser sei anlässlich der im Jahre 1940 befürchteten anstehenden Luftschlacht um England im zweiten Weltkrieg beauftragt worden, eine mathematische Möglichkeit zu entwickeln, mit der die Flakgeschütze automatisch die korrekte Position des feindlichen Flugzeugs anvisieren, um die als zu langsam geltenden Bedienungsmannschaften der Flakgeschütze zu überspielen. Damit eine automatische Zielerfassung gelinge, müssten die Geschütze nicht auf die gegenwärtige, sondern die korrekte zukünftige Position des Flugzeugs zielen und dabei physikalische Gesetze sowie mögliche taktische Manöver der feindlichen Piloten einberechnen. Hier komme der Linear Prediction Code ins Spiel. Er taste vergangene Positionen des Flugzeugs ab und speichere sie zwischen. Diese würden dann mit vorerst willkürlichen Koeffizienten multipliziert und die daraus entstehenden Produkte rekursiv akkumuliert, woraus ein Schätzwert für die zukünftige Position entstehe. Jener sei mit Sicherheit noch fehlerhaft, werde aber mit der nächsten Abtastung im Realen verglichen, woraufhin der Algorithmus das kleinste Fehlerquadrat ermittele und auf dieser Basis die vorherigen Koeffizienten nachstelle.[13] Das bedeutet, dass jede weitere Abtastung den Schätzwert präzisiert. Aufgrund der immensen Rechengeschwindigkeit des Computers geschehe dieser Vorgang in Wiederholung im Mikrosekundentakt.[14] Somit seien die Flugzeuge mit ihrer sehr endlichen Beschleunigung dem „Orakel“[15] Linear Prediction Code ausgeliefert.[16]

Kittlers Darstellung einer algorithmisierten automatischen Zielerfassung anhand des Linear Prediction Codes gleicht strukturell modernen Erfassungsalgorithmen des Internets. Sollte der Linear Prediction Code im Zweiten Weltkrieg noch auf deutsche Flugzeuge zielen, zielen moderne Algorithmen im Internet auf die User*innen. Ähnlich dem Linear Prediction Code tasten die Algorithmen die Nutzer*innen und deren Daten ab und generieren daraus neue Vorhersagen. Dass diese fehlerbehaftet sind, spielt insofern keine Rolle, als bei deren nächster Aktion schon eine neue Abtastung und Berechnung stattfindet und das Ergebnis immer präziser wird.

Der Algorithmus, der den Menschen erfassen will, egal ob in einem deutschen Kampfflugzeug im zweiten Weltkrieg oder als User*in im Netz, wird ihn somit verfehlen. Aber dies ist unbedeutend, denn bereits die Abtastung der nächsten Position des Flugzeugs, der nächsten Aktion der Nutzer*innen im Web, ist präziser als die vorherige. Sie mag wiederum auch fehlerbehaftet sein, doch die nächste Abtastung steht bereits bevor usw. Die Maschine lernt fortwährend aus dem Menschen und präzisiert sich. Es ist ein konstantes Erkennen und Verkennen. Ein nie-endendes Spiegelstadium. Denn der Mensch erscheint der Maschine als das Ideal im Spiegel, das Spiegelbild, das sie versucht zu erreichen, aus dem sie lernen und sich selbst modifizieren soll. Das Ergebnis ist dabei keine Subjektwerdung in dem Sinne, dass der Algorithmus ein eigenes Bewusstsein entwickelt. Die Maschine jubiliert nicht vor dem Spiegel. Auch ist sie kein Doppelgänger der User*innen. In den Worten Espositos ist sie nur virtuell kontingent.[17] Eine raffinierte responsive Verarbeitung der Daten der User*innen. Dadurch wird sie individuell, denn wieEsposito bereits darlegte, speist sich die Varietät der virtuellen Kontingenz aus der Varietät der menschlichen Kontingenz, ist also unendlich.[18]

Zusammengefasst erschafft die unendliche menschliche Kontingenz die unendliche virtuelle Kontingenz. Der personalisierte Algorithmus schmiegt sich an seine User*innen an und entwickelt sich in einem ewigen Erkennen und Verkennen, einer ewigen Aktualisierung der Identifikation weiter. Es ist das konstante maschinelle Spiegelstadium, welches das Internet in seiner Struktur personalisiert. Aus der Individualität des Menschen formt die Maschine die individuelle Nutzungserfahrung und Struktur des World Wide Webs, der sozialen Medien etc.

Folgen der Personalisierung: Targeted Advertising, Suchmaschinenoptimierung, Filterblasen, etc.

Die Folgen dieser Personalisierung sind weitreichend: Targeted Advertising, also der Versuch, Werbung an die Zielperson anzupassen, um zielgerichtet Waren zu verkaufen, ist ein weitbekanntes Beispiel. Der Kauf beispielweise einer Kaffeemaschine in einem Online-Shop kann dazu führen, dass dem/ der Käufer*in in Folge eine Werbung für Kaffeetassen eingeblendet wird.

Komplexer ist das Beispiel der Suchmaschinenoptimierung. Hier sollen mithilfe von Daten von Nutzer*innen einerseits Suchergebnisse für die jeweiligen Nutzer*innen personalisiert gelistet werden, um diesen solche Ergebnisse zu liefern, die sie auf Basis vorheriger Suchen wahrscheinlich interessieren werden. Andererseits versuchen Webseiten und Konzerne ebenfalls mithilfe der Daten der Nutzer*innen in den Page-Rank-Algorithmen der Suchmaschinen höher gelistet und somit sichtbarer zu werden. Das Beispiel der Suchmaschinenoptimierung verdeutlicht, dass die Personalisierung im Internet auf der einen Seite als eine Lösung erscheint, mit der enormen Menge an Daten und Inhalten im Internet umzugehen und aus ihr sogar zu profitieren, da mehr Daten eine präzisere Weiterentwicklung der Algorithmen bedingen. Auf der anderen Seite ist sie aber auch ein Werkzeug inmitten eines kommerziellen und aufmerksamkeitsökonomischen Wettbewerbs.

Die wohl am kontroversesten diskutierte Konsequenz der Personalisierung ist jedoch die Filterblase. Das Konzept wurde von Eli Pariser geprägt und beschreibt das Problem, dass Nutzer*innen durch die Personalisierung des Internets nur noch mit Inhalten konfrontiert würden, die ihren eigenen Ansichten entsprächen. Laut Pariser stellen sich Internet und Suchmaschinen wie Google als objektive und neutrale Vermittler dar, während sie in Wirklichkeit personalisierte Informationen liefern, die die User*innen in ihrer Weltsicht bestätigen. Diese würden aber nicht merken, dass sie mit ihrer eigenen Sicht konfrontiert werden und nehmen diese als eine objektive Information wahr. All die Informationen, die ihren Ansichten widersprechen würden, würden ihnen nicht angezeigt; es finde keine Konfrontation mehr mit opponierendem Gedankengut statt.[19] Pariser schreibt: „The personalized environment is very good at answering the questions we have but not at suggesting questions or problems that are out of our sight altogether“[20]. Das personalisierte Internet kann nur Fragen beantworten, die vorher gestellt wurden, aber keine eigenen Fragen aufbringen. Auf den Punkt gebracht, befinden sich nach Pariser die User*innen intellektuell isoliert in ihrer eigenen Blase, ohne dies zu bemerken.

Hier wird deutlich, dass in der Kommunikation Mensch-Maschine auf beiden Seiten Spiegelungen stattfinden. Wie bereits dargestellt, lernt die Maschine aus dem Menschen, passt sich ihm an und wird dabei selbst zu einer nach spezifischen, z.B. ökonomischen, Maßgaben gefertigten Reflexion des Menschen. Tritt dieser nun in Kommunikation mit der Maschine, kommuniziert er in Wirklichkeit also mit einer veränderten Form seines Selbst, ohne dies zu wissen. Er denkt also, dass die Beiträge und Postings, die ihm zum Beispiel in sozialen Medien angezeigt werden, auch den anderen dort aktiven Nutzer*innen gezeigt werden und somit objektiv sowie repräsentativ und nicht bloß personalisiert sind. War er zuvor beispielsweise auf rechtsextremen Webseiten unterwegs, werden ihm die Algorithmen wahrscheinlicher rechtsextreme Inhalte in seinem Newsfeed anzeigen oder in sozialen Netzwerken Menschen mit einer ähnlichen Weltanschauung als Freunde vorgeschlagen. Opponierende Positionen werden ihm immer weniger angezeigt werden und er sich in seiner Weltsicht immer weiter bestätigt fühlen. Der Mensch prägt somit nicht nur die Maschine, die Maschine prägt auch den Menschen, indem sie seine bereits vorhandenen Ansichten bestätigt und amplifiziert. Er spiegelt sich in der Maschine und ohne es zu merken, sieht er letztlich sich selbst. Da die gegenseitigen Spiegelungen von Mensch und Maschine endlos weiterverlaufen, ergibt sich daraus eine Art Teufelskreis. Der Mensch, der sich zuvor durch die Maschine in seiner Ansicht bestätigt gefühlt hat, wird infolgedessen Daten produzieren, die noch stärker dieser eingeschlagenen Richtung entsprechen. Die Maschine wiederum wird ihm dann Inhalte anzeigen, die ihn noch weiter darin bestätigen usw. Dieses endlose Resonieren der gegenseitigen Spiegelungen sorgt dafür, dass die Menschen die Ansichten, die sie zuvor bereits vertraten, im Internet immer mehr extremer vertreten werden. Algorithmisierte Personalisierung würde somit auch automatisierte Radikalisierung bedeuten.

Doch bleibt es wichtig zu betonen, dass die angezeigten Inhalte, mit dem die Maschinen die Nutzer*innen konfrontieren, letztlich immer auf den Interpretationen der Maschine basieren. Durch die selbstlernenden Algorithmen hat sich die Art und Weise der Interpretation verselbstständigt. Nach welch allen Kriterien beispielweise Google Suchergebnisse auflistet und wie es User*innen analysiert, ist aufgrund dessen selbstlernender Algorithmen im Detail kaum noch nachzuvollziehen. In Anbetracht des zuvor erwähnten Teufelskreises, in dem sich Mensch und Maschine gegenseitig beeinflussen und radikalisieren, muss die Annahme in Frage gestellt werden, dass die Maschine durch ihr fortwährendes Er- und Verkennen ihr Ziel, den Menschen/ das Flugzeug, exakt erfassen kann. Denn das automatisierte Geschütz, welches auf das Flugzeug zielt, manipuliert seine eigenen Berechnungen, weil es das Flugzeug abschießt. In dem Moment, in dem das Flugzeug abstürzt, verlieren die bisherigen Kalkulationen über dessen Flugverlauf ihre Gültigkeit. Trifft der Algorithmus im Internet sein Ziel, stürzt es nicht ab, es wird eine noch extremere Flugbahn einschlagen. Die Maschine, die den Menschen im Internet erfassen will, kann an keinem endgültigen Ziel angelangen, weil sie es selbst immer weiter verschiebt.

Hinzu kommt der Aspekt, dass die Maschinen nicht nur die Daten eines einzelnen, sondern die vieler Menschen prozessieren. Diese schlagen sich ebenfalls in dem Inhalt wieder, der dem/der Einzelnen angezeigt wird. Suchergebnisse, die allgemein populär sind, werden ihm/ihr eher präsentiert werden. Besonders kritisch wird dies in Anbetracht von Gruppierungen, die bewusst versuchen die Sichtbarkeit von Inhalten auf Plattformen zu manipulieren. Ein gut erfasstes Beispiel hierfür ist die konservative bis rechte Gruppierung der Digg Patriots, die Christopher E. Peterson in seiner Arbeit „User-Generated Censorship: Manipulating the Maps of Social Media“ analysiert. Die Patriots agierten in den 2000er Jahren auf dem sozialen Netzwerk Digg und gingen wie folgt vor: „The Patriots evaluated their impact by straightforward metrics: they wanted conservative posts to ‚pop‘ (rise to the front page) and liberal posts to be ‚buried‘ (sunk deep in the rankings)“[21]. Ziel der Digg Patriots war es also, ihnen genehme Inhalte auf die Digg Hauptseite zu befördern und unliebsame Inhalte in den Untiefen der Plattform zu ‚versenken‘. Peterson beschreibt ihr Selbstverständnis so, dass sie ihr Handeln als eine Art Kampf gegenüber einem liberalen und zahlenmäßig überlegenen Feind verstanden haben, den sie aber mit gutem Vorgehen bezwingen könnten, um Digg allgemein konservativer werden zu lassen.[22] Spannenderweise geht Peterson auch auf das Verhältnis der Patriots zu den Algorithmen auf Digg ein. Die Algorithmen seien für sie gleichermaßen Quellen der Faszination als auch der Frustration. Wenn etwa konservative Postings, die sie stark unterstützt hätten, entgegen ihrer Erwartung doch nicht auf der Hauptseite landeten, unterstellten sie dem Algorithmus nicht zu funktionieren oder durch liberale Entwickler manipuliert worden zu sein. Waren sie wiederum erfolgreich, verstanden sie den Algorithmus als ihr Werkzeug, dass sie umfunktioniert hätten.[23] Für die Digg Patriots stellte der Algorithmus, den sie manipulieren und ausnutzen wollten, eine Art konstantes und ambivalentes Mysterium dar. Dies unterstreicht einerseits wieder, wie schwer die genauen Funktionsweisen und Koordinatensysteme der Algorithmen nachzuvollziehen sind. Anderseits verdeutlicht das Beispiel der Digg Patriots als Ganzes, dass das Verhältnis Mensch-Maschine noch durch eine weitere schwer zu fassende Kategorie ergänzt werden müsste, nämlich durch die Mehrheit, bzw. was sich erfolgreich als Mehrheit darstellt. Wären die Digg Patriots erfolgreich gewesen und hätten die Front Page von Digg komplett mit konservativen Inhalten gefüllt, hätten sie tatsächlich suggerieren können, eine Mehrheit zu sein und somit beispielsweise politisch Unentschlossene, die die Front Page besuchen, zu ihren Gunsten beeinflussen können. Besuchen diese dann noch die dortigen konservativen Inhalte, würden die Algorithmen ihnen in Zukunft häufiger solche Inhalte vorschlagen und die zuvor beschriebenen Rückkopplungseffekte zwischen Mensch und Maschine in Kraft treten.

Fazit

Es ist das Dreieck aus Mensch, Maschine und (vermeintlicher) Mehrheit, welches das personalisierte Internet formt und bestimmt, wer welche Inhalte auf welchen Seiten sieht. In konstanten maschinellen Spiegelstadien beeinflussen die Menschen und Maschinen sich gegenseitig. Während die Maschinen durch ihre virtuelle Kontingenz lediglich eine eigene Kontingenz vortäuschen, konfrontieren sie die User*innen mit sich selbst. Doch ist die exakte Arbeitsweise der selbstlernenden Algorithmen kaum noch nachzuvollziehen und somit unklar wie die Einflussverteilung zwischen persönlichem Verhalten und dem Verhalten der Mehrheit auf die persönlichen Ergebnisse aussieht. Die Fragen bleiben offen, wie das persönliche Verhalten und die (vermeintliche) Mehrheit zusammenspielen, welcher Faktor davon dominanter ist, wie es sich von Plattform zu Plattform unterscheidet, wie schwer oder einfach es ist die Algorithmen zu manipulieren etc. Erkennbar hingegen ist, dass die Personalisierung durch Algorithmen eine Radikalisierung der Ansichten der Internetnutzenden befeuert und dass sie insbesondere im Zusammenspiel mit den Daten der (vermeintlichen) Mehrheit den Repräsentationsmechanismus des Internets darstellt, der bestimmt, was sichtbar wird. Und hier gilt: Was unsichtbar ist, wird auch unsichtbar bleiben. Aber was bereits sichtbar ist, wird noch sichtbarer werden, vielleicht sogar ‚viral gehen‘.


  1. Vgl. Esposito, Elena: „Zwischen Personalisierung und Cloud: Medialität im Web“, in: Engell, Lorenz/Voss, Christiane/Hartmann, Frank (Hg.): Körper des Denkens. München 2013, S. 231-253, hier S. 239.
  2. Esposito: „Zwischen Personalisierung und Cloud: Medialität im Web“, S. 239.
  3. Vgl. Ebd., S. 244.
  4. Vgl. Ebd., S. 224 f.
  5. Vgl. Ebd., S. 244.
  6. Ebd., S. 244.
  7. Vgl. Ebd., S. 244 f.
  8. Vgl. Ebd., S. 245-248.
  9. Vgl. Ebd., S. 247.
  10. Vgl. Lacan, Jacques: Schriften 1. Wien/Berlin 2016, S. 109-115.
  11. Vgl. Esposito: „Zwischen Personalisierung und Cloud: Medialität im Web“, S. 248.
  12. Vgl. Kittler, Friedrich: „Fiktion und Simulation“, in: Barck, Karl-Heinz et al. (Hg.): Aisthesis. Wahrnehmung heute oder Perspektiven einer anderen Ästhetik. Leipzig 1990, S. 196-213, hier S. 206 f.
  13. Vgl. Ebd., S. 206.
  14. Vgl. Ebd., S.206 f.
  15. Vgl. Ebd., S. 207.
  16. Vgl. Ebd., S. 206 f.
  17. Vgl. Esposito: „Zwischen Personalisierung und Cloud: Medialität im Web“, S. 246.
  18. Vgl. Ebd., S. 245-248.
  19. Vgl. Pariser, Eli: The Filter Bubble. How the new personalized Web is changing what we read and how we think. New York 2011, S. 10 und 88-91.
  20. Ebd., S. 91.
  21. Peterson, Christopher E.: User-Generated Censorship: Manipulating The Maps Of Social Media. Massachusetts 2013, S. 22.
  22. Vgl. Ebd. S. 19.
  23. Vgl. Ebd. S. 27.
Print Friendly, PDF & Email