zurück 
8.4.2011

Auf den Spuren der globalen digitalen Kulturen

Kulturanalytik für Anfänger

Lev Manovich verabschiedet sich von der herrschenden Vorstellung, man solle das eine richtige Dokument finden. Nach Manovich müssen wir uns mit der Tatsache anfreunden, dass die kulturelle Entwicklung nicht mehr auf einige privilegierte Produzenten reduziert werden kann, sondern heute durch die Interaktion von Millionen von Produzierenden vorangetrieben wird.

Blick in das japanische online Virtual Reality-Spiel "meet-me". (© AP)


Von den "neuen Medien" zu "mehr Medien"

Noch vor nur fünfzehn Jahren hatten Kulturwissenschaftler es meist mit relativ kleinen Informationsbeständen zu tun, die präzise in Verzeichnissen und Listen organisiert und von vornherein bestimmten Kategorien zugeordnet waren. Im Gegensatz dazu haben wir es heute mit einer riesigen, schlecht organisierten, ständig wachsenden und sich verändernden Informationswolke zu tun: wir "googeln".


Der Aufstieg der Suche als vorherrschende Form des Auffindens von Information ist Ausdruck eines fundamentalen Wandels in unserer informationellen Umwelt.(1) Wir sind Zeugen einer exponentiellen Explosion der Daten, die die Menschen generieren, erfassen, analysieren, visualisieren und speichern – einschließlich kultureller Inhalte. Am 25. August 2008 gaben die Softwaretechniker bei Google bekannt, dass der Index der Webseiten, den Google mehrmals täglich durchrechnet, eine Trillion URLs erreicht habe.(2) Im selben Monat berichtete YouTube, dass seine Nutzer jede Minute 13 Stunden neues Videomaterial auf die Seite hochladen.(3) Und im November 2008 erreichte die Zahl der Bilder auf Flickr drei Milliarden.(4)

Die Informationsbombe, die von Paul Virilio 1998 beschrieben wurde, ist nicht nur einmal explodiert.(5) Sie hat eine Kette weiterer Explosionen ausgelöst, deren Gesamtwirkung heftiger ist, als irgendjemand vorhersehen hätte können. 2008 schätzte die International Data Corporation (IDC), dass das digitale Universum bis zum Jahr 2011 auf das zehnfache seiner Größe von 2006 anwachsen würde. Dies entspricht einer jährlichen Wachstumsrate von 60%.6 Natürlich ist es möglich, dass die globale Wirtschaftskrise, die 2008 einsetzte, dieses Wachstum verlangsamen wird, aber wahrscheinlich nicht um viel.

User Generated Content ist eines der am schnellsten wachsenden Segmente dieses sich ausdehnenden Informationsuniversums. Nach einer IDC-Studie von 2008 werden "ungefähr 70% des digitalen Universums von Menschen geschaffen."(7) In anderen Worten: der Umfang der von Nutzern erzeugten Medien liegt gegenüber den von Computersystemen gesammelten und generierten Daten (Überwachungssysteme, sensorische Systeme, Datenzentren für "Cloud Computing" usw.) gut im Rennen. Wenn Friedrich Kittler schon lange vor dem Phänomen der "sozialen Medien" bemerkte, dass "Literatur" (also Texte jeder Art) in einem Computer-Universum hauptsächlich aus Computer-generierten Dateien besteht, dann holen die Menschen inzwischen auf.

Das exponentielle Wachstum von nicht-professionellen Medienproduzenten seit 2000 hat eine grundlegend neue kulturelle Situation geschaffen und ist eine Herausforderung für unsere herkömmlichen Methoden, Kultur zu verfolgen und uns mit ihr auseinander zu setzen. Hunderte Millionen von Menschen schaffen und tauschen ständig kulturelle Inhalte – Blogs, Fotos, Videos, Landkartenschichten, Software, usw. Sie nehmen aber auch an Online-Diskussionen teil, hinterlassen Kommentare und beteiligen sich an anderen Formen der sozialen Kommunikation. Da Multimedia-Mobiltelefone immer breiter verfügbar werden, wird diese Zahl noch weiter zunehmen. Anfang 2008 gab es weltweit 2,2 Milliarden Mobiltelefone. Nach Schätzungen wird diese Zahl bis 2010 auf 4 Milliarden ansteigen, wobei sich das Wachstum auf China, Indien und Afrika konzentrieren wird.

Halten Sie sich dies vor Augen: Die Zahl der Bilder, die heute jede Woche auf Flickr hochgeladen wird, ist höher als die Zahl aller Objekte in allen Kunstmuseen der Welt.

Neben dem exponentiellen Wachstum der Zahl der nicht-professionellen Produzenten von kulturellen Inhalten auf der Welt gibt es eine andere Entwicklung, die nicht viel diskutiert wurde. Doch diese Entwicklung ist ebenso wichtig, um zu verstehen, was Kultur heute ist. Das schnelle Wachstum von professionellen Bildungs- und Kulturinstitutionen in den neu globalisierten Ländern seit Ende der 1990er-Jahre hat in Zusammenwirken mit der leichten Verfügbarkeit von kulturellen Nachrichten im Web und der Allgegenwart von Medien- und Designsoftware auch die Zahl der professionellen Kulturproduzenten dramatisch erhöht, die in der globalen Kulturproduktion und den entsprechenden Diskussionen teilnehmen. Hunderttausende Studenten, Künstler, Designer und Musiker haben nun Zugang zu den gleichen Ideen, Informationen und Tools. Es ist daher oft nicht mehr möglich, von Zentren und Provinzen zu sprechen. (Nach meiner eigenen Erfahrung sind Studenten, Kulturschaffende und Regierungen in den neu globalisierten Ländern oft eher bereit, die neuesten Ideen anzunehmen, als ihre Gegenüber in den "alten Zentren" der Weltkultur).

Wenn Sie die Auswirkungen dieser Dimensionen der kulturellen und digitalen Globalisierung direkt erleben möchten, dann besuchen Sie eine der populären Webseiten, wo professionelle Kulturschaffende und Studierende, die in den verschiedenen Bereichen des Mediendesigns arbeiten, ihre Portfolios und Beispiele ihrer Arbeit hochladen, und achten Sie dabei auf die Länder, aus denen die Autoren kommen. Beispiele für solche Seiten sind xplsv.tv (Motion Graphics, Animation), coroflot.com (Design-Portfolios aus der ganzen Welt – Anfang 2009 waren es mehr als 120.000), archinect.com (studentische Architekturprojekte), infosthetics.com (Informations-Visualisierungsprojekte). Bei meinem Besuch auf xplsv.tv am 24. Dezember 2008 kamen die ersten drei gelisteten Projekte aus Kuba, Ungarn und Norwegen.(8) Die erste Seite von coroflot.com wies eine ähnliche kulturelle Geografie auf. Neben den zu erwartenden westlichen Kulturzentren des 20. Jahrhunderts – New York und Mailand – fand ich auch Portfolios aus Shanghai, Waterloo (Belgien), Bratislava (Slowakei), und Seoul (Südkorea).(9)

Die Unternehmen, die diese Seiten betreiben, veröffentlichen normalerweise keine detaillierten Statistiken über ihre Besucher – aber hier ist ein weiteres Beispiel, das auf quantitativen Daten beruht, die mir vorliegen. Im Frühling 2008 haben meine Mitarbeiter eine Webseite für unser Forschungslabor an der University of California in San Diego eingerichtet: softwarestudies.com. Der Inhalt der Seite entspricht dem eines Forschungslabors, wir erwarteten also nicht viele Besucher, und wir hatten sie auch nicht per E-Mail angekündigt oder irgendwie vermarktet. Als ich mir die Google Analytics-Statistiken für die Seite am Ende des Jahres ansah, stellte ich fest, dass wir Besucher aus 100 Ländern gehabt hatten. Jeden Monat kommen Menschen von über 1000 Städten auf der ganzen Welt auf unsere Seite. Noch interessanter sind die Statistiken zu diesen Städten. In einem typischen Monat befanden sich keine amerikanischen Städte unter den "Top Ten" (wobei ich La Jolla, den UCSD-Standort, an dem sich unser Labor befindet, nicht mitrechne). Im November 2008 belegte New York zum Beispiel den 13. Platz, San Francisco den 27., Los Angeles den 42. Die "Top Ten" waren westeuropäische Städte (Amsterdam, Berlin, Porto), Osteuropa (Budapest) und Südamerika (Sao Paulo). Ebenso interessant ist, dass die Liste der Besucher pro Stadt eine klassische abgeflachte Kurve darstellte. Es gab keine scharfe Trennung mehr zwischen der "alten" und "neuen" Welt, zwischen "Zentren" und "Provinzen".(10)

All diese Explosionen, die seit den späten 1990er Jahren stattfanden – die Erzeugung und das Austauschen von kulturellen Inhalten durch Nicht-Profis, durch professionelle Kulturschaffende in den neu globalisierten Ländern, durch Studierende in Osteuropa, Asien und Südamerika, die über das Web und kostenlose Kommunikationstools globale kulturelle Prozesse verfolgen und daran teilnehmen können – haben die Kultur neu definiert.

Früher haben Kulturtheoretiker und Historiker ihre Theorien und Geschichten auf kleinen Datensätzen aufgebaut (z.B. klassisches Hollywood-Kino, italienische Renaissance, usw.) Aber wie können wir globale digitale Kulturen mit ihren Milliarden von Kulturobjekten und hunderttausenden Mitwirkenden verfolgen? Früher konnte man über Kultur schreiben, indem man beobachtete, was an einer kleinen Zahl von Hauptstädten und Universitäten ablief. Doch wie können wir die Entwicklungen in zehntausenden Städten und Bildungseinrichtungen verfolgen?

Kulturanalytik

Die Allgegenwart von Computern, Software, Unterhaltungselektronik und Computernetzwerken hat zu einem exponentiellen Anstieg der Zahl der Kulturschaffenden auf der ganzen Welt und der von ihnen erzeugten Medien geführt – was es sehr schwierig, wenn nicht unmöglich macht, globale kulturelle Entwicklungen und Dynamiken mit den theoretischen Tools und Methoden des 20. Jahrhunderts im Detail zu verstehen. Aber was, wenn Kulturwissenschaftler die gleichen Entwicklungen – Computer, Software, und die Verfügbarkeit von großen Mengen "digital generierten" Inhalten – benutzen, um globale kulturelle Prozesse auf eine Weise zu verfolgen, die mit den herkömmlichen Werkzeugen nicht möglich war?

Um diese Fragen zu untersuchen – und zu verstehen, wie die Allgegenwart von Softwaretools für das Herstellen und Teilen kulturellen Contents den theoretischen und praktischen Gehalt von "Kultur" verändert – wurde 2007 die Software Studies Initiative unter meiner Leitung gegründet. Unser Labor befindet sich auf dem Campus der University of California, San Diego (UCSD) und ist in einem der größten IT-Forschungszentren der USA angesiedelt, dem California Institute for Telecommunications and Information.(11) Zusammen mit den Forschern und Studenten, die in unserem Labor arbeiten, haben wir ein neues Paradigma für das Studium, die Lehre und die öffentliche Präsentation von kulturellen Artefakten, Dynamiken und Flüssen entwickelt. Wir nennen dieses Paradigma Kulturanalytik.

Heute arbeiten Wissenschaft, Wirtschaft, Regierungen und andere Organisationen mit Computer-basierter quantitativer Analyse und interaktiver Visualisierung von großen Datensätzen und Datenflüssen. Sie verwenden statistische Datenanalyse, Data-Mining, Informationsvisualisierung, wissenschaftliche Visualisierung, visuelle Analytik, Simulation und andere Computer-basierte Techniken. Ziel der Kulturanalytik ist, diese Techniken systematisch für die Analyse von kulturellen Daten einzusetzen. Die großen Datenbestände sind bereits da – das Ergebnis von Digitalisierungsarbeiten der Museen, Bibliotheken und Unternehmen (z.B. die Buch-Scans von Google) und des explosiven Wachstums von neu verfügbaren kulturellen Inhalten im Web in den vergangenen zehn Jahren.

Wir glauben, dass der systematische Einsatz von groß angelegter Computeranalytik und interaktiver Visualisierung von kulturellen Mustern in den kommenden Jahrzehnten zu einem bedeutenden Trend in der Kulturkritik und Kulturwirtschaft werden wird. Was wird geschehen, wenn Geisteswissenschaftler interaktive Visualisierungen als Standard-Tools bei ihrer Arbeit verwenden? Wenn Diapositive die Kunstgeschichte ermöglicht haben und Filmprojektoren und Videorekorder die Filmstudien, welche neuen kulturellen Disziplinen könnte dann die interaktive Visualisierung großer kultureller Datenbestände hervorbringen?

Von der Kultur (wenig) zu Kulturdaten (viel)

Im April 2008, exakt ein Jahr nach der Gründung der Software Studies Initiative, gab die NEH (National Endowment for Humanities, die wichtigste bundesweite Fördereinrichtung für kulturwissenschaftliche Forschung in den USA) eine neue Humanities High-Performance Computing (HHPC)-Initiative bekannt, die in einer ähnlichen Einsicht begründet ist: In der Begründung für das Humanities High-Performance Computing-Programm sprechen die NEH-Vertreter von der Verfügbarkeit von Hochleistungs-Computern, die in den Naturwissenschaften und der Industrie bereits weit verbreitet sind. Unsere Gruppe teilt zwar die Vision der NEH, unser Ausgangspunkt für die Kulturanalytik deckt sich jedoch nicht mit jenem der NEH, sondern verhält sich komplementär zu diesem: Wir gehen von der leichten Verfügbarkeit von (sowohl gegenwärtigem als auch historischem) kulturellen Inhalten in digitaler Form aus. Natürlich ergänzen sich große Mengen kultureller Inhalte und Hochgeschwindigkeits-Computer vortrefflich miteinander – ohne letztere wäre es sehr zeitraubend, Petabytes von Daten zu analysieren. Wie wir in unserem Labor jedoch feststellten, lohnt es sich auch mit kleineren Datenbeständen, die vielleicht nur aus hunderten, dutzenden oder noch weniger Objekten bestehen, kulturanalytisch zu arbeiten, also die Strukturen dieser Objekte zu quantifizieren und die Ergebnisse zu visualisieren, sodass die Muster sichtbar werden, die der menschlichen Wahrnehmung und Kognition ansonsten nicht zugänglich wären.

Da die Kulturanalytik versucht, die exponentielle Zunahme an digitalen Inhalten seit den 1990erJahren zu nutzen, erscheint es nützlich, eine Taxonomie der verschiedenen Arten von Inhalten zu erstellen. So eine Taxonomie kann als Richtschnur für die Anlage von Forschungsprojekten dienen, aber auch die Zuordnung dieser Studien erleichtern, sobald deren Zahl zunimmt.

Zunächst haben wir große Mengen an Medieninhalten in digitaler Form: Spiele, visuelles Design, Musik, Videos, Fotos, Kunstwerke, Blogs, Webseiten. Diese Materialien können weiter in Kategorien aufgeteilt werden. Derzeit nimmt der Anteil der "digital generierten" Medien zu, allerdings werden auch weiterhin analoge Medien produziert (etwa im Film), die später digitalisiert werden.

Wir können dann verschiedene Arten der "digital generierten" Medien differenzieren. Einige dieser Medien wurden spezifisch für das Web geschaffen, etwa Blogs, Webseiten, und Ebenen, die von Nutzern für Google Earth und Google Maps erzeugt werden. Ebenso finden wir online riesige Mengen von "digital generierten" Inhalten (Fotos, Videos, Musik), die vor dem Aufkommen der "sozialen Medien" nicht für ein weltweites Publikum gedacht waren, aber jetzt auf einschlägigen Seiten online gestellt werden (Flickr, YouTube, usw.) Um zwischen diesen beiden Arten zu unterscheiden, können wir die erste Kategorie als web native oder web intended bezeichnen. Die zweite Kategorie kann dann als digitale Medien im engeren Sinn bezeichnet werden.

Wie ich schon bemerkte, gibt es neben YouTube, Flickr und anderen sozialen Medien, die für ein breites Publikum gedacht sind, fachlich ausgerichtete Seiten, die sich an professionelle und semi-professionelle Nutzer wenden: xplsv.tv, coroflot.com, archinect.com, modelmayhem.com, deviantart.com, usw.(13) Diese Seiten beinhalten Projekte und Portfolios von hunderttausenden Künstlern, Mediendesignern und anderen Kulturschaffenden und bieten eine Momentaufnahme der aktuellen globalen kulturellen Produktion und Stimmung – womit sich die Möglichkeit auftut, globale kulturelle Trends in bisher undenkbarem Detail zu analysieren. So hatte z.B. deviantart.com im August 2008 acht Millionen Mitglieder, mehr als 62 Millionen Beiträge und 80.000 Beiträge pro Tag.(14) Wichtig ist dabei, dass diese Seiten neben den Standardkategorien "professional" und "pro-ams" auch Kategorien für die Arbeiten von Kulturschaffenden bereithält, die gerade beginnen und/oder noch "pro-ams" sind, aber anstreben, zu Vollzeit-Profis zu werden. Ich glaube, dass die Portfolios dieser ambitionierten Nicht-Profis besonders wichtig sind, wenn wir uns mit den derzeitigen kulturellen Stereotypen und Konventionen auseinander setzen wollen, da Menschen, die bestrebt sind, "professionelle" Projekte und Portfolios herzustellen, oft ganz nebenbei die Codes und Schablonen der Branche sehr deutlich sichtbar machen.

Eine weitere wichtige Quelle gegenwärtiger kulturelle Inhalte und gleichzeitig ein Fenster in eine weitere kulturelle Welt, die sich von jener von nicht-professionellen ebenso wie von angehenden professionellen Nutzern unterscheidet, sind die Webseiten und Wikis die von den Lehrenden in den kreativen Disziplinen geschaffen werden, um Hausarbeiten zu posten und Diskussionen zu führen. (Obwohl ich keine statistischen Daten dazu habe, wie viele solche Seiten und Wikis es gibt, hier eine Annäherung: Die beliebte Wiki-Software pbwiki.com wurde von 250.000 Lehrenden genutzt.)15 Diese Seiten enthalten oft studentische Projekte – eine weitere interessante Quelle.

Schließlich gibt es neben den Seiten für Profis, angehende Profis und Nicht-Profis und ähnlichen zentralen Ablageeinrichtungen Millionen von Webseiten und Blogs von einzelnen Kulturschaffenden und Firmen der Kreativwirtschaft. Unabhängig von der Branche und der Art der Inhalte, die von Menschen und Unternehmen hergestellt werden, wird heute davon ausgegangen, dass man im Web mit dem eigenen Demo Reel oder Portfolio, Projektbeschreibungen, Lebenslauf usw. präsent sein muss. All diese Information kann potenziell verwendet werden, um etwas zu tun, was früher unvorstellbar war: Dynamische (also sich mit der Zeit verändernde) Landkarten der globalen kulturellen Entwicklungen herzustellen, die Aktivitäten, Ambitionen und kulturelle Präferenzen von Millionen von Kreativen abbilden.

Ein beträchtlicher Teil der verfügbaren digitalen Inhalte wurde ursprünglich mit elektronischen oder physischen Medien hergestellt und seit Mitte der 1990er-Jahre digitalisiert. Wir bezeichnen solchen Content als "analog generiert". Allerdings darf dabei nicht vergessen werden, dass das, was digitalisiert wurde, in vielen Fällen nur die kanonischen Werke sind, d.h. nur jener winzige Teil der Kultur, der von den Kulturinstitutionen als bedeutsam gesehen wird. Was außerhalb des digitalen Universums bleibt, ist der ganze Rest: Provinz-Zeitungen aus dem 19. Jahrhundert, die irgendwo in einer kleinen Bibliothek liegen, Millionen von Gemälden in tausenden von kleinen Museen und kleinen Städten auf der ganzen Welt, tausende von Fachjournalen aus allen Bereichen und zu Gegenständen, die nicht mehr existieren, Millionen von Super-8-Filmen...

Daraus entsteht ein Problem für die Kulturanalytik, die potenziell alles außerhalb des Kanons abbilden könnte, um damit eine "Kunstgeschichte ohne große Namen" zu beginnen. Wir wollen nicht nur die Ausnahmen verstehen, sondern auch das Typische, nicht nur die wenigen kulturellen Sätze, die von "großen Männern" geäußert wurden, sondern auch die Muster der kulturellen Sätze, die von allen anderen gesprochen wurden – kurzum das, was sich außerhalb der großen Museen befindet, nicht in ihnen, und daher schon ausführlich und zu oft diskutiert wurde. Um dies zu tun, werden wir so viele vergangene Kulturdokumente wie möglich in digitaler Form benötigen. Was davon heute digital vorliegt, ist überraschend wenig.

Hier ist ein Beispiel für unsere Forschung. Wir waren an der folgenden Frage interessiert: Was haben die Menschen auf der ganzen Welt 1930 eigentlich gemalt – abgesehen von den "-ismen" und den paar Dutzend Künstlern, die in den westlichen Kunstgeschichte-Kanon Eingang gefunden haben? Wir führten eine Suche auf artstor.org durch, wo derzeit fast eine Million Bilder aus der Kunst, der Architektur und dem Design gespeichert sind, die aus vielen bedeutenden Museen und Sammlungen der USA stammen, aber auch aus der über 200.000 Bilder umfassenden Dia-Bibliothek der University of California in San Diego. (Dieser Bestand stellt derzeit die größte Einzelsammlung auf ARTstor dar und ist insofern von besonderem Interesse, als er die Vorurteile der Kunstgeschichte während der Jahrzehnte spiegelt, in denen Diapositive das wichtigste Medium in der kunstgeschichtlichen Forschung und Lehre waren). Um Bilder von Kunstwerken zu sammeln, die sich außerhalb des üblichen westlichen Kunstkanons befinden, schlossen wir aus unserer Suche Westeuropa und Nordamerika aus. Damit blieb der "Rest der Welt" zurück: Osteuropa, Südostasien, Ostasien, Westasien, Ozeanien, Zentralamerika, Südamerika, usw. Als wir die Gemälde durchsuchten, die in diesen Teilen der Welt 1930 angefertigt wurden, fanden wir nur ein paar Dutzend Bilder. Diese äußerst ungleiche Verteilung hat nichts mit ARTstor zu tun, da ARTstor die Bilder nicht selbst digitalisiert, sondern nur Bilder zugänglich macht, die von Museen und anderen Kultureinrichtungen zur Verfügung gestellt werden. Was unsere Suchergebnisse also spiegeln, ist das, was die Museen sammeln und wovon sie glauben, es sollte als Erstes digitalisiert werden. In anderen Worten, eine Anzahl von großen US-Sammlungen und die Dia-Bibliothek einer großen Forschungsbibliothek (wo heute viele Studierende aus Asien arbeiten) haben zusammen nicht mehr als ein paar Dutzend Gemälde, die 1930 in nicht-westlichen Ländern geschaffen und deren Reproduktionen digitalisiert wurden. Im Gegensatz dazu führte eine Suche nach "Picasso" zu 700 Bildern. Wenn dieses Beispiel aussagekräftig ist, dann könnten digitale Speichereinrichtungen die bereits bestehenden Vorurteile und Filter des modernen Kanons noch weiter vergrößern. Anstatt die "Top 40" in eine flache Kurve zu verwandeln, könnte die Digitalisierung die umgekehrte Wirkung haben.

Medieninhalte in digitaler Form sind nicht die einzige Art von Daten, die wir quantitativ analysieren können, um potenziell neue kulturelle Muster zu finden. Computer ermöglichen es uns auch, zahlreiche Dimensionen des menschlichen Verhaltens zu erfassen und zu analysieren, die früher nicht aufgezeichnet werden konnten. Jede kulturelle Tätigkeit – Surfen, Spielen, etc. – die von einem Computer oder einem Computer-basierten Gerät erfasst wird, hinterlässt Spuren: Tastaturanschläge, Mausbewegungen und andere Veränderungen am Bildschirm, Controller-Positionen (z.B. Wii-Controller), usw. In Kombination mit einer Kamera, einem Mikrophon und anderen Aufzeichnungsgeräten können Computer auch andere Dimensionen des menschlichen Verhaltens erfassen, etwa Körper- und Augenbewegungen. Und Web-Server zeichnen auch noch andere Arten der Information auf: Welche Seiten die Nutzer besucht haben, wie viel Zeit sie auf jeder Seite verbrachten, welche Dateien heruntergeladen wurden, usw. In dieser Hinsicht bildet Google Analytics, das diese Art von Informationen verarbeitet und analysiert, eine direkte Inspiration für die Idee der Kulturanalytik.

Neben all dieser Information, die automatisch erfasst werden kann, hat der Aufstieg der sozialen Medien seit 2005 eine neue soziale Umgebung geschaffen, wo Menschen freiwillig ihre kulturellen Vorlieben bekannt geben: sie bewerten Bücher, Filme, Blog-Postings, Software, Lieblingsseiten, usw. Und was noch wichtiger ist: die Menschen diskutieren ihre kulturellen Vorlieben, Ideen und Wahrnehmungen online. Sie kommentieren Flickr-Fotos, posten ihre Meinungen über Bücher auf amazon.com, kritisieren Filme auf rottentomatoes.com oder Produkte auf epinions.com, und sie debattieren und streiten auf vielen sozialen Medienseiten, Fan-Seiten und Foren, in Diskussionsgruppen und Mailing-Listen. All diese Gespräche, Diskussionen und Überlegungen, die früher entweder unsichtbar waren oder einfach nicht im selben Umfang stattfinden konnten, finden nun in der Öffentlichkeit statt.

Fassen wir diese Diskussion zusammen: aufgrund der Digitalisierungsbemühungen seit Mitte der 1990erJahre, und weil ein beträchtlicher (und ständig wachsender) Anteil aller kultureller und sozialer Aktivitäten im Web oder vernetzten Medien stattfindet (Mobiltelefone, Spielplattformen, usw.) haben wir nun einen nie da gewesenen Zugang zu "kulturellen Daten" (den kulturellen Artefakten selbst) einerseits, und "Daten über die Kultur" andererseits. All diese Daten lassen sich in drei große begriffliche Kategorien gruppieren: Es gibt noch weitere Arten, dieses neu entstandene kulturelle Datenuniversum einzuteilen. Zum Beispiel können wir eine Unterscheidung zwischen "kulturellen Daten" und "kultureller Information" vornehmen: Eine weitere wichtige und nützliche Unterscheidung hat mit dem Verhältnis zwischen dem ursprünglichen kulturellen Artefakt bzw. der ursprünglichen kulturellen Tätigkeit und ihren digitalen Darstellungen zu tun: Die Explosion der "digital generierten" Daten ist nicht unbemerkt geblieben. Die Web-Unternehmen selbst haben einen bedeutenden Beitrag geleistet, um wirtschaftlich davon zu profitieren. Es überrascht nicht, dass unter den verschiedenen kulturellen Daten die "digital generierten" Daten am aggressivsten ausgebeutet werden (sie sind am einfachsten zu erfassen und zu sammeln), gefolgt von digitalen Inhalten. Google und andere Suchmaschinen analysieren Milliarden von Webseiten und die Links zwischen ihnen, um ihre Suchalgorithmen einzusetzen. Nielsen Blogpulse durchsucht mehr als 100 Millionen Blogs, um Trends zu entdecken, was die Menschen über bestimmte Marken, Produkte und andere Themen, an denen die Klienten interessiert sind, zu sagen haben.(16) Amazon.com analysiert den Inhalt der verkauften Bücher, um "statistisch unwahrscheinliche Sätze" zu errechnen, die benutzt werden, um besondere Teile eines Buchs zu identifizieren.(17)

Unter den Medienarten erhält der Text heute die meiste Aufmerksamkeit – denn Sprache ist diskret und die theoretischen Paradigmen, die verwendet werden, um sie zu beschreiben (Linguistik, Computerlinguistik, Diskursanalyse, usw.) waren schon voll entwickelt, bevor es zur Explosion des Web-eigenen Textuniversums kam. Eine weitere Art des Kulturmediums, das jetzt systematisch einer Computeranalyse unterzogen wird, ist die Musik. (Dies wird auch durch den Umstand begünstigt, dass die westliche Musik schon seit langem formale Notationssysteme benutzt.) Eine Reihe von Online-Musiksuchmaschinen und Internet-Radiostationen benutzen die Computeranalyse, um bestimmte Songs zu finden. (Beispiele: Musipedia, Shazam, und andere Applikationen, die akustische Fingerabdrücke einsetzen.)(18)

Wenn Kulturwissenschaftler an der Analyse kultureller Muster in anderen Medien außer Text interessiert sind und größere theoretische Fragen über Kulturen stellen wollen (im Gegensatz zu enger gefassten praktischen Fragen, die in Fachbereichen wie Web-Mining oder quantitativem Marketing vorherrschen – also z.B. die Frage, wie Verbraucher bestimmte Marken in einem bestimmten Marktsegment wahrnehmen),(19) dann müssen wir eine breitere Perspektive einnehmen. Erstens müssen wir Techniken entwickeln, die es uns ermöglichen, die Muster in verschiedenen Formen der Kulturmedien – Filme, Cartoons, Motion Graphics, Fotografie, Video-Spiele, Webseiten, Produkt- und Grafikdesign, Architektur, usw. – zu analysieren und zu visualisieren. Zweitens können wir zwar sicher von Web-eigenen kulturellen Inhalten profitieren, wir sollten aber auch mit den anderen Kategorien arbeiten, die ich oben angeführt habe ("digitalisierte Artefakte, die ihren Ursprung in anderen Medien haben", "kulturelle Erlebnisse"). Drittens sollten wir selbst-reflexiv verfahren. Wir müssen uns mit den Folgen auseinander setzen, die eintreten könnten, wenn man sich Kultur als Daten vorstellt und Computer als analytische Werkzeuge: Was wird dabei ausgeschlossen, welche Arten der Analyse und Fragestellungen werden bevorzugt, usw.? Diese Selbstreflexion sollte Teil jeder kulturanalytischen Studie sein. Diese drei Punkte leiten unsere eigene kulturanalytische Forschung.

Kulturelle Bildverarbeitung

Kulturanalytik ist aufgrund dreier Entwicklungen denkbar und möglich: Digitalisierung kultureller Bestände und der Aufstieg Web-basierter und sozialer Medien; Errungenschaften in der Informatik; und das Entstehen einer Reihe von Bereichen, wo Computer benutzt werden, um neue Formen der Darstellung und Interaktion mit Daten zu schaffen. Zwei verwandte Bereiche der Informatik – Bildverarbeitung und Computer Vision – geben uns eine Reihe von Techniken in die Hand, mit denen sich visuelle Medien analysieren lassen. Die Bereiche der Wissenschaftsvisualisierung, Informationsvisualisierung, Mediendesign und digitale Kunst geben uns Techniken in die Hand, mit denen sich Muster in Datenbeständen visuell darstellen und interaktiv durchsuchen lassen.

Während in den Geisteswissenschaften schon lange statistische Techniken eingesetzt werden, um Muster in literarischen Texten zu finden, so glaube ich doch, dass wir das erste Labor sind, das Bildverarbeitung und Computer Vision einsetzt, um visuelle Medien im geisteswissenschaftlichen Kontext automatisch zu visualisieren. Dies unterscheidet uns von geisteswissenschaftlichen Disziplinen des 20. Jahrhunderts, die sich auf visuelle Medien konzentrieren (Kunstgeschichte, Filmstudien, Kulturstudien), aber auch von Paradigmen des 20. Jahrhunderts im Bereich der quantitativen Medienforschung, die in den Sozialwissenschaften entwickelt wurde – etwa quantitative Kommunikationsforschung und bestimmte Arbeiten im Bereich der Kultursoziologie. Und während Künstler, Designer und Informatiker bereits eine Anzahl von Projekten hervorgebracht haben, um Kulturmedien zu visualisieren, beruhen die mir bekannten bestehenden Projekte auf Metadaten, wie den gemeinschaftlich geschaffenen Tags auf Flickr.(20) In anderen Worten, sie verwenden Informationen über visuelle Medien – Datum der Erstellung, Name des Autors, Tags, Favoriten, etc. – und analysieren nicht die Medien selbst. Im Gegensatz dazu werden in der Kulturanalytik Bildverarbeitungs- und Computer Vision-Techniken eingesetzt, um große Bestände von kulturellen Objekten automatisch zu analysieren und numerische Beschreibungen ihrer Struktur und ihres Contents zu schaffen. Diese numerischen Beschreibungen können dann als Graphen dargestellt und statistisch analysiert werden.

Während digitale Medienbearbeitungsprogramme wie Photoshop oder After Effects bestimmte Bildbearbeitungstechniken wie Verwischen, Schärfen, Kantenfilter, Bewegungs-Tracking usw. beinhalten, gibt es hunderte von anderen Merkmalen, die von stillen und bewegten Bildern automatisch extrahiert werden können. Am wichtigsten ist dabei, dass Programme wie Photoshop und andere Medienanwendungen die Eigenschaften von Bildern und Videos zwar intern messen, diese Daten aber derzeit nicht den Nutzern zur Verfügung stellen. Während Photoshop also verwendet werden kann, um manche Dimensionen der Bildstruktur zu unterstreichen (zum Beispiel das Bild auf seine Ränder zu reduzieren), so kann damit keine systematischer Analyse vorgenommen werden.

Um dies zu tun, müssen wir eine mehr spezialisierte Bildverarbeitungssoftware wie z.B. die Open-Source-Software imageJ verwenden, die für Anwendungen in den Life Sciences entwickelt wurde, und die wir in unserem Labor verwendet und weiter entwickelt haben. MATLAB, eine beliebte Software für numerische Analysen, enthält zahlreiche Bildverarbeitungs-Applikationen. Es gibt darüber hinaus spezielle Software-Bibliotheken mit Bildverarbeitungsfunktionen, etwa openCV. Eine Reihe von anspruchsvollen Programmiersprachen, die von Künstlern und Designern seit dem Jahr 2000 entwickelt wurden, etwa Processing und openFrameworks, beinhalten ebenfalls Bildverarbeitungsfunktionen.

Während bestimmte verbreitete Techniken ohne Programmier- und Statistikkenntnisse verwendet werden können, erfordern andere Fachwissen für C- oder Java-Programmierung. Welche ihrer Algorithmen können besonders gut für kulturelle Analysen und Visualisierung eingesetzt werden? Können wir (relativ) leicht zu bedienende Tools schaffen, die es technisch nicht versierten Nutzern ermöglichen, eine automatische Analyse von visuellen Medien durchzuführen? Dies sind Fragen, die wir gegenwärtig untersuchen. Wie wir allmählich herausfinden, erfordert die Analyse von Kulturmedien die Entwicklung neuer Techniken, obwohl es Bildverarbeitung und Computer Vision schon seit einigen Jahrzehnten gibt.

Um zusammenzufassen: Die Kernidee der Kulturanalytik ist der Gebrauch von Computern zur automatischen Analyse von kulturellen Artefakten in visuellen Medien, wobei eine große Zahl von Merkmalen extrahiert wird, die deren Struktur und Inhalt charakterisieren. Zum Beispiel können wir im Fall eines Bildes die Graustufen und die Farbcharakteristiken analysieren, die Ausrichtung der Zeilen, die Komposition, usw. Daher können wir unsere Forschungsmethode auch mit einem anderen Terminus beschreiben: Quantitative Kulturanalyse (QCA).

Unsere Gruppe ist zwar sowohl am Inhalt als auch an der Struktur kultureller Artefakte interessiert, gegenwärtig ist allerdings die automatische Strukturanalyse viel weiter entwickelt als die Inhaltsanalyse. Wir können mit Computern zum Beispiel die Grautonwerte von jedem Einzelbild eines Spielfilms automatisch messen, die Aufnahmegrenzen erkennen, die Bewegung in jeder Aufnahme analysieren, die Veränderungen der Farbpalette im Verlauf des Films berechnen, usw. Wenn wir allerdings den Inhalt des Films erfassen wollen – indem wir den Raum aufzeichnen, der bei jeder Einzelaufnahme zu sehen ist, welche Interaktionen zwischen den Figuren stattfinden, worum sich ihre Gespräche drehen, usw., dann sind die automatischen Techniken, die dafür in Frage kommen, komplexer und weniger verlässlich. Bei vielen Arten der Inhaltsanalyse ist derzeit noch die Annotation von Hand die beste Methode, die sich natürlich bei großen Datenbeständen entsprechend zeitaufwändig gestaltet. In der Zeit, die eine Person dafür benötigt, solche Annotationen für den Inhalt eines einzigen Films anzufertigen, kann ein Computer mit tausenden von Filmen fertig werden. Wir haben daher in der Kulturanalytik damit begonnen, Techniken zur Analyse und Visualisierung der Strukturen von einzelnen Artefakten und großen Beständen solcher Artefakte zu entwickeln, mit dem Ziel, durch die Entwicklung dieser Technologien uns schrittweise einer automatischen Content-Analyse anzunähern.

Kulturelle Tiefensuche

Im November 2008 erhielt unser Labor eine Förderung, die 300.000 Stunden Zeit an den Supercomputern des US-Energieministeriums beinhaltet. Dies ist genug, um Millionen von Fotos und Videos aus den Bereichen Kunst, Design, Street Fashion, Spielfilme, Animationsserien, usw. zu analysieren. Der Umfang dieser Daten entspricht der Größe der visuellen Darstellungen, die wir bei unserer Arbeit einsetzen. Wie ich schon erwähnte, befinden sich unsere Räumlichkeiten in einem der führenden IT-Forschungszentren der USA, dem California Institute for Telecommunication and Information Technolgy (Calit2). Dies ermöglicht es uns, die nächste Generation der visuellen Technologien zu nutzen, z.B. HIperSpace, derzeit einer der weltweit höchstauflösenden Monitore für die wissenschaftliche Visualisierung und die visuelle Analyse (Auflösung: 35640 x 8000 Pixel. Größe: 9,7 x 2,3 m). Eine der Richtungen, in die unser Labor in der Zukunft gehen will, ist die Entwicklung eines visuellen Systems, das es ermöglichen würde, die weltweite kulturelle Dynamik in Echtzeit zu verfolgen. Stellen Sie sich ein Verkehrs-Display vor (wie ein Navigationssystem in einem Auto), nur dass der Monitor eine ganze Wand einnimmt, die Auflösung tausendfach größer ist, und der Verkehr nichts mit Autos zu tun hat, sondern kulturelle Flüsse in Echtzeit auf der ganzen Welt darstellt. Stellen Sie sich den gleichen wandgroßen Monitor vor, wie er in mehrere Fenster geteilt ist, von denen ein jedes jeweils andere Echtzeit- und historische Daten über kulturelle, soziale und wirtschaftliche Nachrichten und Trends anzeigt und damit Situationsbewusstsein für Kulturanalytiker schafft. Stellen Sie sich den gleichen wandgroßen Monitor vor, wie auf ihm eine Animation wiedergegeben wird, die aussieht wie die Simulation eines Erdbebens auf einem Supercomputer, nur dass in diesem Fall das "Erdbeben" die Veröffentlichung einer neuen Version einer beliebten Software ist, die Bekanntgabe eines wichtigen Architekturprojekts, oder ein anderes wichtiges kulturelles Ereignis. Was wir sehen, sind die Auswirkungen von solchen "kulturellen Erdbeben" in Zeit und Raum. Stellen Sie sich eine wandgroße Computergrafik vor, die eine flache Kurve der Kulturproduktion darstellt, die es Ihnen ermöglicht, hineinzuzoomen und jedes einzelne Produkt mit einer Vielzahl relevanter Daten anzusehen (ähnlich wie estate map auf zillow.com), während die Grafik ständig in Echtzeit aktualisiert wird, indem Daten aus dem Web importiert werden. Stellen Sie sich eine Visualisierung vor, die zeigt, wie andere Menschen auf der ganzen Welt Videos mixen, die von einer Fangemeinschaft hergestellt wurden, oder wie eine neue Design-Software allmählich die Formen beeinflusst, die man sich heute vorstellt (so wie Alias und Maya zu einer neuen Sprache der Architektur geführt haben). Dies sind Beispiele für die Art von Tools, die wir erzeugen wollen, um eine neue Form der Kulturkritik zu ermöglichen, und eine Analyse, die der Ära der kulturellen Globalisierung und der user-generated media angemessen ist: Dreihundert Universitätsinstitute für digitale Kunst gibt es allein in China, 10.000 neue Nutzer laden ihre professionellen Design-Portfolios jeden Monat auf coroflort.com hoch, Milliarden von Blogs, Nutzer-generierte Fotos und Videos und andere kulturelle Ausdrucksformen, die jetzt in einem Umfang hergestellt werden, der vor zehn Jahren noch undenkbar gewesen wäre. Das alles steht jetzt zur Verfügung.

Zum Schluss möchte ich noch einmal zu meinem Ausgangspunkt zurückkommen – den Aufstieg der Suche als vorherrschende Form der Interaktion mit Information. Wie ich erwähnt habe, ist diese Entwicklung nur eine von vielen Konsequenzen der dramatischen und raschen Zunahme der Medienproduktion seit Mitte der 1990er-Jahre. Um die Nutzer mit Suchergebnissen zu versorgen, analysieren die Suchmaschinen von Google, Yahoo und anderen viele verschiedene Datenarten – sowohl die Metadaten von verschiedenen Webseiten (die so genannten "Meta-Elemente"), und ihre Inhalte. (Nach Angaben von Google verarbeiten seine Such-Algorithmen mehr als 200 Inputarten.)(21) Doch wie Photoshop und andere kommerzielle Software den Nutzern nicht die Merkmale der Bilder und Videos offenlegt, die sie intern messen, so halten Google und Yahoo die Messwerte der analysierten Webseiten geheim – offen gelegt werden lediglich die Ergebnisse (welche Seite dem Suchbegriff am besten entspricht), die von den proprietären Suchalgorithmen durch die Kombination dieser Messwerte ermittelt werden. Das Ziel der Kulturanalytik ist dagegen, etwas zu ermöglichen, was man eine "kulturelle Tiefensuche" nennen könnte – den Nutzern Open-Source-Tools in die Hand zu geben, mit denen sie selbst jede Art von kulturellen Inhalten detailliert analysieren und die Ergebnisse auf neue Art verwenden können.

Anmerkungen

(1) Dieser Artikel beruht auf einem White Paper über Kulturanalytik, das ich im Mai 2007 schrieb. Ich aktualisiere dieses Paper laufend. Die aktuelle Version finden Sie unter http://lab.softwarestudies.com/2008/09/cultural-analytics.html. (Alle Links wurden zuletzt am 22.05.2009 aufgerufen)

(2) http://googleblog.blogspot.com/2008/07/we-knew-web-was-big.html.

(3) http://en.wikipedia.org/wiki/YouTube

(4) http://blog.flickr.net/en/2008/11/03/3-billion/

(5) Paul Virilio. Information Bomb. (Orginalausgabe 1988.) Verso, 2006.

(6) IDC (International Data Corporation). The Diverse and Exploding Information Universe. 2008.

(7) Ebd.

(8) http://xplsv.tv/artists/1/

(9) Die Anzahl der Design-Portfolios, die von Nutzer auf coroflot.com hochgeladen wurden, stieg von 90.657 am 7. Mai 2008 auf 120.659 am 24. Dezember 2008.

(10) Weitere Statistiken auf softwarestudies.com/softbook

(11) http://www.calit2.net

(12) http://www.neh.gov/ODH/ResourceLibrary/HumanitiesHigh PerformanceComputing/tabid/62/Default.aspx.

(13) Die Webseiten für Nicht-Profis, wie z.B. Flickr.com, YouTube.com, und Vimeo.com enthalten auch große Mengen von Medien, die von Medien-Profis und Studenten erzeugt wurden: Foto-Portfolios, unabhängige Filme, Illustrationen, Designs, usw. Häufig bilden Profis ihre eigenen Gruppen, was es für uns leichter macht, ihre Arbeit auf diesen Universalseiten zu finden. Seiten, die spezifisch für Profis gedacht sind, enthalten oft auch Lebensläufe, Projektbeschreibungen und andere Informationen, die auf allgemeinen sozialen Medienseiten nicht zu finden sind.

(14) http://en.wikipedia.org/wiki/DeviantArt.

(15) http://pbwiki.com/academic.wiki

(16) "BlogPulse Reaches 100 Million Mark" http://blog.blogpulse.com/archives/000796.html

(17) http://en.wikipedia.org/wiki/Statistically_Improbable_Phrases.

(18) http://en.wikipedia.org/wiki/Acoustic_fingerprint

(19) http://en.wikipedia.org/wiki/Perceptual_mapping

(20) Diese Projekte sind auf visualcomplexity.org und infosthetics.com zu finden

(21) http://www.google.com/corporate/tech.html

Lev Manovich

Zur Person

Lev Manovich

Professor am Institut für Bildende Kunst an der University of California, San Diego, Kodirektor der Software Studies Initiative am California Institute for Telecommmunications and Information Technology (Calit2), Gastprofessor am Goldsmith College, University of London, an der De Montfort University (GB) und am College of Fine Arts, University of New South Wales (Sydney); Buchveröffentlichungen u.a.: Software Takes Command (veröffentlicht unter CC-Lizenz, 2008), Navigating the Database (MIT Press 2005) und The Language of New Media (MIT Press, 2001), das als die "anregendste und umfassendste Mediengeschichte seit Marshall McLuhan" bezeichnet wurde.


Nach oben © Bundeszentrale für politische Bildung Zur klassischen Website von bpb.de wechseln