Ein Magazin für Käpsele

von Sanja Döttling

Während man sich im Studium immer tiefer in sein eigenes Fachgebiet einarbeitet, vergisst man schnell, dass die Uni-Zeit aus mehr als Hörsälen und Bibliotheken besteht. Was machen eigentlich die Studenten im Labor nebenan? Was geht sonst so an der der eigenen Uni? Wie steht es um das knappe Geld in der Studienzeit und wie sieht es später mit dem Job aus? Der neue Studentenblog Käpsele beantwortet diese und mehr Fragen für die Unis und Hochschulen rund um Stuttgart. Jetzt will der Blog auch als kostenloses Printmagazin erscheinen. Dafür muss aber erst einmal das Geld gefunden werden. Ein Interview mit Gründer Christian Ignatzi.

 

Media-bubble.de: Christian Ignatzi, du hast zusammen mit zwei Kollegen den Studentenblog Käpsele ins Leben gerufen. Seit Oktober seid ihr online. Was erwartet die Studenten auf eurer Seite?

Ignatzi: Wir haben uns an anderen Studentenmagazinen orientiert. Käpsele besteht einerseits aus nützlichen Tipps für Studenten, andererseits will der Blog auch mit Geschichten von den Unis direkt unterhalten. Zu diesem Zweck haben wir den Blog in vier Kategorien gegliedert: Leben, Studium, Geld und Zukunft. Das sind die Themen, die Studenten am meisten interessieren. In der Kategorie Studium schreiben wir beispielsweise, was für Entwicklungen es an den Universitäten und Fachhochschulen gibt. Hier berichten wir auch über Forschungsgeschichten, die Studenten anderer Studiengänge vielleicht gar nicht so mitbekommen würden. Und natürlich sind wir auch auf facebook.

Mb: Für die Nicht-Schwaben unser uns: warum der Name „Käpsele“?

Ignatzi: Wir haben lange überlegt. Unser erster Entwurf war STUDIgart, doch das hätte nicht ganz gepasst. Weil es im Blog ja nicht nur um Stuttgart, sondern auch die Umgebung geht. Wir haben lange hin und her überlegt, bis mir der Name „Käpsele“ eingefallen ist. Dann kam die Suche nach dem Logo. Ich habe mit einigen Logogeneratoren herumgespielt und ein Vorschlag war ein Vogel. Also habe ich den Drummer meiner Band auch einen Vogel entwerfen lassen, der viel putziger und toller war als der Vorschlag.

mb: Hat euer Käpsele-Vogel Verwandtschaft mit den „Angry Birds“?

Ignatzi: Nein, gar nicht. Die einen sagen, er sieht ihnen ähnlich, die anderen sagen, dass er das nicht tut. Mein Drummer kannte Angry Birds gar nicht. Aber die Mädchen stehen drauf, wobei das zugegebenermaßen nicht die Intension war. Ich finde ihn übrigens auch toll.

mb: Nun sind andere Studentenblogs bekannt, zum Beispiel der UniSpiegel. Was macht Käspele denn so besonders?

Ignatzi: Wir sind nicht besser als andere Blogs, aber lokaler. UniSpiegel und viele andere agieren deutschlandweit. Unser Blog aber beschränkt sich auf die Universitäten Tübingen, Stuttgart und Hohenheim sowie die Hochschulen in der Umgebung von Stuttgart. Durch diese geografische Begrenzung sind wir direkt an den Unis. Viele unserer Autoren sind Studenten an den Universitäten und so mitten im Geschehen.

mb: Und warum ausgerechnet ein Blog für Studenten?

Ignatzi: Ein Kollege, der auch die Idee zum Magazin hatte, erzählte mir, dass er während des Studiums nie wusste, was die Anderen an der Universität machen. Du steckst da so in deinem Studium fest, dass du gar nicht mehr über seinen Studiengang herausgeschaut hast. Deshalb hatte er schon früh die Idee, eine Art Netzwerk zu gründen – ein Blog bietet dafür eine gute Möglichkeit. So weiß man, was an der eigenen Uni eigentlich passiert.

mb: Ihr habt ja mit dem Blog angefangen, wollt jetzt aber ein Print-Magazin machen. Warum?

Ignatzi: Wir haben sehr viel Arbeit in den Blog gesteckt – und irgendwann in dem Prozess haben wir uns entschlossen, auch ein Stück weit davon zu leben. Ich hätte es damals total geil gefunden, ein Printmagazin über die eigene Universität und die der Umgebung zu haben. Und das können wir den Studenten jetzt anbieten. Das Projekt „Käpsele“ ist mein Baby und eine gute Sache. Nur leider können wir uns nicht durch einen Blog finanzieren, deshalb eine Printausgabe. Es gibt zwar Möglichkeiten, Onlineartikel auf freiwilliger Basis zu bezahlen. Aber ich will nicht, dass die Studenten für die Artikel zahlen müssen.

mb: Für die Finanzierung der ersten Ausgabe habt ihr euch entschieden, Crowdfunding zu verwenden. Warum?

Ignatzi: Wir wollen Käpsele ab der zweiten Ausgabe über Anzeigen finanzieren. Doch jetzt haben wir noch nichts zum Vorlegen, deshalb ist es schwer, Anzeigenpartner zu überzeugen. Letztes Jahr finanzierte eine Studentin der Hochschule der Medien die erste Ausgabe des Lifestyle-Magazins „Päng“ über Crowdfunding. Es sind ja nicht nur Spenden. Wir bieten im Gegenzug auch etwas an. Für eine Spende über zehn Euro gibt’s die Erstausgabe vor Veröffentlichung nach Hause. Für 50 Euro gibt’s dazu noch kostenlosen Eintritt zur Releaseparty in Stuttgart. Und wer 1.000 Euro spendet, bekommt eine ganzseitige Werbeanzeige. Das ist vor allem für Unternehmen spannend – und auf jeden Fall ein guter Preis! Wir haben noch 45 Tage Zeit, um das Geld zu sammeln.

mb: Was ist deiner Meinung nach das Besondere an „Käpsele“?

Ignatzi: Käpsele ist ein spannendes Magazin mit guten Reportagen. Wir sind ausgebildete Journalisten, schreiben können wir also. Das mit der Buchhaltung läuft noch nicht so ganz, aber das wird. Wir haben ausgewählte und qualitativ gute Mitarbeiter und Mitarbeiterinnen. Wir haben mit Käpsele ein Potenzial geschaffen und hoffen jetzt, dass das Projekt weitergehen kann.

mb: Wir drücken die Daumen und danken für das Interview.

 

 

Foto: Copyright Christian Ignatzi; Käspele, Redaktionskater Dennis und er selbst.

Bücher auf Reisen

 von Lina Heitmann

Das Fundbüro von Siegfried Lenz ließ ich am vergangenen Sonntag am Bahnhof liegen. Anders als im Buch geht es hier aber nicht darum, dass es gefunden werden und zu seinem rechtmäßigen Besitzer zurückfinden soll. Im Gegenteil: Das Buch soll wandern und seine Geschichte an möglichst viele neue Leser weitergeben.

Tatsächlich lassen Nutzer von bookcrossing.com weltweit ganz bewusst irgendwo Bücher rumliegen. Sie hoffen, dass Andere die Bücher finden, lesen und dann selbst weitergeben. Hinzu kommt, dass man die Bücher auf der Webseite verfolgen kann. Die Nutzer beschreiben, wo sie ein Buch gefunden und wo sie eines „freigelassen“ haben. Außerdem schreiben die Nutzer eine kurze Kritik zum Buch – alles zusammen macht den soggenannten Journaleintrag eines Buches, quasi sein Profil, aus. 

Man kann auf Jagd gehen um Bücher zu finden, auf der Straße oder in der Uni über sie stolpern, und sie per Post verschicken und empfangen. Die Seite setzt darauf, dass man die Bücher, die einem am Herzen liegen, teilen will, anstatt sie im Regal einstauben zu lassen.

 Was macht BookCrossing besonders?

BookCrossing verbindet auf kreative Art die Tracking-Möglichkeiten des Internets mit richtigen Büchern. Ziel ist es, die Welt in eine Bücherei zu verwandeln, wo auf Parkbänken, an Bahnhöfen oder in Cafés immer mal wieder ein Buch zu finden ist, das man lesen und dann weitergeben kann. Diese Welt-als-Bücherei bestände aber vor allem aus Zufallstreffern: die anderen Nutzer bestimmen, welche Bücher wo zur Verfügung stehen. Auch in einem größeren Umfang ist das Bookcrossing möglich: in Frankreich hat die Bahn (SNCF) ein BookCrossing-Experiment gemacht. In Zügen der TER Picardie wurden am 27. November 500 Bücher freigesetzt. Allerdings wurden bis jetzt nur 12 der 517 freigesetzten Bücher wieder auf bookcrossing.com eingetragen. Die anderen sind womöglich immernoch in den Zügen unterwegs.

Das BookCrossing begann in den USA. Bei der Idee lehnte sich der Gründer aus Kansas City an ähnliche tracking-sites wie „Where’s George?“, auf der man die Reise eines Ein-Dollar-Scheins verfolgen kann. Beim BookCrossing kommt aber zum Tracking die Freude am Lesen und Teilen von Büchern hinzu. Heute hat die Seite bereits zirka1,5 Millionen Nutzer.

Die Webseite erinnert ein bisschen an Seiten wie Couchsurfing und Mitfahrgelegenheit, aber der Kontakt läuft allein über die Bücher. Wie diese beiden Seiten ist beim BookCrossing der Hauptakteur die Netzgemeinschaft selbst, die die reale Welt durch die Möglichkeiten des Internets zum weltweiten „Dorf“ macht. Bei BookCrossing erhalte ich – wenn ich Glück habe einfach so, sonst auch per Post – direkt Bücher von Menschen, die die Liebe zum Buch mit mir teilen.

Die Welt als Bücherei Schnitzeljagd

Manche User wollen einem das Finden erleichtern (wenn zum Beispiel eine ganz bestimmte Bank angegeben wird), andere setzen eher auf den Zufall (wenn eine ganze Stadt als Freilassungsort angegeben wird). Gezielter – aber eben weniger spannend – ist die Anfrage per Post.

Noch ist die Welt keine Bücherei. Man kann sicher erfolgreich auf ein Buch stoßen, das von einem BookCrosser hinterlassen wurde. Ich erlebte es allerdings so, dass man gezielt nach den Büchern suchen muss und sie nicht unbedingt dort findet, wo sie freigelassen wurden. Ich hatte nicht das nötige Glück, und vielleicht auch nicht genügend Geduld. Im Brechtbau stöberte ich unter ausgestellten Flugblättern, in der Altstadt versuchte ich, möglichst unauffällig in geschmückten Tannenbäumen ein Buch zu entdecken; ich habe bestimmte Schaufenster in Tübingen sehr genau von innen und außen begutachtet, und ziemlich oft musste ich im Kreis gehen, um erneut gucken zu können – aber immer ging ich leer aus. Bei der aktiven Suche muss man schnell aber geduldig sein. Man kann sich natürlich auch das Buch nicht aussuchen – und man muss mehr Glück haben als ich bisher.

Als ich mein eigenes Buch freisetzte, saß ich kurze Zeit noch neben ihm auf der Bank und machte mich dann schnell aus dem Staub – mir sollte schließlich keiner nachrufen, ich hätte etwas vergessen…Wo es nun weiter hinwandert, werde ich über die nächsten Tage, Monate oder Jahre verfolgen können – je nachdem, wie erfolgreich es weitergegeben wird. Bislang werden nur 20-25% der Bücher, die in die „Wildnis“ freigesetzt werden, gefunden und wieder eingetragen. Nach der Freilassung ist es dem Zufall überlassen, ob und von wem es gefunden und weitergegeben wird. Ich warte trotzdem hoffnungsvoll auf eine Nachricht des Fundbüros.

 

 Fotos: Bücherstapel, flickr.com/pmagalheas (CC BY-NC-SA 2.0); Eingetütete Bücher, wikipedia.org/Johannes Kazah (CC BY-SA 3.0)

Der kleine Hobbit auf großer Reise

von Selina Juliana Sauskojus

Peter Jacksons erster Teil der Hobbit-Trilogie muss nach dem Erfolg des Herrn der Ringe erst einmal beweisen, dass er dem vorab zugeschriebenen Kultstatus standhalten kann. Das ganze mit mehr Technik, mehr Opulenz und – mehr Zwergen.

Hausfriedensbruch mit abenteuerlichen Folgen

Bilbo Beutlin (Martin Freeman) führt ein beschauliches Leben in seiner Hobbithöhle im Auenland. Bis zu dem Tag, an dem eine Horde Zwerge in sein geruhsames Heim eindringt, dieses verwüstet und dem kleinen Pfeifenraucher dann noch eröffnet, dass er nun zu einem Abenteuer aufzubrechen habe. Der frisch gekürte Meisterdieb, der so gar nicht auf Abenteuer aus ist, soll die dreizehn anwesenden Zwerge und den Zauberer Gandalf (Ian McKellen) begleiten, um den Einsamen Berg zurückzugewinnen.
Ehe Bilbo sich versieht, muss er sich mit Trollen, Orks und Goblins rumschlagen – und Gollum (Andy Serkis), einem alten Bekannten aus der Vorgänger-Trilogie.

Braucht man das wirklich?

Geplant war ursprünglich, dass sich Guillermo del Toro (Pans Labyrinth, Hellboy) in den Regiestuhl setzt. Doch aufgrund des ständigen Drehaufschubs räumte er den Posten und überließ das Feld Peter Jackson. Dieser kündigte an, es werde drei Teile geben.
Kritiker stellten im Vorfeld die Frage: braucht man wirklich drei Teile, um das doch sehr dünne Buch „Der Hobbit“ zu erzählen? Es roch nach Überambition, nach einem Film, der gedreht wurde um Geld zu machen. Doch Peter Jackson als größter aller Mittelerde-Fans nimmt die Vorlagen ernst und nutzt die knapp drei Stunden des ersten Films, um seine Fans mit allen technischen und erzählerischen Raffinessen zu begeistern.

Um seine Tolkien-Verfilmungen abzurunden, beschloss der gebürtige Neuseeländern den dritten Teil der Hobbit-Trilogie als Bindeglied zwischen dem Hobbit und dem Herrn der Ringe zu nutzen. So einfach wurde ihm dies aber nicht gemacht. Da es ihm aus rechtlichen Gründen nicht möglich war, den Stoff des Buches „Silmarillion“ zu nutzen, mussten die Drehbuchschreiber kreativ werden. Deutlich wird diese Gratwanderung, als Gandalf Bilbo von den fünf großen Zauberern erzählt. So nennt er sich selbst, Saruman und Radagast sowie zwei blaue Zauberer, deren Namen er anscheinend vergessen hat. Der Grund für Gandalfs Vergesslichkeit liegt hauptsächlich darin, dass die beiden blauen Zauberer im Silmarillion Erwähnung finden, nicht jedoch im Stoff, der für den Film freigegeben war. Ein dramaturgischer Stolperstein ist dies jedoch nicht, eher ein charmanter Seitenhieb auf jene, die die Rechte am Silmarillion nicht herausrücken wollten.

Eine kreative Leistung war ebenfalls die Einführung des Antagonisten Azog. Dieser nimmt in der Buchversion kaum Raum ein. Im Film sorgt die Figur, die nach einer Niederlage in einer Schlacht auf Rache an Zwergenfürst Thorin Eichenschild aus ist, für Spannung und den nötigen Drive. Zusätzlich beschert sie dem Zuschauer die opulentesten Schlachtszenen, die man je gesehen hat. Die Schlacht in Moria, eine Zwischensequenz, um den Konflikt zwischen den Kontrahenten zu erklären, wird zu einem visuellen Erlebnis.

Erstaunlich ist prinzipiell die Art und Weise, wie die Schlachtszenen choreografiert sind. Vor allem die Befreiung der Zwerge aus der Hand der Goblins im Nebelgebirge macht dem Zuschauer so viel Spaß, dass man sich gar nicht satt sehen kann. Da sitzt jeder Schritt, jeder Schwert- oder Axtschlag. All dies in einem epischen Szenario, dem Goblin-Reich, das auf der Leinwand, nicht zuletzt Dank der High Frame-Technik, unendlich weitläufig wirkt.

Überraschend sind auch ganz neue Szenen, wie der Rat zwischen Elrond (Hugo Weaving), Galadriel (Cate Blanchett), Saruman (Christopher Lee) und Gandalf, in denen die Sprache auf ein heraufziehendes Grauen kommt. Wer den Herrn der Ringe kennt, weiß, um welches Grauen es sich handelt. Es ist also nicht nur Fan-Schmeichelei, die Peter Jackson hier antreibt, sondern immer wieder das Verknüpfen der beiden Geschichten.

Neue Gesichter, alte Bekannte

Nicht minder genau wie die Regiefrage, wurde die Zusammenstellung des Castes betrachtet. Es gelang Jackson sowohl frische Gesichter zu gewinnen wie auch altbekannte. Martin Freeman (bekannt aus Per Anhalter durch die Galaxis) bekam die Rolle des Bilbo Beutlin. Diese füllt er so gut aus, dass einem immer wieder ganz warm ums Herz werden mag, wenn er sich mal wieder gegen die sturen Zwerge behauptet – oder es zumindest versucht. Die Rolle des schusseligen Helden liegt dem Engländer einfach, das hat er schon in vorigen Rollen bewiesen. Die Reise des Hobbits manifestiert sich auch in dessen Charakter: Zu Beginn ist es die Naivität, die ihn auszeichnet, gepaart mit allen anderen Charaktereigenschaften, die ein Hobbit so hat. Die hat er am Ende des ersten Teiles auch noch, hinzu kommt allerdings eine gewisse Ernsthaftigkeit. Freemans Spiel führt dem Zuschauer diese Entwicklung vor Augen, uns zwar eine sehr subtile und liebenswerte Weise.

Auch die Leistungen der Zwergendarsteller, insbesondere von Richard Armitage (Thorin Eichenschild) sind bemerkenswert. Das Ensemble harmoniert, das sieht man sofort. Und jeder Darsteller verleiht seiner Figur Charakter. Dies ist im Buch leider nicht wirklich gegeben. So überrascht auch, dass es auch Zwerge gibt, die nicht so wie Gimli aussehen: Da gibt es blonde Zwerge, Zwerge ohne Bart und ja, man will es kaum für möglich halten, auch attraktive Zwerge.

Und immer wieder lockt die Technik

Im Hobbit verwendet Peter Jackson erstmals die sogenannte „High Frame“-Technologie. Ist der Zuschauer vor allem an 24 Bilder pro Sekunde gewöhnt, muss er sich nun umstellen auf 48 Bilder. Dies ist Neuland, nicht nur für die Produktion, sondern auch für den Kinogänger. Die Bildabfolge ist doppelt so schnell, dadurch entstehen viel schärfere Bilder. Der Zuschauer erkennt die feinen Linien auf dem Pergament, jede Falte im Gesicht des älteren Bilbos. Als absolut realitätsnah wird die neue Technik angepriesen, aber hyperreal trifft es  wohl eher.

In einem Fantasy-Blockbuster macht die Verwendung der neuen Technik definitiv Sinn. High Frame und 3D erzeugen schlichtweg eine Opulenz, die der Zuschauer bisher nicht gesehen hat. Dass man dabei auch visuell mehr bekommt, als man gewohnt ist, ist dem gesamten Genre zuträglich. Fraglich ist aber, ob die Technik nur ein Genre revolutionieren kann oder das gesamte Kino. High Frame kann vermutlich ohne 3D kaum wirken. Abseits von Fantasy oder Science Fiction wird die Technik einen schweren Stand haben. Die Zukunft der Technologie wird in den Blockbustern liegen, nicht im Erzählkino. Das ist kein Fehler, sondern eine Bereicherung.

Fast wie nach Hause kommen

Nach Veröffentlichung wurden viele kritische Stimmen laut: Eine unerwartete Reise käme nicht an den Vorgänger heran. Es sei alles zu fantastisch, zu opulent, zu kalkuliert. Doch Peter Jackson gelang das Kunststück, Mittelerde treu zu bleiben, und sich doch nicht selbst zu kopieren. Natürlich kennt man die Figuren. Natürlich hat man viele Schauplätze schon gesehen. Und natürlich kommt Der Hobbit nicht ganz so ernst daher wie Der Herr der Ringe. Doch all das lädt dazu ein, diese Welt wieder- und neu zu entdecken. Die Zwergenschar um Bilbo ist nicht weniger gut als die Gefährten um Frodo. Sie ist anders und doch so ähnlich, dass man sie liebgewinnen muss. Die kleinen Verweise auf die Zukunft Mittelerdes – ein dunkler Schrecken, der sich langsam hereinbricht, ein Saruman, dem man jetzt schon nicht recht trauen mag und natürlich der Ring und dessen Vorbesitzer – da ruckelt man schon aufgeregt auf seinem Kinosessel hin und her und freut sich, dass man doch ein Teil des Ganzen sein darf. Am Ende bleibt einem da nur noch ein zufriedenes: Ja, Mister Jackson, dafür wurde Kino gemacht.

 

THE HOBBIT – AN UNEXPECTED JOURNEY, Neuseeland, Vereinigtes Königreich, USA 2012 – Regie: Peter Jackson. Buch: Fran Walsh, Philippa Boyens, Peter Jackson, Guillermo del Toro. Kamera: Andrew Lesnie. Mit: Martin Freeman, Ian McKellen, Richard Armitage, Andy Serkis. 169 Minuten.

Foto: flickr.com/erjkprunczyk (CC BY-NC-SA 2.0)

Babybuch für media-bubble.de

von der Redaktion

Vor anderthalb Jahren ist unser Blog media-bubble.de zur Welt gekommen. Unser gemeinsames Baby hat in dieser Zeit schon viel erlebt, und wie alle stolzen Eltern haben wir seine Entwicklung in einem virtuellen Babybuch festgehalten.

Viel Spaß!

::::: TEST ::::: test :::::

von Pascal Thiel

::::: DIES IST EIN EINE FORMAT-TESTSEITE :::::

Absatz

Absatz fett

Absatz kursiv

 

Überschrift 1

Überschrift 1 fett

Überschrift 1 kursiv

Überschrift 2

Überschrift 2 fett

Überschrift 2 kursiv

Überschrift 3

Überschrift 3 fett

Überschrift 3 kursiv

Überschrift 4

Überschrift 4 fett

Überschrift 4 kursiv

Überschrift 5
Überschrift 5 fett
Überschrift 5 kursiv
Überschrift 6
Überschrift 6 fett
Überschrift 6 kursiv

 

Zitatebene

 

  • Aufzählungspunkte
  • Aufzählungspunkte
  • Aufzählungspunkte

 

  1. Nummerierung
  2. Nummerierung
  3. Nummerierung

Mediendozentur 2012: „Die erste große Affäre ist wie die erste große Liebe.“

von Pascal Thiel

Ein ereignisreiches Jahr geht zu Ende. media-bubble.de berichtete über Mediendebatten, die Wissenschaft rund um die Medien und direkt aus der Universität Tübingen. Ein Ereignis wurde zum goldenen Abschluss aufgehoben: Den Besuch des Enthüllungsjournalisten Hans Leyendecker im Rahmen der Tübinger Mediendozentur 2012.

Ein bekannter Gast

Es ist der 19. Juli. Im Festsaal der Universität Tübingen spricht der ehemalige Spiegel-Redakteur und momentane SZ-Journalist Hans Leyendecker im Rahmen der Mediendozentur des Instituts für Medienwissenschaft. Die jährliche Veranstaltungsreihe soll laut der Philosophischen Fakultät „den journalistischen Nachwuchs zu fördern und Brücken […] schlagen zwischen Praxis und Wissenschaft“. In den vergangenen Jahren begeisterten Gäste wie Frank Schirrmacher, Alice Schwarzer und Claus Kleber die Studenten. Im Jahr 2012 stand die Mediendozentur jedoch ganz im Zeichen des investigativen Journalismus.

Leyendecker, dessen Name eng mit der Flick-Affäre, der Drehbuch-Affäre und dem CDU-Parteispendenskandal in Verbindung steht, geriet im Frühjahr des (fast) vergangenen Jahres in die Schlagzeilen, weil er und zwei Kollegen von der Süddeutschen Zeitung sich weigerten, den Henry-Nannen-Preis entgegenzunehmen. Gemeinsam mit zwei BILD-Journalisten, die die Wulff-Affäre in Bewegung gesetzt hatten, sollten sie mit der wichtigsten Auszeichnung für deutschen Qualitätsjournalismus in der Kategorie „Investigativer Journalismus“ ausgezeichnet werden – das lehnte er als „absurd“ ab und bekräftigte es heute erneut.

Schwierige Zeiten für den Journalismus

An diesem Sommerabend jedoch möchte Leyendecker weniger über sich selbst, als über die Lage des Journalismus sprechen. Und der beginnt mit schlechten Nachrichten.

„Rocky Mountain News, gestorben am 27. Februar 2009.“ Zwei weitere große US-amerikanische Zeitungen folgen, die binnen der letzten zwei Jahre verschwanden. Ein erschreckendes Bild: Die US-amerikanische Zeitungsindustrie ringt mit dem Tode.

Seit 2007, so Leyendecker, sei der Umsatz der amerikanischen Zeitungen um fast 30 Prozent zurückgegangen. Wenn es so weiter gehe, gebe es in den USA im Jahr 2017 keine Zeitung mehr. Ein Schreckensszenario. Doch keineswegs sei das nur ein Problem der Vereinigten Staaten – auch in Deutschland nehme die Leserschaft der Zeitungen stetig ab. Doch es bestehe begründete Hoffnung, dass es mit der deutschen Zeitungsindustrie nicht so weit kommen werde. Beispielsweise befänden sich deutsche Zeitungen in privatem Besitz. Und seien nicht, wie viele amerikanische Zeitungen, börsennotierte Unternehmen.

Journalismus als Aufklärung

Aufklärung sei eines der wichtigsten Gebote des Journalismus, so Hans Leyendecker. Aufklärung sei Definition, klares und deutliches Erklären, das Klarmachen und Klarstellen.

Doch hier beginnen die Schwierigkeiten. Essentiell sei es, zwischen Aufklärung und Demaskierung, oder gar Rufmord, zu unterscheiden. Dass dies nicht immer eingehalten werde, habe man im Frühjahr 2012 gesehen, anhand eines Präsidenten, „der nicht aus seinen Fehlern lernte“. Gemeinsam mit einem Blatt für investigativen Journalismus geehrt zu werden, das diese Methoden als „Geschäftsmodell“ betreibe, sei für Leyendecker „absurd“. Zur Ablehnung des Henri-Nannen-Preises habe es „keine Alternative“ gegeben: Die Bild-Zeitung vollführe Nötigung, journalistische Schutzgelderpressung, verwende manipulative Techniken, drohe, ängstige, lüge und verbreite journalistischen Terror unter seinen „Opfern“.

Etwa im Falle des 2003 von der CIA wegen Terrorverdachts nach Afghanistan entführten Khaled al-Masri. Obwohl er später wieder frei kam, habe ihn die BILD ohne Beweise als „der irre Deutsche“ beschimpft.

Leyendecker sinniert. Warum formuliert man solch drastische Schlagzeilen? Er stellt klar: Journalismus dürfe kein Ventil sein, um Frust und Hass freien Lauf zu lassen. Investigativer Journalismus könne zwar verletzen, dürfe Menschen aber in keinem Fall ihrer Würde berauben.

Journalismus und der Skandal

„Die erste große Affäre ist wie die erste große Liebe.“

Der Journalismus produziert keine Skandale, er deckt sie auf. Doch wann ist ein Skandal wirklich ein Skandal? Kann man sie definieren? Ist der größte Skandal für den einen oft nur eine Bagatelle für einen anderen?

Im Boulevard scheine alles ein Skandal zu sein, das irgendwie von der „Norm“ abweicht. Doch Hans Leyendecker gibt zu bedenken: Boulevard-Skandale und Skandale, die eine gesellschaftliche Dimension erreichen, müssten unterschieden werden – auch wenn die Definitoren gleichsam die Medien seien.

Die Gefahr, die jedoch im digitalen Zeitalter bestehe, sei die ganz neue Dimension von Skandalen. Das Publikum wandele sich vom passiven „beobachtenden“ Rezipienten zum aktiven Akteur: Mithilfe des Internets könne jeder selbst effektiv skandalisieren. Dass nur „die Großen“ von Skandalen getroffen werden könnten, stelle sich langsam aber sicher als Illusion heraus. Jeder kann zum Skandal werden. Das bedeute gleichzeitig einen gewaltigen Einbruch in die Privatsphäre: Früher tat dies der Boulevard, heute könne es dank Internet jeder. Und: Das Internet vergesse nichts: alte Gerüchte und Kamellen könnten bequem und problemlos wieder aufgewärmt werden.

Investigativer Journalismus und „Internetfans“

Urheber „moderner Skandale“ würden oft als investigative Journalisten bezeichnet. Doch mit Blick auf Seiten wie etwa Wikileaks müsse man zwischen echten Journalisten und einigen „Internetfans“, so Leyendecker, unterscheiden. Im digitalen Zeitalter könne jeder ermitteln. Es brauche nur einen untreuen Mitarbeiter mit einem USB-Stick und einen Blogger.

Doch Leyendecker warnt vor unüberlegter Kritik. Kritik an Assange, dem „David der Neuzeit“, der sich gegen das große Amerika auflehne, werde schnell als Kritik am Medium Internet und an der Veröffentlichung geheimer Dokumente verstanden.

Doch im Gegenteil seien gerade diese Veröffentlichungen im Zuge der gesellschaftlichen Forderung nach Transparenz und nach Einsicht in die „black box“ des politischen Systems zu begrüßen. Problematisch sei dabei meist die nur niedrige journalistische Qualität dieser Veröffentlichungen, da sie nicht von professionellen Journalisten verfasst würden.

„Geschichten, die Wirkungen erzeugen“

Obwohl diese „Internetfans“ durchaus ihre Berechtigung im journalistischen Prozess haben, so folgert Leyendecker, könnten sie jedoch nicht per se als investigative Journalisten betrachtet werden. Denn an dessen Qualität kämen diese nur in seltensten Fällen heran. Investigativer Journalismus gebe nicht einfach wieder, sondern erkläre Zusammenhänge, gebe Hintergrundinformationen. Investigativer Journalismus müsse „Geschichten entdecken, die Wirkungen erzeugen“.

 

Bild: flickr/Das blaue Sofa (CC BY 2.0)

Punktsieg für die Internetfreiheit

von Pascal Thiel

2012 war es soweit: Gefühlt ein halbes Jahrhundert nach Erfindung des Internets planten auch die Vereinten Nationen ihre Regularien der Telekommunikation an das digitale Zeitalter anzupassen. Eine Große Debatte – auch die Internetfreiheit sollte Teil von ihr sein. Doch einige Mitgliedsstaaten drängten in Richtung Internetkontrolle. Ist das Internet, wie wir es kennen, in Gefahr?

Das institutionelle Setting: Die ITU

Bereits 1856 als „International Telegraph Union“ gegründet, ist die „International Telecommunication Union“, kurz ITU, seit 1947 fester Bestandteil der Vereinten Nationen. Seitdem haben sich unter ihrem Dach Delegierte fast aller UN-Mitgliedsstaaten zur einzigen UN-Sonderorganisation im Informations- und Kommunikationssektor konstituiert. Zu ihren zentralen Aufgaben gehören die globale Organisation des Funksektors (Radio, TV, etc.), die Festlegung von weltweiten Standards im Zuge der Globalisierung der Telekommunikationsmedien und Entwicklungshilfe, um den „digital divide“, die digitale Kluft zwischen Industrienationen und Entwicklungsländern, zu überwinden.

Hinsichtlich ihres neuen Arbeitsbereichs „Internet“ blickt die ITU auf eine recht spärliche Historie zurück. 2003 und 2005 traf man sich zum „Weltgipfel zur Informationsgesellschaft Teil 1 und 2“ , wobei grundlegende Prinzipien und Handlungsabsichten bezüglich neuer technologischer und gesellschaftlicher Entwicklungen in der digitalen Informationsgesellschaft verabschiedet wurden. Diese zwei Konferenzen können als erste Gehversuche der Vereinten Nationen hinsichtlich des Internets gewertet werden.

Internet Governance – ein Streitthema…

Beim zentralen Thema dieses Artikels, der „Internet Governance“, fallen den Vereinten Nationen Entscheidungen schwer. Um trotz verschiedener Ansichten auf einen gemeinsamen Nenner zu kommen, rief der ehemalige UN-Generalsekretär Kofi Annan die „Working Group on Internet Governance“ (WGIG) ins Leben. Eine ihrer diversen Aufgaben ist die Definition des Ausdrucks „Internet Governance“:

Internet governance is the development and application by Governments, the private sector and civil society, in their respective roles, of shared principles, norms, rules, decision-making procedures, and programmes that shape the evolution and use of the Internet.

Im Zuge der Weltgipfels 2003 gegründet, stellte sie bei der Nachfolgekonferenz 2005 einen umfassenden Empfehlungskatalog hinsichtlich der Internet Governance vor. Dessen politische Umsetzung scheiterte aber an der Kompromissunfähigkeit der Verfechter des Status Quo auf der einen Seite und den progressiven, mehr Internetkontrolle fordernden Staaten auf der anderen Seite. Das ebenfalls 2005 gegründete „Internet Governance Forum“ (IGF), zur Konsensfindung geschaffen, indes brachte – abgesehen großer Reden – auch keinen Fortschritt.

Die Hoffnung auf eine Pfadänderung war groß, als Delegierte aller ITU-Mitgliedsstaaten Anfang Dezember 2012 nach Dubai reisten. Auf der „World Conference on International Telecommunications“ (WCIT) sollte endlich der große Durchbruch erreicht werden.

… auch auf der WCIT 2012

1988 wurden in Montreal auf der „World Administrative Telegraph and Telephone Conference“ (WATTC-88) mit den „International Telecommunications Regulations“ (ITR) erstmals grundlegende Regeln für den Betrieb moderner, internationaler Telekommunikationsdienste festgeschrieben. Mit der Anpassung dieser an die gegenwärtigen Entwicklungen und Herausforderungen des digitalen Zeitalters, wollte die ITU auf der WCIT 2012 das Bild der fortschrittslahmen UN-Unterorganisation endlich vergessen machen.

Doch die ITU verfiel in alte Muster: Wieder kristallisierte sich die gewohnte Konstellation aus Befürwortern und Gegnern einer verstärkten Internet Governance heraus. Während sich allen voran vier arabische Staaten mit ambitionierten Vorschlägen in den Mittelpunkt katapultierten, rieten „ITR-Minimalisten“ (heise.de)wie die USA, oder die EU zur Mäßigung.

Besonders ein von Russland, den VAE, China, Saudi Arabien, Algerien, Sudan and Ägypten eingebrachter Ergänzungsantrag (siehe Seite 6 des Dokuments)  zu den ITR wurde heftig diskutiert. Bei Verabschiedung hätte dieser Staaten das „souveräne Recht“ gegeben,

„öffentliche und internationale Policies, Angelegenheiten der Internet Governance betreffend, festzulegen und zu implementieren sowie das nationale Internetsegment zu regulieren.“.

Ein gewaltiger Eingriff in die Internetfreiheit – mit stimmengewaltigen Reaktionen. Nichtregierungsorganisationen liefen Sturm, allen voran Access. Würde das Mandat der ITU sowie die ITR bezüglich des Internets erweitert, befürchtet die NGO eine

„old-school top-down government-centred organization replacing the open, bottom-up-governance that made the internet so world-changing.“

Google stellte sich mit einer Kampagne zur Internetfreiheit gegen den Antrag. Gegenwind kam auch von der Bundesregierung:

„Für die Bundesregierung sind die Ziele Offenheit, Transparenz und Freiheit des Internets Voraussetzungen dafür, dass das Internet seine herausragende Rolle als Motor gesellschaftlicher und wirtschaftlicher Entwicklungen behält. Grund- und Menschenrechte wie Meinungs-, Rede- und Versammlungsfreiheit müssen im Internet genau so geschützt sein wie in der offline-Welt. Eine Regulierung des Internets ist nach Auffassung der Bundesregierung nicht Gegenstand der ITRs und soll es auch nicht werden. Die Bundesregierung wird bei der World Conference on International Telecommunications keinesfalls Vorschläge unterstützen, die die vorgenannten Grundfreiheiten gefährden könnten.“

Weiter heißt es:

„Bestrebungen, das Mandat der ITU zu erweitern, tritt die Bundesregierung entgegen. Insbesondere lehnt die Bundesregierung Bestrebungen ab, in den ITRs Regelungen zur Internetkriminalität, zu Internetinhalten, zur Netzneutralität oder zu Fragen der Besteuerung von Telekommunikationsdienstleistungen zu treffen.

Wohl zuletzt aufgrund dieser massiven Kritik wurde der Antrag im Laufe der Konferenz zurückgezogen. Während sich vereinzelte Befürworter tapfer dem gewaltigen Offline-Shitstorm stellten, zogen China und Russland distanzierend ihre Unterschriften zurück.

Was bleibt?

Bezüglich der Internet Governance konnte zwischen den ITR-Hardlinern und- Minimalisten erneut kein Konsens erreicht werden – das Problem ist bis auf Weiteres vertagt. Wo zwei sich streiten, freut sich der Dritte – in diesem Fall der Internetnutzer. Zudem hat sich die Befürchtung, die ITR könnten auf das Internet ausgeweitet werden, nicht bewahrheitet.

Mehr noch: Das Abschlusspapier, eine weiterentwickelte Version des ITR-Papiers aus dem Jahre 1988, wendet sich dem Internet erst gar nicht explizit zu – lediglich eine Resolution im Anhang des Papiers. Hier wird das Internet als „central element of the infrastructure of the information society“ beschrieben, die Wichtigkeit seiner Ausweitung erklärt und allen Staaten eine

„equal role and responsibility for international Internet governance and for ensuring the stability, security and continuity of the existing Internet and its future development and of the future internet“

zugesprochen.

Vor dem Hintergrund der Ablehnung einer Diskussion über Internet Governance durch ITU-Generalsekretär Hamadoun Touré in seiner Eröffnungsrede, kommt dieser Absatz doch etwas überraschend. Dennoch: Ist Internet Governance im WCIT-12-Abschlusspapier auch explizit festgeschrieben, bedeutet dies lediglich den Erhalt des Status Quo. Die Kontinuität des bestehenden Internets wird betont.

Somit hat die WCIT 2012 vorerst keine Auswirkungen auf die Internetfreiheit. Der Worst Case ist abgewendet. Es bleibt jedoch abzuwarten, wie sich die Dinge entwickeln.

 

Fotos: flickr/23743211@N07 (CC BY-NC-ND 2.0); flickr/itupictures (CC BY 2.0); Foto von Pascal Thiel

 

Switching Costs – mein neuer Mac und ich

von Sandra Fuhrmann

Das Gerät, auf dem ich diesen Text verfasse, ist hochmodern. Es ist gespickt mit derart vielen technischen Raffinessen, sodass ich sie niemals alle durchschauen werde. Es handelt sich um ein nigelnagelneues MacBook Pro. Wer bin ich? Ich bin der Mensch, der unfähig ist, es zu bedienen. Ein Erfahrungsbericht.

Wir haben viel zusammen durchgestanden. Er war mein Begleiter in guten wie in schlechten Zeiten. Ich gebe zu, dass ich in den vergangenen Jahren eine gewisse emotionale Bindung zu ihm aufgebaut hatte. Nun liegt er hier auf dem Tisch neben mir. Mein alter Windows-Laptop. Fast fehlt mir sein Brummen, das in den letzten Wochen immer lauter wurde. Von Freunden musste ich mir liebevollen Spott anhören: „Du kannst ohne dieses Brummen ja gar nicht mehr arbeiten. Ich verbinde das Geräusch schon mit dir.“ Und nun? Nichts! Ich höre keinen Ton. Nicht, dass ich dem nachtrauern würde, nein. Mein Problem ist ein anderes.

 Der erste Streich..

Mein neuer Mac steht angeschaltet vor mir. Endlich kann ich wieder arbeiten ohne minutenlang darauf zu warten, dass irgendetwas geladen ist. Diese Zeiten sind vorbei. Für mein MacBook ist das kein Problem. In Lichtgeschwindigkeit, wie es mir vorkommt, erscheint auf meinem Bildschirm, was auch immer ich mir wünsche. Nein, das Problem meines Macs ist ein anderes – nämlich sein neues Frauchen. Da sitze ich und stelle mir die erste essentielle Frage: Wie kopiere ich einen Text ohne rechte Maustaste? Erfahrene MacBook-User werden bereits an dieser Stelle sicher anfangen zu lachen. Aber eines kann ich schon: Ich habe den Internetbrowser entdeckt und weiß, wie man damit Begriffe googelt. Ich gebe die Begriffe „Tastenkombinationen MacBook Pro ein“ und komme mir schlau und siegreich vor. Wieder ein Problem gelöst. Aber das ist nur der Anfang.

..doch der zweite folgt sogleich

Ich habe meinen neuen Laptop mit in die Universität genommen. Endlich weniger zu schleppen als bisher. Ich freue mich – noch. In der Sprechstunde eines Dozenten bekommt meine Arbeitsgruppe eine DVD. Mein kluger Plan ist, die Dateien direkt auf meinen Laptop zu ziehen, um die DVD sofort weitergeben zu können. Irgendwann steckt die DVD in meinem neuen Hightech-Laufwerk – und dort bleibt sie auch. Warum gibt es keinen Knopf zum Auswerfen an der Seite dieses Laptops? Und schon wieder wird mir das Fehlen der rechten Maustaste zum Verhängnis.

Kurz gesagt: Ich habe nicht den blassesten Schimmer, ob besagte DVD je wieder aus dem Schlund dieses neuen Monstergeräts zurückkehren wird. Meine Kommilitonin wartet derweil ungeduldig, befürchtet ihren Bus zu verpassen und staunt vermutlich nur noch über meine unfassbare Schwachsinnigkeit.

Zumindest eines kann ich – und sinke dabei gleich noch ein paar Stufen tiefer auf der Leiter der Lächerlichkeit. Ich bediene mein Handy, um weisere Menschen als mich selbst, sprich erfahrene MacBook-User, um Hilfe anzuflehen. Dieser Plan geht tatsächlich auf und egal wie albern ich mir auch vorkommen mag… ich habe die DVD gerettet.

Der Dummheit einen Namen

Will man meiner Dummheit nun einen Namen geben, dann wäre dieser wohl Switching Costs. Und will man das von mir Erlebte in einen theoretischen Hintergrund einbetten, dann klänge das wie folgt:

Lernerfahrungen der Anwender drängen dazu, die Entwicklung in der anfangs eingeschlagenen Richtung weiter zu führen. Der Wechsel zu einem anderen System ist teuer und wird unwahrscheinlicher. Die Wechselkosten steigen und die Bindung des Kunden an das System wird stärker. Die Folge steigender Wechselkosten ist ein Lock-In-Effekt (Clement & Schreiber, 2010, S. 226).

Und nun das Ganze noch einmal im Zusammenhang. Seit ich gelernt habe, einen Computer zu bedienen, habe ich stets mit einem Windows-PC gearbeitet. Bestimmte Schemata in der Bedienung, wie etwa das Öffnen eines Optionsfensters mit einem Rechtsklick, habe ich in dieser Zeit verinnerlicht. So geht es im Grunde jedem Nutzer, der über Jahre hinweg immer mit demselben System arbeitet. Zu einem anderen System zu wechseln, bedeutet für die Nutzer Unannehmlichkeiten – wie etwa mein Scheitern am Auswerfen einer DVD. Diese Unannehmlichkeiten werden als Switching Costs bezeichnet. Je mehr man sich im Laufe der Zeit an eine bestimmte Technik gewöhnt hat, desto höher sind die eigenen Kosten beim Wechsel zu einem anderen System. Mit zunehmender Gewöhnung wird es damit unwahrscheinlicher, dass man sich für einen solchen Wechsel entscheidet, da man nicht bereit ist, die hohen Switching-Costs in Kauf zu nehmen. Dieses Phänomen nennt man auch Lock-In-Effect. 

Wechselkosten werden von Unternehmen ganz gezielt aufgebaut, um einen Lock-In-Effekt zu erzeugen und Kunden möglichst stark an sich zu binden (Clement & Schreiber, 2012, S. 235-236).

Alles hat seinen Preis

Werden verbesserte Versionen von Elementen des Systems oder neue komplementäre Produkte angeboten, entscheiden sich die Kunden wahrscheinlich wieder für das etablierte und gegen konkurrierende Systeme. Das bedeutet nicht, dass die Kunden in dieser Situation „gefangen“ wären, wie der Begriff Lock-In suggeriert. Sie können das System durchaus wechseln. Die Frage ist nur, zu welchem Preis (Clement & Schreiber, 2010, S. 230).

Nun. In meinem Fall bestand der Preis aus feststeckenden DVDs und dem Verlust meiner Ehre als Digital Native. Dennoch habe ich den Schritt getan. Nicht, dass das von meiner Seite aus besonders viel Entschlossenheit oder Neugierde auf neue Nutzungstechniken erfordert hätte. Ich denke, es ist ein anderes Wort, das meine Motivation angemessen beschreibt: Faulheit. Faulheit in Form des dem Menschen eigenen Strebens nach mehr Komfort. Dieses Streben begründete sich bei mir in der Hoffnung, in Zukunft einen Link öffnen zu können ohne zwischen meinem Mausklick und dem Erscheinen der Seite die Chance zu haben meine Wäsche zu waschen, einen Tee zu kochen und eventuell nach Honolulu zu reisen.

Nun habe ich meinen neuen Laptop einige Wochen. Wir haben uns inzwischen ganz gut miteinander arrangiert – vielleicht sogar angefreundet. Ich bilde mir nicht ein, ihn ganz durchschaut zu haben, doch wir arbeiten gut zusammen. So ist es also diesem Umstand zu verdanken, kombiniert mit ein wenig Selbstreflexion, dass dieser Artikel überhaupt zustande kommen konnte.

 

Literatur: Clement, R., & Schreiber, D. (2010). Internet-Ökonomie. Grundlagen und Fallbeispiele der Vernetzten Wirtschaft. Heidelberg: Physica-Verlag.

Fotos: Copyright Sandra Fuhrmann

 

KLARTEXT: Walter Benjamins „Zeitalter der Reproduzierbarkeit“

von Pascal Thiel

In einer Zeit, in der sich der Faschismus anschickt, die erste deutsche Demokratie vollends aus den Geschichtsbüchern zu tilgen, widmet sich der Philosoph, Literaturkritiker und Übersetzer Walter Benjamin, einem vermeintlich wenig relevanten Thema, der Reproduktion von Kunst.

In seinem Aufsatz „Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit“ von 1936 führt er in Reproduktionstechniken ein, zeigt ihre Möglichkeiten und Probleme und verweist auf Auswirkungen und Konsequenzen. Und am Ende zeigt sich: So marginal das Thema erscheinen mag, so relevant war es damals und ist es noch heute.

Die Geschichte der Reproduktion

Walter Benjamin irrt nicht, wenn er sagt: „Das Kunstwerk ist grundsätzlich immer reproduzierbar gewesen.“ Denn Kunst konnte bisher immer nachgemacht werden. Ob von Schülern der Bildenden Künste zur Übung, ob von ihren Meistern selbst zur Präsentation und Verbreitung oder von „gewinnlüsternen Dritten“ zum eigenen Vorteil. Die Geschichte des Kopierens ist eine Geschichte des gebildeten Menschen. Doch die technische Reproduzierbarkeit erschafft, so Walter Benjamin, ein Problem. Denn das technikbasierte Nachmachen, Kopieren und Vervielfältigen von Kunstwerken besitzt eine neue, völlig andere und weitaus größere Dimension.

Um keinem Missverständnis aufzusitzen: Die technische Reproduzierbarkeit ist kein Phänomen des 21. Jahrhunderts. Obwohl die Digitalisierung Technologien schuf und schafft, durch die sich immer bessere Möglichkeiten zur technischen Reproduktion ergeben, blickt die Reproduzierbarkeit auf eine lange Geschichte zurück.

Im antiken Griechenland kannte man zwei Arten der Reproduktion, den Guss und die Prägung. Münzen, Bronze- und Terrakottawaren waren die einzigen massenhaft herstellbaren Gegenstände. Im Mittelalter wurde zuerst die Grafik (Holzschnitt, Kupferstich, Radierung), dann die Schrift (Druck) technisch reproduzierbar. Mit der Lithografie wurde es um 1797 erstmals möglich, Schrift und Grafiken massenweise zu vervielfältigen. Die Fotografie verlagerte schließlich den Fokus des rezipierenden Körperteils von der Hand auf das Auge. Der Tonfilm erweiterte des Spektrum um das Ohr.

„Die Kathedrale verlässt ihren Platz“

Kunstwerke haben laut Benjamin eine „Aura“. Er fasst darunter die Verankerung des „Hier“, der räumlichen Dimension und des „Jetzt“, der zeitlichen Dimension des Werkes. Diese beiden Elemente sind jedoch bei Kunstwerken, die technisch reproduziert wurden – und somit auch ihren Reproduktionen – nicht vorhanden.

Ein Beispiel: Mona Lisa ist das berühmteste Gemälde der Welt. Auch dies hat im Zuge des Aufkommens der technischen Reproduktion seine Aura verloren. Während es vorher nie möglich war, ein exaktes, detailgenaues Abbild zu produzieren, wurde es in jüngerer Zeit millionenfach kopiert und in neue Situationen gebracht. Damit werden zwei weitere Begriffe deutlich, durch die Benjamins „Aura“ charakterisiert wird: das Einmalige und der Ursprungskontext.

Das Einmalige „verkümmere“ durch die technische Reproduktion. An seine Stelle trete das „massenweise Vorkommen“. Der Ursprungskontext wird von Benjamin auch als „Ritual“ beziehungsweise als Entstehungsmoment bezeichnet. Die Originalität eines Kunstwerks – und somit auch ihre Aura – ist nur gewährleistet, wenn es das „Ritual“ der Fertigung in sich trägt, wenn der Künstler selbst Hand angelegt hat.

Aus dem „Ritual“ wiederum entstehe ein „Kultwert“. Vor dem „Zeitalter der technischen Reproduzierbarkeit“, dessen Beginn wohl Ende des 19. Jahrhunderts anzusiedeln ist, so Benjamin, sei die Bedeutung eines Kunstwerks von seinem immateriellen Kultwert abhängig gewesen. Heute sei an diese Stelle der „Ausstellungswert“, der materielle Wert des Bildes für ein Museum, getreten. Mit der „Emanzipation der […] Kunst […] aus dem Schoße des Rituals“, also mit dem Auflösen der absoluten Verbindung des Kunstwerks an seinen Entstehungskontext, wachse die Ausstellbarkeit des Kunstwerks.

Sind die Beschreibungen Benjamins über weite Strecken von einem negativen Subtext gekennzeichnet, beschreibt er die technische Reproduzierbarkeit im gleichen Atemzug als „Emanzipation des Kunstwerks“ von „seinem parasitären Dasein am Ritual“. Diese wohl widersprüchlichen Positionierungen werden noch deutlicher, wenn Benjamin dem so negativ gezeichneten Kameramann ungeahnte Vorteile gegenüber dem Maler einräumt. Während der Maler Distanz zu seinem Gegenstand behält, dringt der Kameramann tief in das „Gewebe des Gegebenen“ ein. Dies verspreche eine intensive und bedeutungsvolle Rezeptionserfahrung. Aufgrund dieser „Meinungsschwankungen“ ist die exakte Position Benjamins schwer zu identifizieren.

Betrachtet man Benjamins Argumentation aus heutiger Sicht, haben alle bekannten Kunstwerke ihre Aura verloren. Kaum eines wurde nicht fotografiert, sprich: technisch reproduziert. Die Fotografie ist eines der Beispiele, die Benjamin selbst anführt. Sie ist zum einen in der Lage, das Kunstwerk detailgenau zu reproduzieren. Außerdem erlaubt die Fotografie neue Blickwinkel auf das Original (zum Beispiel durch die Detailfotografie) und führt das originale Kunstwerk durch die Verbreitung in Situationen, die für selbiges unerreichbar sind. Dadurch verliert das Kunstwerk jedoch seine Aura und sein empfindlichster Kern wird berührt: Seine Echtheit.

Schuld ist die Massenkultur

Die Ursache dieser Entwicklung sieht Benjamin schon 1936 in der Massenkultur. Die Gesellschaft in der Massenkultur sei von zwei Bedürfnissen geprägt: Zum einen streben sie nach der „Überwindung des Einmaligen“, zum anderen möchten sie sich alles „räumlich und menschlich“ näherbringen.

Hier wird die enorme Bedeutung des Artikels deutlich. Die Thesen von Benjamin sind durchaus auch auf die heutige Zeit anwendbar. Insbesondere das gegenseitige Näherbringen, erfährt durch die Existenz sozialer Netzwerke heutzutage erneute Aktualität.

Ein bedeutendes Medium der Massenkultur ist der Film. Hier zeigen sich die Auswirkungen der technischen Reproduktion besonders deutlich. Der Film, so Benjamin, „liquidiert“ den Traditionswert am Kulturerbe. Doch er verändere auch die Art der Kunstausübung. Die Leistung des Schauspielers wird beispielsweise nicht direkt von einem realen Publikum rezipiert, sondern von einer technischen „Apparatur“. Durch die Möglichkeiten der Montage stellt diese den Schauspieler aber nicht dar, sondern nimmt ständig zu seiner Leistung Stellung und interpretiert sie. Der Zuschauer, der bei Ausgabe des Films auf der anderen Seite der „Apparatur“, in diesem Fall vor der Leinwand, sitzt, nimmt den Schauspieler so wahr, wie ihn die Kamera interpretiert. Es wird also mehr oder weniger nur ein medial konstruiertes Abbild der Wirklichkeit des Schauspielers gezeigt.

Die Aura des Schauspielers geht dabei im Moment der Aufnahme verloren, da sie, wie oben beschrieben, an das „Hier“ und „Jetzt“ gebunden ist. Er selbst ist nach Benjamin aufgrund dessen nur ein bloßes „Requisit“ des Films.

Zeitlicher Kontext: Politisierung der Kunst statt Ästhetisierung der Politik

Benjamin argumentiert im voraussagenden Teil des Aufsatzes aus einer stark marxistisch geprägten Perspektive. Gerade in Ländern, in denen der Faschismus herrscht, sieht er 1936 die Gefahr, dass technische Reproduzierbarkeit zu politischen Zwecken missbraucht wird. Im Zentrum seiner Befürchtungen steht der Film. Durch diesen sei eine „Ästhetisierung der Politik“ möglich, also ein Missbrauch der Kunst (hier: des Films) als Mittel der Politik. Von der Inszenierung des Führerkults, über massenmediale Propaganda, bis hin zur romantischen Kriegsdarstellung: Zerstörerische Aspekte würden verdeckt und in einen neuen, ästhetischen und vor allem positiven Zusammenhang gestellt. Die einzige Möglichkeit der Kunst, sich gegen diese Ästhetisierung der Politik zu stemmen, sieht Benjamin in ihrer Politisierung:

So steht es um die Ästhetisierung der Politik, welche der Faschismus betreibt. Der Kommunismus antwortet ihm mit der Politisierung der Kunst.

Für seinen Aufsatz erhielt Walter Benjamin erst spät Anerkennung. Heute ist er aus der Kunsttheorie nicht mehr wegzudenken. Denn seine Thesen haben eine fortwährende Aktualität.

 

Klartextlogo Copyright Pascal Thiel; Fotos: flickr/doyle_saylor (CC BY-NC 2.0); flickr/baerchen57 (CC BY-NC-SA 2.0)

 

Der Weg ist das Ziel

 von Sanja Döttling

Der November ist vorbei, und damit auch NaNoWriMo mit der Herausforderung, 50,000 Wörter in 30 Tagen zu schreiben. Und das, während der Alltag ganz normal weiterläuft. Ich habe den Selbstversuch gewagt und mich an einem literarischen Meisterwerk versucht. Und bin glorreich gescheitert. Über lange Beschreibungen, langweilige Charaktere und einen lahmen Plot. Der Bericht einer Verliererin.

Rosarote Brillen und Bauchkribbeln

Auf der Startseite von NaNoWriMo zählt die Uhr die letzten Stunden bis zum Beginn des Novembers. Ich kann es gar nicht erwarten, endlich in die Tasten zu hauen. Auch eine Idee habe ich schon. Diese eine Fantasy-Geschichte, die ich vor Jahren mal schreiben wollte. Über das mittelalte Ehepaar mit Tochter, die auf dem ersten Bildungsweg Helden waren und erst beim zweiten Versuch Bauern. Schon vor Anfang des Wettbewerbs begehe ich also die erste „revolutionäre Tat“ (bei NaNoWriMo kann man nicht schummeln): Ich nehme eine Geschichte, für die ich schon einen Anfang geschrieben habe.

Darian beendete die Ackerreihe und blickte auf. Die Sonne hing zwar schon knapp über den Bergspitzen, aber sie brannte noch immer heiß auf das Hochland herunter. Darian wischte sich den Schweiß von der Stirn und klopfte seiner Stute Bukara beruhigend auf die Kuppe; Sie schüttelte als Erwiderung nur träge den Kopf und verscheuchte ein paar Fliegen, die sich um ihre Augen und Nüstern gesammelt hatten. Sie hatten gut die Hälfte des Ackers gepflügt; ein ebenso großes Stück wartete noch auf sie. Darian seufzte.

Ich bin aufgeregt, als ich endlich mit meiner Schreibfreundin und Mitkämpferin anfange, in die Tasten zu hauen. 1.667 Worte sind es, die pro Tag zu Papier gebracht werden müssen, um die Vorgaben einzuhalten. Das sind drei Wordseiten. Drei Wordseiten sind viel, danke ich mir. Und schon jetzt fällt mir auf, dass ohne Handlung keine Geschichte erzählt werden kann. Die ersten Tage rette ich mich mit Charakterisierungen und Beschreibungen von Seite zu Seite. Ich mache sogar einige hilflose Anstalten, einen Plot zu entwickeln.

 Im Zweifel für das Klischee

Nach drei Tagen ist die Plotentwicklung immer noch vorsichtig als „übersichtlich“ zu bezeichnen. Da sind die zwei Hauptfiguren plus Tochter, die ausziehen, um das Königreich zu retten. Irgendwas mit Magie vielleicht. Und dann muss natürlich noch erzählt werden, wie die beiden Nasen sich damals kennengelernt haben. Vielleicht ist sie eine Urwald-Amazone mit Pferd. Und er ein schnöseliger Adliger. Oder doch ein verstaubter Bücherwälzer.

Ich schreibe also so vor mich hin, und die Geschichte plätschtert eher, als dass sie läuft. Die ersten Tage halte ich mich noch an die geforderte Wortangabe. Aber nicht mehr lange. Die Plotlosigkeit holt mich ein, immer wieder greife ich auf die schlimmsten Fantasy-Klischees zurück. Da ist der alte Walddrache, dessen Blut Darian unsterblich macht. Eine Wendung, die keinen Sinn für diesen vermalledeiten Plot macht und der Achillesferse noch mal eine andere Bedeutung schenkt. Dann dieser furchtbar-klischeehafte Mittelalterlook und diese ganze Reise-Geschichte. Kann die Welt nicht mal zuhause untergehen? Ich habe Hexen verbrannt, kleine Bergdörfer beschrieben wo Helden üblicherweise leben) und Zwerge gedisst.

Da sind Logiklücken, durch die selbst Hagrid aufrecht laufen könnte, ohne dass oben sein Kopf herausschauen würde (nur, weil Darian seinen Mantel verloren hat, wird er nicht mehr ins Schnöselviertel gelassen?), da sind sinnlose, hausarbeitsähnliche Abhandlungen über ökonomische Handelswege (Perlen aus dem Süden) und geografische Feinheiten (feindliche Flüsse), da sind motivlose Figuren, die strukturlos rumreden und rumhandeln.

Bei 27.000 Wörtern war Schluss, ich hatte den Plot gegen die Wand gefahren: Darian landet im Gefängnis. Ich wusste mal, wie er da wieder rauskommt, hab’s aber vergessen. Nun war mein Held auf der diegetischen Ebene genau da, wo auch ich als Autor war: In einer selbstgemauerten Sackgasse. Aber wen störts: Er war ja sowieso unsterblich.

 Täglich grüßt der Alltag

Natürlich hatte ich im November noch andere Aufgaben zu erfüllen: Die Universität wollte besucht, zwei Referate gehalten und die Artikel auf media-bubble.de Korrektur gelesen werden. Der Kühlschrank blieb tagelang leer, die Spüle mit dreckigem Geschir voll.

Sich zwischen 50 Seiten Unilektüre und vier Seiten Vorlesungsnotizen, zwischen drei Artikeln für die andere Zeitung und den 12 Mails, die noch verschickt werden sollen, die Zeit zu nehmen, mal kurz was zu schreiben, ist schwer. Es ist eine Disziplinfrage, keine Zweifel. Aber mein Leben besteht nur aus Texten und Schrift, und bei aller Liebe bin ich die Buchstaben manchmal in diesem Monat leid.

Ich weiß nicht, ob es nur mir so geht: Aber ich kann einfach nicht den ganzen Tag schreibend und lesend verbringen. Irgendwann ist auch mal gut. Und während NaNoWriMo sind meine persönlichen Grenzen, was das Schreiben angeht, erreicht. Ja, ich habe NaNoWriMo nicht erfolgreich beendet, deshalb ist es an dieser Stelle angebracht, asiatische Weisheiten zu zitieren: Der Weg ist das Ziel. Immerhin habe ich im November 27.000 Worte mehr geschrieben als ich es sonst getan hätte. Und so habe ich auch beim Schreiben meiner Wörter etwas gelernt. Nämlich: wie ich es beim nächsten Mal besser machen kann. Um dann vielleicht, mit verstärkter „alles oder nichts“-Einstellung, doch mein Ziel zu erreichen.

 

Vorsätze für nächsten November

Auch wenn ich glorreich gescheitert bin, haben mir die 30 Tage „literary abandon“ (so die Startseite von NaNoWriMo) einiges beigebracht. Hier die wichtigsten Tipps einer Versagerin:

  • Schreibt nicht alleine, sondern in der Gruppe. Ohne meine Schreibgefährtin, die Aufmunterungs- und In-den-Arsch-tret-SMS verschickte, die Kaffee, Essen und Ratschläge bereitstellte und immer ein offenes Ohr für lustige Plotlücken hatte, hätte ich wahrscheinlich keine zwei Zeilen geschrieben. Der soziale Druck spielt natürlich auch eine Rolle.
  • Denkt davor über einen Plot nach! Zwischen den einzelnen NaNoWriMo-Wettbewerben liegen elf Monate – genug Zeit, um einen Plot kleinlich auszuarbeiten, bevor es ans schreiben selbst geht. Ohne diesen Schritt sind die meisten Geschichten nicht in 30 Tagen „runterzutippen“
  • Schreibt überall. Egal ob vor der Vorlesung, nach dem Aufstehen oder wenn man nachts um zwei müde von einer Party heimkommt. Nur so können die geforderten 1,667 Wörter pro Tag geschafft werden (vermute ich).

Trotz allem. NaNoWriMo war nicht nur furchtbar stressig, sondern auch eine gute Erfahrung. Und süchtig macht die Jagt nach den 50.000 Worten auch. Deshalb werde ich mich nächstes Jahr auf ein neues an diese große Prüfung wagen.

 

Bilder: Copyright NaNoWriMo Webseite; Sanja Döttling