Zombie goes to Hollywood

von Selina Juliana Sauskojus

Heute startet der Zombie-Blockbuster World War Z in den deutschen Kinos. Regie-Chamäleon Marc Forster schickt Brad Pitt in einen Weltkrieg gegen eine Zombie-Pandemie, die bereits einen Großteil der Menschheit dahingerafft hat. Das klingt nach einer Kombi, bei der eigentlich nichts schief gehen kann…

 

Globaler Krieg gegen die Untoten

Die menschliche Zivilisation steht vor dem Kollaps. Eine Zombie-Pandemie rafft die Menschheit dahin. Kein Kontinent bleibt verschont. Der pensionierte UN-Ermittlungsbeamte Gerry Lane (Brad Pitt) hat sich bereits vor einiger Zeit aus den Krisengebieten dieser Welt zurückgezogen. Statt Kriegsverbrechen in Tschetschenien aufzuklären, bereitet er nun allmorgendlich seiner Frau und den beiden Töchtern die Pfannkuchen zu. Bis zu dem Tag an dem die Zombie-Welle Philadelphia erwischt und sich der Familienvater unmenschlich schnellen Untoten entgegenstellen muss, um seine Familie zu schützen. Dank alten Arbeitskontakten werden die vier aus der city of brotherly love evakuiert und auf einen amerikanischen Flugzeugträger gebracht – der vermeintlich letzte sichere Ort auf Erden. Doch für Gerry währt der Frieden nicht lange. Anstatt den Frieden mit seiner Familie genießen zu können, wird er beauftragt seine Arbeit als Ermittler wieder aufzunehmen um herauszufinden wo die Pandemie ihren Ursprung hat und, wenn möglich, eine Antwort auf die Seuche zu finden. Zum Schutz seiner Familie macht er sich auf zu einer Reise um die Welt, um den World War Z zu stoppen.

 

Ein Spannungsböglein für den Anfang

Wer den Film wegen seiner Action-Elemente anschauen will wird nicht enttäuscht – zumindest nicht in den ersten dreißig Minuten. World War Z startet furios. Wie der Protagonist wird auch der Zuschauer direkt in das apokalyptische Szenario geworfen. Die Ausbreitung der Pandemie in Philadelphia, gedreht wurde übrigens in Glasgow,  ist ein wahrer Reigen an stark choreographierten Massenszenen, in denen hyperschnelle Zombies den Lebenden den Garaus machen. Weder Zuschauer noch Figuren können mehr unterscheiden, wer bereits zu den Infizierten gehört oder wer nur in Panik versucht sich zu retten. Es fehlt die komplette Übersicht und genau dies erzeugt die Spannung, die eine derartige Szene braucht.

Die Entscheidung der Filmemacher weitestgehend auf CGI zu verzichten, ist durchaus lobenswert und zahlt sich aus. Mehr als 150 Fahrzeuge wurden allein beim Dreh in Glasgow zerstört – zum Wohle des Realismus. Wer sich bis dahin nicht vor Spannung in den Kinositz krallt wird es ab diesem Zeitpunkt vermutlich auch nicht mehr tun. Denn nach der Rettungsaktion der Familie Lane geht der Spannungsbogen rapide bergab. Plötzlich verkommt World War Z zum üblichen Hollywood-Produkt, bei dem eine schmalzige Familiengeschichte, harte Soldaten (auch in weiblicher Ausführung) und höher-schneller-weiter-Bilder Hand in Hand die vorhergegangenen starken dreißig Minuten killen. Wer genau diese stereotypen Hollywood-Elemente erwartet und schätzt wird dann auch auf seine Kosten kommen.

 

Where have all the Zombies gone?

Wer allerdings dem Genre Zombiefilm zugeneigt ist, wird eine herbe Enttäuschung erleben. Dass Zombies, oder Infizierte, sich schnell bewegen können, ist spätestens seit 28 Days Later (2002) Konsens unter Freunden der Untoten-Films. Dass sie aber plötzlich in Puma-Manier ihre Opfer anspringen und Autoscheiben mit dem Kopf einschlagen scheint doch sehr befremdlich. Eine weitere Fähigkeit des neuen Zombies ist es, sich in seiner Raserei im Schwarm zu einer Pyramide zu formen, um scheinbar unüberwindbare Mauern zu erstürmen. Das sieht auf der Leinwand nicht nur wahnsinnig gut aus, es ist tatsächlich auch ein Element, bei dem man sich sagt: das scheint im Zuge der Zombie-Evolution irgendwie Sinn zu machen. In dieser Verfilmung steht der Schwarm-Charakter der Zombies im Vordergrund. Neu ist das nicht, man denke allein an einen der Klassiker des Genres: Dawn of the Dead von George A. Romero (1978). Was jedoch den Zombiehorror bisher ausgezeichnet hat, ist die gesellschaftskritische Aussage. Bei Romero ging es um das Aufkommen der amerikanischen Konsumgesellschaft. 2002 erfand Danny Boyle den Zombie neu. Mit seinem Film 28 Days Later verbildlichte er die, dem Menschen innewohnende, rohe Gewalt und entwarf ein postapokalyptisches Szenario, das realistischer kaum hätte sein können. Obwohl jedes gesellschaftskritische Element zu fehlen scheint bei World War Z, setzt Regisseur Marc Forster die Infizierten dennoch nicht schlecht.

 

Das ewige Leid mit dem 3D

Wer im Übrigen die Gelegenheit hat sich den Film im traditionellen 2D anzuschauen, tut gut daran diese Möglichkeit zu nutzen. „Zu manchen Bewegungen passt ein hektischer Stil der Kamera und eine rasche Schnittfolge“, so Produzent Ian Bryce. Das ist auch in der Tat sehr gut umgesetzt worden. Allerdings ist die Kombination aus schnellen Kamerabewegungen, flottem Schnitt, ziemlich vielen Close-Ups, insbesondere zu Beginn des Films, und 3D dann doch etwas zu viel des Guten. Das Auge ist einfach maßlos überfordert mit der Flut der Eindrücke. Das ist der Erzeugung von Chaos vielleicht zuträglich, dem Filmgenuss allerdings eher nicht. Funktionieren tut das Dreidimensionale immerhin beim Ausbruch der Pandemie in Philadelphia und bei der Erstürmung Jerusalems durch Zombies. Durch das 3D erhalten die Massenszenen in den Straßenschluchten mehr Tiefe, die auf die Kamera zustürmenden Zombies wirken bedrohlicher. Brauchen tut man es dadurch aber noch lange nicht.

 

Fazit

Der Veröffentlichung von World War Z ging eine Medienkampagne sondergleichen voraus. Dem Zuschauer wurden viele Versprechungen gemacht. Das eine Versprechen hält der Film: World War Z ist ein Action-Reißer, der durchaus Spaß machen kann, wenn man nicht zu viel erwartet. Brad Pitt spielt so stark wie man die flache Figur eben spielen kann, auch sonst sind filmtechnische Schnitzer so gut wie nicht vorhanden. Die Hollywoodisierung des Zombies macht allerdings eher traurig als beschwingt. Den Standards des amerikanischen Kinos angepasst, verkommt der Untote von einer gesellschaftlichen Metapher zum bloßen Horrorprodukt. Früher oder später fällt eben jeder gute Stoff der Maschinerie Hollywood zum Opfer um brav von den Massen konsumiert werden zu können. Womöglich sagt diese Tatsache an sich unfreiwillig mehr aus, als es der Film selbst jemals könnte.

Copyright: Paramount Pictures

Telekom vs. Netzneutralität

von Philipp Hofmann

Nur das Zahlen, was man nutzt? Hört sich fair an! Dieses Ziel scheint die Telekom mit einem neuen Geschäftsmodell für ihre Internet-Flatrates zu verfolgen. Wer mehr zahlt, dem wird ein schnellerer und größerer Datenverkehr ermöglicht. Moment mal! Entsteht hier etwa ein Zwei-Klassen-Internet?! Heftige Kritik ist im Anmarsch!

Netzneutralität und die damit verbundene Gleichheit jedes Nutzers war bisher im World Wide Web eine Art ungeschriebenes Gesetz. Durch neue Pläne der Telekom ihre Internet-Flatrate Tarife auf einen Datenvolumen-Tarif umzustellen, wie es bei vielen Mobilfunkverträgen schon oft üblich ist, scheint diese jedoch gefährdet. Was aber sind die Beweggründe der Telekom für das neue Geschäftsmodell und was spricht gegen eine Abschaffung der Netzneutralität?

Neutrales Netz und Drosselung, wozu?

Was bedeutet der Begriff Netzneutralität für Internetnutzer? Die Neutralität soll sicherstellen, dass jegliche Daten, die über das Internet übermittelt werden gleichberechtigt und keiner Priorisierung ausgesetzt sind. Abgesehen von einzelnen Anbietern, die die Infrastruktur für ihre Dienste verwalten (beispielsweise die Internet-Kommunikationsdienste Skype und facebook), erhält niemand genauere Informationen darüber, welchen Inhalt die Daten besitzen, die zwischen dem Empfänger und Sender im Netz ausgetauscht werden.  Unter dem aktuellen Verständnis der Netzneutralität bestehen für alle Unternehmen, die das Internet für ihre wirtschaftlichen Ziele nutzen, gleiche Wettbewerbsbedingungen und Rechte. Zudem ermöglicht die Netzneutralität im Netz die Meinungsfreiheit und stellt vor allem für die globalisierte Wirtschaft sowie die Entwicklung von Innovationen einen wichtigen Faktor dar. Alle Dateien werden gleich behandelt. Es gibt keine wichtigen und unwichtigen Dateien.

Das neue Geschäftsmodell der Telekom sieht vor, die bestehenden Flatrate-Modelle mit einer Geschwindigkeitsminderung zu versehen, sobald ein bestimmtes monatliches Datenvolumen überschritten wird. Derzeit liegt die Grenze bei 75 GB. Ist diese Grenze erreicht, so hat der Kunde die Möglichkeit durch eine Zuzahlung sein Datenvolumen zu erhöhen, um weiter mit hoher Geschwindigkeit surfen zu können.  Die Telekom sieht die geplante Drosselung nicht als Eingriff in die Netzneutralität. Eines ihrer Hauptargumente zur Durchsetzung, aus einem Antwortbrief an Philipp Rösler, dem Bundesminister für Wirtschaft und Technologie, bezieht sich auf die scheinbare Minderheit der Vielnutzer, die im Durchschnitt 10-20 mal größere Datenmengen als der Durchschnittsnutzer (15-20 GB/Monat) benötigen würden. Demnach soll die Drosselung nur einen Bruchteil von Nutzern betreffen. Es steht jedoch fest: Durch eine vielfältige Nutzung des Internets als Multimedia Plattform ist die Grenze von 20 GB schnell erreicht. Gerade Online-Media- und Videotheken benötigen große Datenmengen. Für Menschen, die nur surfen, ab und an eine Mail schreiben und vielleicht noch Musik herunterladen (max. 150 MB pro Album) scheint die Grenze von 20 GB durchaus akzeptabel. Beim Streaming von zwei, jeweils zweistündigen, Filmen in Full-HD-Qualität im Monat stände jedoch schon eine Drosselung an, da je Film mindestens 10 GB Daten heruntergeladen werden müssen.

Telekoms Kundenangebote gegen die Netzneutralität

Technische Entwicklungen führen seit Jahren in eine ganz andere Richtung der Internet-Nutzung, was aufkommende Streaming-Dienste wie Lovefilm und Watchever sowie der zunehmende Vertrieb von sonstigen digitalen  Gütern wie Musik (iTunes) und Computerspielen (Steam) bestätigen. Das monatliche Datenvolumen wird sich, in Zukunft unter Beibehalt der Entwicklungsgeschwindigkeit solcher Dienste, vom Nutzer noch schneller verbrauchen lassen können. Viele Meinungen im Netz sehen zu hohe bevorstehende Investitionen in den Netzausbau als bisher unbestätigten weiteren Grund für das neue Geschäftsmodell. Da EU-Subventionen für den Ausbau aufgrund der Finanzkrise gestrichen wurden und die Netzbetreiber diese Kosten nun selber tragen müssen sind diese auf der Suche nach neuen Finanzierungsquellen.

Wie bereits auch seit einiger Zeit mit dem Musikstreaming-Dienst Spotify vereinbart, bietet die Telekom Internetdienstleistern an, mit Kooperationsmodellen, auch managed services genannt, sich aus der Drosselung freizukaufen. Dies hat jedoch auch zur Folge, dass ein System zur Datenpaketkontrolle (Deep-Packet-Inspection) genutzt werden muss, um herauszufinden, welches Paket von welchem Empfänger (Kunde) und Sender (Anbieter) stammt. Dies führt zu einer Gefährdung der Netzneutralität: Das bedeutet Ungleichheit im Wettbewerb der Anbieter untereinander sowie die Benachteiligung von kleinen Anbietern durch die Priorisierung aller Daten. Die Telekom behält es sich somit vor: Daten durchzulassen oder zu verlangsamen. Theoretisch ist auch die Zensur unerwünschter Inhalte nach der Durchsetzung der Drosselung umsetzbar. Stets in Abhängigkeit des gewählten Zahlungsmodells des Kunden. Der eigene kostenpflichtige TV-Dienst der Telekom Entertain, der über die Internetleitung bezogen werden kann, nimmt keinen Einfluss auf das monatlich festgesetzte Datenvolumen wie alle Kooperationsmodelle.

Bundesregierung, Verbraucherschutz und Online-Petition äußern Kritik

Philipp Rösler (FDP) zeigte sich in einem Brief an den Telekom-Chef René Obermann besorgt über die angekündigten Änderungen in den Tarifstrukturen für die Internetnutzung und wies darauf hin, dass die Bundesregierung und die Wettbewerbsbehörden diese Entwicklung unter dem Aspekt der Netzneutralität „sehr sorgfältig verfolgen“ werden. Auch der Verbraucherschutz Nordrhein-Westfalen mahnte die Telekom: Er ist der Meinung, dass eine „satte Reduzierung der Surfgeschwindigkeit um bis zu 99,2 Prozent“ eine zeitgemäße Internetnutzung nicht möglich macht. Malte Götz, ein Abiturient, eröffnete vor kurzem eine Online-Petition gegen die Drosselungspläne der Telekom. Mittlerweile haben 175.000 Menschen diese unterzeichnet, Tendenz steigend. Um mehr mediale Aufmerksamkeit zu erreichen, rief die Seite netzpolitik.org die Website hilf-telekom.de ins Leben, deren Zweck es ist, ironische Werbeplakate für das geplante Geschäftsmodell der Telekom zu erstellen und daraufhin per Social Media oder auf anderem Wege zu verbreiten. Am 11. Juni reagierte Telekom auf die Kritik des neuen Geschäftsmodell: Die Geschwindigkeitsbremse wurde von 384 kBit/s  auf 2 MBit/s  und die Grenze des monatlichen Datenvolumen von 20 auf 75 GB in den Standardverträgen erhöht. Die Regelung soll ab 2016 in jedem neu abgeschlossenen Internet-Vertrag wirksam werden. Es bleibt abzuwarten wie die Telekom diese Änderung in Zukunft weiter begründet und ob sie gegebenenfalls den ein oder anderen Punkt des Geschäftsmodells vielleicht noch einmal überdenkt.

 

Fotos: flickr/nerdcoreblog (CC BY-NC-SA 2.0), flickr/hikingartist (CC BY-ND 2.0)

Digitales Gold

von Raphael Adam

Geld nach Japan überweisen, und das ohne Transaktionskosten? An der Frittenbude mit dem Smartphone bezahlen? Mit Bitcoin könnte das in naher Zukunft Alltag sein.

Bitcoin ist eine neuartige Internet-Währung, dessen Kurs Anfang dieses Jahres in den Himmel geschossen, aber im April auch wieder eingebrochen ist. Derzeit kann ein Bitcoin für ungefähr 75 Euro gekauft werden, zu Höchstzeiten lag der Kurs bei über 130 Euro. Das Bezahlen über digitale Wege ist in unserer Gesellschaft schon weitgehend verbreitet und stellt keine Neuheit mehr dar. Jedoch erfolgt die Vergütung normalerweise in der landesüblichen Währung. Mit Bitcoin ist 2009 eine rein virtuelle Währung hinzugekommen. Diese ist sie an keine Zentralbank gebunden und weltweite Transaktionen sind anonym und günstig möglich. Die Frage ist, ob Bitcoin das Potential hat, ein Ersatz für herkömmliche Währungen wie Euro und Dollar zu sein.

Wie es funktioniert

Für den Anwender ist es nicht schwer, mit der Benutzung von Bitcoins zu beginnen. Es muss nur eine Software installiert werden. Der Benutzer erhält dann eine Adresse, mit der er Geldbeträge empfangen kann. Wird eine Überweisung ausgeführt, so wird diese mit einem privaten Schlüssel signiert und an alle anderen Teilnehmer geschickt. Auf diese Weise kennt das Anwendungsprogramm eines jeden Benutzers alle gemachten Transaktionen. Dadurch soll es nicht möglich sein, diese zu fälschen. Jedoch kann der private Schlüssel, durch den das Eigentum an Bitcoins nachgewiesen wird, gestohlen werden. Dies ist auch schon bei verschiedenen Hackerangriffen vorgekommen.

Das ganze System von Bitcoin ist dezentral, es läuft nicht über einen Server, sondern über ein Peer-2-Peer-Netzwerk. Das heißt, die Nutzer sind direkt miteinander verbunden. Nun kann man sich fragen, wo die Bitcoins eigentlich herkommen, wenn es keine zentrale Stelle gibt, die diese ausschüttet. Das geschieht über das sogenannte Mining. Hierbei wird Rechenleistung eingesetzt, um eine kryptographische Aufgabe zu lösen. Wer die Aufgabe zuerst löst, bekommt derzeit 25 Bitcoins gutgeschrieben. Das Mining kann von jedem betrieben werden, es muss dafür nur eine spezielle Software ausgeführt werden. Mit normalen Computern ist das aber schon seit längerer Zeit nicht mehr rentabel, da sich die Schwierigkeit der Aufgabe an die im Netzwerk zur Verfügung stehende Rechenleistung anpasst.

Berg- und Talfahrt

Die virtuelle Währung wurde 2009 von einer Person oder einer Gruppe mit dem Pseudonym „Satoshi Nakamoto“ ins Leben gerufen. Warum ist das Interesse seit kurzem so stark angestiegen? Ein Grund ist die Euro-Krise, die das Vertrauen in die Banken erschüttert hat. Vor allem die Spanier sollen für den Boom in diesem Jahr verantwortlich sein. Bitcoin ist an keine Regierung oder Bank gebunden und praktisch anonym. Dadurch und durch die Dezentralität entzieht sich Bitcoin auch der Kontrolle von Regierungsorganisationen. Zudem ist die Maximalanzahl von Bitcoins technisch auf 21 Millionen festgelegt, wodurch eine Inflation gar nicht erst möglich sein soll.

Aufgrund der starken Kursschwankungen werden Bitcoins auch noch von eher wenigen Unternehmen als Zahlungsmittel akzeptiert. Vor allem bei manchen Anbietern von Internetdienstleistungen lässt sich damit bezahlen. So kann man zum Beispiel einen Premium-Zugang bei der bekannten Website Reddit mit Bitcoins kaufen. Gut geeignet ist Bitcoin auch für Spenden und sogenanntes Micropayment, bei dem es um das Bezahlen von geringen Summen geht. Die Kosten für eine Transaktion betragen bisher nur wenige Cents, und es spielt keine Rolle, in welchem Land sich der Empfänger befindet. Bei der Enthüllungsplattform WikiLeaks oder dem Internetblog netzpolitik.org kann zum Beispiel mit Bitcoin gespendet werden.

Die Kehrseite der Münze

In letzter Zeit hat Bitcoin mit einigen Problemen zu kämpfen gehabt. Das war in erster Linie der zeitweilige Kursrückgang von über 60%, dessen Ursache technische Probleme gewesen sein sollen. Bitcoin kann sich auch als Spekulationsblase herausstellen und wird schon mit der Tulpen-Krise im 17. Jahrhundert verglichen, bei welcher der Preis von Tulpen erst explodierte und dann abrupt abstürzte. Andere Schwierigkeiten entstehen dadurch, dass die Bitcoins quasi auf dem Rechner liegen und somit gestohlen oder auch durch technische Probleme vernichtet werden können. Wegen der Anonymität bei Transaktionen, können fehlgeleitete Überweisungen zudem nicht rückgängig gemacht werden.

Ein ganz anderes Problem ergibt sich durch das Mining. Die erforderliche Rechenleistung für das Lösen der kryptographischen Aufgabe steigt an, sobald sich die Rechenleistung im System erhöht. Da viele Miner im Netzwerk durch die schnellste Berechnung die Bitcoins erzeugen wollen, überbieten sie sich durch immer leistungsstärkere Hardware. Konnte man zu Beginn von Bitcoin noch seine Grafikkarte für das Minen verwenden, müssen es heute schon Spezialkomponenten sein. Der dadurch erzeugte Stromverbrauch soll laut einem Bericht von Bloomberg ein „Desaster für die Umwelt“ sein. Es werden dort $147.000 Stromkosten kalkuliert, die alle Miner zusammen pro Tag verursachen sollen.

Sollte sich der Kurs langfristig stabilisieren, könnte Bitcoin im Internet zumindest als alternatives Zahlungsmittel Fuß fassen. Die Entwicklung von Bitcoin lässt auf jeden Fall erkennen, dass das Bedürfnis nach einem Zahlungsmittel da ist, welches die neuen Möglichkeiten des Internets nutzt. So erscheinen hohe Gebühren und eine lange Dauer bei Überweisungen in das Ausland nicht mehr zeitgemäß, da das Internet keine Staatsgrenzen kennt und Daten in Sekundenschnelle an jeden Ort der Erde geschickt werden können. Jedoch würde die weitreichende Nutzung auch neue politische Lösungen erfordern, da sich die Internet-Währung bislang noch jeder Kontrolle entzieht.

 

Foto: flickr/zcopley (CC BY-SA 2.0), flickr/keep_bitcoin_real (CC BY 2.0)

 

Der Weg zurück an den Musikolymp

von Helen Baur

Ein unachtsamer Moment, ein bisschen zu viel Selbstsicherheit und zu wenig Ernsthaftigkeit dem Fortschritt gegenüber – schon war es um die Musikindustrie geschehen. Der digitale Markt ist an ihr vorbeigezogen. Nach jahrelanger Flaute scheint es nun endlich wieder bergauf zu gehen. Doch warum erst jetzt? Welche Fehler hat sich die Musikindustrie geleistet?

Musikindustrie verlässt Nischenstellung

Manch einer hätte wohl kaum mehr daran geglaubt, dass die Musikindustrie jemals Profit aus dem Downloaden und Streaming von Musik im Internet schlagen wird. Vor allem das illegale Downloaden war und ist noch immer ein großes Hindernis, doch inzwischen hat sich viel getan. Die Musikindustrie hat es laut einer aktuellen Studie der Forsa geschafft,  endlich den Weg hin zu einem lukrativen Geschäft einzuschlagen.

Im Auftrag des BITKOMs hat das Meinungsforschungsinstitut Forsa 1.003 Internetnutzer ab 14 Jahren zum Thema Musikdownload/Musikkauf im Internet befragt – mit erstaunlichem Ergebnis. 26 % der Befragten kaufen Musik in Online-Downloadshops, 16 % tun dies regelmäßig. Im Schnitt geben die Käufer 7,50 Euro im Monat für Musikdownloads aus, fast jeder siebte sogar mehr als zehn Euro. BITKOM bestätigt die, durch die Umfrage erfasste, positive Prognose: Die Musikindustrie hat ihre Nischenstellung im Internet verlassen und bringt inzwischen nennenswerte Umsätze.

Hochmut kommt vor dem Fall

Bis in die 1990er Jahre florierte das Geschäft mit der Musik reibungslos, ihm wurde eine rosige Zukunft vorhergesagt. Vor allem der Wandel von Vinyl auf CD brachte einen letzten Boom  – bis plötzlich neue Technologien auftauchen, die von der Musikindustrie nicht ernst genommen wurden. Ulrich Dolata schreibt in seinem Aufsatz „Das Internet und die Transformation der Musikindustrie“, dass die Umsätze durch Tonträger der Musikindustrie seit dem Ende der 1990er Jahre kontinuierlich sinken, die von digitalen Einkäufen nicht ausgeglichen werden können. Die Vermarktung im Internet veranlasst den Konsumenten eher zum Kauf einzelner Lieder, ganze Alben werden weitaus seltener gekauft. Ein zusätzliches Problem etablierte sich schon mit dem Aufkommen von Compact Discs – ohne Kopierschutz. Durch die Möglichkeit der kostenlosen Vervielfältigung ohne Qualitätseinbruch (wie bei Radiomitschnitten o.ä.) wird die erste Lücke im System offengelegt, die allerdings noch an physisch Existentes gebunden ist. Eine zweite tut sich Jahre später auf, mit dem MP3-Format kommt auch das einfache file sharing, losgelöst von Tonträgern in digitaler Form.

In Kombination mit dem Internet erschien der Musikindustrie das digitale Format als tödliche Mischung – der illegalen und kostenlosen Verbreitung von Musik via Internet waren die Türen geöffnet. Eine Lösung hierfür wurde lang diskutiert, ein Digital-Rights-Management-Standard sollte dies regulieren, doch die Meinungsverschiedenheit zwischen Musik- und Unterhaltungsindustrie verhinderten einen solchen Standard. Mit Music on Demand – kurz MoD – startet dann das erste offizielle Musikdownloadportal – allerdings mit  Preisen über den Ladenpreisen und langsamen Downloadzeiten. Projekte wie MoD scheiterten schnell und plötzlich wird die Musikindustrie von Musiktauschbörsen wie Napster überrascht. Musiktausch im Freundeskreis gab es schon seit jeher, nun wird daraus ein weltweites Geschäft – und der juristische Kampf dagegen beginnt.

Illegaler Download begünstigt legalen Kauf

2001 schafft Apple den Durchbruch im Business des digitalen Musikdownloads, wird sowohl von den Musikkonzernen als auch von den Konsumenten angenommen und etabliert dadurch einen neuen Geschäftszweig im Internet.

Heute scheinen unerlaubtes Kopieren, file sharing oder Musikstreaming für die Musikindustrie keine ernsthaften Probleme mehr zu sein. Eine Studie über den Konsum Digitaler Musik im Internet zeigt, dass unerlaubtes Downloaden kein Ersatz für den legalen Erwerb ist. Je häufiger Konsumenten illegal zu Musik kommen bzw. diese erwerben, desto mehr kaufen sie auch legal Musik. Trotzdem sind noch so manch offene Lücken im Online-Musik-System zu finden, beispielsweise das Mitschneiden von Musik auf Youtube. Für den privaten Gebrauch ist dagegen nichts einzuwenden – allerdings werden genau dann oft die Rechte Dritter verletzt. Dies ist dann der Fall, wenn ein Video/Lied nicht vom Besitzer, sondern anderen Personen hochgeladen wurde. So sollte sich der Konsument vor jedem potentiellen Download kritisch fragen, ob es sich im gegeben Falle um einen, bisher unentdeckten, Verstoß gegen das Urheberrecht handelt oder um ein legal hochgeladenes Video.

Die Zukunft: Trends und Möglichkeiten

Gerade das Musikstreaming scheint zum neuen Boom in der Musikindustrie zu führen – das attraktive legale Angebot von Spotify und Co. trägt vor allem in Asien und Skandinavien zum Umsatz bei. Das à-la-Carte-Hören verspricht hohe Qualität und riesige Auswahl an Musik – zu geringen monatlichen Kosten, oder – dank Werbung – komplett kostenlos. Wie gut die neue Form des Musikhörens ankommt, zeigt eine Studie im Auftrag von WimP: 77% der unter 30 Jährigen beanspruchen Streamingdienste. Mehr als die Hälfte (54%) ist generell dazu bereit, für das Streaming zu bezahlen, jedoch in Abhängigkeit des Angebots. Somit ist das Musikstreaming der schnellst wachsende Trend der Musikwelt. Es kommen allerdings auch immer mehr andere Alternativen auf den Markt: Musiker bieten ihre Musik for free an, schlagen lediglich Profit aus Konzerten, Merchandise und Spenden. Die Musikindustrie scheint ihre Talfahrt beendet zu haben – es geht wieder aufwärts!

 

Bilder: flickr/iaintait (CC BY-NC-ND 2.0), flickr/lambda_x (CC BY-ND 2.0)

An application a day takes the doctor away…

von Svitlana Magazova

Man befürchtet eine Blasenentzündung? Kein Problem – Dr. App fragen! Man braucht nur ein Foto vom Urinteststreifen zu schießen und das Smartphone Display liefert die Diagnose. Ob es sich um Ernährungspläne, Medikamentenverschreibungen oder Krebsdiagnose handelt – die Apps scheinen auf alle Fragen eine Antwort parat zu haben. Über 200 Millionen Medizin-Apps boomen heute auf dem Markt. Experten warnen: Viele sind Schrott!

Eine digital bedingte Revolution?

Am 3. Juni 2013 war es soweit – Die Veranstaltung Medical Apps 2013 öffnete in Stuttgart über zwei Tage ihre Pforten.  Neben einer Konferenz standen diverse Workshops und Ausstellungen im Angebot, die sich alle mit einem Thema befassen – den medizinischen Apps. Es kamen Vertreter aus den verschiedensten Bereichen: Dem Gesundheitswesen, der Industrie, der Forschung und dem IT-Bereich. Ihr Ziel besteht darin, die Verbindung zwischen Informationstechnologie und Gesundheitswesen zu stärken und auszubauen. Es entstehen außerdem immer mehr Medizinportale, wie CrowdMed, dessen Intention es ist, Patienten über den elektronischen Weg zuverlässige Diagnosen zu liefern sodass in Zukunft der Arztbesuch per „Knopfdruck“ erfolgen kann. Es ist nicht mehr zu übersehen – das Gesundheitswesen befindet sich in einer digital bedingten Revolution!

Von Fiebermessung zur Krebsdiagnose

Laut dem Brancheverband Bitkom, gab es bereits im Jahre 2011 um die 15.000 Gesundheitsapps. Jedoch beschränkten sich diese eher auf Angebote, wie Schrittzähler für Jogger oder Trainingsprogramme mit Fitnessübungen. Nun reichen aber die Apps von medizinischen Hilfen, wie Fieber- und Blutzuckermessen, Alkohol- oder Sehtests bis zur Leberfleckenprüfung. Dabei handelt es sich um eine Art Ersatz für die „Blickdiagnose“ des Arztes, welche nun das Kameraauge übernehmen kann. Mittels Algorithmen wird die Wahrscheinlichkeit berechnet, dass ein Fleck bösartig ist. Darüber hinaus gibt es die sogenannte „Pulsmess-Apps“, wobei Licht und Kamera eingesetzt werden können.

Treffsicherer als der Arzt?

Am meisten Anklang auf dem Markt findet eine Vielzahl von Tests- und Diagnose- Apps. Angefangen hat alles mit Webseiten zur Selbstdiagnose, wie was-fehlt-mir.net. Somit konnte zum ersten Mal der Arzt durch eine Maschine ersetzt werden. Heute noch sind viele Apps lediglich mobile Ableger der alten Webseiten. Diagnosewebseiten können jedoch für Hypochonder die reine Hölle bedeuten – auch harmlose Symptome können sich nach unnötig langer Recherche als Anzeichen einer ernsthaften Krankheit entpuppen. Um solche Fehldiagnosen zu vermeiden und die Patienten nicht zu verunsichern, hat sich in jüngster Vergangenheit das US-Startup CrowdMed entwickelt. Im Gegensatz zu herkömmlichen Diagnoseseiten, sind auf dieser Plattform nur Diagnosen eingestellt, die zuvor tatsächlich von Fachärzten erstellt wurden. Für die Information muss der Patient aber zunächst tief in die Tasche greifen – 199 US-Dollar sollen an das Unternehmen gezahlt werden. Ist diese Hürde jedoch genommen, gibt der Kranke zahlreiche Daten über sich und seine Krankheitsgeschichte ein. Anschließend wählt CrowdMed aus seinem Teilnehmerpool rund 100 sogenannte Medical Detectives aus, die den Fall bewerten. Die „Konsensdiagnose“, die aus diesen Bewertungen erstellt wird, kann der Patient dann seinem Arzt vorlegen.

15 Prozent solcher Gesundheitsanwendungen werden nun sogar speziell für das Fachpersonal entwickelt. Handys und Tablet-PCs  spielen nämlich auch für Ärzte, Therapeuten und Pflegepersonal eine immer wichtigere Rolle. Seit letztem Jahr dürfen Ärzte in Großbritannien nun Gesundheitsapps an die Patienten verschreiben.

Geburt eines neuen Geschäftszweigs

Aus den vorangegangenen Beispielen wird klar ersichtlich, dass sich nicht nur das Gesundheitswesen in einer Revolution befindet, sondern dass auch das Arzt-Patienten Verhältnis komplett neu definiert und positioniert wird. Lange Wartezeiten beim Arzt sind nicht mehr notwendig – man lässt die Apps ihre Arbeit verrichten!

Die Schattenseiten dieser Methoden liegen jedoch auf der Hand – Menschen können bei Gesundheitsfragen schlichtweg nicht von Maschinen ersetzt werden! Ganz zu schweigen davon, dass sich eine Vielzahl der Gesundheitsapps erst in den Kinderschuhen befinden und zum Teil nichts weiter als ein Gag darstellen.

Trotzdem untermauern Portale, wie CrowdMed, die Idee einer fortschreitenden Digitalisierung des Gesundheitswesens. Führende Mobile Health Anbieter in den USA erreichen bereits mehr als drei Millionen kostenlose Downloads und 300.000 bezahlte Downloads auf der iOS-Plattform. Die Reichweiten verdeutlichen das wachsende Geschäftspotenzial für mobile Gesundheits-Apps, welche wohl schon in naher Zukunft unseren Alltag zum Teil bestimmen werden.

Mensch vs. Maschine

Diese Revolution, die laut Experten schon begonnen hat, lässt einen Punkt stark außer Acht: Die Gesundheit des Menschen darf nicht zu einem Geschäftszweig der digitalen Branche werden. Durchaus können zuverlässige Diagnose-Apps hilfreich sein und den Menschen bei harmlosen Krankheiten vor langen Wartezeiten und Fehldiagnosen bewahren. Auch Anwendungen, die einen Diabetiker durch den Alltag begleiten, können sowohl für Patienten als auch für die Ärzte eine Erleichterung bedeuten. Doch inwieweit lässt sich der zunehmende Ärztemangel durch Applikationen beheben? Werden digitale Geräte in Zukunft tatsächlich einen Arzt komplett ersetzen können, sodass wir nicht mehr von einer Patient-Arzt-Beziehung, sondern von einer Patient-Gerät-Beziehung sprechen werden?

Im Allgemeinen befindet sich diese Entwicklung lediglich im Anfangsstadium und es bleibt abzuwarten, wie sich dieser Zweig entwickelt und in welche Richtung unser Gesundheitswesen gelenkt wird. Nichtsdestotrotz wird eine Maschine niemals die menschliche Präsenz und das Mitgefühl eines Arztes ersetzen können und dürfen.

 

Bilder: flickr/12905355@N05 (CC BY-NC 2.0), flickr/umich-msis (CC BY 2.0)

 

E3 2013: Konsolenkrieg, die achte

von Miriam Gerstenlauer

Dieses Jahr ist ein besonderes Jahr in der Spielebranche: Nachdem Nintendo bereits 2012 ihre neue Wii U Konsole auf den Markt brachte, schicken nun Microsoft und Sony ihre Konsolen ins Rennen und müssen sich den kritischen Augen von Gamern und Presse stellen. Sieben  Jahre liegen die Erstveröffentlichungen der letzten Konsolengenration zurück. Wii U, Xbox One, PS4 sowie die Kickstarter-Konsole Ouya bilden die Vorhut zur achten Generation der Spielekonsolen und könnten sich in ihren Konzepten nicht mehr unterscheiden.

Die neuen Konsolen wurden auf der 19. Electronic Entertainment Expo (E3) in Los Angeles vorgestellt.

Außer Konkurrenz: die Ouya

Ein kleiner, ein paar hundert Gramm schwerer Würfel mit Android-Betriebssystem, auf dem man alle Smartphone-Spiele auf dem Fernseher spielen kann, und das für gerade mal 99 Dollar.Ein scheinbar grandioses Konzept, fanden die über 60.000 Kickstarter-Unterstützer der Ouya.

Erste Tests berichten jedoch von einem unfertigen Produkt, das eine nur geringe Auswahl von grafisch veralteten Spielen zur Verfügung hat und keine externen Speichergeräte erkennt. Laut dem Test scheint  der Controller der Ouya billig verarbeitet, klappert und ermöglicht nur unpräzise Steuerung, kann jedoch durch ein kabelgebundenes Xbox 360 Gamepad ersetzt werden.

Wenn schon nicht mit ihrer Konsole, so erregten die Entwickler auf andere Art Aufsehen auf der E3: Statt einen ordentlichen Stand in den Messehallen zu mieten, errichtete das Ouya-Team kurzerhand einen eigenen Stand auf einem Parkplatz gegenüber des Messegeländes, zum Missfallen der Messeveranstalter ESA.Der offizielle Verkaufsstart der Ouya ist der 25. Juni 2013.

Nintendo

Nach dem Erscheinen der Wii U im November 2012 hat die Konsole bis jetzt vor allem einen Makel: Es gibt kaum Spiele. Und die Spiele, die es gibt, sind alte Bekannte : Super Mario Bros., Monster Hunter, Raymon Raving Rabbits. Bewährte Konzepte, die den Touchscreen-Controller, dem speziellen Feature der Wii U, passend in das Spielkonzept integrieren. Nintendo hätte also genug Potenzial, der lachende Dritte neben Microsoft und Sony im Konsolenkrieg der E3 zu sein. Leider verpasste Nintendo diese einzigartige Gelegenheit: Statt innovativer Neuerscheinungen gab es Ankündigungen zu einem neuen Super Smash Bros. Spiel, einem neuen Donkey Kong und einem neuen Legend of Zelda. Allesamt Spiele aus dem Hause Nintendo selbst, für externe Publisher wie Ubisoft ist die Entwicklung für Wii U exklusive Titel uninteressant, solange sich die Konsole so schlecht verkauft.

Trotz der eher schlechten Aussichten schaffte es Nintendo sich die exklusiven Rechte an Bayonetta 2 zu sichern und die Wii U ist weiterhin mit Multi-Plattform-Titeln im Rennen.

Die Wii U kann man in der Standard-Version für 199€ oder als Premium Edition für 310€ im Fachhandel erwerben.

Microsoft

Bereits Ende Mai hatte Microsoft der Welt zum ersten Mal die Xbox One präsentiert. Bereits ihr Vorgänger, die Xbox 360 zeichnet sich durch ihre Bewegungssteuerung mit Kinect, dem großen Angebot an Indie-Download-Spielen ,ihre exklusiven Sport- und Action-Spiele aus. Das alles und mehr bietet Microsoft nun mit ihrer neuen Konsole: Die Xbox One soll präzisere Sprachsteuerung und Bewegungssensoren haben. Zusätzlich soll sie einen einfachen Zugang zu Filmen und Fernsehserien ermöglichen sowie genug Rechenleistung für neue, grafisch höchst anspruchsvolle Spiele bieten. Doch Microsoft stößt mit seiner Konsole vor allem auf negative Kritik.

Ein „Überwachungsgerät“ sei sie, da die Spracherkennung der Kinect konstant aktiviert sei, welches eine rund-um-die-Uhr Abhörung ermöglicht, so Datenschützer. Außerdem ist eine Breitband-Internetverbindung notwendig, um die großen Datenmengen  in der Cloud abspeichern zu können und die Konsole muss sich mindestens alle 24 Stunden mit dem Microsoft-Server verbinden, damit der User auf seine Spielebibliothek zugreifen kann.

Wer kein Internet hat, so Xbox Chef Don Mattrick, soll einfach bei der Xbox 360 bleiben.
Darüber ob man nun gebrauchte Spiele weiterverkaufen kann, ist sich Microsoft selbst noch nicht im Klaren. Zunächst hieß es, man kann Spiele einfach übertragen, dann ging es nur mit Freunden, dann nur mit Freunden, die mindestens seit 30 Tagen auf der Freundesliste stehen, welche wiederum erneut eine Lizenz für das Spiel erwerben müssen – wenn der Publisher dies verlangt. Microsoft behält sich nunmehr weitere Änderungen offen.

Die Xbox One erscheint im November 2013 und soll 499€ kosten.

Sony

Alle Zweifel, die durch Microsoft für die neue Konsolengeneration aufgeworfen wurden, nutzte[s11]  Sony in einer einzigen Pressekonferenz zu seinen Gunsten . Im Gepäck hatten sie nun auch erstmals die Konsole selbst, eine augenscheinlich schräggestellte Version der Xbox One. Das scheinbare Design-Motto der Next-Gen Konsolen: Rund ist das neue eckig.
Den generalüberholten Dualshock 4 Controller hatte Sony bereits Ende März 2013 im Zuge der PS4-Ankündigung vorgestellt. Das Besondere: ein im Controller verbautes Touchpad sowie ein integrierter Share-Button, bestens geeignet für die neuen Social-Media Funktionen der neuen Konsole. Man kann Gameplay-Videos auf YouTube teilen, Freunde zu einer gemeinsamen Partie einladen oder die neuesten Erfolge teilen.

Einen Online Zwang gibt es aber nicht und gebrauchte Spiele können wie eh und je geteilt oder verkauft werden. Doch auch zukünftige PS4 Besitzer müssen mit Einschränkungen rechnen: Um Multiplayer-Funktionen nutzen zu können, fallen nun monatliche Kosten für ein PlayStation Plus-Konto an, ähnlich der Xbox Live Gold-Mitgliedschaft. Außerdem ist das PlayStation Eye, eine Kamera die zur Erkennung der Bewegungssteuerung dient, im Gegensatz zu Xbox Ones Kinectsensor, nicht in der PS4 mit enthalten, was den 100€ niedrigeren Preis der Sony-Konsole etwas relativiert.

Erscheinen wird die PlayStation 4 zum Weihnachtsgeschäft 2013, mit einem Preis von 399€.

Fazit

Jede der Next-Generation Konsolen hat seine Vor- und Nachteile. Am Ende sind aber wahrscheinlich die exklusiven Spieletitel entscheidend für den Kauf der Konsole, und davon haben sowohl Nintendo als auch Sony und Microsoft eine Menge. Ob nun The Legend of Zelda, The Dark Sorcerer oder Halo 5 ein Kaufgrund sind, muss jeder für sich selbst entscheiden.


 Fotos: Copyright Nintendo; Copyright Microsoft; Copyright Sony.

Glasige Aussichten

von Daniel Fuchs

Die Aftershowparty der Oscarverleihung aus dem Blickwinkel von George Clooney erleben? Oder doch lieber den Urlaub von Freunden live am Bildschirm mitverfolgen? Das und noch vieles mehr ist mit Googles neuestem Spielzeug vorstellbar, das das Potential besitzt, die Grenzen von Realität und Virtualität weiter zu verschieben.

Der nächste Coup?

Nach dem durchschlagenden Erfolg des von Google für Smartphones entwickelten Betriebssystems Android, das mittlerweile knapp 70% Marktanteil aufweist, [sowie den auf Googles Browser Chrome basierenden Notebooks], plant das Unternehmen aus Mountain View im Herzen des Silicon-Valley, den nächsten großen Coup. Google Glass soll im ersten Quartal 2014 auf dem Markt erscheinen, doch schon jetzt sind einige Exemplare der Datenbrille als Vorabversion im Umlauf. 1500$ mussten die neugierigen Tester berappen, um eine der in limitierter Anzahl verfügbaren Brillen zu ergattern.

Die Technik

Das Innenleben von Google Glass erinnert, von Ausstattung und Funktionsumfang her, an ein handelsübliches Smartphone. Ein Touchpad im Brillenbügel ermöglicht die Steuerung per Hand. Gesteuert werden kann aber auch per Kopf- oder Augenbewegungen und Spracheingaben, entsprechende Sensoren sind vorhanden. Glass soll sich automatisch mit Google Cloud synchronisieren, bei Verstößen gegen die Nutzungsbedingungen kann Google die Brille aus der Ferne deaktivieren. Natürlich fehlt auch die obligatorische Kamera nicht, die fähig ist, alles vom Träger Gesehene aufzuzeichnen. Mit dem integrierten GPS-Empfänger können dabei die eingehenden Daten mit dem entsprechenden Ort verknüpfen werden.

Der Bildinhalt erscheint nicht etwa auf einem Bildschirm vor dem Auge, sondern wird mit einem Prisma direkt auf die Netzhaut projiziert. Für den Träger sieht es so aus, als schwebt ein transparentes Display in einiger Entfernung vor dem Auge in der Luft.

Die Idee des Einblendens von Informationen im Blickfeld ist nicht neu, es gibt bereits ähnliche Einsatzzwecke dieser unter dem Sammelbegriff „augmented reality“ stehenden Technologie. Was neu ist, ist die geplante Einbettung dieser Technologie in das tägliche Leben.

Die Anwendungen

Über besondere Anwendungen, die die Brille deutlich von denen eines Smartphones abheben, ist erst wenig bekannt. Vielmehr scheint es so zu sein, dass sich Google bei der Anwendungsgestaltung wieder auf die Kreativität ihrer Kunden verlässt. Das verdeutlicht auch die Aussage eines Google-Mitarbeiters: „wir wollen, dass ihr verrückte Sachen damit macht. Immerhin habt ihr 1.500 US-Dollar dafür gezahlt„.

Es hat sich bezahlt gemacht, dem Anwender ein Interface mit grundlegenden Funktionen zur Verfügung zu stellen, und mit Hilfe eines zugänglichen Betriebssystems wie Android eine Basis für eigene Ideen für Anwendungen zu bieten. Der Anwender wird zum Entwickler und erweitert damit den Umfang des Interfaces immer mehr.

Bestes Beispiel für die Eigendynamik der Anwendung und Entwicklung war der Verkaufsstart des ersten iPhones im Jahr 2007. Erste Tests berichteten damals eher verhalten über geringen Funktionsumfang, und das Hauptaugenmerk lag damals auf der Telefonie und dem Musikhören. Niemand ahnte, dass diese beiden Features bald schon die uninteressantesten überhaupt sein würden, nachdem die „Apps“ ihren Siegeszug begonnen hatten.

Der gläserne Anwender

Aus den Möglichkeiten folgen aber auch Befürchtungen, wenn es um den Datenschutz und die Privatsphäre geht. Google hat angekündigt, den Speicher der Brille synchron mit ihren Servern zu halten, was nichts anderes bedeutet, als dass jede Information, die durch die Brille aufgenommen wird, Google zur freien Verfügung steht. Die Brille wird zwangsläufig Informationen, nicht nur über den Nutzer selbst, sondern auch über seine Umgebung sammeln, verknüpfen und auswerten. Eine geplante Anwendung ist zum Beispiel die Erkennung von Freunden anhand ihrer getragenen Kleidung. Gesichtserkennung ist zwar von offizieller Seite noch nicht geplant, aber der logische nächste Schritt, vor allem wenn man bedenkt, dass diese Technik von anderen Konzernen wie Facebook, bereits eingesetzt wird. Die Anwendungen an sich sind demnach nicht neu, wohl aber die Beiläufigkeit und Selbstverständlichkeit des Aufsammelns von Daten. Als ob jeder Nutzer sein eigenes Google Street View mit sich führt, nur dass dieses Gadget nicht auf Straßen und öffentliche Plätze beschränkt ist, sondern alle Bereiche des täglichen Lebens durchdringen kann. Und so berichten begeisterte Tester, dass sie die Brille nur noch zum Schlafen abnehmen.

Ein Blick in die Glaskugel

Es wird vor allem darauf ankommen, was die Nutzer aus den ihnen gebotenen Möglichkeiten machen, und wie sich das Image der Brille entwickeln wird. Denn schon ein Jahr vor dem Verkaufsstart legt sich der Hype schon wieder ein wenig, und das Bild von Glass bekommt die ersten Kratzer. Unter dem Schlagwort  „White Men Wearing Google Glass“ machen sich Blogs darüber lustig, dass vor allem technikaffine, weiße Herren von der Brille angetan sind, und darüber hinaus besonders affig damit aussehen. Ob Google Glass den Nerv der Zeit trifft, und nicht nur ein nettes Spielzeug bleibt, wird sich also erst noch zeigen.

 

Bilder: flickr/69730904@N03 (CC BY 2.0), flickr/timtimes (CC BY 2.0)

Sinnsuche auf See – Ang Lees Life of Pi

von Selina Emhardt

Ang Lees Life of Pi – Schiffbruch mit Tiger (2012) ist eine atemberaubend-bildgewaltige spirituelle Erzählung in 3D, die dem Zuschauer nichts weniger verspricht, als ihm den Glauben an Gott zurückzugeben – ein gewagtes Versprechen!

In einem kleinen Rettungsboot über den größten Ozean der Welt treiben. Über dir der ewige Sternenhimmel, das Tor zum Universum, unter dir der unerforschte Mariannengraben, die tiefste Stelle der Erde. Und neben dir – ein wilder Tiger als ständiger Begleiter! Von dieser surrealen Situation erzählt die Verfilmung des kanadischen Erfolgsromans Life of Pi von Yann Martel.

Life of Pi, das ist die fantastische Geschichte des siebzehnjährigen Piscine Molitor Patel, genannt Pi (Suraj Sharma), Sohn eines Zoodirektors. Eines Tages sieht sich die Familie aus finanziellen Gründen gezwungen, von Indien nach Kanada umzusiedeln. Doch das Schiff, das die Familie zusammen mit den Tieren in ein neues Leben bringen soll, sinkt und nur Pi, ein Affe, ein Zebra, eine Hyäne und ein bengalischer Tiger namens Richard Parker können sich in ein Rettungsboot flüchten. Hierbei entwickelt sich auch die Abhängigkeitsbeziehung der beiden denkbar unterschiedlichsten Protagonisten weiter: Der Tiger wird zur allgegenwärtigen Existenzbedrohung einerseits und zum lebensrettenden Hoffnungsträger andererseits. „Meine Angst vor ihm hält mich am Leben“, meint Pi in einem seiner zahlreichen Monologe und daraufhin: „Meine Sorge um ihn gibt meinem Leben einen Sinn.“ Nach einer abenteuerlichen Odysee stranden die beiden halbtot an der Küste von Mexiko. Richard Parker verschwindet im Urwald und Pi wird ins Krankenhaus gebracht. Dort erzählt er zwei Angestellten des japanischen Verkehrsministeriums seine Geschichte. Da sich die ungläubigen Inspektoren nicht mit der Wahrheit zufrieden geben erzählt er noch eine andere Geschichte: Zu Beginn seien demnach mehrere Menschen im Rettungsboot gewesen, die sich nach und nach töteten, bis nur noch Pi übrig blieb.

Gefangen zwischen Wirklichkeit und Fiktion

Dies ist nicht nur eine Abenteuergeschichte, sondern  auch eine religiös- philosophischen Parabel: Sie erzählt von einem modernen Wunder über Lebensrettung. Und genau wie die Wunder- und Heilsgeschichten der großen religiösen Schriften, lässt sie sich nicht direkt beweisen. Kann man aber an etwas glauben, dass man nicht beweisen kann? Das empfindliche Verhältnis von Wirklichkeit und Fiktion wird in der Frage gestellt, der Beweis als Wahrheitsgarant relativiert. Da ist Pis Vater, als Anhänger der modernen naturwissenschaftlichen Tradition, der seinen Sohn lehrt, dem Tiger als instinktgetriebenem, morallosen und natürlichen Feind zu misstrauen. Er verweist auf Naturgesetze und Verstand. Und der Vater hat recht: Der Tiger bleibt was er ist, auch wenn der Zuschauer oftmals versucht ist, das zu vergessen: Eine gefährliche, lebensbedrohliche Bestie. Wer das vergisst stirbt!

Dem gegenüber steht Pis Vertrauen auf eine höhere, gütige Macht. Ohne sie hätte Pi, gottverlassen auf hoher See, auch nicht überlebt. Und es ist genau dieser Glaube als menschliches Grundbedürfnis, der dem modernen Sinnsuchenden wie dem Schriftsteller einen Lebenssinn geben kann. Vielleicht ist also beides zum Überleben nötig – die wissenschaftlichen Erkenntnisse und der Glaube.

Das atemberaubende Spiel mit Gegensätzen

Somit predigt Life of Pi, ohne missionarisch sein zu wollen, von gegenseitiger Toleranz und schafft es, scheinbare Gegensätze zu vereinen.

Der Film lässt Grenzen verschwimmen und oft fragt man sich: Was ist die Wirklichkeit? Der Himmel, den man zu sehen glaubt entpuppt sich beispielsweise im nächsten Moment als perfektes Abbild auf der spiegelglatten Wasseroberfläche. Und gibt es so etwas wie die fluoreszierenden Quallenschwärme bei Nacht, den sich majestätisch über das Boot schwingenden kolossalen Wal wirklich oder sind sie alle nur Fieberträume und Halluzinationen eines halbtoten Jugendlichen auf hoher See? Durch Szenen wie diese wird bildgewaltige Kunst geschaffen, die uns nicht nur wegen der 3D-Technik gefangen nimmt. Mit visueller Brillanz glänzt dieser Film, der nicht umsonst unter anderem für den Oskar in der Kategorie „bestes Szenenbild“ nominiert ist. Er zeigt uns, was wir viel zu oft nicht mehr wahrnehmen: die atemberaubende Schönheit und Wandelbarkeit der Natur – und das, obwohl die Drehorte kaum variieren.

Eine filmische Herausforderung

Gerade deswegen galt „Life of Pi“ lange Zeit als nicht realisierbar. Aber in einer Zeit, in der man in der Lage ist, ganze Fantasiewelten digital zu erschaffen, was darf sich da noch unverfilmbar nennen? Das taiwanische Multitalent Ang Lee (u.a. Hulk, Brokeback Mountain) stellte sich der Herausforderung – und das sogar mit einem Laienschauspieler in der Hauptrolle. Lee ist bekannt dafür, das Neue zu suchen und sich nicht auf ein Genre festzulegen. Und tatsächlich! Es gelang ihm, den grundverschiedenen Reisebegleiter des mageren Jungen, den wilden und prächtigen Tiger, vollständig zu animieren. So musste die Filmcrew nach den Dreharbeiten erst einmal beweisen, dass der Tiger tatsächlich nicht real war. Die Natur wurde ironischerweise durch Computertechnologie plastisch und täuschend echt imitiert und wieder einmal stellt sich die Frage: Kann man dem, was man zu sehen meint vertrauen?

Life of Pi, das ist ein höchst poetisches Werk, mit vielen Botschaften: Es geht um den Wert einer Geschichte, Erzählkunst, den Sinn des Lebens, das wahre Wesen der menschlichen Natur und natürlich seiner Beziehung zu Gott. Sehenswert ist der Film dank der beeindruckenden Bilder, der exotisch-indischen Musik und der ausgefallenen Handlung allemal. Ob die vermittelten Botschaften dem modernen Sinnsuchenden allerdings den Glauben an Gott tatsächlich zurückgeben können, muss jeder für sich selbst entscheiden!

 

LIFE OF PI – SCHIFFBRUCH MIT TIGER, Vereinigte Staaten 2012 – Regie: Ang Lee. Buch: Yann Martel. Drehbuch: David Magee. Kamera: Claudio Miranda. Mit: Suraj Sharma. 127 Min.

 

Bilder: 20th Century Fox

 

Die gnadenlose Republik

von Pascal Thiel

Es ist der 4. Januar 2012. Das erste Mal in der bundesdeutschen Geschichte wird ein Bundespräsident von zwei Journalisten verhört. Ein Bundespräsident, der gezeichnet ist vom Kampf mit den Medien und seinen eigenen Verfehlungen. Ein Bundespräsident auf Abruf.

In einem Berliner Fernsehstudio setzt sich fort, was ein Jahr zuvor begann: Die lange Chronologie der Skandale in Angela Merkels zweiter Amtsperiode.

Damals hatte die Süddeutsche Zeitung ihre Mittwochsausgabe mit einem Titel eröffnet, der den damaligen Bundesverteidigungsminister Karl Theodor zu Guttenberg beschuldigte, in seiner Dissertation abgeschrieben zu haben. Was folgte, ist hinlänglich bekannt: Vorwürfe, Dementi, Rücktritt.

Einer der beiden Journalisten, die den zu dieser Zeit noch amtierenden Bundespräsidenten Christian Wulff zur Aufklärung und Beseitigung aller Vorwürfe bewegen sollten, war Ulrich Deppendorf. Im Rahmen der 10. Mediendozentur von Universität Tübingen und SWR diskutierte er im Festsaal der Neuen Aula die These einer „gnadenlosen Republik“.

Der Fall Wulff

Der Fall Christian Wulff habe zwei Dinge schonungslos offenbart. Zum einen ein katastrophales Krisenmanagement eines Präsidenten, der über seine eigene Vergangenheit gestolpert sei. Zum anderen einen Journalismus, der seine Grenzen weit überschritten habe.

Christian Wulff habe erfahren, was man den „Fahrstuhl-Effekt“ nenne. Mit den Medien – in diesem Fall mit der BILD-Zeitung – fuhr Christian Wulff hinauf, mit den Medien ging es fuhr er wieder runter. Doch auf letzterem Wege  sei die Medienmeute eindeutig zu weit gegangen.

Und das, so Deppendorf, spätestens als im Bundespräsidialamt die Anfrage einging, ob Wulff in seiner Schulzeit Mitschüler mit Schokolade und Kleingeld geschmiert habe, um Klassensprecher zu werden. Oder woher denn das zweite Bobby Car käme, das plötzlich in der Wulffschen Garage aufgefunden worden sei.

Kritischer, investigativer Journalismus ist die Grundlage von informierten Öffentlichkeiten in einer Demokratie. Doch, so der Leiter des ARD-Hauptstadtstudios, hätten manche Blätter die „Grenze seriöser Berichterstattung schnell überschritten“. Mit einem „Herdentrieb“, den es bei keiner anderen Person zuvor gegeben habe, habe man den gescheiterten Präsidenten vor sich hergetrieben.

War der Rücktritt also doch nur einer medialen Hatz geschuldet? Als logische Konsequenz einer atemlosen Jagd nach neuen Enthüllungen? Nein, sagt Deppendorf. Wulff könne und dürfe man nicht als Opfer einer medialen Kampagne darstellen. Zwar sei das mediale Verhalten hoch problematisch gewesen, dennoch habe Christian Wulff ein „für einen Präsidenten unwürdiges Verhalten an den Tag gelegt“. Hinzu kommen ein „miserables“ Krisenmanagement und die Fehleinschätzung, alte Verstrickungen ohne Konsequenzen hinter sich lassen zu können. Erst die angesetzten Ermittlungen hätten ihn dann endgültig untragbar gemacht für das Amt.

Ist in diesem Fall doch eine gewisse Gnadenlosigkeit zu erkennen, positioniert sich Deppendorf klar auf der Seite der „nachbohrenden“ Medien. Denn: Es sei ihre Pflicht und Aufgabe, Skandale, Missstände et cetera aufzudecken und aufzuklären.

Schavan, Brüderle und de Maizière

Nicht nur die Medien und der Journalismus, sind Teil der „gnadenlosen Republik“. Auch die Politik hat ihren ganz eigenen Anteil. „Überzogene Zuspitzungen“ führten zu einem immer unruhigeren Zusammenleben der beiden Parteien. Der Journalismus leide zudem unter immer extremeren Geschwindigkeiten, zur Reflexion bliebe oft nur wenig Zeit. Die Politik beschleunige dies sogar, etwa durch eigenständige Berichterstattungen in sozialen Netzwerken wie Twitter oder Facebook.

Schreitet man voran in der Chronologie der Skandale, so fällt eine grundlegende Entwicklung auf: Obwohl die Berliner Politik in diesem Jahr schon von drei Skandalen erschüttert wurde, üben sich Medien wie Politik zunehmend in Zurückhaltung. Diese sei seit Jahresbeginn mit den einzelnen Skandalen gewachsen. Während man bei Brüderles Sexismusvorwurf noch sofort nach Rücktritt schrie, erledigte das Anette Schavan im Zuge ihrer Plagiatsaffäre von selbst – und Verteidigungsminister de Maizière ist nach dem Drohnendisaster trotz gewaltiger Kommunikationsprobleme seines Ministeriums noch im Amt. Letzterer nahm sich gar drei Wochen zur Aufklärung Zeit – die Empörungsmaschinerie bleibt ruhig.

Hat man also aus dem Fall Wulff gelernt? Hat der Journalismus seine Grenzen kennengelernt? Diese Fragen seien nicht leicht zu beantworten, da es sich bei Schavan, Brüderle und de Maizière nicht um gewöhnliche „Fälle“ handele.

Weil sich der stille Typ Schavan in den Medien nie inszeniert habe, habe die Vertraute der Bundeskanzlerin, die sich 2011 noch schadenfroh über den Rücktritt von KT gefreut hatte, medial wenig zu befürchten. Und tatsächlich: Eine Medienschelte blieb aus.

Der Fall Brüderle indes hat gezeigt, wie kolossal ein medialer Putsch nach hinten losgehen kann. Wohl als Gegenschlagzeile zur Vorstellung des Wahlkampfduos Rösler/Brüderle (FDP) geplant, machte der Stern am 24. Januar diesen Jahres mit dem Vorwurf auf, Brüderle habe eine Redakteurin sexuell belästigt. Was folgte, war eine halbherzige Sexismusdebatte, Unschuldsbekundungen, Empörung über einen „verunsicherten Politiker“ und dasselbe über eine „professionell geschädigte Kollegin“.

Die Drohnenaffäre hingegen brodelt noch. Ob sie im Wahlkampfjahr weiterhin Wellen schlagen wird, wird sich in den nächsten Tagen entscheiden. Einen Rücktritt hält Ulrich Deppendorf für unwahrscheinlich, da für diesen Posten „qualifiziertes Personal“ im Regierungslager nicht zur Verfügung stehe.

Lehren?

Der Politikjournalismus habe gelernt, wie weit er gehen könne, sagt Deppendorf. Regelrechte Jagdszenen wie beim ersten großen Skandal nach dem Umzug von Bonn nach Berlin, dem Parteispendenskandal, scheinen der Vergangenheit anzugehören. Dass der Journalismus nicht nach Skandalen schreien darf, sondern sich – im Besonderen im digitalen Zeitalter – seinen Kernaufgaben widmen müsse, sieht auch Deppendorf so: Transparenz vermitteln, Hintergrundinformationen bereitstellen, die Informationsflut des Internets filtern, für eine Diskussionskultur sorgen. Und noch viel mehr. Nicht im Einklang, aber in Kooperation mit der Politik. Denn, so Deppendorf, einer „gnadenlosen Republik“ könnten nur beide Seiten zusammen entgegenarbeiten.

 

Bilder: wikimedia commons/avda  (CC-BY-SA-3.0), flickr/mp_fries (CC BY-ND 2.0)

„Coffeeshop“: Multimediales Erzählen in der ‚Literatur‘

von Alexander Karl

Das ist der Literaturbranche bestimmt nicht Latte (Macchiato): Denn Coffeeshop von Gerlis Zillgens stellt einen Bruch mit den gängigen Buchkonventionen dar. Zunächst einmal ist es kein haptisches Buch, sondern eine E-Book-Serie mit 12 Episoden (wahlweise auch als Hörbuch oder als Read & Listen Version verfügbar). Darin erlebt die Sachensucherin Sandra die unterschiedlichsten Abenteuer mit ihren drei besten Freunden, deren zentraler Treffpunkt der „Coffeeshop“ ist, das Café ihres schwulen Freundes Captain. Allein die Episodenhaftigkeit und somit die strukturelle Anlehnung an TV-Serien mag für den Literaturbetrieb ungewöhnlich sein. Dabei stellt dies aber nur Basis-Version der Erzählung dar. Denn die „Coffeeshop“-App sorgt für ein kunterbuntes Story-Erlebnis.

Multimediale App

Multimedial wird Coffeeshop vor allem durch die App, die es parallel zu den anderen Produkten gibt: Jede der 12 Episoden in der App besteht nicht nur aus geschriebener Handlung, sondern reichert sie multimedial an. Kurze Filme greifen Handlungselemente auf, führen sie aus und kommentieren sie. Comicsequenzen zeigen die Gedanken der Protagonistin Sandra. Zudem werden Gespräche mit ihrem Vater auf rein auditiver Ebene eingebunden. Hinzu kommen weitere Elemente, um weiter in das „Coffeeshop“-Universum einzutauchen: Die Tagesgerichte des Coffeeshops lassen sich mittels der abrufbaren Rezepte nachkochen und Steckbriefe fassen die Eigenheiten der Protagonisten zusammen. Eine weitere Perspektive auf die Handlung wird durch die jeweils zur Episode passenden Kolumnen von Captain geboten. Hinzu kommen ein Spiel sowie Musik- und Büchertipps der Protagonistin, wobei letztere ins Web ausgelagert sind. Zusätzlich kann man sich die Episoden auch vorlesen lassen.

All das, was sonst transmedial ist

Mit dieser App geht Coffeeshop weit über das hinaus, was der Literaturliebhaber alter Couleur kennt: Statt ‚nur‘ gedruckte Worte auf Papier zu liefern, schafft Coffeeshop ein multimediales Erlebnis, das weit über die eigentliche Buchlektüre hinausgeht und innerhalb einer App all das versammelt, was in TV-Serien sonst gerne transmedial ausgelagert wird. Etwa bei der Erfolgsserie Breaking Bad, die online mit den Blogs der Figuren Marie und Hank sowie Graphic Novel Games und einigen Minisoden aufwartet – wie Jason Mittell in seinem online vorab publizierten Buch Complex TV : The Poetics of Contemporary Television Storytelling beschreibt, dienen die transmedialen Erzählungen von Breaking Bad vor allem dazu, den (Neben-)Figuren zusätzliche Tiefe zu verleihen. Ähnliches lässt sich auch bei Coffeeshop mit der Kolumne von Captain feststellen, da die eigentlichen Episoden aus Sandras Ich-Perspektive erzählt werden. Und auch die kurzen Videos ermöglichen Kommentare der weiteren Hauptdarsteller und Nebenfiguren, etwa Sandras Eltern.

Doch wie neu ist dieses Vorgehen? „Coffeeshop ist ein multimediales Projekt, bei dem erstmals ein Verlag und eine Filmproduktionsfirma zusammenarbeiten und ihre Stärken in einer neuen Form des Storytellings verbinden“, heißt es in einer Presseinformation.

Mehr noch: Coffeeshop stellt ein Beispiel für Paradigmenwechsel der Buchwelt dar, die zusehends mit hochwertig produzierten (und komplexen) TV-Serien konkurrieren muss, die als Romane der Neuzeit gefeiert werden. Daher scheint es nur logisch, die Stärken der unterschiedlichen Medien zu vereinen und dadurch ein multimediales Gesamterlebnis zu schaffen.

 

„Coffeeshop“ von Gerlis Zillgens von Bastei Lübbe, hier die Übersicht der Produkte.

 

Cover: Copyright Bastei Lübbe