Die alltägliche Evolution: The Tree of Life

von Selina Juliana Sauskojus

Ein außergewöhnlicher Regisseur

Terrence Malicks bisherige Karriere verlief alles andere als gewöhnlich. 1973 gelang ihm sein furioses Spielfilmdebüt mit Badlands. Fünf Jahre später knüpfte er daran an mit Glut des Südens. Mit einer noch sehr konventionellen Erzählweise erarbeitete er sich einen hohen Rang in der Riege der New Hollywood-Regisseure.

Trotz seines Erfolges gönnte sich Malick zunächst aber eine Kreativpause – und zwar zwanzig Jahre lang. 1998 kam Der schmale Grat in die Kinos. In diesem Film bricht er erstmals die filmischen Konventionen und entwickelt seinen eigenen, typischen Stil. Sieben Jahre später folgte The New World, eine Verfilmung der Pocahontas-Geschichte. Man könnte diesen Film als eine Zäsur in seinem Schaffen sehen. Wie in Der schmale Grat bediente sich Malick wieder seiner ganz eigenen Filmsprache. Die Kritik war not amused. Wo Malick 1998 etwas neues, spannendes geschaffen hatte, wurden nun Kritiker laut, die seinen Stil als überkandidelt und idealistisch deklarierten.

Das Hauptmotiv des Filmemachers ist stets die makellose Natur versus der Mensch, der sich durch seine destruktive Art in der Welt verliert.  Um dieses Verhältnis darzustellen setzt Malick vor allem auf eine beinahe überhöhende, prächtige Darstellung der Natur. Zudem wurden seine Filme von Mal zu Mal ärmer an Dialog. Stattdessen arbeitet Malick mit dem Voice-Over – Gedankenfetzen, Anrufe an höhere Mächte, Beobachtungen über den Menschen und die Welt. Mit Dialogen geht der Filmemacher, der auch seine Drehbücher selbst schreibt, sehr sparsam um. Der Vorwurf Malick verliere sich mehr und mehr in einer eigenen spirituellen Welt, sahen einige mit The Tree of Life erhärtet.

 

The way of grace and the way of nature

Um The Tree of Life zu verstehen, ist es wichtig, die Sprache Malicks zu begreifen. Der Regisseur selbst ist gläubiger Katholik. Das ist wahrscheinlich die Ursache dafür, dass ihm in seinen Filmen eine übertriebene Religiosität angelastet wird. Und ja, auch in The Tree of Life spielt Gott irgendwie eine Rolle, geht es um nicht weniger als die Schöpfung der Welt und eine typische Familie aus den USA der 60er Jahre, die jeden Sonntag die Messe besucht. Aber das Motiv so einzugrenzen tut dem Regisseur und dem Film mehr als Unrecht.

The Tree of Life behandelt drei Erzählstränge. Die Entstehung der Erde und des Lebens, die Geschichte der Familie O’Brien und das Erwachsenenalter des ältesten Sohnes Jack (Sean Penn). Einer Chronologie folgt der Film nicht. In einem italienischen Kino wurden versehentlich die Akte in unterschiedlicher Reihenfolge zusammengefügt. Es fiel dem Publikum nicht auf – so unkonventionell und experiementell ist der Schnitt in Malicks Filmen.

Mit dem beeindruckenden Einsatz traditioneller Filmtechnik und der Verwendung perfekter Naturaufnahmen inszenierte Malick die Entstehung der Erde. Begleitet von klassischer Musik und dem obligatorischen Voice-Over verschafft Malick dem Zuschauer eine spirituelle Erfahrung, wie man sie im Kino bisher selten erleben durfte. Spirituell ist in diesem Fall nicht negativ konnotiert. Vielmehr wird der Kinogänger in Sprachlosigkeit versetzt ob der Epik der Szene. Sich diesem komplexen Vorgang anzunehmen schaffte in dieser Perfektion noch kein Regisseur.

Besonders bemerkenswert ist eine Szene, die in der Saurierzeit spielt. Ein Pflanzenfresser liegt halblebig an einem Flussbett, ein Aasfresser nähert sich ihm. Doch anstatt mit seinem Opfer kurzen Prozess zu machen, verschont er es. Was Malick an dieser Stelle zeigen möchte, ist ein aktiver Akt der Gnade – Ursprünglich ein Gefühl, das, vor allem im religiösen Kontext, nur dem Menschen zugeschrieben wird. Über diese Szene mockierte sich die Kritik ganz besonders. Die Dinosaurier seien billig animiert, einen Sinn ergebe das ganze sowieso auch nicht.

Im Zusammenhang mit der Familiengeschichte hingegen, nimmt diese Szene eine gewaltige Bedeutungsdimension an. Die Kindheit dreier Brüder, die hin- und hergerissen werden von den unterschiedlichen Persönlichkeiten ihrer Eltern, steht im Fokus des Erzählens. „There are two ways of life. The way of nature and the way of grace. You have to choose which one you’ll follow“, sagt Mrs. O’Brien aus dem Off. Sie selbst verkörpert den Weg der Gnade, des Spirituellen. Als gläubige Christin erzieht sie ihre Kinder liebevoll.

Ganz im Gegensatz zu Mr. O’Brien: „It takes fierce to get ahead in this world.“ Fressen oder gefressen werden, nach diesem Mantra möchte er seine Kinder großziehen. Vor allem der älteste Sohn Jack leidet unter diesen konträren Ansätzen. Komplizierter wird das ganze durch den mittleren Sohn R.L.. Sanft wie seine Mutter und mit den musischen Begabungen seines Vaters ausgestattet scheint er der Inbegriff des Guten zu sein. Jack versucht immer wieder in Rivalität mit seinem jüngeren Bruder zu treten, sich seinen Weg an die Spitze zu erkämpfen. Mit neunzehn Jahren stirbt R.L.. Wie er stirbt erfährt der Zuschauer nicht. Jahre später ist Jack noch immer nicht über den Tod des Bruders hinweg. Verloren in Großstadtschluchten sucht er nach Absolution für sein Fehlverhalten und dem Sinn des Lebens.

Prinzipiell dreht sich alles um den Gegensatz zwischen evolutionärem Verhalten einerseits und einem spirituellen Weg auf der anderen Seite. Dass dieser spirituelle, gnadenvolle Weg nicht in einem religiösen Kontext stehen muss, zeigt die Dinosaurier-Szene. Auf menschlicher Ebene jedoch scheinen Liebe und Gnade stark mit dem Glauben gekoppelt zu sein. Dennoch muss berücksichtigt werden, dass auch Mr. O’Brien, der den egoistischen Weg bevorzugt, ein tiefreligiöser Mensch ist, der am Sonntag sogar die Kirchenorgel spielt. Malick zeigt, wie qualvoll und unnatürlich das Aufwachsen in einem solchen Umfeld sein kann, bezieht jedoch klar Position welcher Weg der „bessere“ Weg ist.

Im zweiten Teil dieses Artikels möchte ich darauf eingehen, wie sich der Regisseur positioniert und mit welchen filmischen und dramaturgischen Mitteln er seine Aussagen untermauert.

 

Fotos: Concorde Film

Schluss mit Spielen – Höhenflug und Absturz der Social Games

Von Helen Baur

Zynga war jahrelang der bekannteste Entwickler sogenannter „Social Games“ für Facebook und Co. Nun wurde ein Drittel der Mitarbeiter entlassen – der Grund: Fokussierung auf einen neuen Geschäftszweig und zwar Spiele für Smartphones. Das bedeutet allerdings auch, dass das bisherige Geschäft nicht mehr so läuft, wie es einst lief, nämlich lukrativ und erfolgreich. Daher ging Zynga 2011 an die Börse, damals lag der Firmenwert bei ca. 8,9 Milliarden Dollar. Mit der Aktienplatzierung nahm das Unternehmen eine Milliarde Dollar ein. Diese glorreichen Zeiten sind nicht einmal zwei Jahre später vorbei: Aktienpapiere verlieren drastisch an Wert, Mitarbeiter müssen entlassen werden, um Geld zu sparen. Das heißt wohl, dass sich Online-Spieler  von FarmVille, Mafia Wars und CityVille abwenden. Warum haben die Spiele ihren ursprünglichen Reiz verloren?

Gemeinsam zum Ziel

Social Games brachten eine neue Form des Spielens auf den Markt, die sehr reizvoll war, dank dem Prinzip der Vernetzung. Der Schlüssel zum Erfolg in den Spielen auf Facebook oder Google+ sind Freunde – viele Freunde. Wer versucht, ein Social Game alleine zu spielen, wird schnell scheitern und  Stagnation schon in den Levels zu Beginn erleben. Ziel ist es, sich mit möglichst vielen Freunden zu verbinden, gemeinsam zu spielen, zusammen die nächste Quest zu erfüllen, den anderen zu helfen.

Auch das in der Natur des Menschen liegende Vergleichen mit dem Umfeld wird nicht vernachlässigt: Es wird nicht nur mit-, sondern auch gegeneinander gespielt. Freundeskreisinterne, aber auch weltweite Highscore-Listen, spornen die Spieler zu noch besseren Leistungen an. Wer dabei noch reales Geld ausgibt, kommt schneller voran. Das ist die größte Einnahmequelle von Spielkonzernen wie Zynga. Oft werden Aktionen in den Social Games auf dem Profil des Spielers veröffentlicht, womit er,  und das Spiel, Aufmerksamkeit erhaschen. Diese Aufmerksamkeit ist essentiell, denn nur so kann ein Netzwerk um das Social Game entstehen, nur so kann es sich weiter verbreiten.

 

Anstecken erwünscht!

Die ideale Folge aus dem Veröffentlichen und dem Anzeigen des Fortschritts auf dem Spielerprofil, ist die virale und epidemieähnliche Ausbreitung des Spieles. Hat sich ein Spiel etabliert, entstehen meistens weiterführende Fanpages und Communities. Auf diesen können die neusten Tipps und Tricks ausgetauscht, gemeinsam auf die nächste Aktion des Betreibers hingefiebert oder lediglich Kontakte und potentielle neue Social-Network-Freunde gefunden werden, die dann zu wichtigen und aktiven Helfern im Spiel werden.

Durch Specials hat Zynga versucht, seine Spieler bei Laune zu halten. Beispielsweise gibt es in Farmville jede Woche ein neues „Überthema“, zu dem es neue und einmalige Produkte zu erwerben gibt. So können in der Zeit vor Weihnachten Christbäume und ein Engelkostüm gekauft werden, Mitte Februar wimmelt es nur so von Herzen auf der Farm und zu Halloween kann der gesamte Hof in ein Horrorkabinett verwandelt werden.

 

Fehlender Blick in die Zukunft?

Offensichtlich haben sich all diese Bemühungen, die Spieler bei Laune und am Spiel zu halten, nur kurzfristig rentiert. Hätte sich Zynga  anderes einfallen lassen müssen, um ein Milliardenverlust zu verhindern? Auf der einen Seite halten Sonderaktionen, einzigartige Produkte und die meist ansprechende Grafik lassen den Spieler am Ball und lassen ihn in eine Art Abhängigkeit, das Spiel wird in den Tagesablauf des Menschen integriert und etabliert sich zum wichtigen Element. Andererseits hat vor allem Zynga einen großen Fehler begangen und von Beginn an zu wenig in die Zukunft geschaut. Es scheint fast so, als hätten Neuerungen wie Smartphones und Tablets vor den verschlossenen Augen des Konzerns stattgefunden.

Eines der führenden internationalen Unternehmen in der mobilen und sozialen Online-Spiele-Welt ist GREE. Anders als Zynga hat sich GREE schon seit langer Zeit auf den mobilen Markt von Spielen konzentriert. Zur Zukunft von PCs und PC-Spielen äußerte sich Ende 2012 der CEO von GREE, Yoshikazu Tanaka: „Der traditionelle PC wird verschwinden und Smartphone und PC werden verschmelzen, um eine ganz neue Plattform zu werden.“ Das bietet wohl auch eine Erklärung für den Rückgang der Social Games – Spieler: Laptop und PC werden, vor allem in der Zukunft, immer weniger aus kommunikativen oder sozialen Gründen gestartet werden, sondern lediglich, um zu arbeiten. Das virtuelle soziale Leben auf Facebook und Co. lässt sich schon jetzt problemlos auf das Smartphone verschieben – mit Ausnahme der Social Games wie Farmville. Hier eröffnet sich der simple Grund für die schwindende Attraktivität dieser Spiele: Sie passen einfach nicht in das mobile Leben eines Smartphone- und Tabletusers. Ob  wohl eine Farmville-App die rettende Idee für Zynga ist? Die Farmer wären sicherlich begeistert.

 

Foto: flickr.com/CAS Library (CC BY-NC 2.0)

Copyright: Zynga

(CC BY-NC 2.0)

Wie wir in Zukunft lernen werden – Leibniz-Institut entwickelt neue Techniken

von Sandra Fuhrmann

Eine ganze Bioklasse sitzt vertieft über ihren iPads. Dort kommt die Niere hin, da die Lunge. Eine App ermöglicht es, die Organe per Drag and Drop an den richtigen Platz im Körper zu ziehen. Eine Szene aus Hollywoods neuestem Science Fiction Blockbuster? Nein! Schon heute ist diese Szene Realität!

EyeVisit ist der Name des Projekts, mit dem sich Forscher des Tübinger Leibniz-Instituts für Wissensmedien (IWM) aktuell beschäftigen. „Unser Ziel ist es, Informationen in Zukunft intuitiver, personalisierter und vor allem auch multimedialer zu vermitteln“, sagt Professor Peter Gerjets, einer der beiden Leiter des Gesamtprojekts. Derzeit bezieht sich die Forschung vor allem auf die Wissensvermittlung im Museum. Peter Gerjets lässt aber durchblicken, dass das Ergebnis weit über das Museum hinausreichen wird. Die Revolution hat bereits begonnen – und sie wird alle nur erdenklichen Bereiche der Wissensvermittlung betreffen.

Auf der Schwelle zur Zukunft

Tritt man über die Schwelle eines Kellerraums des IWM, fällt einem sofort das Herzstück der momentanen Forschung ins Auge. Dort steht der Multitouch-Tisch, abgeschottet von Sonnenlicht, denn Infrarotlich würde ihn funktionsuntüchtig machen. Wie ein überdimensionales iPad oder Smartphone wirkt die Oberfläche. Darauf verteil scheinen Kunstwerke zu liegen, die aus dem Herzog Anton Ulrich Museum in Braunschweig stammen. Das Museum ist der aktuelle Forschungspartner des IWM. Mit den Fingern können die Bilder verschoben, vergrößert und auch gedreht werden. Auf der Rückseite finden sich dann Texte oder Videos mit Hintergrundinformationen zum Gemälde. Smartphones, Tablets oder andere digitale Geräte können außerdem durch Auflegen auf die Oberfläche mit dem Tisch interagieren. So können zum Beispiel interessant erscheinende Kunstwerke mit den mobilen Geräten abfotografiert werden und der Tisch liefert dann später – vielleicht bei einer Pause im Museumskaffe – die Informationen dazu. Fundstücke, nennt sich diese erste Idee, die von der interdisziplinären Forschungsgruppe, bestehend aus Psychologen, Informatikern und Museumspädagogen, entwickelt wurde.

Zunehmende Digitalisierung führt auch zu mehr Personalisierung, so scheint es.  So wird momentan an der zweiten Idee innerhalb des Projekts gearbeitet, die noch vor der endgültigen Realisierung steht. Im Tisch sollen dabei auf verschiedene Benutzergruppen abgestimmte Themenrouten vorgespeichert werden, die vom Besucher je nach belieben vor dem Start des Rundgangs abgerufen werden können. Jeder bekommt nur das, was ihn interessiert.

Aber hoppla! Kennen wir das nicht irgendwoher? Dass Inhalte im digitalen Zeitalter personalisiert werden ist nach Google, Amazon und Co. nichts Neues mehr. Hier jedoch wird Personalisierung noch einmal  auf sehr viele weitere und vor allem zentrale Bereiche des Lebens übertragen.

Science Fiction im Klassenzimmer

„Es geht viel darum, was die Medien mit den Besuchern der Ausstellung machen. Was kann bei der Rezeption der Ausstellungsinhalte helfen? Wie können Besucher angeregt werden, sich auszutauschen. Was wollen die Besucher überhaupt sehen? Macht es einen Unterschied, ob etwas medial oder mithilfe eines Objekts vermittelt wird?“

All das sind laut Gerjets zentrale Fragen, mit denen sich die Forschungsgruppe um EyeVisit beschäftigt.  Fragen, deren Beantwortung letztendlich nicht allein im Museum zu einer Revolutionierung der Wissensvermittlung führen könnte.

Gerjets sagt voraus, dass schon in zehn bis 20 Jahren Tablets mit neuartigen Lern-Apps die Klassenzimmer dieser Welt erobert haben könnten. Tablets sind günstiger als gewöhnliche Laptops oder Computer und gewähren dem Lehrer durch ihre flache Form mehr Einsicht. Schon jetzt werden sie in einzelnen Schulklassen ausprobiert und vom IWM entwickelte Apps wurden auch bereits an hochbegabten Schülern getestet.

Wissen ist Silber – Wissensvermittlung ist Gold

Doch warum sich  auf Schulen beschränken? Wissensvermittlung spielt überall in unserem Alltag eine Rolle. Wo wir gehen und stehen versuchen alle Arten von Medien Informationen an uns heranzutragen, uns mit Wissen, Eindrücken und natürlich nicht zuletzt mit Bedürfnissen zu füttern. Auf Messen, in Firmen, in der Produktkommunikation – Informationen sind wertvoll, noch wertvoller jedoch kann ihre erfolgreiche Vermittlung sein.

Den Aufbau des Projekts erklärt Gerjets so: „Innerhalb des Forschungsbereichs gibt es zwei große Gruppen. Einer der Forschungbereiche nennt sich Präsentationsmedien. Hier geht es vor allem darum neue Formen der Informationspräsentation zu entwickeln. Die Andere Gruppe beschäftigt sich mit Wissensaustausch/Wissenskommunikation. Dabei geht es zum Beispiel darum  Face-to-Face-Situationen im Web zu ersetzen oder Meinungssrukturen in Gruppen sichtbar zu machen.“

Hongkong liegt gleich hinter dieser Wand

So ist auch bereits ein neues technologisches Wunderwerk in Arbeit. Dieses Mal nicht ein Tisch, sondern eine Wand. Wem schon Skype bereits ein wenig futuristisch anzumuten scheint, der kann hier nur noch staunen. Die Wand scheint einer Glasscheibe zu ähneln. Nur, dass der Gesprächspartner auf der anderen Seite sich nicht etwa im Vorgarten befinden muss, sondern vielleicht in Hongkong, New York oder Pune. Im Gegensatz zu Skype ist es hier außerdem möglich, Schaubilder oder Ähnliches auf der Wand aufzumalen und sie zu verschieben. Der Gesprächspartner sieht diese nicht nur, sondern kann sie auch verändern. Die Bilder werden auch nicht spiegelverkehrt angezeigt, sondern zum Beispiel Schrift kann auch auf der anderen Seite ganz normal gelesen werden. Internationale Firmenmeetings könnten so ein ganz neues Flair bekommen.

Entwicklungen dieser Art werfen sicher zwiespältige Gefühle auf. Muffige Biologiebücher in den Klassenzimmern mögen in vielleicht nicht all zu ferner Zukunft Geschichte sein – die, die ihrem Muff noch nachtrauern werden, wird es auf jeden Fall geben. Veränderungen haben durch das Internet und die digitalen Medien jedoch schon jetzt überall in unserem Alltag stattgefunden. Dass diese Entwicklung damit noch nicht am Ende ist, das ist wohl allen klar – wohin sie weiterhin führen wird, vielleicht eher weniger.

 

Bilder: Copyright Jörg Edelmann

Zombie goes to Hollywood

von Selina Juliana Sauskojus

Heute startet der Zombie-Blockbuster World War Z in den deutschen Kinos. Regie-Chamäleon Marc Forster schickt Brad Pitt in einen Weltkrieg gegen eine Zombie-Pandemie, die bereits einen Großteil der Menschheit dahingerafft hat. Das klingt nach einer Kombi, bei der eigentlich nichts schief gehen kann…

 

Globaler Krieg gegen die Untoten

Die menschliche Zivilisation steht vor dem Kollaps. Eine Zombie-Pandemie rafft die Menschheit dahin. Kein Kontinent bleibt verschont. Der pensionierte UN-Ermittlungsbeamte Gerry Lane (Brad Pitt) hat sich bereits vor einiger Zeit aus den Krisengebieten dieser Welt zurückgezogen. Statt Kriegsverbrechen in Tschetschenien aufzuklären, bereitet er nun allmorgendlich seiner Frau und den beiden Töchtern die Pfannkuchen zu. Bis zu dem Tag an dem die Zombie-Welle Philadelphia erwischt und sich der Familienvater unmenschlich schnellen Untoten entgegenstellen muss, um seine Familie zu schützen. Dank alten Arbeitskontakten werden die vier aus der city of brotherly love evakuiert und auf einen amerikanischen Flugzeugträger gebracht – der vermeintlich letzte sichere Ort auf Erden. Doch für Gerry währt der Frieden nicht lange. Anstatt den Frieden mit seiner Familie genießen zu können, wird er beauftragt seine Arbeit als Ermittler wieder aufzunehmen um herauszufinden wo die Pandemie ihren Ursprung hat und, wenn möglich, eine Antwort auf die Seuche zu finden. Zum Schutz seiner Familie macht er sich auf zu einer Reise um die Welt, um den World War Z zu stoppen.

 

Ein Spannungsböglein für den Anfang

Wer den Film wegen seiner Action-Elemente anschauen will wird nicht enttäuscht – zumindest nicht in den ersten dreißig Minuten. World War Z startet furios. Wie der Protagonist wird auch der Zuschauer direkt in das apokalyptische Szenario geworfen. Die Ausbreitung der Pandemie in Philadelphia, gedreht wurde übrigens in Glasgow,  ist ein wahrer Reigen an stark choreographierten Massenszenen, in denen hyperschnelle Zombies den Lebenden den Garaus machen. Weder Zuschauer noch Figuren können mehr unterscheiden, wer bereits zu den Infizierten gehört oder wer nur in Panik versucht sich zu retten. Es fehlt die komplette Übersicht und genau dies erzeugt die Spannung, die eine derartige Szene braucht.

Die Entscheidung der Filmemacher weitestgehend auf CGI zu verzichten, ist durchaus lobenswert und zahlt sich aus. Mehr als 150 Fahrzeuge wurden allein beim Dreh in Glasgow zerstört – zum Wohle des Realismus. Wer sich bis dahin nicht vor Spannung in den Kinositz krallt wird es ab diesem Zeitpunkt vermutlich auch nicht mehr tun. Denn nach der Rettungsaktion der Familie Lane geht der Spannungsbogen rapide bergab. Plötzlich verkommt World War Z zum üblichen Hollywood-Produkt, bei dem eine schmalzige Familiengeschichte, harte Soldaten (auch in weiblicher Ausführung) und höher-schneller-weiter-Bilder Hand in Hand die vorhergegangenen starken dreißig Minuten killen. Wer genau diese stereotypen Hollywood-Elemente erwartet und schätzt wird dann auch auf seine Kosten kommen.

 

Where have all the Zombies gone?

Wer allerdings dem Genre Zombiefilm zugeneigt ist, wird eine herbe Enttäuschung erleben. Dass Zombies, oder Infizierte, sich schnell bewegen können, ist spätestens seit 28 Days Later (2002) Konsens unter Freunden der Untoten-Films. Dass sie aber plötzlich in Puma-Manier ihre Opfer anspringen und Autoscheiben mit dem Kopf einschlagen scheint doch sehr befremdlich. Eine weitere Fähigkeit des neuen Zombies ist es, sich in seiner Raserei im Schwarm zu einer Pyramide zu formen, um scheinbar unüberwindbare Mauern zu erstürmen. Das sieht auf der Leinwand nicht nur wahnsinnig gut aus, es ist tatsächlich auch ein Element, bei dem man sich sagt: das scheint im Zuge der Zombie-Evolution irgendwie Sinn zu machen. In dieser Verfilmung steht der Schwarm-Charakter der Zombies im Vordergrund. Neu ist das nicht, man denke allein an einen der Klassiker des Genres: Dawn of the Dead von George A. Romero (1978). Was jedoch den Zombiehorror bisher ausgezeichnet hat, ist die gesellschaftskritische Aussage. Bei Romero ging es um das Aufkommen der amerikanischen Konsumgesellschaft. 2002 erfand Danny Boyle den Zombie neu. Mit seinem Film 28 Days Later verbildlichte er die, dem Menschen innewohnende, rohe Gewalt und entwarf ein postapokalyptisches Szenario, das realistischer kaum hätte sein können. Obwohl jedes gesellschaftskritische Element zu fehlen scheint bei World War Z, setzt Regisseur Marc Forster die Infizierten dennoch nicht schlecht.

 

Das ewige Leid mit dem 3D

Wer im Übrigen die Gelegenheit hat sich den Film im traditionellen 2D anzuschauen, tut gut daran diese Möglichkeit zu nutzen. „Zu manchen Bewegungen passt ein hektischer Stil der Kamera und eine rasche Schnittfolge“, so Produzent Ian Bryce. Das ist auch in der Tat sehr gut umgesetzt worden. Allerdings ist die Kombination aus schnellen Kamerabewegungen, flottem Schnitt, ziemlich vielen Close-Ups, insbesondere zu Beginn des Films, und 3D dann doch etwas zu viel des Guten. Das Auge ist einfach maßlos überfordert mit der Flut der Eindrücke. Das ist der Erzeugung von Chaos vielleicht zuträglich, dem Filmgenuss allerdings eher nicht. Funktionieren tut das Dreidimensionale immerhin beim Ausbruch der Pandemie in Philadelphia und bei der Erstürmung Jerusalems durch Zombies. Durch das 3D erhalten die Massenszenen in den Straßenschluchten mehr Tiefe, die auf die Kamera zustürmenden Zombies wirken bedrohlicher. Brauchen tut man es dadurch aber noch lange nicht.

 

Fazit

Der Veröffentlichung von World War Z ging eine Medienkampagne sondergleichen voraus. Dem Zuschauer wurden viele Versprechungen gemacht. Das eine Versprechen hält der Film: World War Z ist ein Action-Reißer, der durchaus Spaß machen kann, wenn man nicht zu viel erwartet. Brad Pitt spielt so stark wie man die flache Figur eben spielen kann, auch sonst sind filmtechnische Schnitzer so gut wie nicht vorhanden. Die Hollywoodisierung des Zombies macht allerdings eher traurig als beschwingt. Den Standards des amerikanischen Kinos angepasst, verkommt der Untote von einer gesellschaftlichen Metapher zum bloßen Horrorprodukt. Früher oder später fällt eben jeder gute Stoff der Maschinerie Hollywood zum Opfer um brav von den Massen konsumiert werden zu können. Womöglich sagt diese Tatsache an sich unfreiwillig mehr aus, als es der Film selbst jemals könnte.

Copyright: Paramount Pictures

Telekom vs. Netzneutralität

von Philipp Hofmann

Nur das Zahlen, was man nutzt? Hört sich fair an! Dieses Ziel scheint die Telekom mit einem neuen Geschäftsmodell für ihre Internet-Flatrates zu verfolgen. Wer mehr zahlt, dem wird ein schnellerer und größerer Datenverkehr ermöglicht. Moment mal! Entsteht hier etwa ein Zwei-Klassen-Internet?! Heftige Kritik ist im Anmarsch!

Netzneutralität und die damit verbundene Gleichheit jedes Nutzers war bisher im World Wide Web eine Art ungeschriebenes Gesetz. Durch neue Pläne der Telekom ihre Internet-Flatrate Tarife auf einen Datenvolumen-Tarif umzustellen, wie es bei vielen Mobilfunkverträgen schon oft üblich ist, scheint diese jedoch gefährdet. Was aber sind die Beweggründe der Telekom für das neue Geschäftsmodell und was spricht gegen eine Abschaffung der Netzneutralität?

Neutrales Netz und Drosselung, wozu?

Was bedeutet der Begriff Netzneutralität für Internetnutzer? Die Neutralität soll sicherstellen, dass jegliche Daten, die über das Internet übermittelt werden gleichberechtigt und keiner Priorisierung ausgesetzt sind. Abgesehen von einzelnen Anbietern, die die Infrastruktur für ihre Dienste verwalten (beispielsweise die Internet-Kommunikationsdienste Skype und facebook), erhält niemand genauere Informationen darüber, welchen Inhalt die Daten besitzen, die zwischen dem Empfänger und Sender im Netz ausgetauscht werden.  Unter dem aktuellen Verständnis der Netzneutralität bestehen für alle Unternehmen, die das Internet für ihre wirtschaftlichen Ziele nutzen, gleiche Wettbewerbsbedingungen und Rechte. Zudem ermöglicht die Netzneutralität im Netz die Meinungsfreiheit und stellt vor allem für die globalisierte Wirtschaft sowie die Entwicklung von Innovationen einen wichtigen Faktor dar. Alle Dateien werden gleich behandelt. Es gibt keine wichtigen und unwichtigen Dateien.

Das neue Geschäftsmodell der Telekom sieht vor, die bestehenden Flatrate-Modelle mit einer Geschwindigkeitsminderung zu versehen, sobald ein bestimmtes monatliches Datenvolumen überschritten wird. Derzeit liegt die Grenze bei 75 GB. Ist diese Grenze erreicht, so hat der Kunde die Möglichkeit durch eine Zuzahlung sein Datenvolumen zu erhöhen, um weiter mit hoher Geschwindigkeit surfen zu können.  Die Telekom sieht die geplante Drosselung nicht als Eingriff in die Netzneutralität. Eines ihrer Hauptargumente zur Durchsetzung, aus einem Antwortbrief an Philipp Rösler, dem Bundesminister für Wirtschaft und Technologie, bezieht sich auf die scheinbare Minderheit der Vielnutzer, die im Durchschnitt 10-20 mal größere Datenmengen als der Durchschnittsnutzer (15-20 GB/Monat) benötigen würden. Demnach soll die Drosselung nur einen Bruchteil von Nutzern betreffen. Es steht jedoch fest: Durch eine vielfältige Nutzung des Internets als Multimedia Plattform ist die Grenze von 20 GB schnell erreicht. Gerade Online-Media- und Videotheken benötigen große Datenmengen. Für Menschen, die nur surfen, ab und an eine Mail schreiben und vielleicht noch Musik herunterladen (max. 150 MB pro Album) scheint die Grenze von 20 GB durchaus akzeptabel. Beim Streaming von zwei, jeweils zweistündigen, Filmen in Full-HD-Qualität im Monat stände jedoch schon eine Drosselung an, da je Film mindestens 10 GB Daten heruntergeladen werden müssen.

Telekoms Kundenangebote gegen die Netzneutralität

Technische Entwicklungen führen seit Jahren in eine ganz andere Richtung der Internet-Nutzung, was aufkommende Streaming-Dienste wie Lovefilm und Watchever sowie der zunehmende Vertrieb von sonstigen digitalen  Gütern wie Musik (iTunes) und Computerspielen (Steam) bestätigen. Das monatliche Datenvolumen wird sich, in Zukunft unter Beibehalt der Entwicklungsgeschwindigkeit solcher Dienste, vom Nutzer noch schneller verbrauchen lassen können. Viele Meinungen im Netz sehen zu hohe bevorstehende Investitionen in den Netzausbau als bisher unbestätigten weiteren Grund für das neue Geschäftsmodell. Da EU-Subventionen für den Ausbau aufgrund der Finanzkrise gestrichen wurden und die Netzbetreiber diese Kosten nun selber tragen müssen sind diese auf der Suche nach neuen Finanzierungsquellen.

Wie bereits auch seit einiger Zeit mit dem Musikstreaming-Dienst Spotify vereinbart, bietet die Telekom Internetdienstleistern an, mit Kooperationsmodellen, auch managed services genannt, sich aus der Drosselung freizukaufen. Dies hat jedoch auch zur Folge, dass ein System zur Datenpaketkontrolle (Deep-Packet-Inspection) genutzt werden muss, um herauszufinden, welches Paket von welchem Empfänger (Kunde) und Sender (Anbieter) stammt. Dies führt zu einer Gefährdung der Netzneutralität: Das bedeutet Ungleichheit im Wettbewerb der Anbieter untereinander sowie die Benachteiligung von kleinen Anbietern durch die Priorisierung aller Daten. Die Telekom behält es sich somit vor: Daten durchzulassen oder zu verlangsamen. Theoretisch ist auch die Zensur unerwünschter Inhalte nach der Durchsetzung der Drosselung umsetzbar. Stets in Abhängigkeit des gewählten Zahlungsmodells des Kunden. Der eigene kostenpflichtige TV-Dienst der Telekom Entertain, der über die Internetleitung bezogen werden kann, nimmt keinen Einfluss auf das monatlich festgesetzte Datenvolumen wie alle Kooperationsmodelle.

Bundesregierung, Verbraucherschutz und Online-Petition äußern Kritik

Philipp Rösler (FDP) zeigte sich in einem Brief an den Telekom-Chef René Obermann besorgt über die angekündigten Änderungen in den Tarifstrukturen für die Internetnutzung und wies darauf hin, dass die Bundesregierung und die Wettbewerbsbehörden diese Entwicklung unter dem Aspekt der Netzneutralität „sehr sorgfältig verfolgen“ werden. Auch der Verbraucherschutz Nordrhein-Westfalen mahnte die Telekom: Er ist der Meinung, dass eine „satte Reduzierung der Surfgeschwindigkeit um bis zu 99,2 Prozent“ eine zeitgemäße Internetnutzung nicht möglich macht. Malte Götz, ein Abiturient, eröffnete vor kurzem eine Online-Petition gegen die Drosselungspläne der Telekom. Mittlerweile haben 175.000 Menschen diese unterzeichnet, Tendenz steigend. Um mehr mediale Aufmerksamkeit zu erreichen, rief die Seite netzpolitik.org die Website hilf-telekom.de ins Leben, deren Zweck es ist, ironische Werbeplakate für das geplante Geschäftsmodell der Telekom zu erstellen und daraufhin per Social Media oder auf anderem Wege zu verbreiten. Am 11. Juni reagierte Telekom auf die Kritik des neuen Geschäftsmodell: Die Geschwindigkeitsbremse wurde von 384 kBit/s  auf 2 MBit/s  und die Grenze des monatlichen Datenvolumen von 20 auf 75 GB in den Standardverträgen erhöht. Die Regelung soll ab 2016 in jedem neu abgeschlossenen Internet-Vertrag wirksam werden. Es bleibt abzuwarten wie die Telekom diese Änderung in Zukunft weiter begründet und ob sie gegebenenfalls den ein oder anderen Punkt des Geschäftsmodells vielleicht noch einmal überdenkt.

 

Fotos: flickr/nerdcoreblog (CC BY-NC-SA 2.0), flickr/hikingartist (CC BY-ND 2.0)

Digitales Gold

von Raphael Adam

Geld nach Japan überweisen, und das ohne Transaktionskosten? An der Frittenbude mit dem Smartphone bezahlen? Mit Bitcoin könnte das in naher Zukunft Alltag sein.

Bitcoin ist eine neuartige Internet-Währung, dessen Kurs Anfang dieses Jahres in den Himmel geschossen, aber im April auch wieder eingebrochen ist. Derzeit kann ein Bitcoin für ungefähr 75 Euro gekauft werden, zu Höchstzeiten lag der Kurs bei über 130 Euro. Das Bezahlen über digitale Wege ist in unserer Gesellschaft schon weitgehend verbreitet und stellt keine Neuheit mehr dar. Jedoch erfolgt die Vergütung normalerweise in der landesüblichen Währung. Mit Bitcoin ist 2009 eine rein virtuelle Währung hinzugekommen. Diese ist sie an keine Zentralbank gebunden und weltweite Transaktionen sind anonym und günstig möglich. Die Frage ist, ob Bitcoin das Potential hat, ein Ersatz für herkömmliche Währungen wie Euro und Dollar zu sein.

Wie es funktioniert

Für den Anwender ist es nicht schwer, mit der Benutzung von Bitcoins zu beginnen. Es muss nur eine Software installiert werden. Der Benutzer erhält dann eine Adresse, mit der er Geldbeträge empfangen kann. Wird eine Überweisung ausgeführt, so wird diese mit einem privaten Schlüssel signiert und an alle anderen Teilnehmer geschickt. Auf diese Weise kennt das Anwendungsprogramm eines jeden Benutzers alle gemachten Transaktionen. Dadurch soll es nicht möglich sein, diese zu fälschen. Jedoch kann der private Schlüssel, durch den das Eigentum an Bitcoins nachgewiesen wird, gestohlen werden. Dies ist auch schon bei verschiedenen Hackerangriffen vorgekommen.

Das ganze System von Bitcoin ist dezentral, es läuft nicht über einen Server, sondern über ein Peer-2-Peer-Netzwerk. Das heißt, die Nutzer sind direkt miteinander verbunden. Nun kann man sich fragen, wo die Bitcoins eigentlich herkommen, wenn es keine zentrale Stelle gibt, die diese ausschüttet. Das geschieht über das sogenannte Mining. Hierbei wird Rechenleistung eingesetzt, um eine kryptographische Aufgabe zu lösen. Wer die Aufgabe zuerst löst, bekommt derzeit 25 Bitcoins gutgeschrieben. Das Mining kann von jedem betrieben werden, es muss dafür nur eine spezielle Software ausgeführt werden. Mit normalen Computern ist das aber schon seit längerer Zeit nicht mehr rentabel, da sich die Schwierigkeit der Aufgabe an die im Netzwerk zur Verfügung stehende Rechenleistung anpasst.

Berg- und Talfahrt

Die virtuelle Währung wurde 2009 von einer Person oder einer Gruppe mit dem Pseudonym „Satoshi Nakamoto“ ins Leben gerufen. Warum ist das Interesse seit kurzem so stark angestiegen? Ein Grund ist die Euro-Krise, die das Vertrauen in die Banken erschüttert hat. Vor allem die Spanier sollen für den Boom in diesem Jahr verantwortlich sein. Bitcoin ist an keine Regierung oder Bank gebunden und praktisch anonym. Dadurch und durch die Dezentralität entzieht sich Bitcoin auch der Kontrolle von Regierungsorganisationen. Zudem ist die Maximalanzahl von Bitcoins technisch auf 21 Millionen festgelegt, wodurch eine Inflation gar nicht erst möglich sein soll.

Aufgrund der starken Kursschwankungen werden Bitcoins auch noch von eher wenigen Unternehmen als Zahlungsmittel akzeptiert. Vor allem bei manchen Anbietern von Internetdienstleistungen lässt sich damit bezahlen. So kann man zum Beispiel einen Premium-Zugang bei der bekannten Website Reddit mit Bitcoins kaufen. Gut geeignet ist Bitcoin auch für Spenden und sogenanntes Micropayment, bei dem es um das Bezahlen von geringen Summen geht. Die Kosten für eine Transaktion betragen bisher nur wenige Cents, und es spielt keine Rolle, in welchem Land sich der Empfänger befindet. Bei der Enthüllungsplattform WikiLeaks oder dem Internetblog netzpolitik.org kann zum Beispiel mit Bitcoin gespendet werden.

Die Kehrseite der Münze

In letzter Zeit hat Bitcoin mit einigen Problemen zu kämpfen gehabt. Das war in erster Linie der zeitweilige Kursrückgang von über 60%, dessen Ursache technische Probleme gewesen sein sollen. Bitcoin kann sich auch als Spekulationsblase herausstellen und wird schon mit der Tulpen-Krise im 17. Jahrhundert verglichen, bei welcher der Preis von Tulpen erst explodierte und dann abrupt abstürzte. Andere Schwierigkeiten entstehen dadurch, dass die Bitcoins quasi auf dem Rechner liegen und somit gestohlen oder auch durch technische Probleme vernichtet werden können. Wegen der Anonymität bei Transaktionen, können fehlgeleitete Überweisungen zudem nicht rückgängig gemacht werden.

Ein ganz anderes Problem ergibt sich durch das Mining. Die erforderliche Rechenleistung für das Lösen der kryptographischen Aufgabe steigt an, sobald sich die Rechenleistung im System erhöht. Da viele Miner im Netzwerk durch die schnellste Berechnung die Bitcoins erzeugen wollen, überbieten sie sich durch immer leistungsstärkere Hardware. Konnte man zu Beginn von Bitcoin noch seine Grafikkarte für das Minen verwenden, müssen es heute schon Spezialkomponenten sein. Der dadurch erzeugte Stromverbrauch soll laut einem Bericht von Bloomberg ein „Desaster für die Umwelt“ sein. Es werden dort $147.000 Stromkosten kalkuliert, die alle Miner zusammen pro Tag verursachen sollen.

Sollte sich der Kurs langfristig stabilisieren, könnte Bitcoin im Internet zumindest als alternatives Zahlungsmittel Fuß fassen. Die Entwicklung von Bitcoin lässt auf jeden Fall erkennen, dass das Bedürfnis nach einem Zahlungsmittel da ist, welches die neuen Möglichkeiten des Internets nutzt. So erscheinen hohe Gebühren und eine lange Dauer bei Überweisungen in das Ausland nicht mehr zeitgemäß, da das Internet keine Staatsgrenzen kennt und Daten in Sekundenschnelle an jeden Ort der Erde geschickt werden können. Jedoch würde die weitreichende Nutzung auch neue politische Lösungen erfordern, da sich die Internet-Währung bislang noch jeder Kontrolle entzieht.

 

Foto: flickr/zcopley (CC BY-SA 2.0), flickr/keep_bitcoin_real (CC BY 2.0)

 

Der Weg zurück an den Musikolymp

von Helen Baur

Ein unachtsamer Moment, ein bisschen zu viel Selbstsicherheit und zu wenig Ernsthaftigkeit dem Fortschritt gegenüber – schon war es um die Musikindustrie geschehen. Der digitale Markt ist an ihr vorbeigezogen. Nach jahrelanger Flaute scheint es nun endlich wieder bergauf zu gehen. Doch warum erst jetzt? Welche Fehler hat sich die Musikindustrie geleistet?

Musikindustrie verlässt Nischenstellung

Manch einer hätte wohl kaum mehr daran geglaubt, dass die Musikindustrie jemals Profit aus dem Downloaden und Streaming von Musik im Internet schlagen wird. Vor allem das illegale Downloaden war und ist noch immer ein großes Hindernis, doch inzwischen hat sich viel getan. Die Musikindustrie hat es laut einer aktuellen Studie der Forsa geschafft,  endlich den Weg hin zu einem lukrativen Geschäft einzuschlagen.

Im Auftrag des BITKOMs hat das Meinungsforschungsinstitut Forsa 1.003 Internetnutzer ab 14 Jahren zum Thema Musikdownload/Musikkauf im Internet befragt – mit erstaunlichem Ergebnis. 26 % der Befragten kaufen Musik in Online-Downloadshops, 16 % tun dies regelmäßig. Im Schnitt geben die Käufer 7,50 Euro im Monat für Musikdownloads aus, fast jeder siebte sogar mehr als zehn Euro. BITKOM bestätigt die, durch die Umfrage erfasste, positive Prognose: Die Musikindustrie hat ihre Nischenstellung im Internet verlassen und bringt inzwischen nennenswerte Umsätze.

Hochmut kommt vor dem Fall

Bis in die 1990er Jahre florierte das Geschäft mit der Musik reibungslos, ihm wurde eine rosige Zukunft vorhergesagt. Vor allem der Wandel von Vinyl auf CD brachte einen letzten Boom  – bis plötzlich neue Technologien auftauchen, die von der Musikindustrie nicht ernst genommen wurden. Ulrich Dolata schreibt in seinem Aufsatz „Das Internet und die Transformation der Musikindustrie“, dass die Umsätze durch Tonträger der Musikindustrie seit dem Ende der 1990er Jahre kontinuierlich sinken, die von digitalen Einkäufen nicht ausgeglichen werden können. Die Vermarktung im Internet veranlasst den Konsumenten eher zum Kauf einzelner Lieder, ganze Alben werden weitaus seltener gekauft. Ein zusätzliches Problem etablierte sich schon mit dem Aufkommen von Compact Discs – ohne Kopierschutz. Durch die Möglichkeit der kostenlosen Vervielfältigung ohne Qualitätseinbruch (wie bei Radiomitschnitten o.ä.) wird die erste Lücke im System offengelegt, die allerdings noch an physisch Existentes gebunden ist. Eine zweite tut sich Jahre später auf, mit dem MP3-Format kommt auch das einfache file sharing, losgelöst von Tonträgern in digitaler Form.

In Kombination mit dem Internet erschien der Musikindustrie das digitale Format als tödliche Mischung – der illegalen und kostenlosen Verbreitung von Musik via Internet waren die Türen geöffnet. Eine Lösung hierfür wurde lang diskutiert, ein Digital-Rights-Management-Standard sollte dies regulieren, doch die Meinungsverschiedenheit zwischen Musik- und Unterhaltungsindustrie verhinderten einen solchen Standard. Mit Music on Demand – kurz MoD – startet dann das erste offizielle Musikdownloadportal – allerdings mit  Preisen über den Ladenpreisen und langsamen Downloadzeiten. Projekte wie MoD scheiterten schnell und plötzlich wird die Musikindustrie von Musiktauschbörsen wie Napster überrascht. Musiktausch im Freundeskreis gab es schon seit jeher, nun wird daraus ein weltweites Geschäft – und der juristische Kampf dagegen beginnt.

Illegaler Download begünstigt legalen Kauf

2001 schafft Apple den Durchbruch im Business des digitalen Musikdownloads, wird sowohl von den Musikkonzernen als auch von den Konsumenten angenommen und etabliert dadurch einen neuen Geschäftszweig im Internet.

Heute scheinen unerlaubtes Kopieren, file sharing oder Musikstreaming für die Musikindustrie keine ernsthaften Probleme mehr zu sein. Eine Studie über den Konsum Digitaler Musik im Internet zeigt, dass unerlaubtes Downloaden kein Ersatz für den legalen Erwerb ist. Je häufiger Konsumenten illegal zu Musik kommen bzw. diese erwerben, desto mehr kaufen sie auch legal Musik. Trotzdem sind noch so manch offene Lücken im Online-Musik-System zu finden, beispielsweise das Mitschneiden von Musik auf Youtube. Für den privaten Gebrauch ist dagegen nichts einzuwenden – allerdings werden genau dann oft die Rechte Dritter verletzt. Dies ist dann der Fall, wenn ein Video/Lied nicht vom Besitzer, sondern anderen Personen hochgeladen wurde. So sollte sich der Konsument vor jedem potentiellen Download kritisch fragen, ob es sich im gegeben Falle um einen, bisher unentdeckten, Verstoß gegen das Urheberrecht handelt oder um ein legal hochgeladenes Video.

Die Zukunft: Trends und Möglichkeiten

Gerade das Musikstreaming scheint zum neuen Boom in der Musikindustrie zu führen – das attraktive legale Angebot von Spotify und Co. trägt vor allem in Asien und Skandinavien zum Umsatz bei. Das à-la-Carte-Hören verspricht hohe Qualität und riesige Auswahl an Musik – zu geringen monatlichen Kosten, oder – dank Werbung – komplett kostenlos. Wie gut die neue Form des Musikhörens ankommt, zeigt eine Studie im Auftrag von WimP: 77% der unter 30 Jährigen beanspruchen Streamingdienste. Mehr als die Hälfte (54%) ist generell dazu bereit, für das Streaming zu bezahlen, jedoch in Abhängigkeit des Angebots. Somit ist das Musikstreaming der schnellst wachsende Trend der Musikwelt. Es kommen allerdings auch immer mehr andere Alternativen auf den Markt: Musiker bieten ihre Musik for free an, schlagen lediglich Profit aus Konzerten, Merchandise und Spenden. Die Musikindustrie scheint ihre Talfahrt beendet zu haben – es geht wieder aufwärts!

 

Bilder: flickr/iaintait (CC BY-NC-ND 2.0), flickr/lambda_x (CC BY-ND 2.0)

An application a day takes the doctor away…

von Svitlana Magazova

Man befürchtet eine Blasenentzündung? Kein Problem – Dr. App fragen! Man braucht nur ein Foto vom Urinteststreifen zu schießen und das Smartphone Display liefert die Diagnose. Ob es sich um Ernährungspläne, Medikamentenverschreibungen oder Krebsdiagnose handelt – die Apps scheinen auf alle Fragen eine Antwort parat zu haben. Über 200 Millionen Medizin-Apps boomen heute auf dem Markt. Experten warnen: Viele sind Schrott!

Eine digital bedingte Revolution?

Am 3. Juni 2013 war es soweit – Die Veranstaltung Medical Apps 2013 öffnete in Stuttgart über zwei Tage ihre Pforten.  Neben einer Konferenz standen diverse Workshops und Ausstellungen im Angebot, die sich alle mit einem Thema befassen – den medizinischen Apps. Es kamen Vertreter aus den verschiedensten Bereichen: Dem Gesundheitswesen, der Industrie, der Forschung und dem IT-Bereich. Ihr Ziel besteht darin, die Verbindung zwischen Informationstechnologie und Gesundheitswesen zu stärken und auszubauen. Es entstehen außerdem immer mehr Medizinportale, wie CrowdMed, dessen Intention es ist, Patienten über den elektronischen Weg zuverlässige Diagnosen zu liefern sodass in Zukunft der Arztbesuch per „Knopfdruck“ erfolgen kann. Es ist nicht mehr zu übersehen – das Gesundheitswesen befindet sich in einer digital bedingten Revolution!

Von Fiebermessung zur Krebsdiagnose

Laut dem Brancheverband Bitkom, gab es bereits im Jahre 2011 um die 15.000 Gesundheitsapps. Jedoch beschränkten sich diese eher auf Angebote, wie Schrittzähler für Jogger oder Trainingsprogramme mit Fitnessübungen. Nun reichen aber die Apps von medizinischen Hilfen, wie Fieber- und Blutzuckermessen, Alkohol- oder Sehtests bis zur Leberfleckenprüfung. Dabei handelt es sich um eine Art Ersatz für die „Blickdiagnose“ des Arztes, welche nun das Kameraauge übernehmen kann. Mittels Algorithmen wird die Wahrscheinlichkeit berechnet, dass ein Fleck bösartig ist. Darüber hinaus gibt es die sogenannte „Pulsmess-Apps“, wobei Licht und Kamera eingesetzt werden können.

Treffsicherer als der Arzt?

Am meisten Anklang auf dem Markt findet eine Vielzahl von Tests- und Diagnose- Apps. Angefangen hat alles mit Webseiten zur Selbstdiagnose, wie was-fehlt-mir.net. Somit konnte zum ersten Mal der Arzt durch eine Maschine ersetzt werden. Heute noch sind viele Apps lediglich mobile Ableger der alten Webseiten. Diagnosewebseiten können jedoch für Hypochonder die reine Hölle bedeuten – auch harmlose Symptome können sich nach unnötig langer Recherche als Anzeichen einer ernsthaften Krankheit entpuppen. Um solche Fehldiagnosen zu vermeiden und die Patienten nicht zu verunsichern, hat sich in jüngster Vergangenheit das US-Startup CrowdMed entwickelt. Im Gegensatz zu herkömmlichen Diagnoseseiten, sind auf dieser Plattform nur Diagnosen eingestellt, die zuvor tatsächlich von Fachärzten erstellt wurden. Für die Information muss der Patient aber zunächst tief in die Tasche greifen – 199 US-Dollar sollen an das Unternehmen gezahlt werden. Ist diese Hürde jedoch genommen, gibt der Kranke zahlreiche Daten über sich und seine Krankheitsgeschichte ein. Anschließend wählt CrowdMed aus seinem Teilnehmerpool rund 100 sogenannte Medical Detectives aus, die den Fall bewerten. Die „Konsensdiagnose“, die aus diesen Bewertungen erstellt wird, kann der Patient dann seinem Arzt vorlegen.

15 Prozent solcher Gesundheitsanwendungen werden nun sogar speziell für das Fachpersonal entwickelt. Handys und Tablet-PCs  spielen nämlich auch für Ärzte, Therapeuten und Pflegepersonal eine immer wichtigere Rolle. Seit letztem Jahr dürfen Ärzte in Großbritannien nun Gesundheitsapps an die Patienten verschreiben.

Geburt eines neuen Geschäftszweigs

Aus den vorangegangenen Beispielen wird klar ersichtlich, dass sich nicht nur das Gesundheitswesen in einer Revolution befindet, sondern dass auch das Arzt-Patienten Verhältnis komplett neu definiert und positioniert wird. Lange Wartezeiten beim Arzt sind nicht mehr notwendig – man lässt die Apps ihre Arbeit verrichten!

Die Schattenseiten dieser Methoden liegen jedoch auf der Hand – Menschen können bei Gesundheitsfragen schlichtweg nicht von Maschinen ersetzt werden! Ganz zu schweigen davon, dass sich eine Vielzahl der Gesundheitsapps erst in den Kinderschuhen befinden und zum Teil nichts weiter als ein Gag darstellen.

Trotzdem untermauern Portale, wie CrowdMed, die Idee einer fortschreitenden Digitalisierung des Gesundheitswesens. Führende Mobile Health Anbieter in den USA erreichen bereits mehr als drei Millionen kostenlose Downloads und 300.000 bezahlte Downloads auf der iOS-Plattform. Die Reichweiten verdeutlichen das wachsende Geschäftspotenzial für mobile Gesundheits-Apps, welche wohl schon in naher Zukunft unseren Alltag zum Teil bestimmen werden.

Mensch vs. Maschine

Diese Revolution, die laut Experten schon begonnen hat, lässt einen Punkt stark außer Acht: Die Gesundheit des Menschen darf nicht zu einem Geschäftszweig der digitalen Branche werden. Durchaus können zuverlässige Diagnose-Apps hilfreich sein und den Menschen bei harmlosen Krankheiten vor langen Wartezeiten und Fehldiagnosen bewahren. Auch Anwendungen, die einen Diabetiker durch den Alltag begleiten, können sowohl für Patienten als auch für die Ärzte eine Erleichterung bedeuten. Doch inwieweit lässt sich der zunehmende Ärztemangel durch Applikationen beheben? Werden digitale Geräte in Zukunft tatsächlich einen Arzt komplett ersetzen können, sodass wir nicht mehr von einer Patient-Arzt-Beziehung, sondern von einer Patient-Gerät-Beziehung sprechen werden?

Im Allgemeinen befindet sich diese Entwicklung lediglich im Anfangsstadium und es bleibt abzuwarten, wie sich dieser Zweig entwickelt und in welche Richtung unser Gesundheitswesen gelenkt wird. Nichtsdestotrotz wird eine Maschine niemals die menschliche Präsenz und das Mitgefühl eines Arztes ersetzen können und dürfen.

 

Bilder: flickr/12905355@N05 (CC BY-NC 2.0), flickr/umich-msis (CC BY 2.0)

 

E3 2013: Konsolenkrieg, die achte

von Miriam Gerstenlauer

Dieses Jahr ist ein besonderes Jahr in der Spielebranche: Nachdem Nintendo bereits 2012 ihre neue Wii U Konsole auf den Markt brachte, schicken nun Microsoft und Sony ihre Konsolen ins Rennen und müssen sich den kritischen Augen von Gamern und Presse stellen. Sieben  Jahre liegen die Erstveröffentlichungen der letzten Konsolengenration zurück. Wii U, Xbox One, PS4 sowie die Kickstarter-Konsole Ouya bilden die Vorhut zur achten Generation der Spielekonsolen und könnten sich in ihren Konzepten nicht mehr unterscheiden.

Die neuen Konsolen wurden auf der 19. Electronic Entertainment Expo (E3) in Los Angeles vorgestellt.

Außer Konkurrenz: die Ouya

Ein kleiner, ein paar hundert Gramm schwerer Würfel mit Android-Betriebssystem, auf dem man alle Smartphone-Spiele auf dem Fernseher spielen kann, und das für gerade mal 99 Dollar.Ein scheinbar grandioses Konzept, fanden die über 60.000 Kickstarter-Unterstützer der Ouya.

Erste Tests berichten jedoch von einem unfertigen Produkt, das eine nur geringe Auswahl von grafisch veralteten Spielen zur Verfügung hat und keine externen Speichergeräte erkennt. Laut dem Test scheint  der Controller der Ouya billig verarbeitet, klappert und ermöglicht nur unpräzise Steuerung, kann jedoch durch ein kabelgebundenes Xbox 360 Gamepad ersetzt werden.

Wenn schon nicht mit ihrer Konsole, so erregten die Entwickler auf andere Art Aufsehen auf der E3: Statt einen ordentlichen Stand in den Messehallen zu mieten, errichtete das Ouya-Team kurzerhand einen eigenen Stand auf einem Parkplatz gegenüber des Messegeländes, zum Missfallen der Messeveranstalter ESA.Der offizielle Verkaufsstart der Ouya ist der 25. Juni 2013.

Nintendo

Nach dem Erscheinen der Wii U im November 2012 hat die Konsole bis jetzt vor allem einen Makel: Es gibt kaum Spiele. Und die Spiele, die es gibt, sind alte Bekannte : Super Mario Bros., Monster Hunter, Raymon Raving Rabbits. Bewährte Konzepte, die den Touchscreen-Controller, dem speziellen Feature der Wii U, passend in das Spielkonzept integrieren. Nintendo hätte also genug Potenzial, der lachende Dritte neben Microsoft und Sony im Konsolenkrieg der E3 zu sein. Leider verpasste Nintendo diese einzigartige Gelegenheit: Statt innovativer Neuerscheinungen gab es Ankündigungen zu einem neuen Super Smash Bros. Spiel, einem neuen Donkey Kong und einem neuen Legend of Zelda. Allesamt Spiele aus dem Hause Nintendo selbst, für externe Publisher wie Ubisoft ist die Entwicklung für Wii U exklusive Titel uninteressant, solange sich die Konsole so schlecht verkauft.

Trotz der eher schlechten Aussichten schaffte es Nintendo sich die exklusiven Rechte an Bayonetta 2 zu sichern und die Wii U ist weiterhin mit Multi-Plattform-Titeln im Rennen.

Die Wii U kann man in der Standard-Version für 199€ oder als Premium Edition für 310€ im Fachhandel erwerben.

Microsoft

Bereits Ende Mai hatte Microsoft der Welt zum ersten Mal die Xbox One präsentiert. Bereits ihr Vorgänger, die Xbox 360 zeichnet sich durch ihre Bewegungssteuerung mit Kinect, dem großen Angebot an Indie-Download-Spielen ,ihre exklusiven Sport- und Action-Spiele aus. Das alles und mehr bietet Microsoft nun mit ihrer neuen Konsole: Die Xbox One soll präzisere Sprachsteuerung und Bewegungssensoren haben. Zusätzlich soll sie einen einfachen Zugang zu Filmen und Fernsehserien ermöglichen sowie genug Rechenleistung für neue, grafisch höchst anspruchsvolle Spiele bieten. Doch Microsoft stößt mit seiner Konsole vor allem auf negative Kritik.

Ein „Überwachungsgerät“ sei sie, da die Spracherkennung der Kinect konstant aktiviert sei, welches eine rund-um-die-Uhr Abhörung ermöglicht, so Datenschützer. Außerdem ist eine Breitband-Internetverbindung notwendig, um die großen Datenmengen  in der Cloud abspeichern zu können und die Konsole muss sich mindestens alle 24 Stunden mit dem Microsoft-Server verbinden, damit der User auf seine Spielebibliothek zugreifen kann.

Wer kein Internet hat, so Xbox Chef Don Mattrick, soll einfach bei der Xbox 360 bleiben.
Darüber ob man nun gebrauchte Spiele weiterverkaufen kann, ist sich Microsoft selbst noch nicht im Klaren. Zunächst hieß es, man kann Spiele einfach übertragen, dann ging es nur mit Freunden, dann nur mit Freunden, die mindestens seit 30 Tagen auf der Freundesliste stehen, welche wiederum erneut eine Lizenz für das Spiel erwerben müssen – wenn der Publisher dies verlangt. Microsoft behält sich nunmehr weitere Änderungen offen.

Die Xbox One erscheint im November 2013 und soll 499€ kosten.

Sony

Alle Zweifel, die durch Microsoft für die neue Konsolengeneration aufgeworfen wurden, nutzte[s11]  Sony in einer einzigen Pressekonferenz zu seinen Gunsten . Im Gepäck hatten sie nun auch erstmals die Konsole selbst, eine augenscheinlich schräggestellte Version der Xbox One. Das scheinbare Design-Motto der Next-Gen Konsolen: Rund ist das neue eckig.
Den generalüberholten Dualshock 4 Controller hatte Sony bereits Ende März 2013 im Zuge der PS4-Ankündigung vorgestellt. Das Besondere: ein im Controller verbautes Touchpad sowie ein integrierter Share-Button, bestens geeignet für die neuen Social-Media Funktionen der neuen Konsole. Man kann Gameplay-Videos auf YouTube teilen, Freunde zu einer gemeinsamen Partie einladen oder die neuesten Erfolge teilen.

Einen Online Zwang gibt es aber nicht und gebrauchte Spiele können wie eh und je geteilt oder verkauft werden. Doch auch zukünftige PS4 Besitzer müssen mit Einschränkungen rechnen: Um Multiplayer-Funktionen nutzen zu können, fallen nun monatliche Kosten für ein PlayStation Plus-Konto an, ähnlich der Xbox Live Gold-Mitgliedschaft. Außerdem ist das PlayStation Eye, eine Kamera die zur Erkennung der Bewegungssteuerung dient, im Gegensatz zu Xbox Ones Kinectsensor, nicht in der PS4 mit enthalten, was den 100€ niedrigeren Preis der Sony-Konsole etwas relativiert.

Erscheinen wird die PlayStation 4 zum Weihnachtsgeschäft 2013, mit einem Preis von 399€.

Fazit

Jede der Next-Generation Konsolen hat seine Vor- und Nachteile. Am Ende sind aber wahrscheinlich die exklusiven Spieletitel entscheidend für den Kauf der Konsole, und davon haben sowohl Nintendo als auch Sony und Microsoft eine Menge. Ob nun The Legend of Zelda, The Dark Sorcerer oder Halo 5 ein Kaufgrund sind, muss jeder für sich selbst entscheiden.


 Fotos: Copyright Nintendo; Copyright Microsoft; Copyright Sony.

Glasige Aussichten

von Daniel Fuchs

Die Aftershowparty der Oscarverleihung aus dem Blickwinkel von George Clooney erleben? Oder doch lieber den Urlaub von Freunden live am Bildschirm mitverfolgen? Das und noch vieles mehr ist mit Googles neuestem Spielzeug vorstellbar, das das Potential besitzt, die Grenzen von Realität und Virtualität weiter zu verschieben.

Der nächste Coup?

Nach dem durchschlagenden Erfolg des von Google für Smartphones entwickelten Betriebssystems Android, das mittlerweile knapp 70% Marktanteil aufweist, [sowie den auf Googles Browser Chrome basierenden Notebooks], plant das Unternehmen aus Mountain View im Herzen des Silicon-Valley, den nächsten großen Coup. Google Glass soll im ersten Quartal 2014 auf dem Markt erscheinen, doch schon jetzt sind einige Exemplare der Datenbrille als Vorabversion im Umlauf. 1500$ mussten die neugierigen Tester berappen, um eine der in limitierter Anzahl verfügbaren Brillen zu ergattern.

Die Technik

Das Innenleben von Google Glass erinnert, von Ausstattung und Funktionsumfang her, an ein handelsübliches Smartphone. Ein Touchpad im Brillenbügel ermöglicht die Steuerung per Hand. Gesteuert werden kann aber auch per Kopf- oder Augenbewegungen und Spracheingaben, entsprechende Sensoren sind vorhanden. Glass soll sich automatisch mit Google Cloud synchronisieren, bei Verstößen gegen die Nutzungsbedingungen kann Google die Brille aus der Ferne deaktivieren. Natürlich fehlt auch die obligatorische Kamera nicht, die fähig ist, alles vom Träger Gesehene aufzuzeichnen. Mit dem integrierten GPS-Empfänger können dabei die eingehenden Daten mit dem entsprechenden Ort verknüpfen werden.

Der Bildinhalt erscheint nicht etwa auf einem Bildschirm vor dem Auge, sondern wird mit einem Prisma direkt auf die Netzhaut projiziert. Für den Träger sieht es so aus, als schwebt ein transparentes Display in einiger Entfernung vor dem Auge in der Luft.

Die Idee des Einblendens von Informationen im Blickfeld ist nicht neu, es gibt bereits ähnliche Einsatzzwecke dieser unter dem Sammelbegriff „augmented reality“ stehenden Technologie. Was neu ist, ist die geplante Einbettung dieser Technologie in das tägliche Leben.

Die Anwendungen

Über besondere Anwendungen, die die Brille deutlich von denen eines Smartphones abheben, ist erst wenig bekannt. Vielmehr scheint es so zu sein, dass sich Google bei der Anwendungsgestaltung wieder auf die Kreativität ihrer Kunden verlässt. Das verdeutlicht auch die Aussage eines Google-Mitarbeiters: „wir wollen, dass ihr verrückte Sachen damit macht. Immerhin habt ihr 1.500 US-Dollar dafür gezahlt„.

Es hat sich bezahlt gemacht, dem Anwender ein Interface mit grundlegenden Funktionen zur Verfügung zu stellen, und mit Hilfe eines zugänglichen Betriebssystems wie Android eine Basis für eigene Ideen für Anwendungen zu bieten. Der Anwender wird zum Entwickler und erweitert damit den Umfang des Interfaces immer mehr.

Bestes Beispiel für die Eigendynamik der Anwendung und Entwicklung war der Verkaufsstart des ersten iPhones im Jahr 2007. Erste Tests berichteten damals eher verhalten über geringen Funktionsumfang, und das Hauptaugenmerk lag damals auf der Telefonie und dem Musikhören. Niemand ahnte, dass diese beiden Features bald schon die uninteressantesten überhaupt sein würden, nachdem die „Apps“ ihren Siegeszug begonnen hatten.

Der gläserne Anwender

Aus den Möglichkeiten folgen aber auch Befürchtungen, wenn es um den Datenschutz und die Privatsphäre geht. Google hat angekündigt, den Speicher der Brille synchron mit ihren Servern zu halten, was nichts anderes bedeutet, als dass jede Information, die durch die Brille aufgenommen wird, Google zur freien Verfügung steht. Die Brille wird zwangsläufig Informationen, nicht nur über den Nutzer selbst, sondern auch über seine Umgebung sammeln, verknüpfen und auswerten. Eine geplante Anwendung ist zum Beispiel die Erkennung von Freunden anhand ihrer getragenen Kleidung. Gesichtserkennung ist zwar von offizieller Seite noch nicht geplant, aber der logische nächste Schritt, vor allem wenn man bedenkt, dass diese Technik von anderen Konzernen wie Facebook, bereits eingesetzt wird. Die Anwendungen an sich sind demnach nicht neu, wohl aber die Beiläufigkeit und Selbstverständlichkeit des Aufsammelns von Daten. Als ob jeder Nutzer sein eigenes Google Street View mit sich führt, nur dass dieses Gadget nicht auf Straßen und öffentliche Plätze beschränkt ist, sondern alle Bereiche des täglichen Lebens durchdringen kann. Und so berichten begeisterte Tester, dass sie die Brille nur noch zum Schlafen abnehmen.

Ein Blick in die Glaskugel

Es wird vor allem darauf ankommen, was die Nutzer aus den ihnen gebotenen Möglichkeiten machen, und wie sich das Image der Brille entwickeln wird. Denn schon ein Jahr vor dem Verkaufsstart legt sich der Hype schon wieder ein wenig, und das Bild von Glass bekommt die ersten Kratzer. Unter dem Schlagwort  „White Men Wearing Google Glass“ machen sich Blogs darüber lustig, dass vor allem technikaffine, weiße Herren von der Brille angetan sind, und darüber hinaus besonders affig damit aussehen. Ob Google Glass den Nerv der Zeit trifft, und nicht nur ein nettes Spielzeug bleibt, wird sich also erst noch zeigen.

 

Bilder: flickr/69730904@N03 (CC BY 2.0), flickr/timtimes (CC BY 2.0)