Beiträge

Fans & Fiktionen – Es war einmal…

von Sanja Döttling

DeviantArt bestreitet einen Teil seines Seiten-Traffics mit Fan Arts, auf archiveofourown.org sammeln sich Fan-Autoren aus der ganzen Welt, und der Blog-Seite Tumblr ist die Fan-Spielweise schlechthin – mit gemalten Bildern, manipulierten Fotos, Freunden und Fanfiction. Heute sind Fan Comunities im Internet zuhause, doch ihre Geschichte beginnt lange vor der virtuellen Realität.

Wo beginnen?

Den Anfang der Media-Fan-Bewegung zu finden, ist nicht ganz einfach. Seit dem Anfang des Geschichten-Erzählens werden Ideen übernommen, geklaut, verändert und in neue Kontexte gestellt – also genau das, was heutige Media-Fans mit ihren geliebten Büchern oder Serien tun. In ihrem Essay „Achontic Literature“ unterscheidet Abigail Derecho, Doktorantin an der Nothwestern University, drei verschiedene Definitionen von Fan Fiction und damit auch drei verschiedene geschichtliche Startpunkte:

1. Fan Fiction gibt es seit der ersten Geschichte und bis heute; Fan Fiction sind dabei sowohl Geschichten von Fans innerhalb der Community als auch von Autoren, die sich eines bekannten Stoffes bedienen. (Wie zum Beispiel Wolfgang Holbeins Roman „Thor“, der sich mit den Geschichten der Edda beschäftigt.)

2. Fan Fiction sind Produkte einer konkreten Fan Culture, die als solche entweder 1920, mit den ersten Sherlock Holmes-Clubs und Jane-Austen-Societies, oder 1960, mit den ersten Star-Trek-Fanzines, also Zeitschriften von Fans für Fans, begannen. Sie enthielten Hintergrundinformationen und Fanfiction.

3. Fan Fiction müssen zwischen der ersten, sehr weiten Variante und der zweiten, zu engen Variante angesiedelt werden. Derecho schlägt deshalb vor, besondere Merkmale von Fanfiction herauszuarbeiten, um sie von Literatur abgrenzen zu können; für sie ist Fan Fiction „Archontic Literature“.

Wie immer liegt die Wahrheit irgendwo dazwischen. Im Zusammenhang dieser Serie erscheint es allerdings sinnvoll, die zweite Definition zu bevorzugen, da das Feld der Media-Fans so eng gehalten werden kann.

Von Science-Fiction zu Star Trek

In ihrem Essay „A Brief History of Media Fandom“ gibt Francesca Coppa eine kurze Übersicht über die Entwicklung der Fan Communities seit 1930 und damit seit dem ersten FanZine. Das hieß „The Comet“ und war eine Zeitschrift, die von und für Leser von Science Fiction-Stories produziert wurde. Bekannte Autoren wie Ray Bradbury veröffentlichten hier ihre ersten Geschichten. Ende der 30er Jahre fanden die ersten Fantreffen – Conventions – statt. In dieser Zeit etablierte sich auch der Fan-Jargon mit ausdrücken wie „fanboy“ oder „con“.

Von den SF-Lesern war es nur ein kleiner Sprung zu den ersten Media-Fans; erst die Serie The Man frum UNCLE und dann, mit ungleich größerem Echo: „Star Trek“. Jetzt waren es auch die Frauen, die anfingen, Fanaktivitäten zu übernehmen. Während Gene Roddenberry, Erfinder der Serie, die Copyrightverletzungen durch Fans ignorierte, begannen sich FanZines zu vermehren. Die ersten Beziehungs-Fanfiction wurden geschrieben. Schnell grenzten sich SF-Fans von den Trekkies, also den Star Trek Fans, ab; die blieben fortan unter sich.

Plötzlich ging es in den Geschichten weniger um den Science-Fiction-Hintergrund; die Beziehungen und Freundschaften der Charaktere rückten immer mehr in den Vordergrund der Fanfiction. Die ersten Mary Sues – weibliche Über-Charaktere, die alles können – tauchten auf und kommandierten die Männer herum. Die nächste große Teilung innerhalb der Autoren betraf den Unterschied zwischen K&S-Geschichten (Kirk und Spock in freundschaftlicher Beziehung) und K/S-Geschichten, auch als Slash bekannt – sie waren romantischer Natur.

Männliche Helden und weibliche Fans = schwul

Neue Fernsehserien wie Starsky and Hutch und The Profesionals zogen Ende der 70er das Augenmerk der Fans auf sich. Diese sogenannten „Buddy Shows“ hatten ganz bestimmte Bausteine, die sie für Fans von den oben genannten Beziehungs-Geschichten attraktiv machten: Die beiden Hauptprotagonisten waren

a) Problem-Löser und Abenteurer

b) standen außerhalb der Mainstream-Gesellschaft

c) und waren voneinander abhängig.

Das machte es den (weiblichen) Zuschauern leicht, homoerotische Untertöne in Beziehungen zu interpretieren. Ein weiterer technischer Fakt verstärkte diese Interpretation. In Coppas Essay zitiert sie Camille Bacon-Smith mit den Worten:

„When actors are shot in sufficient close up for the viewer to read facial expressions clearly, they cannot maneuver appropriate social distances and still look at each other while they are speaking…. so actors portraying friends consistently break into each other’s spheres of intimate space.“

Ein Science-Fiction-Blockbuster belebte das tot geglaubte Genre ebenfalls: Star Wars. Damit begann die Zeit der diversen, sich voneinander abgrenzenden Fandoms.

Damals war alles besser (selbst Film und Fernsehen)

Fortsetzungen und neue Filme, wie Indiana Jones oder Blade Runner, erweiterten in den 80er Jahren den Horizont für Fans.  Der Blick richtete sich nun auch nach England; die BBC ist bis heute offener Geheimtipp unter Fans. Damals wie heute inspirierte die Serie Doctor Who viele Fans. Auch im amerikanischen Fernsehen tat sich etwas: In Serien wie Hill Street Blues wurde eine komplexere Erzählstrategie eingeführt. Die ersten weiblichen Heldinnen eroberten die Leinwand und machten den Weg für fem slash – Fanfiction mit lesbischen Paaren – frei. Die ersten Crossover-Geschichten wurden entwickelt: Sie vereinen verschiedene Charaktere aus unterschiedlichen Serien.

Fans und Internet: Ein Traumpaar

Anfang der 90er Jahre begann der Siegeszug der Fan Communities im Internet. Schon immer bedienten sich Fans den einfachsten und billigsten Verbreitungsmitteln, da ihre Tätigkeit rein ehrenamtlich und unbezahlt war. Nun also zogen die Fans zum Austausch ins sogenannte Usenet, einen Zweig des Internets, der lange vor dem WWW existierte. Es folgt einer Ähnlichen Strukturen wie Web-Foren heutzutage und diente dem weltweiten Austausch von Fans in jeweiligen Gruppen. Bald darauf folgten die ersten Mailing-Listen und Archive. Zum ersten Mal konnten sich Slash-Fans offen austauschen und wurden teil des Fan-Mainstreams, verließen also ihre frühere „Schmuddel-Ecke“.

Neue Serien wie Buffy, X-Files, Highlander und Xena eroberten die Bildschirme. Der Zugang zu Fan-Archiven wurde leichter. Immer mehr Leute konnten sich virtuell austauschen. Zu den reinen Media-Fans gesellten sich Comic-, Musik- und Anime-Fans zur Koexistenz im Internet.

Postmoderne Fan Community

Im neuen Jahrtausend verändert sich die Fan-Landschaft im Internet so rapide, ist so groß und unübersichtlich geworden, dass es kaum möglich ist, sie in ihrer Gänze zu erfassen. Seit 1998 ist fanfiction.net wohl die größte Sammlung internationaler Fan Fiction zu allen Fandoms. Die Zahl der Geschichten geht in den Millionen-Bereich. Fast 600,000 Geschichten gibt es allein zum Fandom Harry Potter. Daneben sind die neuen gewählten Stars: Herr der Ringe, Twilight, Naruto und Inuyasha, Star Wars und Supernatural.

Blog-Seiten wie LiveJournal.com und heute tumblr.com mit seiner Re-Blog-Mentalität sind zu Treffpunkten für Fans geworden. Die Verlegung der Fan-Aktivitäten ins Internet beeinflussen die Verbreitung, Rezeption, Produktion, Interaktion und Demografie des Publikums. Fans werden jünger, weil das Web frei zugänglich ist und kostenlos. Manche Fans lesen Fanfiction, ohne sich in der Community zu beteiligen – sie werden Lurker oder Schwarzleser genannt. Inzwischen wandern die Fanfiction aus dem Internet zurück in die Handtasche: E-Book-Reader lassen den Unterschied zwischen Buch und Fanfiction, zumindest in Erscheinungsbild, verschwimmen.

Quellen:

– Hellekson, K., Busse, K. 2006; Fan Fiction in the Age of the Internet

A (very) brief History of Fanfic, Super Cat.

– Fotos: Sanja Döttling

 

 

 

Online regieren.

von Pascal Thiel

Das digitale Zeitalter hat nun auch die Politik erreicht. Man hat erkannt, dass das Internet nicht nur eine „Modeerscheinung“ ist, sondern zum eigenen Vorteil genutzt werden kann. Da kamen clevere Politiker auf eine geniale Idee: Warum nicht online regieren? Sie entwickelten ein Konzept und nannten es „E-Government“.

Doch was kann man nun darunter verstehen? Wählt man ab sofort per Mausklick statt im Wahllokal? Kommt der Personalausweis per E-Mail? Wird jemanden anzeigen so leicht werden wie Pizza bestellen? Kann ich mit meinen Behörden chatten?

Die Wahl per Mausklick könnte eines Tages tatsächlich Realität werden, jedoch ist das noch Zukunftsmusik. Das E-Government steckt noch in den Kinderschuhen.

E-Government

Doch was ist nun „E-Government“? Das Forschungsinstitut für öffentliche Verwaltung der Deutsc

hen Hochschule für Verwaltungswissenschaften in Speyer definiert E-Government als einen Überbegriff der „Abwicklung geschäftlicher Prozesse im Zusammenhang mit Regieren und Verwalten (Government) mit Hilfe von Informations- und Kommunikationstechniken über elektronische Medien“. Das bedeutet vereinfacht: regieren und verwalten im Internet.

E-Government umfasst demnach nicht nur, wie allgemein angenommen, die internetbasierte Kommunalverwaltung („E-Workflow“ oder „E-Administration“), sondern darüberhinaus interaktive Partizipationsmöglichkeiten („E-Democracy“). Während der Begriff der „E-Administration“ Systeme und Anwendungen zur Verwal

tung unter sich vereinigt, umschließt „E-Democracy“ moderne politische Informations-, Kommunikations- und Partizipationsmöglichkeiten, beispielweise Systeme für Online-Durchführungen von Wahlen, Volksabstimmungen, etc.

Die Internetseite des Deutschen Bundestages ist ein Musterbeispiel der „E-Democracy“. Hier kann man sich über die Geschäfte des Parlaments informieren, mit den Körperschaften kommunizieren (über eine Adressenliste) und durch den Download von zum Beispiel Petitionsformularen am politischen Geschäft partizipieren. Für diese breite Auswahl wurde die Internetseite 2007 mit dem World Summit Award in der Kategorie „E-Government“ ausgezeichnet.

E-Rules

Die Bundesregierung sieht in der „Informationsgesellschaft große Chancen auch für die öffentliche Verwaltung“. Daher ist die Förderung des E-Governments im Koalitionsvertrag von CDU, CSU und FDP von 2009 festgeschrieben: „Wir werden […] E- Government weiter fördern und dazu wo und soweit notwendig, rechtliche Regelungen anpassen (E- Government-Gesetz).“ (Seite 102). Anmerkung: Diese Pläne gehen bisher nicht über die „E-Administration“ hinaus.

Seit März 2012 liegt ein entsprechender Gesetzesentwurf vor. Dieser sieht vor, die grundlegenden Voraussetzungen der „E-Administration“, zu schaffen und hält die Kommunen an, „ihre Akten elektronisch auf dauerhaften Datenträgern führen“ und dabei „die Grundsätze ordnungsmäßiger Aktenführung“ zu beachten. (Art. 1, Abschn. 2, § 6, Abs. 1). Dabei soll laut dem Bundesinnenministerium ein „effizientes, nutzerfreundliches und prozessorientiertes E-Government“ entstehen und Hindernisse wie etwa Medienbrüche, also Hindernisse beim Übersetzen von Daten vom einen Medium ins andere (z.B. handschriftliche Formulare in Onlineformulare), verhindert werden. Wann und gegebenenfalls mit welchen Änderungen der Entwurf behandelt und verabschiedet wird, ist allerdings noch unklar.

Die Kanzlerin versuchte sich schon im Rahmen des „Zukunftsdialogs“ am Internet (wir berichteten). Da steckten die Partizipationsmöglichkeiten aber noch in den Kinderschuhen.

E-Benefits

Dabei könnten durch das „E-Government“ und besonders durch die „E-Administration“  enorme Kosten eingespart werden. Bei der E-Government-Initiative „BundOnline 2005“ wurden durch die internetbasierte Verwaltung beispielweise 400 Millionen Euro eingespart – Vorteil für den Steuerzahler. Zudem verbessert die „E-Administration“ den Kontakt zwischen dem Bürger und der Behörde, da rund um die Uhr Informationen erreichbar sind, Eingaben getätigt und automatisch bearbeitet werden können. Damit ist der Bürger nicht von starren – zumeist durchaus ominösen – Öffnungszeiten abhängig.

Auch der Staat verbucht Positives: Er spart nicht nur – wie oben beschrieben – enorme Kosten ein, sondern auch Personal, das aufgrund von automatisierten Prozessen nicht mehr notwendig ist.

Vorteile gibt es zu guter Letzt auch für Unternehmen, da aufgrund der Digitalisierung Behördengänge überflüssig werden, somit der bürokratische und administrative Aufwand stark reduziert wird.

E-Data

Sollte „E-Government“ in das Verwaltungswesen Einzug erhalten, befürchten viele große Probleme mit den neuen, immensen Datenmengen. Daher stellen sich elementare Fragen: Wird die Privatsphäre weiterhin geachtet bleiben? Sind die Daten sicher? Wie können die Daten geschützt werden? Welche neuen Gefahren entstehen?

Gerade in Bezug auf die Privatsphäre gibt es einen lebhaften Diskus. Kritiker befürchten, über die Frage, „E-Government“ führe geradewegs zum Schreckensszenario des „Gläsernen Menschen“. Sie warnen vor virtuellen Datenabbildern der Menschen und einer damit verbundenen Auflösung der Grenzen zwischen Privatem und öffentlich Zugänglichem.

Doch ist eine Digitalisierung der Verwaltung und somit auch der persönlichen Daten nicht überfällig? Wenn die Antwort darauf positiv ausfallen soll, so reiht sich die Frage nach dem Schutz der Daten hintenan. Denn dieser stellt womöglich die größte Herausforderung dar: Die speicherbedürftige Datenmenge würde mit Einführung des „E-Governments“ enorm ansteigen. Doch beim Transport wie auch im verarbeitenden System sind die Daten Hackerangriffen, Trojanern und Viren bei Fehlen einer lückenlosen Sicherheitssoftware schutzlos ausgeliefert. Davor warnen insbesondere die Datenschutzbeauftragten von Bund und Länder: Die Nutzer dürfen sich keine Sorgen über die Sicherheit ihrer Daten machen müssen.

Viele offene Fragen mit Klärungsbedarf: Zweifelsohne wird E-Government eines Tages Realität werden, nur wann ist fraglich. Zwar gibt es bereits einige Angebote und Konzepte, doch umfassende staatliche Problemlösungen sind noch Mangelware. Das heißt für den normalen Bürger bis auf weiteres: Pizza online, Anzeigen im realen Leben.

 

Foto: flickr/Flyinace2000 (CC BY-SA 2.0)

Ein Lexikon schafft sich ab!

von Nicolai Busch

Es ist das Ende einer Ära: Nach 244 Jahren wird der Druck der Encyclopedia Britannica aufgrund gesunkener Verkaufszahlen innerhalb der letzten Jahre komplett eingestellt. Der Verlag möchte sich in Zukunft ausschließlich auf den eigenen Online-Auftritt, sowie auf die Vermarktung seiner E-Learning Angebote und Apps konzentrieren. Das bisher weltgrößte, analoge Lexikon feiert die Anpassung an das digitale Zeitalter. Die vollständige Digitalisierung der Bestände sei “nur ein weiteres historisches Datum in der Entwicklung des menschlichen Wissens“, lässt man stolz verkünden.

Wissen als Kapital einer Wissensgesellschaft

“Some people will feel sad about it. But we have a better tool now. The Web site is continuously updated, it’s much more expansive and it has multimedia.” – Jorge Cauz, Präsident der Encyclopaedia Britannica Inc.

Keine Zeit für Nostalgie? Nun, sicherlich nicht allzu viel, denn natürlich sind wir eine Wissensdienstleistungsgesellschaft, wir sind Wissensarbeiterinnen und -arbeiter, wir sind Teile von Wissensnetzwerken und wir rufen Wissen aus Wissensdatenbanken ab. Unsere Existenz basiert auf  Informationstechnologie. Das heißt, wir konsumieren, verarbeiten, kombinieren, transformieren, repräsentieren, modellieren, visualisieren, kopieren, speichern und bewerten nicht allein die Information, sondern unbewusst auch die Technologie, das Medium. The medium is the message. Das Medium Internet begeistert uns! Das Medium Buch? Immer weniger.

Mensch + Internet + freie Information = Knowledge Society. So einfach ist das. Dachte sich auch Encyclopedia Britannica, wo bereits Mitte der 70er Jahre mit der Digitalisierung der Wissensbestände begonnen wurde, bevor man 1994 die erste eigene Website schaltete und ab 2011 fleißig mit Apple kooperierte. Vermeintlich seit nun knapp vierzig Jahren im Fokus: Der freie Zugang zu Information und Bildung für Jedermann. Diesem prominenten Slogan des Netzzeitalters darf man als interessierter Leser der Encyclopedia Britannica nur bedingt Glauben schenken. Kosteten die bereits erschienenen 32 Bände in Druckausgabe satte 1400 Euro, so beläuft sich der Jahresbeitrag zur unbegrenzten Nutzung von www.britannica.com doch immerhin noch auf etwa 53 Euro. Viva la Revolution digital! Nicht so vorschnell. Denn obwohl die Internetnutzung weiter zunimmt, nutzen etwa 27% der in Deutschland lebenden Personen kein Internet. Es sind vor allem ältere, bildungsferne und einkommensschwache Bevölkerungsschichten. Für sie ist bereits der Zugang zum Netz nicht frei, sondern teuer. Zu teuer. Und das obwohl gerade diese sozialen Gruppen von Wissensangeboten stark profitieren würden.

Warum uns Wissen kostet

Was trotzdem auffällt: Schwinden die technischen Grenzen des publizierenden Mediums, sinkt erst einmal auch der Wert der Botschaft (bzw. des Wissens) am Markt. Ein beinahe paradoxer Zusammenhang, der darauf schließen lässt, dass sich www.britannica.com aus marktstrategischen Gründen dazu gedrängt sah, Wissen im Gewand exklusiver Multimedialität anzubieten. Denn nur durch die zusätzliche Bereitstellung von Videos und interaktiven Illustrationen, sowie durch die Kooperation mit EBSCO Information Services und anderen Online-Diensten ist es Encyclopedia Britannica im Netz heute noch möglich, lexikalisches Wissen als hochwertiges Immaterialgut vergleichsweise teuer zu verkaufen.

Sinn und Zweck des innovativen Geschäftsmodells von Encyclopedia Britannica erscheinen letztendlich noch fraglicher, wenn man sich der Regeln dieses künstlichen Wissensmarktes vergewissert. Dieser wirbt mit der enormen Vervielfältigung und Erleichterung der Zugriffsmöglichkeiten auf dokumentiertes, menschliches Wissen, fördert aber gleichzeitig die Ungleichverteilung von Wissen in den Gesellschaften weltweit.

Multimediale Gleichgültigkeit

Noch etwas anderes fällt auf: Im Netz ermöglicht uns Schrift, symbolische Welten zu kreieren und zu erkunden, ein digital visualisiertes Gemälde vermittelt ganz sicher irgendeinen Eindruck und auch Musik überliefert Gefühle scheinbar mediumsunabhängig. Was wir aber manchmal vergessen, ist, dass sich in den virtuellen Welten des Internets all diese unbeschreiblichen Abstraktionen und Metapherwelten von Schrift, Bild und Ton bis zur Unkenntlichkeit vereinigen, “was zu einer Universalität von Zwecken, ja, einer Indifferenz gegenüber jedweder Intention führt“, so Prof. Dr. Hans-Dieter Kübler in seinem Werk „Mythos Wissensgesellschaft“. Während wir durch diesen multimedialen Zirkus tanzen und den vermeintlichen Mythos informationeller Selbstbestimmung leben, können wir oftmals gar nicht anders, als unsere Gleichgültigkeit gegenüber der akademischen oder künstlerischen Absicht einer Information zu verdrängen. Wenn uns heute der medientechnische Optimismus eines Marshall McLuhan begeistert, dann doch auch, weil wir, die Bürger “globaler Dörfer“, uns damit abgefunden haben, dass sich die eigentliche Bedeutung von schriftlich vermitteltem Wissen durch die Multimedialität des Internets mehr oder weniger völlig auflöst.

Auch in Zukunft werden sich nur wenige Sammler der goldenen Letter auf dem Kunstoffeinband, sowie des bildungsbürgerlichen Hochgefühls der Sicherheit beim Anblick der 32 gedruckten Bände im Regal erfreuen können. Viele andere wird man auf kunterbunten Websites Lernen und Gedankenarbeit mit medialem Edutainment verwechseln lassen. Es bedarf deshalb Wissensdatenbanken, die aufgrund ihrer Kostenfreiheit weniger multimedial und exklusiv, jedoch aus unverfälscht gemeinnütziger Absicht Wissen vermitteln und den geistigen Austausch fördern. Es bedarf einer größeren Anzahl spenden-finanzierter Enzyklopädien, wie Wikipedia, die den Marktplatz der Ideen vor allem als öffentlichen Raum gestalten, um Wissen kostenfrei wissenswerter zu machen.

Foto: flickr/Mike Licht, NotionsCapital.com (CC BY 2.0) , flickr/Alexander Speckmann (CC BY-NC-SA 2.0)

Wie das Fernsehen sich selbst abschafft

von Alexander Karl

Nein, das Fernsehen wird nicht sterben. Aber es siecht langsam dahin. Wer ist Schuld daran? Das Internet? Oder doch die Menschen, die es verpasst haben, das Internet als Chance und nicht als Fluch zu sehen?

Der Patient: Lage kritisch

„Der Zuschauer darf seine Regierung wählen, also auch sein Fernsehprogramm.  Ich wundere mich auch hin und wieder über die Wahl, aber der Wurm muss dem Fisch schmecken und nicht dem Angler.“ Dieses knackige Zitat stammt von Ex-RTL-Chef Helmut Thoma und bedeutet salopp gesagt: Ich selbst muss mein Programm nicht mögen, aber der Zuschauer. Über Jahre hinweg funktionierte das – gerade bei RTL – erstaunlich gut. Doch der Fernsehkonsument von heute ist verwöhnt. Er weiß, was er sehen will. Er hat da irgendwo auf YouTube was gesehen oder bei Facebook von gehört, vielleicht sogar bei Streaming-Plattformen geschaut. Doch das lineare TV – ohne Zeitversetzung, ohne eigene Programmplanung – ermöglicht es dem Fernsehzuschauer nicht, selbst zu wählen. Ja, er kann zappen. Aber manchmal ist das die Wahl zwischen Pest und Cholera. Um es mit Thoma zu sagen: Schon längst lechzt der Fisch nicht nur nach irgendeinem Wurm, sondern nach seinem individuellen Lieblingswurm. Und der wird ihm vom Angler einfach nicht angeboten.

Der Branchendienst DWDL.de hat eine Vielzahl von Punkten zusammengefasst, bei denen es im Fernsehen krankt: Mutlosigkeit, der Blick auf Marktanalysen und ins Ausland (was übrigens an den Buchmarkt erinnert). Innovation? Nein, danke. Jüngstes Beispiel: „Gottschalk live“. Der große Entertainer erreicht mittlerweile nur noch knapp 1,2 Millionen Zuschauer. Die Reaktion: Raus aus Facebook, raus mit der Redaktion, rein mit dem Live-Publikum und einem Sidekick. DWDL.de führt die Absurdität der Fernsehbranche vor Augen:

Mehrere TV-Produzenten geben ihre in Deutschland entwickelten Ideen inzwischen im Zweifel an ihre britischen Mutterhäuser ab, die diese dann umsetzen. Und mit dem Label des „erfolgreichen britischen Formats“ kauft es dann schon irgendwann jemand in Deutschland.

Ja, natürlich gibt es auch die berühmte Ausnahme – in diesem Fall Danni Lowinsky. Die erfolgreiche Comedy-Serie schaffte den Sprung in die USA. Aber wie gesagt: Ein Einzelfall. Denn ansonsten ist das deutsche Fernsehen eine große Version von „stern TV„: eine „Wundertüte“ mit „Tiere, Kinder, Kochen.“ Gut, die Kinder findet man mittlerweile primär bei der „Super Nanny“ (in Zukunft wohl ohne Katja Saalfrank) oder in den zahllosen Scripted Reality-Formaten. Tiere werden gefühlt weniger, während das Kochen immer beliebter wird. Bestes Beispiel: Das perfekte Dinner  – noch immer ein Quotenhit.

Was tun?

Nach dem Rieplschen Gesetz wird das Fernsehen nicht sterben. Es ist wahrscheinlich, dass noch immer Menschen fernsehen wollen, genauso, wie es Tageszeitungsleser oder Buchkonsumenten geben wird. Aber sollte man nicht vielleicht trotzdem versuchen, dem Medium einen letzten Dienst zu erweisen und es zu retten versuchen?

Die Schritte dazu wären gar nicht mal so schwer: Eine Überlegung wäre die Möglichkeit des interaktiven Fernsehens. Beispielsweise die Möglichkeit, dargestellte Produkte sofort kaufen zu können. Etwa Carrie Bradshaws Kleider oder Manolo Blahniks. Oder ein wenig mehr Kreativität zu wagen! Jüngst kauften US-Sender zehn israelische Serien ein – weil sie frisch und kreativ waren. Es sind nämlich nicht immer nur die amerikanischen Studios, denen die glorreichen Ideen zufliegen. Bekannte Beispiele sind etwa die Adaption von „The Voice“ aus den Niederlanden oder „Queer as Folk“ aus England.

Und natürlich  – endlich! – den Weg ins Internet zu finden. Ich möchte die Nachrichten – egal auf welchem Sender – online sehen können, sobald sie im TV ausgestrahlt werden. Nicht nur entweder im Livestream oder eine Stunde später. Ich möchte in Deutschland ein ähnliches Programm wie hulu.com haben, in dem ich legal alle aktuellen Serien schauen kann. Denn die deutsche Streaming-Mentalität liegt oftmals daran, dass es die einzige Chance ist, die gewünschte Serie im Internet zu schauen. Und bis die gemeinsame Mediathek von RTL und ProSieben-Sat1 kommt, wird es anscheinend noch dauern.

Das sind die Würmer, die mir als Fisch schmecken. Aber die Angler weigern sich beharrlich, mich damit zu ködern.

Foto: flickr/Funky64 (www.lucarossato.com) (CC BY-NC-ND 2.0),  photocase.com/ Tita Totaltoll

Partnerbörsen: Topf sucht den virtuellen Deckel

Einloggen, anschreiben, daten – das ist der Alltag vieler User von Partnerbörsen. Mit der Hoffnung auf die große Liebe durchstreifen immer mehr User die Singlebörsen im Netz – und diese passen sich den Vorlieben ihrer Nutzer an.

Minderwertigkeitskomplexe dank Facebook

Party- und Urlaubsbilder von Freunden auf Facebook können auf’s Gemüt schlagen – aber auch krank machen. Studien zeigen, wie das Selbstwertgefühl angegriffen wird. Mediziner sprechen schon von der Facebook-Depression.

Wenn das Netz dich kennt

Die Bedeutung des Rufs im Internet wird immer größer: Chefs googlen mögliche Angestellte, man selbst seine Freunde. Unangenehm, wenn Negatives gefunden wird. Nun kann man PR in eigener Sache betreiben – und Ungeliebtes tilgen.

Quo vadis, Urheberrecht?

Dank ACTA wird derzeit über das Urheberrecht debattiert – und das ist gut so. Denn auf Facebook und Co. brechen wir jeden Tag massenhaft das Gesetz. Welchen Sinn hat das Urheberrecht dann überhaupt? Und wo könnte uns der Konflikt hinführen?

Journalismus im Internet und eine Krake. Namens ACTA.

 von Felicitas Schneider

„Die Öffentlichkeit ist verunsichert, die Gerüchteküche brodelt. Die wenigen geleakten Informationen zu ACTA lesen sich wie ein Horrorkatalog für einen Bürgerrechtler“, schreibt die Stop-ACTA-Site.

Es bleibt alles beim Alten „deshalb sehen wir es auch nicht so kritisch, wie es einige Initiativen sehen“ dementiert Justizministerin Leutheusser-Schnarrenberger (FDP). Aber, worum handelt es sich bei ACTA, dem Anti-Counterfeiting Trade Agreement, eigentlich und was für eventuelle Auswirkungen hat das auf den (Bürger)Journalismus?

Was ACTA ist und wieso es kritisiert wird

Proteste gegen ACTA gab es auch in Deutschland – wie hier in Augsburg am 11.2.2012

ACTA – ausgeschrieben Anti-Counterfeiting Trade Agreement – ist eine Art Pendant zu den amerikanischen Anti-Piraterie-Gesetzen PIPA und SOPA. Seit 2007 wird das ACTA-Abkommen unter anderem von den USA, Japan und den 27 EU Mitgliedsstaaten unter völligem Ausschluss der Öffentlichkeit verhandelt. Hauptgegenstand des ACTA-Abkommens, welches eine Ergänzung zum TRIPS-Abkommen darstellt, ist die Verschärfung des Urheberrechtsschutzes durch striktere Ahndung von Urheberechtsverletzung und Produktpiraterie – vor allem im digitalen Raum. Erst auf stärker werdenden Druck der Öffentlichkeit wurde das „geheime Abkommen“ nach und nach veröffentlicht. Diese Geheimhaltung ist bedenklich, wie viele Juristen u.A. Thomas Stadler, Betreiber des Blogs „Internet-Law“ und Professor Metzer von der Universität Hannover kritisieren. Bedenklicher ist auch, dass das Dokument unter Ausschluss der WTO und des Europa Parlaments erstellt wurde, womit deren Mitspracherecht nicht gewahrt worden ist, obwohl das Abkommen den internationalen Handel und das europäische Recht betrifft.

Ein weiterer Kritikpunkt ist, dass ACTA weit über das europäische Recht hinausgeht. Europäisches Recht ist jedoch auf keinen Fall gleichzusetzen mit deutschem Recht. Viele Neuerungen durch ACTA sind längst nationales, nicht jedoch internationales Recht. So ist Artikel 27 des ACTA Abkommens, welcher Auskunftsansprüche gegen Provider vorsieht, schon lange deutsches Recht, nicht jedoch europäisches Recht.

Jedoch findet sich in Artikel 27 des Abkommens auch eine Neuerung für deutsches Recht. Diese ist, laut Rechtsanwalt Ferner, eine ausgesprochen gefährliche Neuerung. Der Artikel besagt, dass nicht nur Besitzer, sondern auch Dritte (beispielsweise Provider) haftbar gemacht werden können. Dies kann durchaus dazu führen, dass Anbieter wie Twitter und diverse Blogdienste Inhalte schon beim Verdacht einer Urheberrechtsverletzung zurückhalten und gar nicht mehr online stellen.

Durch ACTA sollen zudem Daten beschlagnahmt werden dürfen, wenn der Rechteinhaber Zweifel am rechtmäßigen Besitz der Daten äußert (Art. 12 ACTA). Dies entspricht zwar laut Rechtsanwältin Heidrun McKenzie schon der deutschen Gesetzgebung, nicht jedoch der Europäischen.

Des Weiteren dürfen, ohne die vorherige Anhörung des Betroffenen, Rechtliche Maßnahmen verhängt werden. Dieser Artikel verstößt gegen das (deutsche) Recht auf rechtliches Gehör (Art. 103 GG).

Durch die Artikel 12 und 27 des ACTA-Abkommens wird somit sehr deutlich, dass ACTA hauptsächlich die Rechte der Urheber schützen will und wenig Spielraum für die Verteidigung der Betroffenen einräumt. Das wiederum wird dazu führen, dass es eine massive Reduzierung der Informationsmöglichkeiten für die Nutzer geben wird.

ACTA + Onlinejournalismus = ?

Aber welchen Einfluss wird der Artikel 12 auf den Onlinejournalismus haben? Denkt man beispielsweise daran, wie Informationen über das Erdbeben, den Tsunami und den Super GAU in Japan an die Öffentlichkeit gelangten, so waren es nicht Pressemitteilungen der Regierung, sondern Tweets und Blogbeiträge von Betroffenen, die internationale Journalisten mit Informationen versorgten.

Wie griffig ist außerdem das Argument, dass Beiträge in Form von Youtubevideos „zensiert“ würden weil im Hintergrund urheberechtlich geschützte Musik läuft und dadurch eine Verletzung des Urheberrechtes vorliegen würde? Man denke beispielsweise an die Ausstrahlung eines Interviews von einem Festival bei Youtube. Während die Künstler interviewt werden, hört man im Hintergrund einen anderen Act auftreten. Würde das Interview daraufhin zensiert werden, weil der Interviewer die Rechte an der „Hintergrundmusik“ nicht besitzt? Solche Prognosen klingen absurd, werden von ACTA Gegnern jedoch immer wieder angeführt.

Was geschieht also, wenn diese Befürchtung nicht hypothetisch bleibt, sondern Realität wird? Gesetz dem Fall, Journalisten und Bürgerjournalisten veröffentlichen Inhalte (wenn auch in eigenen Worten), die sie zuvor auf Seiten wie Zeit.de gelesen haben, geben jedoch nicht an, woher ihre Informationen stammen, wie das bei Tweets oder Facebookposts meist der Fall ist – würden die ACTA-Neuerungen in diesem Fall greifen?

Würde Journalismus am Ende schrecklich teuer, weil man für alle Informationen die Rechte kaufen bzw. für sie bezahlen müsste? Verstieße dies nicht gegen eine der fundamentalen Ideen des Internets, Informationen kostenlos und weltweit zugänglich zu machen?

Was würde passieren, wenn man auf einem viel frequentierten Blog karikierende, Zeitgeschehen kommentierende Fotos und Werbeanzeigen postet, welche man zuvor im Internet gefunden hat, jedoch nicht angibt, woher der Fundus stammt?

Wie weit wären Journalisten die im Internet veröffentlichen, von diesen neuen, strengeren Richtlinien betroffen?

Während derzeit noch unklar ist, ob das Europa-Parlament  das ACTA-Abkommen unterzeichnen wird und Deutschland die Ratifizierung vorerst auf Eis gelegt hat, möchten Länder wie Polen, Tschechien und Lettland nach heftigen Protesten aus der Bevölkerung  vorerst die Ratifizierung des Abkommens aussetzen. Viele Fragen stehen im Raum.  Allerdings ist es, wie Thomas Stadler, Betreiber des Blogs „Internet-Law“ anmerkt, schwierig, fundierte, sachliche Fakten über ACTA zu finden. Fragen wie beispielsweise zu den Zusammenhängen zwischen ACTA und Online Journalismus sind dadurch nur schwerlich zu beantworten. Wem das 52-seitige Dokument Aufschluss bietet, der kann sich die Fragen selber beantworten. Wer das nicht möchte oder wem das nicht genügt, der kann sich anderweitig Informationen beschaffen, z.B.: über das Internet. Vorausgesetzt, es gibt sie dort noch.

 

Foto: flickr/ Johanna Bocher (CC BY-NC-ND 2.0); Sophie Kröher

Tschüss Megaupload, Hallo SOPA & PIPA!

von Iris Hofmann

Du hast eine Datei, die du via Internet mit einem Freund teilen willst? Kein Problem, wozu gibt es Filesharing-Dienste? Datei hochladen, Link dazu verschicken, fertig – und das alles völlig legal. Natürlich nur, solange die Datei nicht urheberrechtlich geschützt ist. Doch das Urheberrecht wurde den Betreibern von Megaupload nun zum Verhängnis. Der bekannte Filehoster wurde  wegen Verdachts der Piraterie aus dem Netz genommen – Verhaftung mehrerer Verantwortlicher der Webseite inklusive.

Screenshot, 23. Januar 2012, 15:21 Uhr: Die Überbleibsel des ehemaligen Filehoster-Giganten

Ein millionenschweres Geschäftsmodell

Was Megaupload von anderen Filehostern wie beispielsweise Dropbox oder Rapidshare unterschied, war das Geschäftsmodell. Im Gegensatz zu ihnen bot Megaupload seinen Nutzern ein sogenanntes „Belohnungsprogramm“ an. Neben den kostenlosen Upload-Möglichkeiten mit wenig Kapazität legten sich Uploader auch die kostenpflichtigen Premium-Accounts von Megaupload zu. Nun galt es, so viele Downloads wie möglich zu erzielen, denn ab einer gewissen Anzahl von Downloads wurde der Uploader mit einem Geldbetrag belohnt.

Je beliebter also die zum Download angebotene Datei, desto mehr Einnahmen für den Uploader. Eine schöne Motivation, Uploads so ansprechend wie möglich zu gestalten. Und was könnte für Nutzer ansprechender sein, als der Download einer Datei, die sonst nur käuflich zu erwerben ist und auf diese Weise kostenlos auf dem Computer landet? Da die Urheberrechtsinhaber dieser Dateien aber kein Geld bekamen, war das leider eine illegale Aktivität.

Fraglich ist natürlich, inwieweit die Betreiber Bescheid wussten beziehungsweise an den illegalen Deals beteiligt waren. Sie selbst weisen zwar alle Vorwürfe von sich, aber laut US-Behörden wurden E-Mails entdeckt, die den Verdacht der vorsätzlichen Piraterie bestätigen.

Kann ein Filehoster überhaupt illegale Uploads verhindern?

Grundsätzlich gilt: Jein.

In Deutschland haben Filehoster eine bestimmte Prüfungspflicht. Sie müssen Filter einsetzen, die mögliche illegale Inhalte erkennen, und Inhalte von ihren Servern löschen, wenn das die Rechteinhaber fordern. Trotzdem ist es unmöglich, den kompletten Inhalt zu prüfen. Filesharing-Dienste bewegen sich daher in einer rechtlichen Grauzone, die bisher geduldet wurde, nun aber Gefahr läuft, von den US-Behörden verboten zu werden.

SOPA & PIPA – Umstrittene Gesetzesvorlage der US-Behörden

Denn die beiden Gesetzesvorlagen SOPA (Stop Online Piracy Act) und PIPA (Project IP Act)sollen nun umgesetzt werden, um Urheberrechte im Internet stärker zu schützen und ihren Missbrauch zu bekämpfen. Allerdings werden die Anti-Piraterie-Gesetze derzeit von vielen Seiten kritisch diskutiert. Am Mittwoch, dem 18. Januar 2012, fand der Protest gegen die Gesetzesvorlagen seinen Höhepunkt im sogenannten „Blackout-Day“. Die englischsprachige Version von Wikipedia sowie viele andere Webseiten blieben aus Protest 24 Stunden lang schwarz. Unter anderen Wikipedia, Google und wordpress.org erläuterten auf ihren Seiten die Gründe des „Blackouts“ und forderten die Menschen auf, Petitionen zu unterzeichnen, um SOPA und PIPA zu verhindern. Die Webseite sopastrike.com veröffentlicht nun Fakten zum Internetstreik. Zehn Millionen Menschen unterzeichneten Online-Petitionen gegen die Gesetzesvorlagen und über 115.000 Webseiten beteiligten sich am Internetstreik. Natürlich wurde auch via Twitter viel protestiert und diskutiert. Allein am Blackout-Day wurden über 2 Millionen Mal „#sopa“, „#pipa“ und „#wikipedia“  getwittert.

Die Proteste zeigten schließlich  Wirkung. US-Senator Harry Reid twitterte am 20. Januar, dass die Abstimmung über den „Project IP Act“ zunächst einmal verschoben wird. Auch die Gesetzesvorlage „Stop Online Piracy Act“ wird vorerst gestoppt. Die Entwürfe sollen nun nochmal überprüft und teilweise abgeändert werden.

Aber warum rufen die Vorlagen überhaupt so viel Protest hervor?

Kritiker vermuten, dass das Gesetz nicht nur der US-Regierung, sondern auch der Unterhaltungsindustrie eine umfassende Internetzensur erlauben würde. Auf den ersten Blick recht einleuchtend wirkt, dass SOPA Webseiten als urheberrechtsverletzend einstuft, wenn der Betreiber „kriminelle Verstöße“ gegen das Urheberrecht „ermöglicht oder selbst begeht“. SpiegelOnline mutmaßt aber, dass die Regelungen leicht ausgenutzt werden könnten. Zum Beispiel könnte man gegen Enthüllungsplattformen wie WikiLeaks, die vielen Politikern ein Dorn im Auge sind, spielend leicht vorgehen, denn WikiLeaks etwa hatte erst vor kurzem urheberrechtlich geschützte Handbücher für Überwachungstechnologie online gestellt. Zudem müssten Filehoster ihre Dienste aufgeben, da sie grundsätzlich die Möglichkeit zum Upload urheberrechtlich geschützter Inhalte bieten. Aber nicht nur Filehoster hätten ein Problem. Allgemein müsste künftig jede Seite, die es Nutzern ermöglicht, sich aktiv einzubringen und somit auch Urheberrechtsverstöße zu begehen, jeden einzelnen Inhalt überprüfen. Wie sollten Facebook und Co. diese Aufgabe stemmen?

Da laut SOPA-Gesetz sogar die Reproduktion urheberrechtlich geschützter Inhalte verboten wäre, würde man sich strafbar machen, indem man im Internet einen selbst nachgesungenen Song veröffentlicht.

Natürlich ist es wichtig, die Rechte von Urhebern zu schützen, da diese besonders im Internet durch die schnelle und leichte Reproduzierbarkeit von Daten gefährdet sind. Trotzdem müssen die US-Behörden einen Weg finden, der keine Zensur beinhaltet, denn sonst werden allgemeine Rechte gefährdet.

 

Screenshot: www.megaupload.com, 23. Januar 2012, 15:21 Uhr (von Iris Hofmann); Foto: flickr/Jed Hastwell (CC BY-SA 2.0)