Trimediale 2018

Der Wandel als einzige Konstante – Wie kann die Medienregulierung Schritt halten?

Eine Veranstaltung der deutschen Landesmedienanstalten, des BAKOM und der RTR/KommAustria

Meinungsbildung per Facebook, Video-Streaming statt Fernsehen, Nachrichten vom digitalen Sprachassistenten: Die Transformation der Mediengesellschaft, neue Geschäftsmodelle und die Änderung der Mediennutzung stellen die Regulierung von Online- und Rundfunkmärkten vor große Herausforderungen. Im Rahmen der vierten Trimediale-Veranstaltung diskutierten am 22. Juni bei der Landesanstalt für Medien NRW in Düsseldorf Experten aus Österreich, der Schweiz und Deutschland über die Medienregulierung der Zukunft. An der Veranstaltung der österreichischen RTR-GmbH/Komm Austria, des Schweizer Bundesamtes für Kommunikation (BAKOM) und der deutschen Medienanstalten nahmen außer Vertretern der Medienaufsicht auch Wissenschaftler und Programmverantwortliche teil.

Angesichts der globalen Verbreitung von Online-Angeboten gebe es in allen drei Ländern „verstärkte Probleme mit der Durchsetzung von Rechtsgütern im Netz“, erklärte Dr. Tobias Schmid bei seiner Begrüßung der Tagungsteilnehmer. Der Europabeauftragte der DLM und Direktor der Landesanstalt für Medien NRW wies in diesem Zusammenhang auf die Grenzen nationalen Rechts bei grenzüberschreitenden Rechtsverstößen hin, auf Fake News und Hate Speech, auf Probleme des Nutzerschutzes und der Abgrenzung zwischen klassischem Rundfunk und Online-Bewegtbildangeboten.

Sonja Schwetje, Chefredakteurin von n-tv und Mitglied der High Level Expert Group Fake News der Europäischen Kommission, zeigte am Beispiel der Mitte Juni von einem Journalisten der Satire-Zeitschrift Titanic lancierten Falschmeldung, Horst Seehofer kündige das Regierungsbündnis mit der CDU auf, wie schnell auch Qualitätsmedien wie n-tv auf gefälschte News hereinfallen können. Die Meldung sei von einer renommierten Agentur verbreitet worden, die sich vermeintlich auf den Hessischen Rundfunk als Quelle berufen habe. Tatsächlich handelte es sich bei der Nachricht des Twitter-Accounts „hr Tagesgeschehen“ allerdings um einen Satire-Tweet. Der Fall verdeutliche, dass jede neue Technologie auch zur Manipulation oder der Verbreitung manipulierter Inhalte genutzt werden könne, erklärte die n-tv-Chefredakteurin. Sogenannte „Deep Fakes“, also von Künstlicher Intelligenz manipulierte Bilder oder Videos, seien als Fälschungen kaum noch erkennbar. „Es wird also realistisch nicht möglich sein, Fehler hundertprozentig auszuschließen“, urteile Sonja Schwetje. Bei Fake News handle es sich um die „bewusste Manipulation von Informationen mit meist wirtschaftlicher oder politischer Motivation“. Das Ergebnis sei Desinformation, die oft juristisch nicht strafbar sei.

Der Abschlussbericht, den die High Level Expert Group Fake News der Europäischen Kommission im März vorlegte, sieht einen Zehn-Punkte-Plan für digitale Plattformen und soziale Online-Netzwerke vor. Vor allem gehe es darum, Transparenz über die Herkunft und Verarbeitung von Informationen zu schaffen, sagte Sonja Schwetje. Außerdem müssten Informationsvielfalt und Glaubwürdigkeit gefördert sowie neue Lösungen gefunden werden, beispielsweise durch mehr Medienkompetenz oder öffentliche Debatten über das Problem.

Basierend auf dem Bericht der Expertengruppe habe die Europäische Union Ende April Vorschläge unterbreitet, zu denen auch ein Verhaltenskodex für Online-Plattformen zähle. Bis Mitte Juli solle nun gemeinsam mit Branchen-Vertretern ein Code of Practice erarbeitet werden, kündigte die n-tv-Chefredakteurin an. Es sei allerdings fraglich, ob eine „Privatisierung“ der Rechtsdurchsetzung, bei der allein die Betreiber von Online-Netzwerken über die Löschung von Inhalten entscheiden, die beste Lösung darstelle. In Bezug auf die Regulierung sprach Sonja Schwetje von einem „eklatanten Verpflichtungsgefälle zwischen Broadcastern und Online-Plattformen“. Weil digitale Plattformen eine „bedeutende Rolle hinsichtlich Gatekeeping- und Meinungsbildungsfunktion“ spielen würden, brauche es einen gesetzlichen Rahmen. So müsse etwa geregelt werden, dass für eine Art Gegendarstellungspflicht in Online-Netzwerken entsprechende Richtigstellungen dieselben Nutzer erreichten wie die fehlerhaften Ausgangsposts. Um eine pluralistische Mediengesellschaft zu schützen, müsse die Politik für alle Marktteilnehmer Chancengleichheit gewährleisten, lautete Sonja Schwetjes abschließender Appell.

Trotz Fake News und der wachsenden Meinungsmacht von Intermediären, so urteilte der Schweizer Medienwissenschaftler Prof. Dr. Mark Eisenegger, sei das Spektrum der Kommunikationsmöglichkeiten in der Zivilgesellschaft durch das Internet bereichert worden. Der Präsident des Forschungsinstituts Öffentlichkeit und Gesellschaft (fög) und ordentliche Professor des Instituts für Kommunikationswissenschaft und Medienforschung der Universität Zürich erklärte, Fake News verbreiteten sich in sozialen Online-Netzwerken deshalb so gut, weil sie mit „provokativen und irritierenden Inhalten“ emotionale Botschaften schaffen würden. Dies führe zu großen Reichweiten, die der ökonomischen Logik beispielsweise von Facebook perfekt entsprechen würden. Social Media biete eine „perfekte Umgebung für populistische Inhalte“, warnte auch Patrick Gensing, der das Online-Portal faktenfinder von tagesschau.de leitet. Der Social-Media-Bereich sei sehr anfällig für Manipulationen. Fake News aber seien nur Symptom, nicht Ursache von politischer Desinformation. Dagegen könnten nur professioneller Journalismus helfen und verantwortungsbewusste Nutzer, die als Sender ihrer Postings eine Art redaktionelle Verantwortung übernehmen müssten.

Facebook will weder Hass noch Fake News

Constanze Osei-Becker, Manager Public Policy von Facebook, berichtete, Facebook habe bereits zehntausend Fake Accounts gelöscht. Oft seien Fake News, die über das soziale Online-Netzwerk verbreitet würden, ökonomisch motiviert und sollten Klicks für fremde Seiten generieren. Facebook lasse das inzwischen teilweise „technisch stoppen“, teilte Constanze Osei-Becker mit. Künstliche Intelligenz könne bei der Entdeckung von Fake News helfen, allerdings ließen sich Videos, Sprache und Semantik kaum von Algorithmen zuverlässig auswerten. „Wir wollen keine Hassrede und keine Falschmeldungen auf der Plattform haben“, versicherte die Facebook-Managerin.

Sogenannte Dark Ads, die sich etwa für politische Werbung per Microtargeting auf bestimmte Nutzer individuell zuschneiden lassen, werde es nicht mehr geben, versicherte Constanze Osei-Becker. Vielmehr werde bei politischer Werbung künftig angezeigt, von wem und von wann sie stamme sowie welche Reichweite sie erzielt habe. Entsprechende Angaben würden im Archiv gespeichert und könnten für die vergangenen sieben Jahre öffentlich eingesehen werden.

Während Markus Breitenecker, in Österreich Geschäftsführer von ProSiebenSat.1 Puls 4, forderte, Facebook müsse ebenso streng reguliert werden wie klassische Medien, weil das soziale Online-Netzwerk Inhalte massenhaft verbreite und bearbeite, sie sortiere und mit Werbung versehe, sah Constanze Osei-Becker dies anders. Schließlich erstelle Facebook keine eigenen Inhalte, sei also kein echtes Medium, sondern eine „Sonderform“. Puls-4-Manager Markus Breitenecker widersprach. Es seien keine eigenen Regeln für digitale Angebote notwendig, wenn die bestehenden Gesetze einfach auch für Publisher wie Facebook oder auch YouTube Autoplay angewendet würden.

Wie komplex die Problematik unterschiedlicher Regulierungsregime etwa für die Bereiche des klassischen Rundfunks und digitaler Online-Angebote ist, machte Claus Grewenig klar. Der Leiter des Bereichs Medienpolitik bei der Mediengruppe RTL Deutschland warnte davor, es sei online technisch bereits möglich, ein Fake-Laufband über einen Original-Scrawl eines TV-Programms zu platzieren. Umso wichtiger sei es, für die Welt von Smart-TV-Geräten die Signalintegrität und damit „richtige Nachrichten“ zu schützen. Um die Verbreitung manipulierter Videos zu verhindern, so erläuterte Claus Grewenig, beschäftige die RTL-Mediengruppe seit zwei Jahren ein Verifikationsteam, für das europaweit mehr als hundert Experten arbeiten würden.

Dass sich außer Informationsintermediären und Online-Plattformen längst weitere Technologien zu Gatekeepern entwickeln, wurde beim zweiten großen Thema der Trimediale 2018 deutlich. Dabei ging es um Sprachassistenten wie die von Apple (Siri), Amazon (Alexa) oder Microsoft (Cortana). Bei den sprachgesteuerten Sound-Boxen handle es sich um das „den Menschen ähnlichste Interface, das es je gab“, begründete Prof. Dr. Christian Stöcker den Erfolg der neuen Technologie. Der Professor für Digitale Kommunikation an der Hochschule für Angewandte Wissenschaften Hamburg warnte zugleich, weil Alexa & Co. jeweils nur eine Antwort auf eine Frage geben würden und nicht etwa eine Auswahl von Suchergebnissen, seien ihre Auswirkungen auf Meinungsbildung und -vielfalt besonders groß. Schließlich stelle sich die Frage, wessen Informationen dieses Nadelöhr passieren würden.

Algorithmen brauchen viele Daten

Mit welchen Filterungsprozessen Algorithmen dazu beitragen, Online-Inhalte zu filtern, zu sortieren und zu kuratieren, erläuterte Prof. Dr. Martin Braschler von der ZHAW Zürcher Hochschule für Angewandte Wissenschaften. Entweder würden zu bereits genutzten Inhalten ähnliche gesucht und empfohlen, oder es würden ähnliche Nutzerprofile verwendet, um aus deren Präferenzen geeignete Angebote abzuleiten. Bei beiden Verfahren steige mit der Menge der Daten auch die Qualität von Such- oder Empfehlungsmechanismen. Insgesamt gelte, dass mit Hilfe von Algorithmen zwar herausgefunden werden könne, welcher Inhalt am besten zu einem bestimmten Problem passe, aber nicht ermittelt werden könne, wie gut die angebotene Lösung ein bestimmtes Nutzerbedürfnis befriedige.

Rüdiger Landgraf, Programmdirektor von Radio KroneHit in Wien, nannte es einen großen Vorteil von Sprachassistenten, dass sie preiswert und für alle Altersgruppen zugänglich seien. Nun habe die Medienbranche die Aufgabe, nicht-lineare, personalisierte Services für Alexa zu entwickeln. Allerdings seien die Skills für Nutzer ein wenig zu umständlich aufzurufen, relativierte Alexander Köhn. „Ich muss zurzeit Skills erst noch aktivieren. Das wird sich sicher ändern“, prognostizierte der Geschäftsführer der Digitalagentur Nuuk.

Als Barriere bezeichneten Rüdiger Landgraf und Alexander Köhn auch die Tatsache, dass Amazon das Geschäftsmodell für Sprachassistenten noch mit seiner Technik und den Musikrechten dominiere. Dennoch führe an Sprachassistenten kein Weg vorbei, falls für die Nutzer Funktionen mit Mehrwert entwickelt würden. Die Technologie werde „immer tiefer in den Alltag integriert“, weil sie das Leben erleichtern könne, sagte Alexander Köhn voraus. Kommunikationswissenschaftler Christian Stöcker mahnte jedoch, es müsse systematisch wissenschaftlich analysiert werden, welche Art von Öffentlichkeit Algorithmen und Sprachassistenten eigentlich herstellen. Für die Regulierung dieses Bereiches würden nationalstaatliche Lösungen nicht ausreichen.

Um den Bereich der audiovisuellen Mediendienste transnational in Europa zu regeln, haben sich im April Europäische Kommission, Europäisches Parlament und der Rat der Europäischen Union im Rahmen der Trilog-Verhandlungen auf neue Regeln für die EU-Richtlinie für audiovisuelle Mediendienste (AVMD) geeinigt. Dr. Michael R. Kogler, stellvertretender Leiter der Abteilung Medienangelegenheiten, Koordination Informationsgesellschaft im Verfassungsdienst des Bundeskanzleramtes in Österreich, unterstrich, künftig müssten Plattformbetreiber von der Medienaufsicht kontrolliert werden.

Die novellierte AVMD-Richtlinie erlaube für Online-Plattformen weder Hassrede noch Diskriminierung einzelner Angebote, schütze Minderjährige vor jugendgefährdenden Inhalten und werde auf Streaming-Dienste und Video-on-Demand-Angebote ausgeweitet, erklärte Michael R. Kogler. So dürfe sich etwa YouTube künftig nicht darauf zurückziehen, dass es technisch nicht funktioniere, die genannten Regeln einzuhalten. Allerdings könne nicht alles reguliert werden. So lasse sich etwa „verfassungsrechtlich nicht einordnen“, was Fake News seien.

Corinna Drumm, Geschäftsführerin des Verbandes Österreichischer Privatsender, kritisierte, die neue AVMD-Richtlinie gehe nicht weit genug. Online-Plattformen würden nicht ausreichend zur Verantwortung gezogen. Insbesondere Videos, welche die öffentliche Meinung prägen könnten, müssten stärker kontrolliert werden, bevor sie von den Nutzern angeklickt würden.

Jan Kottmann, Leiter des Bereichs Medienpolitik von Google Germany, zeigte sich angesichts der neuen AVMD-Richtlinie gelassen. Für Deutschland ändere sich durch den neuen Rechtsrahmen nicht viel. Dass demnächst in puncto Jugendschutz und Werbekennzeichnung sowie für die Bekämpfung von Hass und Diskriminierung einheitliche Regeln gelten würden, sei kein Problem. Allerdings müsse es beim sogenannten Notice-and-take-down-Verfahren bleiben, das zur Löschung inkriminierter Inhalte erst verpflichtet, wenn diese von Nutzern an YouTube gemeldet worden sind.

Prof. Dr. Otfried Jarren, Präsident der Eidgenössischen Medienkommission (EMEK), erteilte in diesem Zusammenhang allen Vorschlägen eine Absage, demokratie- oder jugendgefährdende Inhalte automatisch durch eine Art Metrik zu ermitteln und zu löschen. „Kommunikationsdynamik lässt sich nicht steuern“, lautete die These des Kommunikationswissenschaftlers. Außerdem würden Videoplattformen die Vielfalt bereichern. Diese Ansicht vertrat auch Sandra Thier. Die Geschäftsführerin der auf Influencer und Online-Video-Content spezialisierten diego5 studios unterstrich, YouTube biete Freiheit und Kreativität, ermögliche direkte Kommunikation und Distribution.

Menschenwürde & Medienvielfalt

Um Gefahren für die Meinungsbildung und -vielfalt abzuwehren, empfahl Otfried Jarren politische Vorgaben für die Regeln der Allgemeinen Geschäftsbedingungen von Google oder Facebook sowie die Förderung eines „robusten Journalismus“. Außerdem müsse die Medienkompetenz der Nutzer verbessert und „gesamtgesellschaftlich“ über geeignete Regeln diskutiert werden. Otfried Jarren riet der Medienpolitik und -aufsicht zu einer „Kollaboration“ mit den Betreibern von Online-Portalen und Intermediären.

Dr. Susanne Lackner, stellvertretende Vorsitzende der österreichischen Kommunikationsbehörde Austria (KommAustria), drängte auf von den Regulierungsbehörden möglichst effizient umzusetzende Prinzipien. Der BAKOM-Direktor Philipp Metzger schlug resümierend vor, einerseits müssten die klassischen Medien für die digitale Transformation gestärkt, andererseits Medienkompetenz gefördert und Grundrechte geschützt werden.

Auf das Postulat des Schutzes von Menschenwürde und Medienvielfalt zielte am Ende der Trimediale 2018 auch das Schlusswort von Tobias Schmid. Der Europabeauftragte der DLM und Direktor der Landesanstalt für Medien NRW hob hervor, Jugend- und Verbraucherschutz ließen sich trotz aller Globalisierung auch national durchsetzen. Eine europäische Regulierung sei möglich und geboten, „um internationalen Unternehmen unsere Werte zu erklären“. Schmids Postulat dabei lautete: „Wer in Europa Geschäftsmodelle aufbaut, muss auch unsere Regeln einhalten.“ Außerdem machte er sich für den Grundsatz stark, dass alles, was wie ein audiovisueller Mediendienst im Internet wirke, auch als ein solcher von der Medienaufsicht behandelt werden müsse.

Tagungsbericht: Matthias Kurp

Fotos: Uwe Völkner/FOX
  • Landesanstalt für Medien (LfM)
  • Zollhof 2
  • 40221 Düsseldorf