Künstliche Intelligenz

KI und Medien – Vielfalt stärken, Verantwortung regeln, Vertrauen wahren

Ein Positionspapier der Medienanstalten
Positionspapier
Vorschaubild der PDF-Datei

20.03.2024

KI und Medien – Vielfalt stärken, Verantwortung regeln, Vertrauen wahren

Künstliche Intelligenz (KI) birgt als Schlüsseltechnologie der Zukunft sowohl erhebliches Potenzial als auch evidente Herausforderungen – so auch für die Medienvielfalt und öffentliche Meinungsbildung.

Eine zeitgemäße Medienaufsicht muss diese beiden Seiten in den Blick nehmen, Impulse setzen und die wachsende Rolle von KI bei der Erstellung, Distribution und Rezeption von Medieninhalten im Blick behalten.

Es bedarf weiterhin einer Stärkung von KI-Kompetenzen, die durch eine umfassende Integration in Bildungscurricula und gezielte Fortbildungsprogramme gekennzeichnet ist.

Nachstehend leuchten die Medienanstalten die für ihre Arbeit im Bereich der Regulierung sowie der Förderung von Medienkompetenzen wesentlichen Anschlussstellen aus. Es bedarf einer medienrechtlichen KI-Regulierung, denn es lässt sich schon jetzt erkennen, dass mit dem AI-Act zumindest für den Bereich des Medienrechts eher neue Fragen aufkommen, als dass Antworten gegeben werden. Die Medienanstalten beschäftigen sich intensiv mit dem Thema KI in Medien, sie wollen den Medienanbietern einen rechtssicheren und innovativen Einsatz von KI in der Produktion und Distribution von Medieninhalten eröffnen.

Mit den nachstehenden ersten Forderungen, die insbesondere die Herausforderungen für die Medienvielfalt und öffentliche Meinungsbildung in den Blick nehmen, leisten die Medienanstalten ihren Beitrag zu einer
Debatte, die sich im Fluss befindet. Die folgenden Regulierungsansätze bedürfen daher einer regelmäßigen Evaluierung.

Vielfalt stärken

Problembeschreibung:

Demokratische Gesellschaften leben von der Pluralität und dem Aushandeln von Meinungen. Daher stellen potentiell vielfaltsverengende Technologien nicht nur eine abstrakte, sondern konkrete Gefahr für die edien- und Meinungsvielfalt dar. Der Einsatz von KI darf daher das medienrechtlich übergeordnete Ziel der Vielfaltssicherung nicht beeinträchtigen. Dabei geht es nicht nur um die Vielzahl der Meinungen, Perspektiven und Informationen, sondern insbesondere um das Sichtbarmachen dieser.

An diesem Punkt, nämlich am öffentlichen Meinungsbildungsprozess, setzt die Aufsichtstätigkeit der Medienanstalten an. Dies ist umso relevanter, wenn KI bei der Produktion von journalistischen Medienangeboten zum Einsatz kommt. Die Wahrung von Perspektivenvielfalt ist hierbei von besonderer Bedeutung.

Ansätze und Forderungen:

Bei Konfigurierung und Training von KI-Chatbots u.a. Ausgabesystemen aus LLMs ist Multiperspektivität in ihrer grundsätzlich vielfaltssichernden Bedeutung zu wahren, d.h., es ist darauf hinzuwirken und transparent zu machen, wie beim Einsatz von KI den Gefahren einer Vielfaltsverengung entgegengewirkt wird und eine möglichst breite, vielfältige Ausleuchtung statt enger Sichtweise und Festlegung gewährleistet ist.

Zertifikate und Prüfszenarien für KI-Anwendungen, die für die Generierung und Verbreitung von Medieninhalten zum Einsatz kommen sollen, müssen im Sinne des AI Acts Kriterien enthalten und Vorkehrungen  vorsehen, um diese Vielfalt bei der Nutzung von KI zu sichern. Die Medienanstalten als staatsfern organisierte Aufsichtsbehörden sind hierbei in ihren Zuständigkeitsgebieten einzubeziehen.

Verantwortung regeln

Problembeschreibung:

Durch den Einsatz von KI wird gerade der sensible Bereich der öffentlichen Meinungsbildung berührt. Journalistisch-redaktionelle Angebote wirken in besonderem Maße auf die öffentliche Meinungsbildung, da sie für sich in Anspruch nehmen, Fakten aufzubereiten und entsprechend abwägend zu berichten. Aus diesem Grund haben diese Anbieter bei ihrer Arbeit seit jeher gewissen journalistischen Sorgfaltspflichten und  Programmgrundsätzen zu entsprechen, welche die Medienanstalten im Rahmen ihres gesetzlichen Auftrags überprüfen.

Dieser Gedanke der besonderen Verantwortung als journalistisch-redaktionellem Medienangebot ist auf den Einsatz von KI zu übertragen. Medienschaffende haben deshalb beim Einsatz von KI besondere Prüfpflichten und Anforderungen zu erfüllen, insbesondere um Manipulationen auszuschließen.

„Recherche ist unverzichtbares Instrument journalistischer Sorgfalt. Zur Veröffentlichung bestimmte Informationen … sind mit der nach den Umständen gebotenen Sorgfalt auf ihren Wahrheitsgehalt zu prüfen …“ (Ziff. 2 Deutscher Pressekodex). Diese Ex-Ante-Verpflichtungen zur Erfüllung journalistischer Sorgfaltspflichten dürfen durch die Nutzung von KI nicht umgangen oder ausgehöhlt werden. Einer etwaigen Verantwortungsdiffusion ist in diesem sensiblen Bereich frühzeitig entgegenzutreten.

Die Auswahl, Zusammenstellung und Verbreitung KI-gestützter audiovisueller Angebote stellt eine redaktionelle Leistung dar, weshalb auch medienrechtlich für den Inhalt Verantwortung übernommen werden kann und muss.

Bei mit Empfehlung verbundenen Technologien kommt KI eine besonders lenkende Funktion zu, da sie darüber entscheidet, was für die Nutzenenden wahrnehmbar wird und was nicht. Besonders risikoreich ist dies, weil die wachsenden Datenmengen in ihrer Konzentration bei wenigen Tech-Unternehmen liegen.

Ansätze und Forderungen:

Der Einsatz von KI ändert nichts an der grundsätzlichen Verantwortung für den Inhalt des Anbieters bzw. der Anbieterin. Für automatisierte und (rein) KI-generierte bzw. -manipulierte Inhalte besteht eine uneingeschränkte
Haftung wie bei sonstigen redaktionellen, menschenverantworteten Veröffentlichungen. Die Verantwortung für KI-generierte Inhalte und Prozesse liegt bei den die KI-einsetzenden Medienanbietern bzw. Redaktionen.

Es sind Vorkehrungen mitzudenken, die es erlauben, für die Inhalte weiterhin und in gleichem Umfang die Verantwortung zu übernehmen. Diese können in Kontrollmechanismen bestehen, die Inhalte vor ihrer Verbreitung
überprüfen oder in Ex-Post-Kontrollen. Bei Letzteren sind erhöhte Anforderungen zu stellen, um auszuschließen, dass menschliches Verhalten manipuliert und Menschen geschadet werden könnte.

Die Landesmedienanstalten bringen sich in die Entwicklung von Kriterien zu Verantwortlichkeiten, Verfahren und tauglichen Prüfmechanismen ein.

Vertrauen wahren

Problembeschreibung:

Das Vertrauen in die Produktion und Verbreitung medialer Inhalte ist entscheidend für die Wahrung der Meinungsvielfalt in demokratischen Systemen. Der Einsatz von Algorithmen und KI kann ebenjenes Vertrauen in
journalistische Sorgfalt bei der Erstellung, Auswahl und Verbreitung redaktioneller Inhalte maßgeblich beeinträchtigen. Um das Medienvertrauen zu wahren und KI auch als Chance zu begreifen, erscheint es sinnvoll, die medienrechtlichen Prinzipien der Transparenz und Diskriminierungsfreiheit auf den Einsatz von KI zu übertragen.

Weil Vertrauen auch auf Verstehen gründet, braucht es KI-Kompetenz. Alle Bevölkerungs- und Altersgruppen müssen im Sinne der Meinungs- und Vielfaltssicherung KI-Kompetenzen erlangen und für Risiken durch den Einsatz von KI sensibilisiert werden, etwa hinsichtlich der Funktionsweise von KI und Algorithmen in Zusammenhang mit Desinformationsmechanismen oder durch die Befähigung zu Quellenkritik.

Ansätze und Forderungen:

KI-bezogene Transparenz- und Offenlegungspflichten sollten in das Portfolio vielfaltssichernder Angaben des MStV aufgenommen werden. Datenherkunft, Trainingsmethoden und Distributionsmechanismen relevanter KI-Systeme müssen gegenüber den aufsichtsführenden Medienanstalten offengelegt werden.

Selbstverpflichtende Kennzeichnungen durch die Medienanbieter, wie z.B. von synthetischen Stimmen, KI-Moderator:innen, KI-generierten Bildern, Texten sowie KI-Programmen sind daher zielführend. Richtlinien für den KI-Einsatz bei der Gestaltung und Verbreitung von Medieninhalten sind zu veröffentlichen. Durch die Bündelung von Knowhow und den offenen Austausch innerhalb der Branche unter Beteiligung der Aufsichtsbehörden / Medienanstalten soll die Möglichkeit einer Verständigung auf einheitliche Standards für die Nutzung von KI-Technologien in Redaktionen unterstützt werden.

Die Vermittlung von KI-Kompetenzen als Teil der allgemeinen Demokratie- und Medienkompetenzförderung soll forciert werden durch Multiplikator:innenarbeit, durch die Verankerung in allen Lehrplänen und die Einbeziehung in Medien(bildungs)angebote sowie in die Aus- und Weiterbildung von pädagogischen Fachkräften bzw. Lehrkräften. Dabei sollen auch ethische Gesichtspunkte einfließen und die menschliche Steuerbarkeit und Verantwortlichkeit betont werden.