Hingucker
Mit dem Hingucker gibt die MA HSH anhand von konkreten Beispielen Einblicke in ihre Prüfpraxis.
Ausgabe 1-2024
Über die verschiedensten Wege erreichen uns täglich unüberschaubare Mengen an Informationen und Nachrichten. Umso wichtiger ist es da, nachvollziehen zu können, ob diese verlässlich sind, von wem und woher sie kommen. Die MA HSH setzt sich für Transparenz und Klarheit darüber ein, warum uns welche Inhalte angezeigt werden. In der aktuellen Ausgabe des Hingucker stellen wir Ihnen hierzu ein Beispiel vor und geben weitere spannende Einblicke in unsere Arbeit.
Unverzichtbar für unsere Arbeit bleiben neben eigenen Recherchen Ihre Hinweise: Haben Sie selbst etwas im Internet, Fernsehen oder Radio gesehen oder gehört, das Sie als problematisch empfanden? Über das Beschwerdeformular auf unserer Homepage können Sie uns Ihre Beobachtungen ganz unkompliziert mitteilen.
(CP) Der Terror der Hamas und die Kampfhandlungen in Nahost werden im Internet dokumentiert und kommentiert. Wenn Inhalte, die rund um den Krieg dort verbreitet werden, gegen den Jugendmedienschutz verstoßen, sie die Menschenwürde verletzen oder antisemitisch und gewaltverherrlichend sind, werden die MA HSH und die anderen Landesmedienanstalten tätig.
So führte auch die MA HSH im Nachgang zu den brutalen Terrorangriffen der Hamas am 7. Oktober 2023 und dem in Deutschland verhängten Betätigungsverbot für die Hamas und das Netzwerk Samidoun eine Recherche nach medienrechtlich unzulässigen Inhalten durch.
Insgesamt konnten die Medienanstalten innerhalb von sechs Monaten etwa 1.300 Inhalte zur Löschung an die Plattformen sowie an die EU-Kommission melden.
Im Rahmen unserer Recherche stießen wir unter anderem auf ein TikTok-Video, das Angriffe von Hamas-Kämpfern gegen Israelis zeigte. Zu sehen war aus einer Ego-Shooter-Perspektive, wie eine Person mit einer Gewehrsalve erschossen wird, außerdem verängstigte, gefangene Zivilisten, die brutal behandelt werden. Die MA HSH meldete das Video wegen möglicher offensichtlich schwerer Jugendgefährdung (§ 4 Abs. 2 Satz 1 Nr. 3 Jugendmedienschutz-Staatsvertrag (JMStV). TikTok löschte das Video. Zwei weitere TikTok-Videos auf einem islamistischen Kanal wurden wegen möglicher Billigung von Straftaten an die Zentrale Meldestelle für strafbare Inhalte im Internet (ZMI) des Bundeskriminalamts (BKA) weitergeleitet. Darin wurden die Angriffe der radikalislamischen Hamas auf Israel gebilligt, was nach § 140 Strafgesetzbuch (StGB) strafbar ist.
Die MA HSH wurde auch im Community-Bereich von Steam fündig. Nutzer:innen verwendeten in ihren Profilbildern Fotos von bewaffneten Hamas-Kämpfern, Hamas-Fahnen und –Embleme. Sie gaben sich Pseudonyme wie „Hamas Fighter“ oder „Kill Israel Jews“. Ein Nutzer verwendete das Pseudonym „FUCK ISRAEL“ zusammen mit einem antisemitischen Meme als Profilbild. Das Meme war in den Farben der israelischen Flagge gestaltet. Es stellte eine Ratte dar, die auf dem Kopf eine Kippa und auf dem Körper einen Davidstern trug. Die MA HSH meldete 100 Inhalte mit unzulässiger Hamas-Symbolik sowie antisemitische Inhalte. Es handelte sich dabei um Kennzeichen einer terroristischen Organisation gemäß § 4 Abs. 1 Satz 1 Nr. 2 JMStV oder um Inhalte, die den Tatbestand der Volksverhetzung erfüllten. Steam hat diese Inhalte daraufhin entfernt.
Die MA HSH prüfte außerdem das Facebook-Profil des „The Palestinian Information Center“, das von israelischen Terrorismusexperten als führendes Portal zum Online-Propaganda-Netzwerk der Hamas bewertet wird. Anlass für die Prüfung war eine Nut-zerbeschwerde wegen Verbreitung von Antisemitismus. Auf dem Profil wurden unter anderem eine Karikatur sowie zwei Bildcollagen veröffentlicht, die die Terrorangriffe der Hamas rechtfertigten. Eine Darstellung enthielt einen unzulässigen Vergleich Israels mit dem NS-Regime. Außerdem veröffentlichte das Profil fokussierte und unverfremdete Bilder von schwer leidenden, verletzten Kindern. Die Opfer und ihr Leiden wurden anprangernd zur Schau gestellt und zu Propagandazwecken instrumentalisiert, womit sie zu Objekten herabgewürdigt wurden. Die MA HSH meldete zwölf Inhalte unter anderem wegen der Billigung von Straftaten, eines möglichen Menschenwürdeverstoßes (§ 4 Abs. 1 Satz 1 Nr. 8 JMStV) und Holocaustverharmlosung (§ 4 Abs. 1 Satz 1 Nr. 4 JMStV). Facebook hat fünf Inhalte für Nutzer:innen aus Deutschland gesperrt oder gelöscht, in den anderen Fällen dauert die Bearbeitung an.
Zusatzinformationen
Mit der Einrichtung der Zentralen Meldestelle für strafbare Inhalte im Internet (ZMI) geht das BKA in Kooperation mit anderen Institutionen - darunter die Medienanstalten - gegen Hass und Hetze vor. Weitere Informationen finden Sie hier:
https://www.bka.de/DE/KontaktAufnehmen/HinweisGeben/MeldestelleHetzeImInternet/meldestelle_node.html
(RB) Spätestens seit der COVID-19-Pandemie ist klar: Desinformation ist in Zeiten von Krieg und Krisen ein wachsendes Problem. Dabei handelt es sich gar nicht immer um schlicht falsche Informationen. Eine bewährte Strategie ist es auch, mit Fotos, die ursprünglich aus einem anderen Kontext stammen, die Emotionen bei den Nutzer:innen anzusprechen.
Die MA HSH stieß zu Beginn des Angriffskrieges auf die Ukraine auf einen Online-Artikel, der die Flucht aus der Ukraine nach Deutschland thematisierte. Der Beitrag warnte dabei auch vor „Trittbrettfahrerflüchtlingen“, die unter dem Vorwand des Krieges Zuflucht in Deutschland suchen würden. Der Artikel war bebildert mit einer Fotomontage, die aus drei Fotos zusammengesetzt war:
Ein Foto zeigte ein Boot mit etwa 20 dunkelhäutigen Männern auf dem Meer. Ein weiteres Foto zeigte das Gesicht eines Mädchens mit FFP2-Maske, geschlossenen Augen und verzweifeltem Gesichtsausdruck. Das dritte Foto zeigte eine Sanitäterin, die sich um ein kleines Mädchen in Winterkleidung kümmerte.
Für den unvoreingenommenen Betrachter konnte der Eindruck entstehen, es handele sich bei dem Foto der Männer auf dem Boot um eine aktuelle Aufnahme von Geflüchteten. Diese Bebilderung verstärkte die im Text enthaltene Warnung noch. Die Recherche der MA HSH ergab allerdings, dass das Bild gar keinen Bezug zum Ukraine-Krieg hat – es wurde bereits im März 2011 in Lampedusa aufgenommen.
Gefahr für Meinungsbildung und Demokratie
Solche Darstellungen können Vorurteile verfestigen und so Einfluss auf die Meinungsbildung nehmen. Die MA HSH kann hier im Rahmen ihres gesetzlichen Auftrags einen Beitrag zur Demokratiesicherung leisten. Denn zu den Aufgaben der MA HSH gehört es zu überprüfen, ob journalistische Sorgfaltspflichten in journalistisch-redaktionellen Internetangeboten eingehalten werden. Eine Ausnahme bilden dabei Online-Angebote, die Inhalte der klassischen Presse wiedergeben – für diese ist in der Regel der Presserat zuständig.
Zu den journalistischen Sorgfaltspflichten gehört es unter anderem, sorgfältig zu recherchieren, Zitate korrekt wiederzugeben, die Unschuldsvermutung bei Straftaten einzuhalten und Symbolfotos zu kennzeichnen.
Symbolfotos: Pflicht zur Kennzeichnung
Der Pressekodex legt fest, dass Fotos, die beim flüchtigen Lesen als dokumentarische Abbildung aufgefasst werden können, obwohl es sich um Symbolfotos handelt, deutlich wahrnehmbar als solche erkennbar zu machen sind. Im oben beschriebenen Fall stellte die
MA HSH fest, dass es sich um ein Symbolfoto handelte, das nicht ausreichend als solches gekennzeichnet war. Am unteren Bildrand befanden sich nur in sehr kleiner und aufgrund des Hintergrunds schwer lesbarer Schrift die Angabe „Symbolbild“ sowie die Urheberangaben. Die Kennzeichnung war daher beim flüchtigen Lesen nicht deutlich wahrnehmbar. Die MA HSH wies den Anbieter darauf hin. Dieser reagierte, indem er den Schriftzug „Symbolfoto“ gut sichtbar unterhalb des Bilds hinzufügte.
Fotos checken leichtgemacht
Die Kennzeichnung von Symbolfotos kann einen wichtigen Beitrag zur Einordnung von Informationen und somit zur Meinungsbildung leisten. Unabhängig davon hat aber auch jede:r Nutzer:in selbst Möglichkeiten, die Herkunft von Bildern zu recherchieren. Hilfreich ist hierfür beispielsweise die Bilderrückwärtssuche von Suchmaschinen wie Google. Mit dieser können Nutzer:innen überprüfen, ob ein Foto bereits in anderen Online-Angeboten verwendet wurde. Zudem befinden sich in den Fotos manchmal Angaben zum Urheber. In einigen Fällen kann dann in den Datenbanken der entsprechenden Agentur nachvollzogen werden, von wem, wann und wo das Foto aufgenommen wurde.
Zusatzinformationen
Eine Anleitung zur Bilderrückwärtssuche gibt es zum Beispiel bei CORRECTIV unter
https://correctiv.org/faktencheck/hintergrund/2022/04/01/so-funktioniert-die-bilderrueckwaertssuche/.
Weitere Informationen zur Aufsicht über journalistische Sorgfaltspflichten finden Sie im Merkblatt der Medienanstalten unter
https://www.die-medienanstalten.de//fileadmin/user_upload/die_medienanstalten/Service/Merkblaetter_Leitfaeden/ua_Merkblatt_Journalismus_im_Internet.pdf
(CG) „Wer suchet, der findet“ - trifft das bei den heutigen Suchmaschinen und Social-Media-Plattformen wie YouTube und Instagram noch zu? So praktisch die automatische Sortierung von Inhalten auch sein mag, stellt sich für die Nutzer:innen doch die Frage, nach welchen Kriterien eine solche Auflistung erfolgt.
Sogenannte Medienintermediäre sind soziale Netzwerke, bei denen grundsätzlich jede:r Nutzer:in Inhalte und Videos hochladen kann, und Suchmaschinen, die all diese Inhalte auffindbar machen. Der Zugang zu ihnen ist im Gegensatz zu Medienplattformen grundsätzlich offen. Angesichts der schieren Masse an Inhalten erfolgt jedoch regelmäßig eine gezielte Sortierung. Statt Zufall regiert der Algorithmus.
Global Player zwischen Reichweite und Verantwortung
Durch den Einsatz von Algorithmen wird die Auswahl und Auffindbarkeit der Inhalte an die Interessen der Nutzer:innen angepasst. Entsprechend nehmen große Medienintermediäre durch ihre Reichweite am Markt starken Einfluss auf die öffentliche Meinungsbildung. Sie sind daher nach dem Medienstaatsvertrag (MStV) verpflichtet offenzulegen, wie sie die Auffindbarkeit der Inhalte im Hintergrund lenken, und müssen diese Informationen für Nutzer:innen leicht wahrnehmbar, verständlich und unmittelbar auffindbar machen.
Nutzer:innen sollen so davor geschützt werden, irregeführt oder manipuliert zu werden. Dies ist in Anbetracht des großflächigen Nachrichtenpools auf Plattformen wichtiger als je zuvor. Gerade der freie Zugang zu Medienintermediären birgt die Gefahr, dass zunehmend Desinformationen und Fake News hochgeladen und verbreitet werden. Anbieter von Medienintermediären sind verpflichtet, gegen entsprechende Falschinformationen aktiv vorzugehen. Wie dieses Vorgehen aussieht und praktiziert wird, müssen sie unter anderem im Rahmen der Transparenzangaben offenlegen. So soll auch verhindert werden, dass Anbieter willkürlich auf Inhalte Einfluss nehmen.
EU-Kommission oder ZAK: Der Streit um die Zuständigkeit
Auf Vorschlag der MA HSH beanstandete die Kommission für Zulassung und Aufsicht (ZAK) der Medienanstalten bereits im Juni 2023 unzureichende Transparenzangaben bei YouTube. Beanstandet wurde insbesondere, dass die Transparenzangaben nicht durch wenige Klicks erreichbar waren und der Weg zu den Angaben nicht deutlich erkennbar war. Google hat gegen den Bescheid Klage eingereicht, das Verfahren läuft noch. Es ist von besonderer Bedeutung, weil es auch darum geht, welchen Gesetzen Medienintermediäre unterliegen. Denn neben dem MStV macht mittlerweile auch der EU-weite Digital Services Act (DSA) Vorgaben für digitale Dienste. Inwieweit sich dies auf die Durchsetzung nationalen Rechts auswirkt, wird sich im Gerichtsverfahren zeigen.
Zusatzinformationen
Algorithmen – was sind das eigentlich? Weitere Informationen finden Sie hier:
https://www.scout-magazin.de/rat-und-service/artikel/dein-algorithmus-meine-meinung.html
Digital Services Act (DSA) – was regelt er?
Der DSA ist ein Gesetz für digitale Dienste und gilt für die Europäische Union. Er sieht Maßnahmen vor, die es den Aufsichtsbehörden erleichtern sollen, illegale Inhalte zu entfernen und Grundrechte von Nutzer:innen zu schützen. Dabei müssen große Online-Plattformen wie YouTube mehr Regeln einhalten als kleine. Diese Regeln betreffen unter anderem Maßnahmen zu Jugendschutz und Transparenz sowie die Einrichtung von Melde- und Abhilfeverfahren bei potenziell rechtswidrigen Inhalten.
(CG) Die meisten tagesaktuellen Nachrichten werden mittlerweile online verbreitet und gelesen. In Anbetracht des großen Angebots an Online-Publikationen fühlen sich viele Leser:innen einer unübersichtlichen Informationsüberflutung ausgesetzt. Es entwickeln sich daher zusammenfassende Dienste, die einen Überblick über ausgewählte Informationsquellen verschaffen.
Doch welche Angebote werden dort gezeigt?
Um die zahlreichen Angebote für Leser:innen übersichtlicher zu gestalten, bedarf es zwangsläufig einer Auswahl und Sortierung von Publikationen. Dabei besteht jedoch die Gefahr, dass einzelne Publikationen nicht aufgenommen werden und Nutzer:innen sie gar nicht oder schlechter im Internet finden können. W
elche Kriterien dürfen Anbieter also heranziehen, um eine Auswahl für die angezeigten Angebote zu treffen, ohne dabei die Vielfalt einzuschränken?
Mit dieser Frage beschäftigt sich derzeit die MA HSH in einem Verfahren zum Nachrichtendienst „Google News Showcase“.
Kriterien nicht transparent
Im Frühjahr 2023 sind bei der MA HSH Beschwerden von Presseverlagen eingetroffen, denen nach eigener Aussage eine Teilnahme am Nachrichtendienst „Google News Showcase“ bislang verwehrt wurde.
Der Dienst „Google News Showcase“ ist ein Nachrichtendienst-Angebot, das redaktionell-journalistische Inhalte verschiedener deutscher Verlage zusammenstellt. Als Anbieter(in) einer Medienplattform ist Google zur Einhaltung der Bestimmungen des Medienstaatsvertrags (MStV) verpflichtet. Dieser sieht unter anderem vor, dass ein chancengleicher und diskriminierungsfreier Zugang für Inhalteanbieter gewährleistet wird.
Reichweite als Maß aller Dinge?
Bislang berücksichtigt Google beim Zugang für Inhalteanbieter auch die Reichweite der Angebote. Das führt unter Vielfaltsgesichtspunkten zu einem grundsätzlichen Problem: Zwangsläufig ist es für lokale und neue Angebote schwerer als für größere Angebote, eine Mindestanzahl an Besucher:innen zu erreichen. Ein möglichst breit aufgestellter und diverser Meinungsmarkt kann aber letztlich nur gesichert werden, wenn auch lokale Medienhäuser und neue Anbieter die Chance erhalten, auffindbar zu sein.
ZAK für Anpassung des Kriterienkatalogs
Die Kommission für Zulassung und Aufsicht (ZAK), die als Organ der Medienanstalten über Verstöße bundesweiter Anbieter und Plattformen entscheidet, sieht dies in der derzeitigen Ausgestaltung kritisch und hat Google aufgefordert, die Kriterien anzupassen.
Zusatzinformationen
Wie es in dem Verfahren weitergeht, können Sie hier verfolgen:
https://www.die-medienanstalten.de/pressemitteilungen/zak-entscheidung-google-news-showcase/
(CP) Der Anbieter Valve hat nach MA HSH-Meldung über 2.400 Inhalte gelöscht oder rechtskonform nachgebessert. Es handelte sich primär um NS-Symbolik, antisemitische Äußerungen und Befürwortung von Gewalt gegen Israelis und Juden.
Eine gezielte Keyword-Recherche nach NS-Parolen oder Begriffen wie „Hitler“, „Göbbels“ und „Göring“ förderte erneut zahlreiche Profilfotos mit Hitlerdarstel-lungen, Hakenkreuzen und SS-Runen zutage. Der Fantasie sind dabei keine Grenzen gesetzt: Hitler wird als cooler Rapper dargestellt, „Pepe the Frog“ posiert in SS-Uniform vor dem Torbogen des KZ-Auschwitz, Katzen mit einschlägiger Fellzeichnung üben den Hitlergruß aus. Nutzer:innen verwenden für ihr Profilbild Fotos von Anne Frank, vom Eingang oder von Verbrennungsöfen des KZ-Auschwitz oder die antisemitische Karikatur des „Happy Merchant“, gepaart mit Pseudonymen wie „Hail Hitler“, „Long live Hitler!“, „Hitler did nothing wrong“ oder „dummerjude“. Der „Happy Merchant“ zeigt einen Mann mit Hakennase und Kippa, der sich die Hände reibt, eine stereotype Karikatur eines männlichen Juden, die auf antisemitischen Charakterisierungen jüdischer Menschen basiert.
Eine Recherche im Kontext der Terrorangriffe der Hamas gegen israelische Zivilisten am 7. Oktober 2023 förderte außerdem Profilbilder oder Pseudonyme zutage, mit denen Gewalt gegen Israelis und Juden befürwortet wurde. Nutzer:innen verwendeten als Pseudonym Bezeichnungen wie „FUCKiNG iSRAEL“, „Fuck Israel“, „kill all jews“ in Kombination mit Profilbildern, die antisemitische Memes, brennende Israelflaggen, Hakenkreuze oder glorifizierende Bilder von Hamas-Kämpfern enthielten. Einige Nutzer:innen verwendeten das Hamas-Emblem. Mit diesen Pseudonymen und Profilbildern wurde Gewalt gegen Israelis und Juden befürwortet und die Ermordung der israelischen Zivilisten durch die Hamas gebilligt.
Nazi-Symbolik und antisemitische Memes in der Steam-Community
Das Hakenkreuz ist das wichtigste Kennzeichen des Nationalsozialismus (NS), in dessen Schatten millionenfacher Mord begangen wurde. Die Sigrune ist ebenfalls ein Symbol, das deutlich mit der NS-Diktatur assoziiert wird. Gleiches gilt für Bilder, in denen Adolf Hitler und andere führende Vertreter des Regimes ikonenhaft zur Schau gestellt werden. Die Verbreitung dieser und weiterer einschlägiger NS-Kennzeichen und -Parolen über das Internet ist in Deutschland in der Regel unzulässig und strafbar.
Viele Nutzer:innen verwenden und teilen diese Inhalte, um zu provozieren oder weil sie es „cool“ oder „lustig“ finden. Andere lassen eine rechtsextreme und demokratiefeindliche Gesinnung erkennen. Sie nutzen die Community gezielt, um sich zu vernetzen, ihr Weltbild zu verbreiten und neue Anhänger zu rekrutieren.
Rechtsextremisten nutzen zur Verbreitung ihrer Ideologien vielfach auch das Internetphänomen der Memes. Memes sind Bilder, Slogans oder Videos, die in einfacher Bild-Text-Kombination humorvolle Botschaften verbreiten. Sie sind ein bedeutender Teil der Netzkultur. Mit Memes wie „Pepe the Frog“ oder dem „Happy Merchant“ verbreiten Rechtsextremisten Hassbotschaften und Ideologien in einer zeitgemäßen Szene- und Jugendsprache. Sie transportieren ihre rechtsextremistische und undemokratische Gesinnung als vermeintlich humoristische Botschaft. „Auschwitz Pepe“ beispielsweise zeigt die menschenähnliche Froschfigur mit einer SS-Mütze vor dem Eingangstor des Vernichtungslagers Auschwitz. Pepe blickt den Nutzenden direkt an, lächelt zynisch und hält einen Judenstern zwischen Daumen und Zeigefinger. Diese Darstellung verwendet strafbare NS-Kennzeichen - auf der Mütze ist der SS-Totenkopf erkennbar – und billigt den Holocaust. Wenn diese Darstellung kontextlos als Profilbild auf einer Spiele-Plattform verwendet wird, verstößt dies i.d.R. gegen § 4 Abs. 1 Satz 1 Nrn. 2 und 4 Jugendmedienschutz-Staatsvertrag (JMStV). Das antisemitische Meme „Happy Merchant“ wird oft in Verbindung mit Holocaustleugnung oder anti-jüdischer Propaganda geteilt.
Hass und Hetze sind ein Jugendschutzproblem
Die massenhafte Verbreitung von NS-Symbolik und –Parolen sowie antisemitischen oder gewalt- und terrorbefürwortenden Inhalten auf einer Spielplattform, die auch viel von Minderjährigen genutzt wird, ist auch unter Jugendschutzgesichtspunkten hoch problematisch. NS-Symbolik verherrlicht oder bagatellisiert den Nationalsozialismus. Antisemitische Memes und Inhalte, die Gewalt gegen Israelis oder Juden billigen, stacheln zu Hass und Willkürmaßnahmen gegen diese auf oder verletzen sie in ihrer Menschenwürde. Solche Inhalte tragen zu einem Meinungsklima bei, das Menschen aggressiv ausgrenzt, so dass diese Gefahr laufen, auch zu Opfern physischer Gewaltanwendung zu werden. Die massenhafte Verbreitung solcher Inhalte trägt zu einer Verrohung der Kommunikation und zur Spaltung der Gesellschaft bei.
Was ist zu tun?
Die gute Nachricht ist: Das Unternehmen Valve löscht nach Meldung solche Inhalte umgehend oder bessert sie rechtskonform nach. Damit ist das Problem jedoch noch nicht gelöst. Der Community-Bereich ist immer noch eine Fundgrube für NS-Symbolik und Hass-Inhalte und die MA HSH meldet immer wieder die gleichen Inhalte (siehe auch Hingucker-Ausgabe 1/20 „Nachholbedarf auf Steam“ ).
Eine mögliche Lösung wäre der Einsatz von Filtern seitens des Anbieters, um das Hochladen bereits als unzulässig gemeldeter Inhalte zu verhindern. Rein technisch sind Filter durchaus in der Lage, Hakenkreuze und andere NS-Symbolik oder einschlägige Grußformeln und Parolen, Hitlerdarstellungen und rechtsextreme Memes zu identifizieren.
Zusatzinformationen
Weitere Informationen zu den gesetzlichen Grundlagen unserer Prüfungen in diesem Fall finden Sie unter
https://www.kjm-kriterien.de/medienrechtliche-unzulaessigkeit/politischer-extremismus-2-kennzeichen-verfassungswidriger-organisationen.
NS-Symbolik ist nicht das einzige Jugendschutz-Problem auf Spiele-Plattformen. Besonders aktuell ist das Thema, wie Rechtsextreme über Chats versuchen, Jugendliche zu rekrutieren. Informieren Sie sich darüber in unserem scout - Magazin für Medienerziehung.
(AR) Bereits im April 2021 hatte die MA HSH die Ausstrahlung einer Folge der Sendereihe „Lebensretter hautnah – Wenn jede Sekunde zählt“ im Programm von Sat.1 förmlich beanstandet. Die Reihe zeigt reale Einsätze von Notfallsanitätern.
In dem Beitrag ging es unter anderem um einen Mann, der einen schweren Krampfanfall hatte und sich in Lebensgefahr befand. Der bewusstlose Mann wurde während des Rettungseinsatzes mehrfach in Nahaufnahme gezeigt. Die MA HSH sah darin einen Verstoß gegen die Menschenwürde (siehe Artikel im Hingucker-Archiv, Ausgabe 1/2021).
Hohe Anforderungen an unverhältnismäßige Darstellung
Das von Sat.1 angerufene Verwaltungsgericht Schleswig stellte im Urteil vom 11. Oktober 2023 nun fest, dass kein Verstoß gegen die Menschenwürde vorlag. Es werde hinreichend deutlich, dass es vor allem um die Rettung des Lebens des Patienten und nicht um dessen Zurschaustellung gehe. Einzelne Bemerkungen der Sanitäter, die die MA HSH kritisch bewertet hatte, könnten durchaus als Stressbewältigung im Alltag gesehen werden. Auch die kurzen Wiederholungen der Szenen würden keinen Voyeurismus begründen, sondern dem Zweck dienen, die Zuschauer:innen nach Unterbrechungen wieder in das Geschehen einzuführen. Die MA HSH hatte hierin eine unverhältnismäßig in die Länge gezogene Darstellung gesehen.
Fazit
Die Urteilsgründe stellen wichtige Leitlinien für Darstellung, Dauer, Intention des Sendeformats und Einbettung in den Gesamtkontext dar, die die MA HSH für die Bewertung zukünftiger Fälle heranziehen wird.
Zusatzinformationen
Das gesamte Urteil finden Sie hier:
https://www.gesetze-rechtsprechung.sh.juris.de/bssh/document/NJRE001562285
(LA) Ein Mann schlägt auf den Boden auf, ein weiterer stürzt kopfüber in ein Loch und einem dritten kippt ein Mauerstein während eines Nickerchens auf den Schädel. Klingt alles andere als witzig? Nun, diese Szenen sind dennoch Bestandteil der Clipshow „111 knattergeile Kollegen!“ auf SAT.1. Hier reihen sich insgesamt 111 zusammengesuchte Mini-Videos zum Thema Arbeitsalltag mit musikalischer Unterlegung und lustig gemeinten Kommentaren aneinander.
Sieht so eine gelungene Unterhaltung im Abendprogramm aus?
Zumindest nicht für einen Zuschauer, der sich bei der MA HSH über die Sendung beschwerte. Er kritisierte unter anderem mögliche Verletzungen der Persönlichkeitsrechte, demütigende Darstellungen und „menschenverachtende Szenen von großer Brutalität“. Die MA HSH ging seinen Kritikpunkten nach.
Das Konzept, mit Aufnahmen von Missgeschicken und kleineren Unfällen die Schaulust der Zuschauer:innen anzusprechen, ist nicht neu im Fernsehen und erzielte mit der Sendung „Pleiten, Pech und Pannen“ schon in den 1980er Jahren Erfolge. Mit dem nahezu unerschöpflichen Fundus an hochgeladenen Videos auf Internet-Plattformen wie TikTok, YouTube und Co. stellt es heute günstige Programmproduktionen sicher. In der Clipshow „111 knattergeile Kollegen“ werden neben harmlosen Geschehnissen auch Unfälle gezeigt und zur Unterhaltung belustigend dargestellt.
Geschmackssache – aber kein Verstoß
Nach einer Prüfung der Sendung konnte allerdings kein Verstoß gegen medienrechtliche Vorschriften festgestellt werden. Die Clips zeigen lediglich die Unfallhergänge, nicht aber die eventuellen Folgen. Ob sich die Betroffenen tatsächlich schwer verletzen, ist anhand der kurzen Clips nicht zu erschließen. Bei den meisten Videos ist darüber hinaus erkennbar nicht von Verletzungsfolgen auszugehen. Einige wirken sogar inszeniert und in der Summe ist die Anzahl der bedenklichen Clips nur schwach vertreten. „Menschenverachtende Szenen von großer Brutalität“ konnten wir in den Clips nicht auffinden. Als diese empfand sie der Beschwerdeführer. Die Kommentare der Moderator:innen sind außerdem nicht als demütigend einzustufen: Sie verharmlosen das Geschehen vielmehr.
Bei der Frage, ob die gezeigten Personen der Veröffentlichung des Videomaterials zugestimmt haben, handelt es sich um ein zivilrechtliches Problem. Die Betroffenen müssten die Verfolgung eines möglichen Verstoßes daher selbst veranlassen. In den meisten Fällen sind die gezeigten Personen allerdings nicht erkennbar: die Bildqualität ist zu schlecht und die Entfernung zu groß. Auch wurden in einigen Fällen die Gesichter verpixelt.
Sender zeigt Problembewusstsein
Der Sender wurde dennoch auf einige Clips und die mögliche Verletzung der Persönlichkeitsrechte der gezeigten Personen hingewiesen. SAT.1 kündigte daraufhin an, die angemerkten Clips bei einer erneuten Ausstrahlung nicht im Tagesprogramm zu zeigen. Die Zustimmung der nicht verpixelt gezeigten Personen sei von den Lizenzgebern ausdrücklich zugesichert worden.
Auch wenn kein medienrechtlicher Verstoß festgestellt werden konnte, zeigt dieser Fall, dass es wichtig ist, das Problembewusstsein für sensible Inhalte wie diese zu schärfen, und wie viel
Nutzer:innenbeschwerden bewirken können.
Hingucker-Archiv
Im Hingucker-Archiv finden Sie alle bisher erschienenen Ausgaben.
Der MA HSH-Hingucker
Mit dem Hingucker gibt die MA HSH anhand von konkreten Beispielen Einblicke in ihre Prüfpraxis. Er erscheint zweimal im Jahr.
Wenn regelmäßig per Mail über neue Ausgaben informiert werden möchten, melden Sie sich einfach hier an. Wenn Sie die Benachrichtigungen abbestellen möchten, nutzen Sie bitte unser dieses Formular.
Und noch ein weiterer Hinweis in eigener Sache:
Wenn Ihnen beim Fernsehen, Radiohören oder Surfen im Internet etwas auffällt, von dem Sie glauben, dass es nicht den gesetzlichen Vorschriften entspricht, freuen wir uns auf Ihren Hinweis.