Terrorfilter: Gleich die nächste Bedrohung

  • Ich habe prinzipiell nichts gegen Zensur einzuwenden. Es gibt einfach Inhalte, die man (als Gesellschaft) nicht haben möchte.

    Lösen sollte man das aber primär nicht per Filter, weil es viel zu aufwendig und teuer ist, diese zu entwickeln und weil es zu viele false-positives gibt.

    Auch kann man von einer kleinen Webseite nicht verlangen, innerhalb von 12 Stunden nach Aufforderung irgendwas zu sperren.

    Ein vollautomatisches Notice-and-Takedown-System fände ich hingegen gut. Berechtigte Behörden könnten dann per Schnittstelle direkt konkrete Inhalte sperren, ohne dass der Webseitenbetreiber tätig werden braucht.

    In der Sperr-Anfrage muss stehen, wer die sperrende Behörde ist, was genau gesperrt werden soll, und aus welchem Grund. Diese Daten müssen detailliert und automatisiert verarbeitbar sein. Und die Anfrage muss kryptographisch signiert sein, damit man sie nicht fälschen kann.

    So eine Anfrage könnte dann z. B. sein: Behörde: LfV Hamburg; Inhalt: Video-URL+Checksumme; Grund: StGB111/Terror/Rechtsradikal/"Aufruf Flüchtlingsheime anzuzünden".

    Der Server würde die Anfrage sofort verarbeiten, das Video sperren, der User der das hochgeladen hat, würde sofort eine Sperre bekommen.

    Soweit der Fall, wenn der Verfassungsschutz endlich mal zum Augenarzt gegangen ist und alles läuft wie es soll.

    Der betroffene User könnte aber auch gegen die Sperrung protestieren; ein Moderator schaut sich das dann an und kann nachvollziehen, dass der gesperrte Inhalt tatsächlich ein Aufruf ist, gegen Kohlekraftwerke zu demonstrieren.

    Diese fehlerhafte Sperr-Anforderung würde publik gemacht werden; im Extremfall wäre die Behörde zum Schadensersatz verpflichtet.

    Wenn eine Behörde immer wieder Missbrauch treibt, kann ihr der Webseitenbetreiber auch einfach das Recht entziehen, Inhalte zu sperren.

    "Illegale" Webseiten könnten für sich selbst festlegen, welche Arten von illegalen Inhalten sie haben möchten und welche nicht. Eine Filesharing-Plattform für Videos aller Art könnte entscheiden, dass CP nicht akzeptabel ist. Behörden können das dann sofort runternehmen. Aber Aufforderungen, einen neuen Kinofilm zu sperren, würden einfach ignoriert werden.

    Die Gesetze müssten entsprechend gestaltet werden, dass Webseitenbetreiber tatsächlich noch entscheiden dürften, Behörden nach wiederholtem Missbrauch zu sperren und (falsche) Sperr-Anforderungen öffentlich an den Pranger zu stellen.

    Und um Missbrauch noch unattraktiver zu machen, könnte man das alles auf freiwilliger Basis machen. Wenn eine automatische Sperraufforderung nicht möglich ist, müsste der herkömmliche Weg beschritten werden. Da müssen dann auch sinnvolle Bearbeitungszeiten eingeräumt werden.

    Uploadfilter bräuchten nur identische Inhalte automatisch sperren; so sind false-positives ausgeschlossen.

    Eine andere sinnvolle Maßnahme wäre, per geeignetem technischem Verfahren Doppel-Anmeldungen von Usern zu verhindern. Wenn ein User gesperrt ist, könnte der sich nicht unter neuem Namen neu anmelden. Ich bin überzeugt, dass man das datenschutzfreundlich hinbekäme, in dem Sinne, dass kein Rückschluss auf die Identität des Users möglich ist.

    Was man nun aber "Terrorismus" nennen möchte, muss jedes Land für sich selbst entscheiden. Dafür gibt es keine technische Lösung.

    Solange Dummheit als plausible Erklärung ausreicht, sollte man keinen Vorsatz annehmen.

  • Das Problem mit Filtern aller Art ist, dass sie, erst einmal technisch eingerichtet, sehr leicht missbraucht werden können. Man kann nicht davon ausgehen, dass es immer eine wohlwollende Autorität geben wird, die darüber bestimmt, was ausgefiltert wird und was nicht.

    Wo ein Trog ist, da sind auch Schweine, und wo es die Möglichkeit gibt, neben illegalen Inhalten auch unliebsame Inhalte zu filtern, dort wird das früher oder später auch gemacht. Da braucht man sich nur zurückzulehnen und auf den ersten Skandal zu warten. Wenn der dann nicht auch rausgefiltert wird.

    Mit der Diskussion waren wir doch bei Filtern gegen KiPo schon durch. Warum sollte es bei Filtern gegen Terrorgefahr anders sein?

    bye
    Explosiv smilie_be_131.gif

  • Bei der ganzen Debatte der vorigen Seite zeigt sich wieder einmal das Problem, dass in diesem Themenkomplex um Inhaltsfilterung, sei es für Terrorbekämpfung oder urheberrechtlich geschützte Inhalte, an automatisierten Kontrollen, also so genannter Filter eigentlich kein Weg vorbeiführt. Ich kann alleine schlichtweg nicht alle Beiträge lesen und einordnen und gegebenenfalls abändern oder löschen. Das schaffe ich personell schon gar nicht und ich bin froh, wenn ich abends jedenfalls einen ganz groben Überblick habe, was tagsüber im Forum passiert ist.

    Und: Diese automatisierten Methoden könnten überhaupt nicht feststellen, ob etwas zu löschen ist oder nicht. Wie soll ein Filter verstehen, was es mit der CIA und irgendwelchen Vorfällen auf sich hat, wenn ich selbst nicht dazu in der Lage bin, so etwas einzuordnen? Soll der bei Wikipedia nachschlagen? Das ist nach dem momentanen Stand der Technik absolut unmöglich.

    Vielleicht wäre es darum ganz schön, wenn wir uns wieder dem eigentlichen Thema zuwenden könnten: Die Europäische Union möchte gerne einen so genannten Löschbefehl implementieren, der mich binnen einer Stunde zwingt, bemängelte Inhalte zu löschen: https://www.tagesschau.de/ausland/eu-terror-filter-101.html

    EU debattiert "Terror-Filter" im Netz

    Natürlich gibt es keine einheitliche Definition von Terrorismus, wie wir auf der vorigen Seite schon dargelegt haben. Stattdessen muss entfernt werden, was den Behörden nicht gefällt. Eine Meldung darüber darf natürlich nicht erfolgen, die Löschaktionen müssen geheim erfolgen — da kann man sich ja auch wieder seinen Teil denken. Beunruhigt es die Bevölkerung zu sehr zu erfahren, dass womöglich ein Terror-Livestream von YouTube gelöscht wurde? Wenn diese Löschbefehle geräuschlos und undokumentiert erfolgen müssen, dann gehe ich nicht davon aus, dass ich rechtliche Handhabe gegen mögliche Fehlentscheidungen erhalte. Und dann soll ich noch glauben, dass da nicht „versehentlich“ zu viel gelöscht wird, etwa Dokumentationen von Polizeigewalt, Korruption oder womöglich auch ganz banale Aufrufe zu Demonstrationen?

  • Eine Meldung darüber darf natürlich nicht erfolgen, die Löschaktionen müssen geheim erfolgen

    Wo steht, dass dies geplant ist?

    Das wäre natürlich ein massiver Verstoß gegen rechtsstaatliche Prinzipien.

    Die USA praktizieren sowas seit längerer Zeit schon, siehe National Security Letter. Die Europäer brauchen ja nicht jeden Mist kopieren

    Ansonsten zur Umsetzung: Siehe meinen längeren Post. Man braucht keine Filter, um das eigentliche Ziel "Inhalte entfernen" zu erfüllen.

    Solange Dummheit als plausible Erklärung ausreicht, sollte man keinen Vorsatz annehmen.

  • Das würde so laufen wie die Sperrlisten und Filter für Kipo, die man einrichten wollte. Natürlich sind die Sperrkriterien und Filterregeln dann geheim, damit die interessierte Kundschaft keine Hilfestellung für passende Suchbegriffe bekommt und die "Anbieter" von dem ungewollten Zeugs keine Anhaltspunkte, wie sie Sperren und Filter austricksen können.

    bye
    Explosiv smilie_be_131.gif

  • Ich finde gerade die Quelle nicht mehr, dass die Löschung geheim erfolgen muss. Allerdings gehe ich nach wie vor davon aus, dass das so passieren wird, denn auch der Hinweis auf einen gelöschten Beitrag könnte als Signal gelten — etwa wie damals Bin Ladens Bart oder Uhr. Wenn es also nicht mehr nur um die Entfernung terroristischer Inhalte ginge, sondern auch um die Unterbindung der Signalwege für Terroristische Anschläge, so wird man kaum darum herumkommen.

  • Es gibt auch gute Gründe, im Internet anonym zu sein. Das ist in einem Radverkehrsforum sicherlich nicht zwingend erforderlich, aber überall, wo Menschen Hilfe, Rat und den Austausch mit anderen Betroffenen z.B. gegen Missbrauch und Gewalt suchen, ist die Anonymität Voraussetzung.

  • Es müsste halt - wie im richtigen Leben auch - eine Möglichkeit zur eindeutigen Identifizierung der handelnden Personen in den Stunden oder Tagen nach der Handlung durch staatliche Institutionen ermöglicht werden. Bitte nicht länger und immer unter Information des Betroffenen.

    Die beiden letzten Punkte dürften nur schwer umsetzbar sein.

  • Es müsste halt - wie im richtigen Leben auch - eine Möglichkeit zur eindeutigen Identifizierung der handelnden Personen in den Stunden oder Tagen nach der Handlung durch staatliche Institutionen ermöglicht werden.

    Und wozu?

    Relevante Straftaten werden offline begangen. Man kann schließlich keine Drogen oder Bomben per Internet verschicken.

    Sinnvoll wäre alleine, Doppelanmeldungen wirksam zu verhindern; siehe meine Post weiter oben. Dafür braucht man die Anonymität nicht aufzuheben.

    Solange Dummheit als plausible Erklärung ausreicht, sollte man keinen Vorsatz annehmen.

  • Das EU-Parlament hat sich gerade mit 300 zu 297 Stimmen für die Einführung der Gesetzesvorlage ausgesprochen: https://twitter.com/Senficon/status/1118539970250248192

    Diese einstündige Frist zur Löschung ist für kleine bis mittlere Webprojekte kaum zu beherrschen, selbst große bis riesige Foren wie das Verkehrsportal oder Motor-Talk dürften damit ihre Probleme haben. Das ist den Verhandlungsführern im EU-Parlament aber entweder egal oder sie verstehen es nicht oder es ist ihnen ganz recht.