Diskussion um neues Urheberrecht
Verbraucherschützer: Bundesregierung plant Upload-Filter durch die Hintertür
Im Rahmen einer geplanten Reform des Urheberrechts auf Europa-Ebene fordert die EU-Kommission automatisierte Filtersysteme für Online-Plattformen, die mit nutzergenerierten Inhalten arbeiten. Konkret sollen dabei die Inhalte bereits vor dem Hochladen auf mögliche Urheberrechtsverletzungen geprüft und im Zweifelsfall der Upload blockiert werden. Ein Vorhaben, das massive Kritik hervorgerufen hat.
Bilder: depositphotos.com
In Deutschland macht sich ein breites Bündnis aus Organisationen dagegen stark, darunter der Digitalverband Bitkom, der Verbraucherzentrale Bundesverband, Wikimedia Deutschland, verschiedene Wirtschaftsorganisationen und der Chaos Computer Club. Die Regelung wird als akute Bedrohung für die Vielfalt und Freiheit des Internet angesehen.
Selbst die Spitzen von CDU, CSU und SPD haben sich im Koalitionsvertrag klar gegen Upload-Filter ausgesprochen. Die Bundesregierung scheint diesen Kurs mittlerweile allerdings korrigieren zu wollen und rudert in einer Stellungnahme diesbezüglich zurück. Darin heißt es nämlich im Widerspruch zu vergangenen Äußerungen, dass Plattformbetreiber nur von ihrer Haftung befreit werden, wenn sie entsprechende Erkennungstechniken installiert haben.
Der Verbraucherzentrale Bundesverband macht mit einer Stellungnahme auf diese stillschweigende Kurskorrektur aufmerksam:
Dass sich die Bundesregierung plötzlich für Upload-Filter stark macht, steht in krassem Widerspruch zum Koalitionsvertrag. Denn wenn Plattformbetreiber haften, falls sie keine Upload-Filter einrichten, bedeutet das im Umkehrschluss, dass sie faktisch verpflichtet werden, genau dies zu tun: Sie müssen Upload-Filter einrichten.
Es gibt bereits bewährte Regelungen zum Umgang mit Urheberrechtsverletzungen im digitalen Raum. Upload-Filter würden diese Regelung komplett aushebeln. Das ist nicht im Sinne von Nutzerinnen und Nutzern. Denn eine Überprüfung würde von maschinellen Systeme übernommen werden, die jedoch gar keine rechtliche Abwägung darüber vornehmen können, was erlaubt ist und was nicht. Kritik, Satire oder Kunst blieben so auf der Strecke. Vollkommen legale Inhalte würden aus Angst vor Haftung im Vorfeld gesperrt oder gelöscht.
Hinzu kommt, dass es keine wirksamen Maßnahmen gibt, um Nutzer vor unrechtmäßiger Löschung zu schützen. Die Bundesregierung sollte sich deshalb an das halten, was sie im Koalitionsvertrag festgehalten hat und das heißt auch: keine Upload-Filter durch die Hintertür.
Mich würde die technische Machbarkeit interessieren.
Ich lad‘ jetzt einfach für ein Beispiel mal eine mp3 zu iFun hoch. Natürlich nehme ich den Link, auf dem steht „Hier wird gefiltert, lad mich hier hoch! Hier bin ich! Hier!“
WAS soll dann im Trafficstream aufwärts passieren? Ein KI-System prüft, ob meine Interpretation von „The Saints go marching in“ nicht schon angemeldet wurde? Wenn nein, wie sorge ich dafür, das ICH mir dieses Urheberrecht sichere und mein nachfolgender Kommentator nicht die selbe Idee zu iFun hochlädt?
Und WIE sichert mir dieses KI-System die Sache ab, das ich später nicht Post von einer Metalband bekomme, weil mein 2ter Akkord so ähnlich wie einer ihrer Songs klingt?
Kann ich durch den Uploadfilter meinen eigenen Content quasi so legalisieren, das ich ihn automatisch für mich ver-urheberrechte?
Das ist das Hauptproblem, was ich auch sehe. Es ist nichtmal für große Unternehmen wie Google und Facebook möglich, den hochgeladenen Content zu kontrollieren. Wie soll das dann erst bei einem Startup sein? Der Content, den man teilt, soll ja auch zeitig für alle sichtbar sein. Außerdem müsste in jedem Fall geprüft werden, ob das unter Fair Use fällt. Es ist also technisch gar nicht umsetzbar.
Wenn die Daten unverschlüsselt übertragen werden, könnte man anhand des Datenstroms schon analysieren, ob es sich um Video, Musik oder Fotos handelt und über einen automatisierten ab gleich feststellen, ob das ganze Frei oder geschützt ist. Guckt ihr Shazam an, da reichen wenige Sekunden, um Ost sich Millionen Titel einen Treffer zu landen. Also machbar wäre das, allerdings könnte man sich dann von Echtzeit verabschieden und bei Verschlüsselungen würde das nicht mehr funktionieren.
Ach so, hatte ich ganz vergessen, neu ist das übrigens nicht. Bereits Microsoft hatte so etwas ähnliches in Windows Vista geplant, wie viel Speicher und Ressourcen dass DRM-System gefressen hat, wissen wir ja heute. Dabei sollte im Systemkern eine Funktion eingepflanzt werden, die auch in Anwendungen von Drittanbietern wirksam ist. Wird dann ein Video, Musiktitel oder Foto aufgerufen, für das definitiv keine Lizenzrechte vorhanden sind, sollte das Programm die Inhalte dann verpixelt oder mit schlechter Ton- und Bildqualität abspielen. Microsoft hatte das den Verwertungsgesellschaften als absolutes Novum angepriesen, die Nachfrage war aber gleich null. Das war ja auch zu der Zeit, als man sich mit MP3 schon arrangiert hat.
Aber die Webseite (ob nun YouTube, Facebook oder was auch immer) muss die Inhalte entschlüsseln können, weil sie muss sie ja danach darstellen. Man lädt es hoch, dann wird geprüft und erst dann wird entweder freigeschalten oder eben an deinem Account ein Fähnchen gemacht, dass du Sachen verbreitest, die nicht gefallen.
In der Praxis unbrauchbar! Schon jetzt gibt es zum Beispiel enorme Probleme bei Youtube. Ich habe zum Beispiel ein Video hochgeladen welches mit Musik einer bekannten Rockband hinterlegt war. Die Genehmigung den Song zu verwenden habe ich vom Gitarristen persönlich. Dennoch war es ein Riesen Theater bis Youtube endlich einlenkte und das Video hochladen lies! Wenn dann auch noch solche Vollautomatischen Filter eingesetzt werden sollen wird’s richtig lustig denn wie will der Filter wissen ob ich die Rechte habe oder nicht u.s.w.
Die meisten urheberrechtsverletzenden Inhalte werden doch auf Tauschbörsen verschlüsselt verbreitet. Hier würde ein Uploadfilter nicht greifen, man könnte nur verschlüsslete Inhalte komplett sperren. Aber ein Verbot von Verschlüsselung generell halte ich für nicht durchsetzbar.
Ja. Wird die Verschlüsselung zuerst lokal gemacht und dann die Datei hochgeladen, ja, kein filtern möglich. Ausser die Verschlüsselung per se ist korrumpiert oder das Passwort/der Schlüssel bekannt. Da könnte die Datei bei Tauschbörsen nachträglich geöffnet und allenfalls gelöscht werden.
Ein generelles Verbot von verschlüsselten Inhalten ist nicht durchführbar. Es könnten ja personenbezogene Daten sein (ich mein jetzt nicht Youtube oder andere Onlineplattformen), und die müssen verschlüsselt werden. Stichwort DSGVO.
Aber: Wird die Verschlusselung lokal während dem Übertragen gemacht, wäre eine Filterung möglich, wenn der Schlüssel korrumpiert ist. Da müssten aber Firmen sehr eng mit der Behörde zusammenarbeiten und den Kunden eine falsche Verschlüsselungsmethode verkauft werden.
Ich denke, die Kontrolle ist bei open source gut, anders als bei proprietärer Software. Da habe ich immer mehr meine Zweifel. Nicht nur bei Onlineplattformen, sondern auch bei namhaften Firmen mit Cloud.
Wir sind kurz vor der Zensur
Wir haben sie bereits ….
Ich halte das technisch auch für undurchführbar. Abgesehen davon ist es auch immer die Frage, ob Sperrungen gegen eine zum Thai ignorante Gesellschaft immer das richtige Mittel sein können. Auch ist es ja für jeden nicht immer ersichtlich, ob eine Urheberrechtsverletzung überhaupt vorliegen kann. Stattdessen sollte man lieber in Bildung investieren und das Thema Datenschutz und Urheberrecht, was man im Netz darf und was nicht, genau wie Sexualkunde knallhart auf den Lehrplan setzen. Da sind eigentlich die größten Defizite in Europa, die Bildungs. Diese Versäumnisse der letzten 25 Jahre schlagen sich jetzt in den Politikern nieder, die plötzlich mit ihrem Unissen Entscheidungen treffen sollen. Dass die Netzneutralität ohnehin stark gefährdet ist, sieht man ja auch in anderen Bereichen. Verwunderlich ist das jedoch nicht, denn das freie Internet steht fast ausschließlich in kommerziellem Interesse.
Ich habe aus meinem letzten großen Urlaub ein iCloud-Album mit etwa 500 Fotos und 20 kurzen Videos erstellt, ür Familie und Freunde. Nach und nach füge ich dort Daten hinzu. Vor einigen Tagen habe ich auch einen Online-Link zum teilen erstellt. Da ich auch einige Drehschauplätze besucht habe, hatte ich ca 3 Miniten aus der Serie „Lethal Weapon“ hinzugefügt, als Bezug zu einigen Fotos von mir. Angefilmt vom iPhone am iPad in der Amazon-App. Vor 2 Tagen wunderte ich mich warum der Upload von ca 50 Dateien, mit 5 kurzen Videos, zzgl. des Ausschnittes aus Lethal Weapon so ungewöhnlich lange dauerte. Ergebnis: Alle Dateien wurden korrekt hinzugefügt, nur das Lethal Weapon-Video wurde entfernt. Weder im Link noch im geteilten iCloud-Album in der Fotos-App am iPad war es zu sehen. Auch ein erneuter Versuch bei welchem ich nur diese kurze Aufnahme dieser einen Szene auswählte, schlug fehl.
Da dies durchaus unter das Fair Use-Law ( https://en.wikipedia.org/wiki/Fair_use ) fallen sollte, finde ich bescheuert und auch etwas beunruhigend, wie gut Apples Filter da arbeiten.
Bist Du US-Amerikaner und kannst Dich auf Fair-Use berufen?
Urlaub Bilder.rar 22gb xD
Ach ja Machbarkeit vs. PhantasiaStasiLand