Die EU-Urheberrechtsreform

  • Selbst Google kann es sich nicht leisten, auf den kompletten europäischen Markt zu verzichten.

    Die Frage ist, wie lange können es sich Google und Co leisten auf diesen Teil des europäischen Marktes zu vertzichten (auf den ganzen verzichten sie nämlich nicht)? Und wie lange können es sich die nicht annähernd so großen Player aus der EU leisten auf den Rest des Weltmarktes zu verzichten? Ich zumindest bin mir ziemlich sicher, dass es nicht die europäischen Unternehmen sein werden, die den längeren Atem haben. Vor allem sind die europäischen Unternehmen nicht wirklich geeint. Wenns hart auf hart kommt, knickt irgend eines sicher vor den anderen ein (wenn es nicht von vorneherein mit offenen Armen auf die US Riesen zugeht um sich gegenüber der restlichen europäischen Konkurrenz einen Vorteil zu verschaffen). Und sobald ein Label oder ein Verlag einknickt sind die anderen angeschmiert.

    Und was die Filter angeht, das stellen sich viele (inklusive Lobbyisten und Politikern) viel zu einfach vor. So ein Inhaltsvergleich ist weder für Bilder, noch für umfangreiche Texte trivial (wenn Urheberrechtsverletzungen sicher erkannt werden, aber zugelich nicht zu fiele flasche Meldungen produziert werden sollen). Das macht man nicht nebenbei mit einem kleinen Plugin für das Forum. Auf Anhieb würde ich eine funktionierende Umsetzung tatsächlich nur den Großen von der US-Westküste zutrauen. Wahrscheinlich halten die auch schon alle wesentlichen Patente in dem Bereich (Alphabet/Google/Youtube etwa für alles was mit Audio zu tun hat). In Europa traue ich noch nicht einmal den Nachrichtendiensten (vor allem nicht im deutschsprachigen Raum) den nötigen Mix aus Kompetenzen und Kapazitäten zu.

    Und die Frage nach welchen Listen eine jede Plattform filtern soll ist immer noch nicht geklärt. Vor allem wenn die Nutzer (und nicht die Plattform!) die Themen und damit inhalte vorgeben um die es geht und diese sich somit jederzeit und plötzlich ändern können. Selbst hier, wo sich das meiste um Rollenspiel dreht wird auch allerlei anderes Thema. Das funktioniert alles nicht so einfach.

    Aber gar nichts zu machen kann auch keine Lösung sein.

    Gar nichts zu machen kann aber besser sein, als genau das falsche zu tun (aka repariere kein System das, zumindest für die meisten meistens, funktioniert). Ich sehe da nur eine Ausgeburt europäischer Selbstherrlichkeit und Inkompetenz, die das Leben für alle (für manche mehr als für andere) umständlicher, aber nicht besser machen wird. Das ist ein Großprojekt mit dem Potential das Internet für alle Nutzer sehr nachhaltig zu verändern. Das sollte sehr viel sorgfältiger angegangen werden und nicht in so einer heimlich getuschelten Hauruckaktion. Das sollte nicht beschlossen werden, bevor man die technische Umsetzung so gut wie fertig hat. Sonst wird das nichts.

    Noch etwas Geläster. Wer in seinem Nationalstolz leicht gekränkt ist, möge dies nicht lesen

    Wenn die Initiative dafür wenigstens von den Briten ausgegangen wäre, wo man zumindest ansatzweise die nötigen Nachrichtendienstlichen Kompetenzen für ein solches Vorhaben hätte ... aber es sagt mMn schon was, das die Initiative am Anfang nicht von einem Briten ausging, sondern von einem Deutschen. Wo man im deutschsprachigen Raum doch so viel gute Erfahrungen mit richtig großen Großprojekten hat.

    Flughäfen? Bahnhöfe? Nord-Süd-Bahnverbindungen? Stromtrassen? Alles Quatsch! Wir stellen das Internet auf den Kopf! Hö! Hö! Die werden in hundert Jahren noch unsre Namen kennen! -Neuzeitlich, ein Schildbürger zum anderen

  • Die spannende Frage ist dann allerdings, wie stark profitieren denn rein deutsche/europäische Verlage etc. von einer weltweiten Vermarktung? Alles was nicht englischsprachig ist, braucht z.B. keine weltweite Vermarktung. Selbst mit Französisch oder Spanisch wirds außerhalb von Europa schon schwer. Und alle, die auf dem weltweiten Markt mitmischen tun das jetzt auch schon außerhalb von Europa. Ein gutes Beispiel ist hier Bertelsmann, der ja von vielen (z.B. auch hier im Forum) immer noch als das gesehen wird. Tatsächlich aber ist Bertelsmann Random House und damit der größte Verlag der Welt. Die können ohne Probleme alles, was für den weltweiten Markt gemacht ist, auch jetzt bereits aus anderen Ländern heraus anstoßen und sich dann zum Teil mit sehr viel weniger Regularien etc.

    Zum Thema der Filter kann ich technisch tatsächlich nichts sagen, damit kenne ich mich überhaupt nicht aus. Aber ich weiß, dass solche Filter bereits jetzt existieren, nämlich für einmal gemeldete Inhalte. Bereits jetzt müssen die Plattformen sicher stellen, dass Inhalte, die einmal als urheberrechtlich geschützt gemeldet wurden, nicht nur gelöscht werden, sondern auch zusätzlich nicht wieder hochgeladen werden können. Das ist exakt die Definition der Uploadfilter. Sie scheinen also bis jetzt bereits technisch möglich zu sein (und es regt sich noch nicht einmal jemand darüber auf). Wie bereits in einem der vorigen Posts gesagt, zumindest in Deutschland gibt es bereits jetzt viele Regelungen, die jetzt auf ganz Europa übertragen werden sollen.

    Abgesehen davon scheinen regelmäßig alle zu vergessen, dass, selbst nach der Verabschiedung der Richtlinie, erst einmal gar nichts passiert. Erst nach zwei Jahren müssen die Gesetze da sein. Und es ist gut möglich, dass es dann in den nationalen Gesetzen noch einmal Übergangsfristen gibt. Sprich, ab dem Beschluss gibt es mindestens zwei Jahre Entwicklungszeit, zumindest wenn man nicht erst wieder auf den letzte Drücker anfängt. Klar, die genauen technischen Vorgaben kommen dann auch erst mit den Gesetzen. Aber ich gehe davon aus, dass die Übergangsfristen entsprechend großzügig sein werden, wenn es wirklich technische Probleme geben sollte, die nicht nur vorgeschoben sind (was ich Google z.B. durchaus zutrauen würde).

    Zu dem Thema, dass man warten sollte, bis die technischen Umsetzungen fertig sind... dann wird gar nichts passieren. Google versucht das jetzt bereits zu blockieren, wird also mit Sicherheit nie eine technische Lösung präsentieren, wenn sie nicht extern dazu gezwungen werden. Wenn es wirklich der Vorschlag ist, darauf zu warten, dass hier von der Wirtschaftsseite aus fertige Konzepte kommen, dann ist das der Wunsch nach reinem Lobbyismus ohne jegliche Einmischung der Politik. Und das wurde hier bereits auch schon kritisiert.

    Es gibt keinen Politikbereich, der nicht das Leben von vielen, wenn nicht allen Bürgern, des betroffenen Gebietes beeinflusst. Und ich kann mich im Moment nicht daran erinnern, dass es schon mal eine politische Entscheidung gab, die von Anfang an alle gut fanden und alle der Meinung waren, dass sie das Leben verbessert. Und so lange wir die konkreten Veränderungen, die diese Reform nach sich ziehen wird, nicht kennen, frage ich mich, ob es wirklich so sinnvoll ist immer gleich das Horrorszenario an die Wand zu malen. Nach meinem bisherigen Verständnis könnte das Endergebnis nämlich auch sein, dass sich nach außen hin gar nichts am Internet ändert und nur im Hintergrund für eine gewisse Zeit etwas mehr Bürokratie am Laufen ist. Oder hat bisher irgendjemand tatsächlich eine Verschlechterung irgendeines Bereichs in seinem Leben durch die DSGVO erlebt? (Wobei hier mal interessant wäre, ob es Verbesserung gab, damit sich der Aufwand wenigstens gelohnt hat)

    Was natürlich problematisch bleibt, da stimme ich dir voll und ganz zu, ist die Tatsache, dass man von diesen Verhandlungen nur durch Zufall erfahren hat. Aber da ist dieser Vorgang nun wirklich nicht der einzige auf EU-Ebene. Das ist aber ein durchaus größeres Problem und es ist schade, dass der Aufschrei nur bei Dingen kommt, die das Internet betreffen und jeder das Gefühl hat, es wird ihm etwas weg genommen, was streng genommen gar nicht ihm gehört. Es ist daher sehr schade, dass ich im Moment keine Anläufe sehen kann, den Protest zu verallgemeinern und mal ganz groß die Legitimationsfrage bestimmter Institutionen auf der EU-Ebene zu stellen.

    Aber auch das führt hier insgesamt zu weit.

    Ein letzter Kommentar zu dem "Geläster". Wer sollte das Thema sonst anstoßen, außer Deutschland? Wir sind der größte Markt und die größte Macht innerhalb der EU. Und es handelt sich hier nicht um ein Großprojekt. Es handelt sich um ein politisches Vorhaben, um Regeln zu erstellen. Und Deutschland ist einer der größten Märkte wenn es um kreative Leistungen geht. Also ja, die deutsche Politik sollte sich da angesprochen fühlen und etwas anstoßen. Durchführen muss sie es dann ja nicht alleine, da sind ja alle anderen EU-Staaten auch dabei.

    Und nochmal. Noch ist gar nichts beschlossen. Richtig spannend wird erst die nationale Gesetzgebung. Und erst dann sehen wir, ob sie irgendwas wirklich kaputt machen oder nicht. Und da sehe ich erstmal nicht so viele Probleme, immerhin gibt es, ich wiederhole mich, hier bereits viele Gesetze, die jetzt in dieser Richtlinie wieder auftauchen. Natürlich sind da auch neue Sachen dabei, aber bisher hat sich niemand über ein zu restriktives Urheberrecht in Deutschland aufgeregt und ich gehe davon aus, dass das auch in Zukunft nicht geschehen wird.

  • Ich fasse mich kurz da ich keine Lust habe jedesmal ne Wall of Text zu schreiben und dieses Thema ja auch noch in anderen Foren diskutiere.

    Zum Thema der Filter kann ich technisch tatsächlich nichts sagen, damit kenne ich mich überhaupt nicht aus.

    Es gibt sie aber sie funktionieren nicht einfach weil Maschienen keinen Kontext verstehen. Und das ist das Hauptproblem.

  • Und es handelt sich hier nicht um ein Großprojekt.

    Doch, die "technischen Maßnahmen" sind ein Großprojekt. Aber das ist wohl leider den Verantwortlichen nicht bewusst. Darum sage ich auch, dass, wenn solche Maßnahmen in der Richtlinie (und damit später auch in nationalen Gesetzen) gefordert werdden, man sich sehr zeitig Gedanken machen sollte, wie man die angeht.

    Der erste Vergleich der mir hier einfällt ist das amerikanische AFIS, die Fingerabdruck Datenbank des FBI (oder ähnliche biometrische Datenbanken). Leider glauben wohl zu viele Leute, das funktioniert wie bei CSI oder anderen Krimis. Fingerabdruck einscannen und dann machts nach einem kurzen Gespräch gleich mal Piep und ein Resultat wird ausgespuckt. Wie lange ist der Europäer wohl gewillt zu warten, wenn er ein Bild oder ein Video hochladen will (abgesehen von der Zeit die das Hochladen vielleicht schon dauert)? Wann fängt er an über das sch*** lahme Internet zu schimpfen? Sekunden? Eine Minute? Fünf? So ein durchlauf bei AFIS kann durchaus TAGE dauern! Und dann gibt es nicht ein Ergebnis in der Form von: Nein der is es nicht oder ja der is es. Dann gibt es eine Menge(!) von Resultaten die Übereinstimmend sein könnten und die müssen dann alle händsich von Experten kontrolliert werden um festuzstellen ob da tatsächlich ein valider Treffer dabei ist.

    Will man das selbe für Bilder (gezeichnet oder photografiert) und Filme machen, wirds auch nicht weniger Aufwand. Das braucht Infrastruktur. Wahrscheinlich nicht wenig. Und erst der Datenverkehr den man mit all den Abfragen produziert. Angeblich ist im Internet ja so einiges los. *schauder* Aber wenigstens hätte man dann einen guten Grund endlich flächendeckenden Breitbandausbau zu erzwingen ...

    Ich habe auch nichts gegen die durchsetzung von Urheberrechten. Aber wenn Kosten, Risiken und Unannehmlichkeiten dabei derart unverschämt auf die Allgemeinheit abgewälzt werden, dann kommt mir die Galle hoch.

  • Um noch mal etwas für den Orki unmittelbar Nutzbringendes aufzuwerfen: Überall heißt es (pauschal), dass nichtkommerzielle Anbieter von der Urheberrechtsreform ausgenommen sein sollen. In dem Fall wäre der Orki ja nicht betroffen. Allerdings lese ich die RiLi dahingehend, dass nur bestimmte Anbieter, wie etwa Bildungseinrichtungen, ausgenommen werden, wenn sie nichtkommerzielle Interessen verfolgen (verkürzt formuliert). Internetforen, die keine wirtschaftlichen Interessen verfolgen, aber nicht die weiteren Anforderungen der ausdrücklich ausgenommenen Anbieter erfüllen, müssten sich mithin an die RiLi halten.

    Da das Urheberrecht nicht wirklich mein Schokoladengebiet ist: Weiß jemand etwas anderes?

    Um ehrlich zu sein, stört es mich generell nicht, wenn Anbieter, die mit der Verwertung geistigen Eigentums Dritter Geld machen, dafür auch zahlen müssen. D.h. wiederum, dass sie mit den Rechteinhabern Vereinbarungen zur Verwertung treffen müssen, die auch die Vergütung mit regeln. Soweit in Ordnung.

    Für klassische Foren ist das aber imho überzogen. Die können dann nur noch bestimmte Verlinkungen und Verwertungen zulassen, wie etwa deviantart, Ulisses u.a.. Und dann müssten sich auch alle User daran halten, nur entsprechende Inhalte hier hochzuladen.

    Für die FAB fällt mir als Holzhammerlösung aber immer noch nur der mit Passwort abgeschlossene Personenkreis ein.

  • Die Kontextfrage ist da auch in meinen Augen auch ein sehr großes Problem. Es gab ja wenn ich mich recht erinnere z.B. mal eine Family Guy Episode in der eine Szene aus einem Computerspiel gezeigt wurde. Die Szene hatte jemand ein paar Jahre vorher auf Youtube hochgeladen und die Serienmacher hatten sich ohne Nachfrage bei ihm da bedient. Da der Youtube Algorithmus dann jedoch irgendwann prüfte ob es Übereinstimmungen zu Family Guy Folgen gibt, wurde dann das originale Video zu dem Computerspiel durch Youtube gesperrt.

    Ich kann mir da durchaus vorstellen, dass es technisch nur schwer möglich ist einen Filter zu erstellen, der jetzt unterscheiden kann ob Inhalte für eine Rezension oder einen journalistischen Artikel genutzt werden oder von jemanden der sich an dem Inhalt bereichern will. (Und ob eine Rezension jetzt z.B. von einer Privatperson ohne finanzielle Interessen kommt oder nicht.) Oder ob da ein Foto vom Wohnzimmer gemacht wird in dem ein Poster hängt oder jemand einfach ein geschütztes Motiv verteilt. Im Zweifelsfall ist es halt immer sicherer erst mal Dinge zu sperren, obwohl es vermutlich nicht die Intention ist all diese anderen Bereiche ebenfalls zu treffen. Und ob dann auch kleinere Seiten die Kapazitäten haben einen zuverlässigen Filter zu nutzen, weil das ja vermutlich zum einem Rechenkapazitäten und zum anderen teures Know-How erfordert, auch wenn ich mir selbst dann weder mit White-Lists noch Black-Lists eine wirklich praktikable Methode vorstellen kann.

    Es wirkt halt aktuell schon ein wenig so, als wolle man erst mal etwas beschließen, ohne zu wissen, ob dies auch in der Form überhaupt praktikabel umgesetzt werden kann. Da eine unabhängige Beraterkommission einige Zeit dran zu setzen und darauf basierend zu entscheiden, erschiene mir praktikabler. Denn generell ist das Ansinnen den Urhebern eine gerechtere Entlohnung zukommen zu lassen, sicherlich ein gutes und erstrebenswertes Ziel.

    Und auch wenn es OT ist. DSGVO ist im Privatleben wirklich weniger zu bemerken. Im Arbeitsbereich habe ich aber schon unglaublich viel Arbeitszeit darein gebuttert, die an anderer Stelle mMn sinnvoller verwendet worden wäre.

  • Ich kann mir da durchaus vorstellen, dass es technisch nur schwer möglich ist einen Filter zu erstellen, der jetzt unterscheiden kann ob Inhalte für eine Rezension oder einen journalistischen Artikel genutzt werden oder von jemanden der sich an dem Inhalt bereichern will.

    Nein, so was kann ein Filter (bzw eine generell eine Maschine) nicht!

  • Ok. Ich kenne mich jetzt nicht auf hohen Niveau mit neuronalen Netzen und maschinellem Lernen aus. Ich hätte mir da schon vorstellen können, dass durch maschinelles Lernen und entsprechend langes Anlernen mit den richtigen Daten eine gewisse Trefferquote erzielt werden könnte um z.B. Videos oder Artikel einzustufen. Zumindest bei Bildrekonstruktion, Umsetzung von Spielregelwerken und ähnlichen wurden da durchaus ja schon einige beachtliche Erfolge erzielt. Das Problem sehe ich dann nur darin, dass es eben nur funktioniert so lange sich die Dinge ähnlich verhalten wie in den Daten, die zum Anlernen genutzt wurden. Und ein Filter, der nur meistens richtig funktioniert, erscheint mir eben nicht praktikabel.

  • Kearnaun Nein, es ist kein Großprojekt wie die beschriebenen, denn es wird nicht von der öffentlichen Hand umgesetzt werden. Es wird von der Privatwirtschaft umgesetzt werden müssen, weil die Politik entsprechende Regeln erlässt. Da liegt der Unterschied. Ob das insgesamt besser ist oder nicht ist eine ganz andere Frage, weil ich persönlich mehr Vertrauen in die öffentliche Hand hätte.

    Und aus genau diesem Grund werden die Kosten nicht von vornherein auf die Allgemeinheit abgewälzt. Den Flughafen etc. subventioniert der Staat, also zahlen da tatsächlich alle mit. Das ist hier nicht so. Wenn da wirklich Kosten entstehen sollten (und die Richtlinie sagt dazu nach meinem Kenntnisstand nichts aus), dann nicht, weil der Staat hier irgendwas macht, sondern weil ein Unternehmen abkassieren will.

    Und ja, die Uploadfilter sind keine super Lösung. Aus diesem Grund werden sie von Google ins Spiel gebracht und alle springen auf den Zug. Die Richtlinie schreibt sie nicht vor. In zwei Jahren kann viel passieren und es können andere technische Lösungen gefunden werden. Bzw. die Filter werden sehr viel besser werden, wenn entsprechend Energie und Geld reingesteckt wird.

    Im Moment scheinen in Deutschland Filter zu existieren, die funktionieren und die Uploads wohl nicht allzu sehr verzögern, sonst wäre der Unmut bereits früher schon mal deutlich zu hören gewesen. Wie die technische Entwicklung der nächsten zwei Jahre weiter geht, wage ich nicht vorherzusagen.

    Schon allein deswegen gehe ich, wie in einem früheren Post schon beschrieben, nicht davon aus, dass es eine zentrale Datenbank geben wird, die dann bei jedem Upload durchsucht werden muss, sondern einzelne, kleinere und für jede Plattform spezifische. Das verursacht andere Probleme, ganz klar, aber die Uploadzeiten sollten sich dadurch nicht so krass verlängern.

    Und wie gesagt, für den Orkenspalter gehe ich sogar davon aus, dass es gar nicht so weit kommen wird. Es müssen ja schließlich auch erst einmal alle relevanten Daten von den Verlagen etc. geliefert werden.

    Ich kann mir da durchaus vorstellen, dass es technisch nur schwer möglich ist einen Filter zu erstellen, der jetzt unterscheiden kann ob Inhalte für eine Rezension oder einen journalistischen Artikel genutzt werden oder von jemanden der sich an dem Inhalt bereichern will.

    Nein, so was kann ein Filter (bzw eine generell eine Maschine) nicht!

    Lustigerweise scheint die Richtlinie zu enthalten, dass bei den ganzen Maßnahmen jederzeit ein Mensch noch drauf schauen muss, also theoretisch falsche Entscheidungen eines möglichen Filters überstimmen kann.

    Ob das personell überhaupt machbar ist bei egal welcher Plattform ist dann eine lustige Streitfrage. Aber anscheinend haben sich die Politiker hier mehr Gedanken gemacht, als man ihnen zutraut.

  • Die Algorithmen würden mutmaßliche Wahrscheinlichkeiten liefern. Schwellenwerte müsste man definieren. Man könnte mehrere Algorithmen konkurrieren lassen (läuft je guten OMR/OCR Systemen auch so). Bei Bild: siehe optische Mustererkennung. Bei Text: siehe Plagiatssoftware. Perfekt gibt es mMn nicht.

  • Aber anscheinend haben sich die Politiker hier mehr Gedanken gemacht, als man ihnen zutraut.

    Haben sie leider nicht denn dann wüssten sie dass es auch personell nicht möglich ist. Ein 1-Stündiger FIlm hat 216000 Bilder und jede Minute werden alleine 400Stunden Videomaterial hochgeladen (Stand 23.01.2019) , das heißt das jede Stunde 86400000 Bilder Produziert werden die geprüft werden müssen. Dass heißt man müsste mindestens 10000 einstellen die dann wiederrum alle bezahlt werden müssten (Und 864 Bilder in einer Stunde juristisch zu beurteilen halte ich schon für sehr sportlich). Und da sind erstens noch keine Ton mit berechnet und zweitens war das jetzt nur Youtube.

    orkenspalter nur das sich Mustererkennung mit der veränderung weniger Pixel aushebeln lässt.

    EDIT: Man könnte soagr noch weiter gehen und ein Video in Einzelbilder aufteilen, mit Hilfe von Quantifikation umwandeln und dann wieder zusammensetzen und schon haben wir ein Video das für den Algorithmus etwas komplett anderes ist aber für den Menschen noch genau das selbe.

  • Wie ich geschrieben habe, ist das eine lustige Streitfrage, wie das gelöst werden kann. ABER: Wir reden immer noch von der Richtlinie. Die konkreten Gesetze können das entsprechend konkretisieren, so dass sich der personelle Aufwand wieder in Grenzen hält. Wie Thomas geschrieben hat, könnte ich mir da Lösungen mit Schwellenwerten vorstellen. Ab einem bestimmten Wert wirds geblockt, ab einem anderen muss nochmal jemand drüber schauen und drunter läufts erstmal durch.

    Da käme dann auch wieder die Verhältnismäßigkeit ins Spiel. Die Plattformen müssen Anstrengungen unternehmen, die ihrer jeweiligen Größe angemessen sind.

  • OT: Das schweift etwas ab und wäre fast einen eigenen Thread wert ;-). Gute Mustererkennung toleriert schon Fehler (vgl. Fehlerraten bei QR-Codes, die eingeplant sind). Auch Struktur- und Kantenerkennung kann vieles reissen. Dennoch: perfekt geht derzeit nicht, weswegen die zweite Instanz der Mensch wäre. Die Anstrengungen wären mir für den Orkenspalter wohl auch zu hoch.

    Aber abseits dieser technischen "Baustelle": Mal schauen, was noch so passiert.

  • Die Richtlinie schreibt sie nicht vor.

    Klar, die Richtlinie spricht von technischen Maßnahmen. Präventive Uploadfilter sind leider die einzigen technischen Maßnahmen, die leisten können, was die Richtlinie will. Außer präventiver Gedankenkontrolle, oder einem generellen, präventiven Abschalten aller Uploads gibt es da sonst nichts.

    Schon allein deswegen gehe ich, wie in einem früheren Post schon beschrieben, nicht davon aus, dass es eine zentrale Datenbank geben wird, die dann bei jedem Upload durchsucht werden muss, sondern einzelne, kleinere und für jede Plattform spezifische.

    Damit erhöhst du nur die Wahrscheinlichkeit, dass eine Urheberrechtsverletzung nicht gefunden wird. Die Plattformen können nämlich nicht hellsehen und mit ausreichender Genauigkeit voraussagen, welche Inhalte ihre Nutzer hochladen und auf welcher Liste sich ein relevantes urheberrechtlich geschütztes Werk vielleicht findet. Wenn man es so macht, dann lässt mans am besten gleich bleiben.

    Und deutsche Uploadfilter? Filtern die wirklich präventiv? Oder erst wenn ein Rechtsverstoß gemeldet wird? Ich denke fast letzteres. So ein 1:1 Vergleich eines gemeldeten Inhaltes mit einem mutmaßlichen Original ist nämlich das einzige, was zuverlässig einigermaßen schnell machbar ist.

    Es wird von der Privatwirtschaft umgesetzt werden müssen, weil die Politik entsprechende Regeln erlässt.

    Wenn es überhaupt umgesetzt werden kann. Bis jetzt spinnen sich ja nur ein paar Politiker was zusammen. Aber irgendwer wird schon irgendwie eine Lösung finden. Ne? Wie ich schon sagte, die 'technischen Maßnahmen' sind nicht trivial. Kleine Unternehmen/Plattformen brauchen gar nicht erst daran zu denken so was stemmen zu können. Dass gerade Google und Co die 'technischen Maßnahmen' so ins Spiel bringen sehe ich als dezenten Hinweis ala: "Euch Scherzkeksen aus Europa ist schon klar, dass wir die einzigen sind, die das gebacken bekommen werden. Wenn ihr also alles gefiltert haben wollt, werdet ihr die Bandbreite und Rechenleistung bei uns einkaufen."

    Ganz abgesehen von allem anderen halte ich nichts davon rechtsstaatliche Aufgaben, wie den Schutz von Rechten (wie eben dem Urheberrecht), an nichtstaatliche Stellen out-zu-sourcen. Weiters mag ich zwar Urheberrechte, aber ich mag Dinge wie künstlerische Freiheit und die Freiheit der Meinungsäußerung noch mehr, und beide werden durch präventive Filter aka technische Maßnahmen, beschnitten werden (nicht aus böser Absicht, sondern ganz unabsichtlich als Kolateralschaden). Und die Art und Weise wie diese Regelegung alle Internetnutzer unter Generalverdacht stellt. Alles Kontrollieren! Ihr könntet alle Verbrecher sein, ihr sch*** Internet nutzer ... Grrrr ....

    neuronalen Netzen und maschinellem Lernen

    Damit kannst du einer Maschine einigermaßen beibringen zuverlässig zu erkennen, dass sich etwas ähnlich sieht. Merke: Die Maschine vergleicht dabei nie wirklich die Bilder, sondern mathematische Beschreibungen der Bilder (Bilder die man durch diverse Filter gejagt hat um diverse Strukturen zu erkennen). Dass etwas nicht das selbe ist, obwohl es sich mathematisch sehr ähnelt, kannst du einer Maschine so nicht beibringen. Durch viel Machine Learning kannst du verhindern, dass die Maschine ein mögliches Plagiat übersieht. Du kannst so aber keine False Positives ausschließen.

    (Sehr wahrscheinlich verwirrst du den Algorithmus nur, wenn du ihm sagst, dass etwas mit ähnlichen mathematischen Eigenschaften manchmal aber nicht immer nicht das selbe ist. Merke ganz generell: Künstliche Intelligenz ist nicht intelligent (im Sinne menschlicher Intelligenz). Sie tut höchstens so als ob sie es wäre.)

    *hüstel*

    So und hier klinke ich mich aus. Das regt mich zu viel auf. Ist schlecht fürs Herz.

  • OT: Das schweift etwas ab und wäre fast einen eigenen Thread wert ;-).

    Wäre ich vill dafür^^. Aber dazu jetzt noch mal ein Schlusswort zu setzen:

    Gute Mustererkennung toleriert schon Fehler (vgl. Fehlerraten bei QR-Codes, die eingeplant sind).

    Da reden wir dann aber gut und gerne von 90% das können auch QR-Codes nicht.

    Sehr wahrscheinlich verwirrst du den Algorithmus nur, wenn du ihm sagst, dass etwas mit ähnlichen mathematischen Eigenschaften manchmal aber nicht immer nicht das selbe ist.

    Womit wir wieder beim von mir angegebenen Kontext wären.

  • Jungbluth Das dürfte der ARD sogar relativ egal sein. Um Norbert Lammert zu zitieren: "dass ein gebührenpflichtiges Fernsehen, das dieses üppig dotierte Privileg allein seinem besonderen Informationsauftrag verdankt, auch an einem Tag wie heute mit einer souveränen Sturheit der Unterhaltung Vorrang vor der Information gibt".

    Seit diesem Kommentar hat sich meines Wissens nach nicht viel an dieser Einstellung der öffentlich rechtlichen Kanäle geändert. Der Fokus liegt nicht mehr im investigativen Journalismus und dadurch sind sie meiner Meinung nach den nominellen Status der vierten Staatsgewalt verlustig geworden.