Leistungsschutzrecht: Google zeigt Verlegern den Finger
Der Streit um das Leistungsschutzrecht in Deutschland ist inzwischen beinahe vergessen. Gegen breiten Widerstand hat eine Lobby aus Verlegern und konservativen Politikern diese faktisch unnötige Erweiterung des Urheberrechts durchgedrückt. Das Ziel, Lizenzgebühren von Suchmaschinenbetreibern abzugreifen, wurde dabei allerdings verfehlt. Die Suchmaschinen dürften im Zusammenhang mit Links auf Nachrichtenseiten weiterhin unentgeltlich kurze Textauszüge veröffentlichen.
Google revanchiert sich nun allerdings auf verständliche und auch richtige Weise. Mithilfe eines Bestätigungssystems müssen deutsche Nachrichtenanbieter nun bis zum 1. August bestätigen, dass sie ihre Inhalte bei Google News gelistet haben wollen. Wer dies nicht tut, fliegt aus dem Index.
Vor wenigen Wochen wurde in Deutschland ein Gesetz verabschiedet: das Leistungsschutzrecht für Presseverlage. Im Lichte dieser Entwicklung und vor dem Hintergrund der rechtlichen Unsicherheit, die von dem Gesetz ausgeht, haben wir ein neues Bestätigungssystem eingeführt. Mit diesem bieten wir deutschen Verlagen eine weitere Möglichkeit, uns mitzuteilen, ob ihre Inhalte (weiterhin) bei Google News angezeigt werden sollen.
Das Vorgehen Googles ist konsequent und dreht den Spieß in die korrekte Richtung. Wer den Suchmaschinenbetreibern unterstellt, diese würden ohne Gegenleistung von seinen Angeboten profitieren, muss sich zukünftig selbst um neue Leser kümmern. Allerdings wird vermutlich keiner der in Sachen Leistungsschutzrecht federführenden Verlage auf eine Platzierung in den Google-Ergebnissen verzichten wollen. Somit werden diese mit einem Haken im neuen Bestätigungssystem Googles wohl allesamt selbst quittieren, welch schwachsinnige und am Ende auch öffentliche Mittel und Ressourcen fressende Diskussion sie das ursprünglich angeleiert haben. Das Urheberrecht war zu keiner Zeit gefährdet und es gibt seit jeher ausreichend Wege, den Missbrauch zu verhindern bzw. zu ahnden.
Google weist im zugehörigen Blogeintrag beinahe süffisant auf die schon immer bestehende Möglichkeit hin, die Aufnahme der eigenen Inhalte in Google News durch technische Maßnahmen (robots.txt, meta tags) zu verindern. Dieses Verfahren genüge auch den Ansprüchen in allen anderen Länder, das neue Bestätigungsverfahren wird ausschließlich in Deutschland eingeführt.
Wir schließen uns den abschließenden Sätzen in Googles Statement an und freuen uns weiterhin über jeden Leser, den uns eine Suchmaschine auf die Seiten bringt. Die Dienste ob der von ihnen angebotenen Textauszüge des Inhaltediebstahls zu bezichtigen halten wir für dumm und ausgesprochen kurzsichtig.
Wir sind davon überzeugt, dass wir Verlage am besten unterstützen, indem wir Millionen von Lesern auf ihre Seiten weiterleiten, indem wir ihre Inhalte im Netz sichtbarer und leichter auffindbar machen und indem wir den Verlagen über unsere Werbetools und Dienste helfen, Geld mit ihren Inhalten zu verdienen.
Apply cold water to the burned area…
Noch sprechen wir hier deutsch!
WTF?
No!
Schlechter Artikel! Nehmt doch lieber http://www.spiegel.de/netzwelt.....07161.html als Vorlage. Peinlich, dass das IT-unversierte Unternehmen Spiegel deutlich genauer ist und nicht wie ihr oder die Bild-Zeitung etwas erfinden um die Klickzahlen zu erhöhen.
Wo ist der Spiegel genauer? Und was ist hier erfunden?
Erklär doch mal…
@Markus:
Schon einmal daran nachgedacht, dass die Artikel nach dem Kommentar ab und zu geändert werden?
Es wurde nicht klar zwischen Google Suche und Google News unterschieden.
Hier behaupten sie wie in einer Bildzeitung, dass sich Google revanchiert und angeblich den Spieß umdrehen. Google hat tatsächlich aber nur die Google News für Deutschland geändert. SIE HABEN ALSO NICHT HÄMISCH GELACHT UND WERFEN DIE DEUTSCHEN NEWS AUS ALLEN INDEX’EN HERAUS!
Das wird auf SpOn besser geschrieben und versuchen nicht mit reißerischen Titeln wie eine Bildzeitung die Klickzahlen zu erhöhen.
Was ich mich Frage ist, warum hat Google das nicht von Anfang an gemacht? Ist doch nur Fair dass die einzelnen Firmen entscheiden können ob sie da auftauchen oder nicht! (don’t do Evil!) Von daher ist es ja auch ein wenig die Schuld von Google, das die Gier-Lobby der Verleger soweit gekommen ist und dieses unsinnige Gesetz auf den „freien“ Markt platzieren konnte…
Gute Aktion von Google wenn auch ein wenig spät! Ich sehe das schon kommen das in Zukunft viele Blogger und private Websites durch die Verlagsbranche „industriell“ Abgemahnt werden!
Ganz einfach, weil eine Opt-In Suchmaschine nicht funktionieren kann. Google geht nach dem Motto „alles was im Internet frei verfügbar ist kann auch erfasst werden“. Müssten sie nun jeden Seitenbetreiber, jeden Verlag darum bitten, ihm im Index aufzunehmen, sie könnten gleich dicht machen.
Wer also nicht im Index landen will, hat, wie es im Artikel steht, genug Möglichkeiten für einen (Teil) Opt-Out.
Mal davon abgesehen gibt es nicht nur Google im Netz. Es sind unzählige News-Seiten und Blogs vom Leistungsschutzrecht betroffen. Und die wenigsten haben die Möglichkeiten, ein Google-ähnliches Verfahren umzusetzen. Für diese bedeutet es entweder, mit der Gefahr einer Klage zu leben oder ihren Dienst einzustampfen.
In anderen Foren liest man immer mehr heraus, das sich Google mit diesem Weg nicht nur absichert sondern auch eine Art Monopol schafft. Aber die Verlage haben es nicht anders gewollt.
Ich habe mich vielleicht nicht detailliert genug ausgedrückt, es ging mir darum das Google eine Möglichkeit schafft explizit, die Möglichkeit zu schaffen nicht in „Google News“ aufzutauchen, da in „Google News“ deutlich größere Textteile kopiert werden als in der Standardsuche!
Sprich die Möglichkeit in der „normalen“ Suche weiterhin gelistet zu werden ohne bei „Google News“ aufzutauchen ;)
@Ben
Und genau das regelt die robots.txt. Da steht nicht nur drin, ob die Seite erfasst werden darf oder nicht. Theoretisch können die Verlage für jeden Artikel festlegen, ob er erfasst werden darf, und wenn ja, ob nur die Überschrift oder als so genanntes Snippet.
Und hör bitte mit dem „don’t be evil“ auf. Eric Schmidt hat selbst gesagt, das eine Firma wie Google immer bei irgendeinem aneckt. Es ist gar nicht möglich, bei jedem das „don’t be evil“ Prinzip zu verfolgen weswegen er diesen „Leitspruch“ auch nicht ganz richtig hält.
Also ist es deiner Meinung nach besser auch das letzte bisschen Moral aus der Wirtschaft zu entfernen…
Wie unser Märke schon von ganz allein herausgefunden hat: „Das Internet ist für uns alle Neuland.“
Armes Deutschland.
Märkel.
Merkel -.- Armes Deutschland
Bei uns in Österreich nennt man sie auch Merkel…
Nee! Märkel! War Absicht.
Genau! Märke ähhh Märkel wars! Ich glaub, hier gilt viel mehr der Spruch „Armes Deutschland“.
Wer hat eugentlich diesen total dämlichen Spruch “ armes Deutschland“ geprägt? Und wieso verwenden so viele trottel diesenSpruch?
Wer ist der größere Trottel? Der Trottel, der einen Spruch verwendet oder der Trottel, der nicht weiß, wie man Trottel schreibt.
Armer Trottel ;-)
noch viel schlimmer find ich ja „der deutsche michel“
@Ben: Diese Möglichkeit besteht seit Jahren über die robots.txt. Für diejenigen die zu dumm sind, diese Möglichkeit zu nutzen, wurde nun der neue Mechanismus eingeführt. Recht so! Wer meint die Hand die sie füttert beißen zu müssen…
Ja mit der Robots.txt verschwindet aber alles aus dem Google Index! Das kann ja nicht der Sinn der Sache sein! Bei „Google News“ werden deutlich längere Textteile kopiert – hier hätte es schon längst eine Widerspruchslösung (speziell für Google News) geben müssen – ohne das man aus der natürlichen Suche rausfliegt! Jetzt haben wir den Salat mit diesem dummen Leistungsschutzrecht und ich bin der Meinung das Google der jetzt eingeführten Funktion (die ist ja nur für „Google News“) dieses dumme und unnötige Gesetz verhindern hätte können! Den Schaden trägt nicht Google sondern den Schaden werden die ganzen Blogger und kleineren Websites tragen!
@Ben
Du hast scheinbar keine Ahnung, wie mächtig die robots.txt ist. Da drin legst du nicht nur ein Opt-Out für Webseiten fest. In der Datei kann jeder Verleger für jeden Artikel explizit fest legen, ob dieser erfasst werden darf und wenn ja, ob nur die Überschrift oder das so genannte Snippet.
Sorry, ich muss mich korrigieren. Entsprechende Vermerke macht man nciht in der robots.txt sondern in den Meta-Tags:
https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag
Du alte Laberbacke… Wie & wo kann man in der Robots.txt für einzelne Seiten/Artikel festlegen das diese ganz normal in der „Google Suche“ aber nicht in den „Google News“ erscheinen soll????? Denk mal nach bevor du was schreibst…
http://support.google.com/news.....swer=93977
Dann muss ich mich wohl auch entschuldigen! Die Frage die ich mir trotzdem stelle ist: WARUM wurde das nicht vernünftig nach außen kommuniziert? Es ist immer so rüber gekommen das man entweder „komplett ausgeschlossen“ wird oder in den sauren Apfel beißen muss und auch in „Google News“ gelistet wird! Ich habe in der ganzen Diskussionszeit vor dem LSR nicht einmal einen Artikel gefunden der dies erklärt hat…
@Ben
Ich habe die Diskussion über das LSR über heise.de verfolgt. Und da war zu lesen, das Google genau diese Filtermechanismen kommuniziert hat (bzw auch hier: http://www.taz.de/!111794/).
Das Problem ist aber eher, dass das LSR durch Politik und Lobbyisten entstanden ist (http://heise.de/-1783461). Google & Co wurden doch so gut wie gar nicht gefragt.
@Ben: Wer mit dem Kram was am Hut hat, kennt die Möglichkeiten – das muss also sicher nicht der ganzen Welt mitgeteilt werden. Für die „Blogger“ dieser Welt mag das vllt. erstmal hart sein, aber das ist kein Untergang. Es gibt genug fähige Entwickler die sich auch unter Preis verkaufen (und so ganz nebenbei den Markt kaputt machen), welche sich dem Problem sicher gerne annehmen.
@Ben: Warum du es nicht erfahren hast? Weil die Verleger $-Zeichen in den Augen hatten, und sich alle Mühe gegeben haben, die Debatte in Ihrem Sinn zu lenken. So zumindest hat es sich mir dargestellt. Eine schöne Indizensammlung gibt es mit „Lügen fürs Leistungsschutzrecht“ hier: http://www.stefan-niggemeier.d.....hutzrecht/
Genau, märkel. Unfassbar
Faktisch unnötig? Gerade Sie, sehr geehrter Autor, sollten es besser wissen. Denn das Leistungsschutzrecht beinhaltet auch, dass ich mir – ebenfalls Journalist und Redakteur – diesen Text hier kopieren kann, ihn irgendwo einbaue, als meinen verkaufe und Sie, sehr geehrter Autor, keinen Cent für die Vervielfältigung bekommen. Copy and Paste, das ist die moderne Interpretation des Journalismus. Da kann ich nur sagen: gute Nacht!
Zitate zu nutzen und ganze Texte zu kopieren sollte man nicht in einen Topf werfen…
Verstehe den Kommentar nicht ganz, „das Leistungsschutzrecht beinhaltet auch…“
Besagtes Handeln war und ist ein Verstoß gegen das Urheberrecht und kann ohne Leistungsschutzrecht entsprechend geahndet werden. Das LSR ändert hier nichts.
Dem Nick alle Ehren Herr Honk…
LOL. Ich gebe mir Mühe ;-)
Also noch mal anders formuliert: Das was Google da macht, ist doch nichts anderes als am Content, den ein Redakteur X erstellt hat, Kohle zu verdienen. Durch Auszüge aus Texten welcher Art auch immer. Das ist nichts anderes als Copy und Paste. Von der Kohle, die Google damit verdient, bekommt mein Verlag – der eigentliche Urheber im erweiterten Sinne aber nichts ab. Und deswegen bekomme ich davon nichts ab. Auch dafür gibt es entsprechende Modelle.
Na ja, das ist jetzt nochmal was anderes. Ursprünglich hattest du gesagt, dass jeder irgend einen Text kopieren und unter eigenem Name veröffentlichen kann, was definitiv nicht so ist und auch vor dem LSR nicht so war – da solltest DU dich vielleicht besser informieren bevor, bevor du Töne wie oben anschlägst.
Google nimmt nicht den kompletten Text, sondern einen Auszug. Wie aber bereits in den Kommentaren oben erläutert, steht es jedem Webseitenbetreiber frei, Google auszusperren. Dann zeigt Google auch keine Auszüge mehr an, bringt der Webseite dafür aber auch keine Leser mehr. Hier geht es auch nicht darum etwas schön zu reden, Google ist ein kommerzielles Unternehmen und verdient natürlich Geld damit, dass auch meine Inhalte darüber aufgefunden werden. Als Gegenleistung erhalte ich aber die Verlinkung und somit neue Seitenbesucher, ich als Webseitenbetreiber bin mit diesem Geschäft durchaus einverstanden.
Ben, scheinbar ist das Internet „Neuland“ fuer Dich… Also wegen Deiner Frage warum Google das nicht schon immer gemacht hat … Das Internet gibt es schon paar Jahre laenger, und die Idde dahinter war jeder kann Informationen ins Internet stellen, und jeder kann die lesen. Toll ne ? Und dann kam google und hat die Informationen „findbar“ gemacht in dem alle Server in Internet durchgesucht wurden, und die Informationen gesammelt hat ( wo man dann drin gesucht hat). Wer nicht wollte das Google seinen Server durchsucht, konnte das mit besagter robots.txt verhindern. Aber in der Regel hat man ja ne Seite im Internet damit die jemand liest – und dafuer muss die erstmal gefunden werden. Und dann kamen die Verlage mit ihrer Beknackten Idee … Ich bin mal gespannt welcher der Verlage nun Google nicht zustimmt … Google lacht sich kaputt …
Du kapierst nicht das es um die Trennung der Indexierung in der „normalen Google Suche“ & den „Google News“ geht! Robots.txt heißt kompletter Ausschluss…
http://www.spiegel.de/netzwelt.....07161.html
Google != Google News
Mit Nachrichten hat dieser Artikel eigentlich nichts mehr zu tun. Das Wort „Kommentar“ gehört wohl eher in die Überschrift, lieber Author…
google ist ein quasi-Monopolist, der in höchstem Maaße auf Gewinn ausgerichtet ist, Euere Daten, Profile etc. speichert, analysiert und weiter verteilt.
Verstehe nicht so ganz, wieso einige von Euch das Wort Fair in den Mund nehmen. Google ist nicht fair. Das keine Selbsthilfegruppe im Vereinskostüm.
Google liefert gerade soviel, dass es seine Marktposition behaupten kann und nicht größere Intetessengruppen gegen sich aufbringt.
Wobei man hier leidergottes den Spruch „die anderen machens doch auch“ gelten lassen muss.
Einer Firma vorzuwerfen, sie sei wirtschaftsorientiert, halte ich für traurig. Dafür ist sie ja eine Firma und sogar eine AG!
Sieh dir Facebook / MS / Apple und wie sie alle heißen an.
Die meisten sammeln auch Profile und vermarkten Werbung damit (auch Apple) und die meisten sind sogar so dreist und verkaufen die Geräte bzw. die Software hierfür auch noch (verdienen also zwei mal) und verschachteln diese Informationen geschickt in den AGB.
Hier muss man Google aber einen „Daumen hoch Smily“ geben, da Google nicht nur die Software gratis anbietet (unter Hardware kann man das durch die Nexus Reihe auch nicht wirklich behaupten) sondern auch die Art der Erhebung offen und gut verständlich in den AGB wiedergibt…
Fair ist wirklich nicht der richtige Ausdruck, aber es ist in vielen Dingen transparenter als bei anderen Anbietern.
@Honkomat. Es ist erschreckend wie wenig Wissen, sie als Urheber über das Urheberrecht haben.
Copy+Paste ganzer Texte ist, sofern der Rechteinhaber nicht zustimmt, schon vor dem LSR nicht rechtens.
Dagegen werden die dann auch wieder klagen und Gesetze machen.
1. Google MUSS mind. 200 Zeichen in die Suchergebnisse schreiben.
2. Ein Anbieter MUSS ab 160 Zeichen abgaben zahlen.
Quasi analog zur GEZ Verarsche… Erst müssen alle Firmen online gehen, um mit dem Finanzamt zu kommunizieren und dann wird jeder PC GEZ pflichtig, weil er ja auf die Mediatheken zugreifen könnten ;-)
Sehr guter Zug von Google. Habe ich auch so ähnlich erwartet. Dass dieses schwachsinnige Gesetz nur in Deutschland existiert zeigt nur, dass viele deutsche Verlage zusammen mit der Regierung im Internet ein „Neuland“ betreten ;)
jeder will halt ein stück vom kuchen :) ich frage mich nur wie das hätte realisiert werden sollen? und vor allem wie das preismodell ausgesehen hätte. an googles stelle hätte ich google news kurz mal zu wartungsarbeiten abgeschaltet. dann wäre das ganze sowieso im sande versiebt.
da das neue LSR auch für Nichtmonopolisten gilt, werden wohl eher die kleinen unter dem erhöhten Aufwand leiden..
Google ist so dumm … Google hätte einfach mal die Verleger die Google ans Bein Pissen wollten einfach mal für ein Quartal auf die Black Liste setzen sollen. Es hätte keine 3 Tage gedauert, dann wären die Verleger auf allen 4 zu Google gekrochen
Ich denke schon da Google den Verleger mit den News Hilft und so Danken sie es Google
„Ich weiß nur ein, würde mir Google gehören ( leider tut es das nicht ) dann würden sie für immer auf der Black Liste sitze“ Ich kann meinem Hund Verzeihen wenn er die Fütternde Hand Beißt, denn er weis es ab und zu nicht besser, aber Verleger die was im Kopf haben sollten es Besser wissen.
LG YOKI