WSJ wil Chrome-plugin die betaalmuur omzeilt offline hebben

The Wall Street Journal wil dat Google een plugin waarmee de betaalmuur op de website van de krant kan worden omzeild uit zijn Chrome Web Store verwijdert. De zogenoemde Read WSJ-plugin haalt zijn content op uit Googles cache.

Read WSJ staat al sinds begin april in de Google Chrome Web Store en heeft inmiddels de aandacht van The Wall Street Journal. De krant zegt tegenover Cnet dat het contact op heeft genomen met Google om de plug-in te laten verwijderen. Read WSJ zoekt naar kopieën van artikelen in Googles web cache. Indien deze gevonden worden, toont de plug-in een open slot bij de link naar het artikel. De link wordt hierbij veranderd in Googles kopie van het artikel.

Het is niet de eerste keer dat een paywall van een krant eenvoudig wordt omzeild. De betaalmuur van The New York Times bleek bijvoorbeeld te slechten met behulp van drie regels javascript. Hiermee werd de overlay verwijderd die lezers tot betaling aandrong.

The Wall Street Journal is sinds december 2007 onderdeel van het mediaconglomeraat News Corp. Oprichter en bestuursvoorzitter Rupert Murdoch gaf in 2009 aan dat er naar zijn mening betaald moet worden voor alle online-content van zijn publicaties. Een abonnement op de online-versie van The Wall Street Journal kost twee dollar per week. Of betaalmuren de dalende omzetten van kranten kunnen remmen, is nog wel de vraag: de Britse krant The Times zag twee derde van het verkeer naar zijn website verdwijnen na de introductie van een paywall.

Door Bart de Water

Nieuwsposter

13-06-2011 • 12:25

77

Lees meer

Reacties (77)

77
77
57
8
0
13
Wijzig sortering
Het is gewoon mogelijk om via een robots meta tag de cache uit te schakelen. Je kan dan google perfect toelaten om je website te doorzoeken, maar cachen is niet toegestaan.

Algemeen:
<meta name="robots" content="NOARCHIVE">

Of enkel voor google:
<meta name="GOOGLEBOT" content="NOARCHIVE">

[edit:] Dit was bedoeld als reactie op Blokker_1999..

[Reactie gewijzigd door Sorcix op 27 juli 2024 07:56]

Anoniem: 296748 @Sorcix13 juni 2011 12:57
Dan zit je nog wel met de spiders die zich niet braafjes aan de robots.txt vuistregels houden (robots.txt wordt niet echt erkend als een standaard, Google is gewoon heel aardig dat ze meewerken).

Wat ik me afvraag is hoe het mogelijk is dat de Googlebot ze kan spideren; die bot zou zelf toch ook geblokkeerd moeten worden? Googlebot heeft (voor zover ik weet) geen authenticatiemethode, behalve zijn user agent (heel makkelijk te spoofen dus).
Origin IPs van googlebot zijn ook wel bekend. Moeilijker spoofen dat.
Maar een andere zoekmachine (die zich niet aan de robots regels houdt) kan dan nog steeds cachen. Die caches kan Google dan alsnog weer vinden. Indirect dus, zonder zelf te cachen.
Of betaalmuren de dalende omzetten van kranten kunnen remmen, is nog wel de vraag: de Britse krant The Times zag twee derde van het verkeer naar zijn website verdwijnen na de introductie van een paywall.
En? 10.000.000 x $0 is nog altijd veel minder dan 3.333.333 x $2 per week :).
(De getallen zijn natuurlijk anders; maar 't gaat om 't idee.)
Tenzij de gratis versie advertenties heeft.
Dan zou het 10.000.000 x $1 wekelijks kunnen zijn.
$1 per set advertenties per lezer? Niet erg realistisch, lijkt mij :).
Vraag ik me trouwens wel af of je dan opeens geen ads meer hebt als je de betaalde versie neemt...
Maar waarom vraagt men niet aan google om deze artikelen uit de cache te halen? Als alles zichtbaar is in de cache dan kan iedereen zij het met iets meer moeite ook handmatig de artikelen lezen.
Omdat WSJ waarschijnlijk bewust zijn pagina's laat cachen door Google. Op die manier trekken ze veel traffic naar hun site. Ze zetten de paywall open voor Google's spiders, zodat deze ook alle artikelen achter de paywall indexeren. Op die manier kun je die artikelen nog wel vinden via Google, maar niet bekijken zonder te betalen.

Ze kunnen nu dus niet eisen om die artikelen uit de cache te laten halen; Ze hebben bewust de poort open gezet voor Google! :)
Wall Street Journal kan dit al lang zelf regelen. Bij Google kan je aangeven dat een pagina wel mag worden opgenomen in de zoekindex, maar dat ze geen gecachte versie mogen opslaan of tonen in zoekresultaten:

<meta name="robots" content="index,follow,noarchive">

Zo ben je dus nog steeds vindbaar zonder dat bezoekers gratis de door Google gecachte versie kunnen lezen.

Andere zoekmachines hebben vergelijkbare opties: http://noarchive.net/refs/search/

[Reactie gewijzigd door Blaise op 27 juli 2024 07:56]

Andere zoekmachines hebben vergelijkbare opties: http://noarchive.net/refs/search/

en daar zit dus het probleem, IK moet dus moeite doen om te zorgen dat een wazige zoekengine geen rare dingen gaat doen.. Eigenlijk zou het andersom moeten zijn, wil jij dat jouw site in de zoekengine komt, DAN moet je een robots.txt neerzetten met bepaalde opties..
Nee hoor, je hoeft als paysite helemaal geen moeite te doen om niet in de cache te komen. Gewoon de paywall ook laten gebruiken als de Google bot langs komt. "Ja, maar dan kom ik niet meer in de zoekresultaten voor!", hoor ik je denken. Precies. Het is het een of het ander.
En waarom MOET dat zo zijn? Zoekmachines zijn geen service voor websitebouwers. Ze zijn bedoeld voor mensen om websites te vinden (en het verkopen van ads natuurlijk).
Helaas word die meta tag overruled door een robots.txt file
En met welke reden zou men een oplossing van het probleem 'overrulen' door hun eigen robots.txt?
Met de reden dat ze niet goed opletten, anders hadden ze dit ook wel geweten.
Ze lopen nu te bitchen op een extension terwijl ze het 'probleem' zelf moedwillig geschapen hebben...

Als je zoekindex op Google zo belangrijk is dan zorg je ervoor dat je een site-admin hebt die ervaring heeft met Google. Dan hoort ie ook te weten hoe je zo'n robots.txt op moet zetten zodat die meta-tag niet nodig is of niet wordt overruled. :)
Als ze dat echter niet doen dan zouden ze zelf offline gehaald moeten worden totdat ze het op orde hebben, niet de extension. Het is wel heel makkelijk om de schuld op een ander te schuiven...

(Heb zelf geen ervaring met robots.txt of Google's crawlers, maar dit lijkt me nogal een logisch verhaal..)
Anoniem: 80466 @Blaise13 juni 2011 13:09
Vraag is natuurlijk of de noarchive setting de zoekindex beinvloed.
Het kan best zijn dat Google dergelijk pagina's lager op de zoekindex zet.
Als Google belang heeft bij cached pagina's zullen ze mogelijk sites die deze caching blokkeren straffen met lagere rankings.

De macht van de zoekindex is ernorm.
google zou het ook niet leuk vinden als WSJ de robot geen toegang geeft, amdat dan de google index niet meer 'compleet' zou zijn. google zou onderscheid kunnen maken tussen pay-paginas en free-paginas, waarbij de pay-paginas niet uit de cache gelezen kunnen worden. of misschien pas na 1 week.
Of je zorgt er als bedrijf zijnde zelf voor dat je betaalde content afgeschermd is...

Het is wel makkelijk om te zeggen 'Google moet dit doen omdat mijn betaalde content gratis gelezen kan worden' maar je zorgt er ZELF voor dat dat kan...

Google heeft niks met de site van WSJ te maken, geef Google dan ook niet de schuld van de incompetentie van de bouwers van de WSJ site... Ze kiezen er zelf voor om de site in de Google index te zetten ;)
Anoniem: 175233 @Torrentus13 juni 2011 13:42
Cachen is net zo voordelig voor Google als voor WSJ, en helpt gewoon de consument.
Deze plug-in misbruikt de cache echter, om daarmee het betaal gedeelte te omzeilen. Daarvoor was de cache nooit bedoeld!

Natuurlijk kan WSJ de gehele cache uitzetten, maar dan verlies je functionaliteit! En dat betekent dat de goeden weer te leiden hebben van van de kwaden. Dat is ongewenst. Daarom dus liever het misbruik van de plug-in verwijderen, dan de gehele functionaliteit opdoeken.
Los van de service die ze hiermee bieden aan hun gebruikers, waar is het voordelig voor Google?
Betaalde content hoor je niet opeens voor de Google bot publiek te maken. Het is het een of het ander, dit is gewoon cloaking, en de WSJ verdient het feitelijk om geheel uit de Google index verwijderd te worden.
Maar bij een site van deze omvang zal Google ongetwijfeld wel een iets minder strenge deal maken...
WSJ wil van 2 walletjes eten, ze willen wel dat links naar content in hun walled garden van buiten kan worden gevonden (waarna je als gebruiker ineens een paywall te zien krijgt: dat is ongewenst imho) en vervolgens gaan ze daar over klagen.

Het is hun keuze, daar moeten geen buitenstaanders onder lijden.
Juist. Eigenlijk vind ik dat google ze zouden moeten straffen voor dit gedrag, alles uit de cache halen, pagina's uit de index en pagerank voor een half jaar nerfen. Dit is imho een valse seo techniek die de concurrentie op onterechte wijze benadeeld.
Ze zijn dus hypocriet. Als Google langs komt mag die naar binnen, als er een gewone klant langskomt niet. Of je geeft iedereen gratis toegang, of helemaal niemand.

Ik SPUUG op websites die je op Google het idee geven dat ze de oplossing voor je probleem hebben, maar waar je vervolgens voor moet betalen. Google zou helemaal geen resultaten van betaalsites moeten laten zien.
Volgens mij kan die krant dat gewoon in zijn robots.txt instellen maar ze zullen wel bang zijn dat ze niet meer bovenin Google searches komen te staan.

Tja...
Wat ze nu doen is gewoon cloaking, in de Google richtlijnen staat duidelijk dat de gebruiker dezelfde content moet zien als de Google bot. Dus als de Google bot de betaalde content mag crawlen, zou ik hem ook gratis moeten zien.
Inderdaad.

Als ik een hit krijg op Google en ik volg de link, wil ik niet vervolgens gevraagd worden om te betalen, ik wil de beloofde content. Een hoge ranking krijgen door te doen alsof bepaalde content op de pagina staat, en vervolgens een 'maar alleen als je betaalt' vind ik slinks en een verspilling van mijn tijd. Dat is gewoon ongewenste reclame.

Als ze toch in de zoekresultaten willen belanden dan moet dat maar via gesponsorde links. Dan is het voor gebruikers ook meteen duidelijk waar ze aan toe zijn. Maar ha! Nietsvermoedende internetters laten betalen geen probleem, maar Google betalen voor gewonnen inkomsten door het verschijnen in de zoekresultaten ho maar!

[Reactie gewijzigd door Grauw op 27 juli 2024 07:56]

Mee eens, maar de gebruikers van de Read WSJ plugin doorlopen niet echt jouw scenario: deze mensen bezoeken de site van WSJ en kijken(geautomatiseerd) welke content er in de cache van Google beschikbaar is.
Ze zouden ook zo kunnen doen dat als je via een zoekactie bij google binnenkomt dat je dan wel de hele pagina ziet maar dat je dan eerst een hele hoop moet scrollen net zoals die site van expert answers oid. Dus de content staat er wel degelijk op, je moet er alleen wel een eind voor scrollen.
Er zijn meer websites die dat doen, simpelweg om hits te krijgen van Google, waarna de klant een betaalscherm krijgt te zien. Terecht dus dat Google dat omzeilt.
Google omzeilt helemaal niks. Die extension is van een derde partij.
Google omzeilt wel degelijk wat. Even een voorbeeld:
Je hebt een website waar mensen op moeten aanmelden op bepaalde content te zien. Maar je hebt het ook nog eens zo ingesteld staan dat search engines die gesloten content wel kunnen indexeren. Waarom zou ik dan moeten registreren, terwijl de Google search bot het zonder kan inzien?

Zoals NotSoSteady al zegt, de bot moet hetzelfde kunnen zien als een gewone gebruiker. Dat is in dit voorbeeld niet het geval, je ziet pas hetzelfde nadat je bent aangemeld.
Maar dan omzeilt Google toch niets... De Google bot weet helemaal niet dat het gesloten content is. Het punt met die extension is dat die wel omzeilt. Normaal krijg je de paywall, maar met een truc zie je met ReadWSJ de echte pagina.
Nee, die plugin zorgt ervoor dat je de gecrawlde inhoud ziet, in plaats van dat je daadwerkelijk naar de nieuwssite gaat. Er wordt niets omzeild. Het is niet de schuld van Google, noch van de plugin, dat de nieuwssite in kwestie een searchbot wat anders voorschotelt dan een browser.
Kun je dan je browser zo aanpassen dat een site denkt dat je een Google bot bent en zo de rode loper voor je uitlegt?
Dat zou kunnen als de website controleert of je googlebot bent met behulp van de User Agent. Zoekmachines gebruiken een aparte user agent, daar zou je wat mee kunnen doen. Echter blijft het feit dat ze graag willen dat al hun content wel wordt getoond bij zoekresultaten, maar mensen eerst moeten betalen om het hele artikel te kunnen lezen.
Inderdaad, lijkt mij ook niet dat google dit gaat verwijderen.
Anoniem: 80466 @Paul - K13 juni 2011 13:12
Ik denk van wel.
Google cache is alleen legaal omdat het in functie enkel een cache is. Als het als een volwaardige kopie van de site wordt gebruikt via software die Google zelf verspreid dan is Google potentieel aansprakelijk voor auteursrechtschending.
Gezien de wetgeving over caching staat de WSJ inderdaad in zijn recht om verwijdering van hun cached content uit googles caches te laten verwijderen: omdat ze daar echter alleen zichzelf mee hebben proberen ze het op minder nette manieren.

Hoe je het ook wend of keert: het is hun keuze om content die niet direct bereikbaar is toch aan een zoekmachine bot te tonen zodat ze hits krijgen, overigens niets zo vervelend als ineens op een paywall stuiten als je een link volgt.

Als er al een oplossing zou moeten komen dan zou het mogelijk door google als extra service kunnen worden gedaan, inclusief waarschuwing bij de zoekresultaten.
Anoniem: 291781 @blouweKip14 juni 2011 01:56
idd, of gewoon 2 pagina's resultaten waar de consument bij een zoekopdracht voor kan kiezen; 1 met betaalde content en een met gratis content (daar gaan je hits).
WSJ zet daarentegen wel de deur open voor het gebruik van Google bot. Je kan het heel simpel afschermen want Google bot lees a de robots.txt en de meta tags uit de pagina. je kan heel simpel alle info door Google bot laten indexeren maar hoeft het niet te archiveren. Sorry maar we praten hier over basisbeginselen HTML hier hoor.

WSJ webdevs maken hier absolute beginners fouten en nu probeert WSJ het af te schuiven op anderen. Sorry maar hier trap ik niet in. zelfs ik weet het en ik ben geen goeie webdev.
Anoniem: 80466 @Hakker13 juni 2011 14:52
WSJ heeft warschijnlijk geen probleem met een cache zolangs deze alleen als cache gebruikt wordt en niet om hun paywall te omzeilen.
En om te voorkomen dat het gebruikt word om de paywall te omzeilen moet Google deze ook implementeren in hun cache dan?
WSJ maakt gewoon onterecht gebruik van de Google cache.
Maar waarom hoeft die cache dan niet te betalen? En ook als er geen cache zou zijn, willen ze alsnog maar wat graag dat Google hun artikelen wel kan lezen. Hypocriet. Zie ook talloze andere reacties.
Waarom zorgt men niet voor een fatsoenlijke robots.txt is dan een beter vraag...
Desnoods een pagina met alleen kop/onderkop waar de Googlebot toegang tot heeft.
Als de pagina weinig of geen tekst bevat zal google deze als niet relevant bestempelen en worden ze dus als nog niet gevonden.

Deze truuk werkt al heel lang bij allerlei sites.
Volgens mij heeft dit niet zoveel met een robots.txt te maken. WSJ heeft bewust functionaliteit toegevoegd die een andere variant van de site laat zien als de bezoeker een google bot is.

Ze weten waarschijnlijk best dat dit dan gecached wordt en publiek beschikbaar is, maar ze gokken erop dat er vast niemand op het 'in cache' knopje klikt.
Omdat dit een volledig geautomatiseerd proces is. Het is zoveel gemakkelijker voor Google om een plug-in te blokkeren dan (op verzoek) pagina's uit hun cache te verwijderen. Als de krant geen pagina's in Google's cache heeft staan is het ook mogelijk dat er (veel) minder zoekresultaten getoond zullen worden. En dan zal waarschijnlijk niet de bedoeling zijn.

Het gemakkelijkste is waarschijnlijk om de overeenkomst/algemene voorwaarden voor het toevoegen van een plug-in uit te breiden met een clausule over het omzeilen van betalingen in wat voor vorm dan ook, wat het in principe is (hoe simpel het soms ook kan zijn, getuige de NY Times).
Ach, in Chrome tik je gewoon 'cache:' voor de url van een gesloten artikel en voila. Daar heb ik echt geen plugin voor nodig.
En dat valt juridisch toch echt niet onder het omzeilen van betalingen/beveiligingen.

Voorbeeldje: cache:http://tweakers.net/nieuws/75049/wsj-wil-chrome-plugin-die-betaalmuur-omzeilt-offline-hebben.html (copy-paste)

Ook is het mogelijk om je eigen User-agent aan te passen, maar das wat minder wenselijk. Daar kan men tenslotte achter komen en het valt WEL onder het omzeilen van beveiligingen en dus mogelijke juridische complicaties.

[Reactie gewijzigd door DFyNt2U op 27 juli 2024 07:56]

Omdat het kan is het legaal obviously, net zoals programmatuur downloaden. Iets met auteursrechten ...

[Reactie gewijzigd door analog_ op 27 juli 2024 07:56]

Anoniem: 394009 @C0rnelis13 juni 2011 14:11
Het gemakkelijkste is waarschijnlijk om de overeenkomst/algemene voorwaarden voor het toevoegen van een plug-in uit te breiden met een clausule over het omzeilen van betalingen
Waarom zou Google dat doen? Wat hebben ze daaraan? WS misbruikt juist Google door de spider een andere versie van de site voor te schotelen dan de gewone bezoeker om hoger in de index te komen, gewoonlijk wordt dat soort gedrag afgestraft door de resultaten ergens achteraan in de zoekindex te zetten.
Of er komen plugins voor Firefox met dezelfde mogelijkheden.. en wie kan er dan aangeklaagd worden?
Volgens mij moeten ze gewoon betere technologie gebruiken in plaats van lood om oud ijzer.
Geldt voor Google ook al; Je kunt volgens mij ook gewoon Google Extensies van third party websites downloaden. In dat geval valt alleen de ontwikkelaar nog aan te klagen, maar zo'n extensie kan heus wel anoniem ergens op internet gedropt worden...
probleem is dat de extensie niets illegaals doet, en het wordt al lastig om iemand juridisch lastig te vallen als hij ook nog eens in een ander rechtsgebied woont.
Het verschil is zeer groot.
Een keer zal je wel is opzoeken in de Google cache maar je blijft dit niet doen en dan pak je uiteindelijk wel een abonnement of je blijft weg van de site.
Oftewel... Google bewijst WSJ juist een dienst door WSJ te indexen :).
(PS: 'wel is opzoeken'? Vreselijk! :'( .)
Is dit geen cloaking volgnes de richtlijnen van Google? De gebruikers van de Google zoekmachine zouden dezelfde content moeten zien als de Google bots.
Precies, de enige kloppende reactie van google is WSJ uit hun zoekresultaten weren.

ps. dat zou betekenen dat de WSJ websites over een maand of 2 weer zonder paywall beschikbaar zijn :D
Je mag als krant dan ook verwachten dat er betaald wordt voor de geleverde content. Lijkt me niet meer dan terecht dat Google deze plugin offline haalt. Aan de andere kant mag er ook van worden uitgegaan dat News Corp. de beveiliging van haar dochterondernemingen op orde stelt. Anno 2011 is het algemeen bekend dat men zoveel mogelijk content gratis wil ontvangen en daarvoor de nodige (soms illegale) middelen wil inzetten.

Laten we wel wezen, twee dollar per week voor een krant is niet veel, zelfs niet voor de digitale editie. Moet toch wel op te brengen zijn voor de geinteresseerde gebruiker :)
Als jij als krant zelf aangeeft dat jouw content gecachet mag worden dmv een robots.txt dan kan je toch verwachten dat mensen jouw content ook uit de cache gaan lezen ?
Persoonlijk lijkt het mij compleet absurd als deze plugin offline gehaald gaat worden, het enige wat de plugin doet is publiek beschikbare data ophalen en deze tonen, niets illegaals aan.

Het originele probleem ligt met de uitgever van de content en niet in de plugin
Het beveiligingsgat ligt bij WSJ, wat de plugin doet is de cache ophalen die voor iedereen vrij toegankelijk is en ik zie niet op welk front dit 'illegaal' zou zijn. Zeker niet gezien WSJ er zelf voor kiest om deze cache/index te gebruiken.
Er is geen beveiligingsgat, WSJ stelt bewust deze content openbaar voor de googlebot. Gewoon een redenatiefout.
Is dit niet hetzelfde als de nzb knop van FTD? In feite linkte dat ook naar ander materiaal, op een andere site. Het veranderde de werking van de FTD site. Zelfs nadat de knop door een rechter verboden werd, werd het vervangen door andere software die de functie weer herstelde.

Nu is een website niet helemaal hetzelfde als een usenet server, maar het is wel de verantwoordelijk van de uitgever. Misschien is de robots.txt wel goed ingesteld en is de meta informatie ook goed ingesteld. Echter door het serveren van een leesbare text voor de bot en dan een overlay op de site voor iedere andere gebruiker is een vorm van misleiding (zoals bv experts-exchange die eerder ook uit de cache gehaald kon worden) die niet 'netjes' is.

Google laat zich misleiden en ik vind dat wsj uit de cache en zoekresultaten gehaald moet worden.
Op zich vind ik 2 Dollar ook niet veel, maar dan moet die versie wel te downloaden zijn en op een E-Reader of iPad (kloon) te lezen zijn. Daar moet toch wel een mouw aan te passen zijn denk ik.

De iPad (of kloon) leent zich uitstekend om advertenties weer te geven zonder dat het teveel afleid (zolang je er maar gewoon door kan bladeren en niet van die 'do not skip' onzin hebt zoals op DVDs). Ik denk dat daar best nog wel het één en ander aan te innoveren is. De wereld veranderd nu eenmaal en dan moeten ook de dinosaurussen er een keer aan geloven.

Internet is nu eenmaal opgezet met het oog op 'vrije' informatie, vanuit dat oogpunt moet je ook innoveren.
Twee dollar per week niet veel? Da's relatief... Da's 100 dollar per jaar... Daar kunnen sommigen een jaar van leven :).
als ze overgaan op het https protocol is het ook opgelost, dan kan er niet meer gecashed worden. daar hebben ze google niet voor nodig.
de WSJ kan dit zelf inderdaad voorkomen, maar dat willen ze niet aangezien ze wel willen dat links naar die walled content wordt getoond in de zoekmachine.
Anoniem: 35352 @manuarmata13 juni 2011 17:29
En waarom zou dat niet kunnen als er HTTPS gebruikt wordt?

[Reactie gewijzigd door Anoniem: 35352 op 27 juli 2024 07:56]

Dus ze willen allemaal zoek resultaten in google proppen die niet werken voor niet betalende klanten.
Je lekker is dat als dat iedereen gaat doen dan kunnen we dadelijk niks meer vinden op google zonder er extra voor te betalen.
Als je je eigen web-indexer maakt op je iOS device dan mag je de WSJ content wel downloaden, maar niet tonen?
De krant geeft zelf Google toegang tot haar content. Geef Google ook gewoon toegang tot je Paywall ipv de content en het is opgelost. Voor het indexeren zou je dan wel een kleine samenvatting kunnen tonen.

Het is gewoon verneukeratief om zoekmachines een andere content voor te schotelen als bezoekers en mijns inziens terecht dat mensen daar een plugin voor gemaakt hebben.
Anoniem: 104592 13 juni 2011 13:39
Waarom betalen mensen voor een online krant terwijl er gratis alternatieven zijn?
Snap zo en zo niet waarom je betaald voor nieuws.
De betaalde alternatieven hebben mensen in dienst die betaald worden en deze mensen produceren doorgaans kwalitatief en inhoudelijk goed nieuws (dat is de bedoeling), vaak hebben ze ook diepgaande achtergrond artikelen.

Een betaalde dienst heeft meer geld om te besteden en zou in theorie beter, meer, interessanter nieuws kunnen leveren, of meer om het nieuws heen, door hun grotere budget.

De vlieger hoeft niet altijd op te gaan. Als deze extra inkomsten niet voor deze doeleinden worden gebruikt, maar voor reclame, papierendistributie, snoepreisjes, aandeelhouders spekken, kantoorpanden en dergelijke.

Het kan inderdaad zo zijn dat gratis alternatieven net zo goed, of zelfs beter zijn. Dit komen door:
- grotere inkomsten (maar dan met een ander inkomsten model)
- Lagere uitgaven (geen grote panden, aandeelhouders, dure contracten, distributie)
- Lagere personeelskosten (meer freelance, lager loon, vrijwilligers)
- ineffectieve bedrijfsvoering van de betaalvarianten waardoor de gratis alternatieven beter of gelijkwaardig uit de bus komen
Maar een krant biedt niet alleen nieuws, die biedt ook achtergronden. En juist dat laatste vindt je (nog?) niet op het internet.
Ach, Murdoch heeft vaker rare dingen gedaan dus dit was eigenlijk voorspelbaar.

Op dit item kan niet meer gereageerd worden.