Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 168 reacties

Usenetaanbieder Giganews laat weten dat de hoeveelheid data die dagelijks door de klanten van het bedrijf wordt gepost, in twee jaar tijd bijna is verdubbeld. De provider verwerkt nu bijna 9 terabyte per dag.

Giganews logoGiganews, een van de grootste usenetproviders ter wereld, laat in een grafiek zien dat de hoeveelheid geposte data tussen januari 2009 en januari van dit jaar is gestegen van circa 5TB tot bijna 9TB per dag.

De usenetprovider, die in Nederland aan diverse wederverkopers zijn diensten aanbiedt en een serverpark aan de AMS-IX heeft gekoppeld, stelt dat hoofdoorzaak van de groei simpelweg het toenemende gebruik van nieuwsgroepen is. Ook in Nederland is usenet populairder geworden, mede dankzij eenvoudiger tools om binaries uit de nieuwsgroepen te plukken, de hogere downloadsnelheden ten opzichte van p2p-netwerken en het bestaan van communities als FTD.

Giganews laat ook weten dat het de retentieperiode heeft opgetrokken naar 900 dagen. Dat betekent dat postings in nieuwsgroepen circa 2,5 jaar bewaard blijven op de servers van de usenetaanbieder. Het oude plafond van Giganews stond op 700 dagen retentie.

Groei van dagelijks usenetverkeer

Update, 10:38: het artikel is herschreven om duidelijker te maken dat het alleen om het postverkeer bij Giganews gaat en niet om het downloadverkeer.

Moderatie-faq Wijzig weergave

Reacties (168)

Kan iemand me eens uitleggen hoe "usenet" tussen de usenet providers in elkaar steekt?
Want er is maar 1 usenet met als variabele de retentie toch?
Als ik iets post by usenet provider A dan moet dat bij B uiteindelijk ook geschikbaar zijn.

Hebben usenet providers dan allen een complete kopie van `usenet´ (met als verschil de retentie) en syncen ze dat onderling? Of is er een soort distributed opslag systeem?
Als jij iets post op usenet, upload je dat naar de news-server van jouw provider. Jouw provider slaat dat lokaal op.
Als ik jouw post wil downloaden en ik zit bij dezelfde provider, download ik dat vanaf diezelfde server (of dezelfde groep servers).
Die news-server heeft ook weer connecties met andere newsservers en over die connecties (feeds) wisselen ze de posts uit die nieuw zijn. Dus jouw providers server uploadt jouw nieuwe post naar alle servers waarmee ze een feed hebben en jouw provider downloadt alle posts die ze nog niet hebben van hun feeds.
Zo zal jouw post na verloop van tijd op alle newsservers ter wereld staan.

Dat laatste is niet helemaal waar, want je post je bericht in een bepaalde groep en elke provider kiest ervoor om bepaalde groepen wel of niet te voeren.

Tenslotte bepaalt een provider nog hoe lang ze de posts die ze lokaal opslaan hoe lang ze die bewaren. Voor ISP's is een tijd van 10 - 30 dagen gebruikelijk, hoewel sommige ook wel langere retentie hebben. Ook kan de retentie tussen verschillende nieuwsgroepen verschillen. Na die tijd wordt het bericht lokaal weggegooid.
En de grote jongens ( 600+ retentie houders ) werken met datawarehousing

er is een database die alle postings bijhoud, en op het moment dat jij met een nzb aankomt van 500 dagen, word er op de achtergrond een query gedaan in het warehouse, en komen de betreffende articles naar voren, en naar de 'live' server gezet

De live server heeft een bepaalde halflife, zeg maar 40 dagen ( voorbeeld )
Daarom kan je tegenwoordig ook op weinig plaatsen headers binnenhalen, sommige bieden een halflife van 60 of 90 dagen, maar dat zijn er maar weinig )

Dat datawarehousing heeft als nadeel de snelheid, posts die niet op de live server staan komen vrij traag binnen, maar zoals een proxy, als iemand je voor was met dezelfde articles, staan ze live, en komen ze met de volle snelheid binnen

het voordeel daarintegen, als je een nzb opvraagt, heb je bijna altijd 100% complete's van de server
( mits de nzbsite hem destijds goed heeft ge-indexeerd )
Dank, Jeroen & Fresh, erg duidelijk. :)
Ik vind 9 TB nog wel meevallen eerlijk gezegd. Ik alleen al kom vaak rond de 70/80GB per dag uit, en ik zal niet de enige zijn.
Ehm, 9TB per dag met een retentie van 900 dagen dat is dus 8100TB aan opslag die nodig is om zo'n retentie te kunnen leveren natuurlijk moet dit ook nog eens redelijk flot zijn en waarschijnlijk moeten er ook backups gemaakt worden dan praten we toch al snel over heel erg veel data.

9TB per dag klinkt als niet veel en 70/80GB per dag is makkelijk te verstoken als je een redelijk aantal films/series en games binnen hengelt dan lukt dat makkelijk mijn record staat op dit moment op net even over de 500GB op een dag... maar gemiddeld blijf ik toch veel al op een iets bescheidener 10GB per dag hangen :)

Hoe dan ook je moet dus minimaal 1Gbps 24uur per dag de server binnen trekken om deze hoeveelheid data te verplaatsen (uitgaande van een ~84% load op de lijn zonder bevestiging van ontvangst of de TCP overhead) In feite heb je dus al snel twee van deze lijnen nodig die 24uur per dag erg druk zullen zijn met zo'n feed.
Ik denk dat je eerder moet denken aan een stuk of 4 a 8 van deze lijnen omdat je moeilijk al deze data naar 1 enkele server kunt leiden en je natuurlijk ook backup lijnen nodig hebt etc...
De feed is echt enorm en de groei is er voorlopig nog niet uit... het zal waarschijnlijk nu de PS3 gekraakt is wel even flink pieken om alle bestaande PS3 titels op de servers te
kunnen zetten. Daarna denk ik dat de volgende echte groei speurt niet zal komen tot we de QuadHD monitoren en daarmee ook content gaan zien.
wat dacht je dus van 8 van deze lijnen, maar niet 1gb, maar 10gb per stuk:-)
https://my.ams-ix.net/members/241
Je moet wel meenemen dat dit van één provider is. Deze provider alleen verwerkt 9TB per dag. En er zijn wel meer dan één provider op deze wereld
De 9 TB wijst alleen op de groei van de hoeveelheid data. Niet op de hoeveelheid TB's die door gebruikers gedownload wordt.
Hoeveel zou dat wel niet wezen?
Er staat toch "Usenetaanbieder Giganews laat weten dat de hoeveelheid data die de klanten van het bedrijf dagelijks downloaden, in twee jaar tijd bijna is verdubbeld.".
Update, 10:38: het artikel is herschreven om duidelijker te maken dat het alleen om het postverkeer bij Giganews gaat en niet om het downloadverkeer.
Dat staat er (nu) ook ;)
hmm best wel wat meer denk ik.
hun aansuiting op AMS-IX is 2x 40gbit/s
https://my.ams-ix.net/members/241

als je kijkt naar nikhef (1 v/d 2 peeringpartners)
dan kun je over dat dataverbruik stellen dat de gemiddelde datarate 64% is van hun piek.
http://www.ams-ix.net/cgi-bin/stats/16all?log=colo-nik

ik weet natuurlijk absoluut niet of het klopt, maar stel dat van de 40gb er 30 er in piek momenten gebruikt worden.

30 x 0,64 = 19,4 gb/s gemiddeld over de dag * 3600 * 24 / 10 = 163TB / dag
(58% voor SARA = 146 TB / dag
minus de genoemde 9TB voor de upload
= 300 TB / dag

ben benieuwd hoever ik ervan zit:-)
iemand van nikhef of giga ???
Maar de newsgroepen die worden aangeboden zullen ongeveer gelijk zijn. Het zal mondiaal dus niet heel veel anders zijn...
als iemand wat upload naar de nieuwsservers van Giganews, dan wordt dat volgens mij gesynced met andere aanbieders.
Zal overall dus niet veel meer zijn dan 9TB.
dan wordt dat volgens mij gesynced met andere aanbieders
Dat is het concept van nieuwsgroepen. Het nieuws wordt gesynchroniseerd over de hele wereld.
Niet alles hoor, er zijn groepen die binnen bepaalde servers blijven, de meeste servers uit nederland hebben ongeveer dezelfde groepen.

buiten de nederlandse servers, heb je natuurlijk ook andere binaries groepen, maar wat ben je bijvoorbeeld met russisch/chinees beeldmateriaal?
't gaat hier alleen om data die er gepost wordt, downloaden van data is hier volgens de eerste alinea niet in berekent :)
Usenetaanbieder Giganews laat weten dat de dagelijkse hoeveelheid data die dagelijks in nieuwsgroepen wordt gepost in twee jaar tijd bijna is verdubbeld. De provider verwerkt nu dagelijks bijna 9 terabyte per dag.
Ah, ja, je hebt gelijk. Dat maakt het al een ander verhaal :)
Het gaat om het uploaden, niet om het downloaden.
Die 9TB betreft niet wat er wordt gedownload... die 9TB gaat over nieuw gepostte artikelen per dag... Het verbruik ligt absoluut VELE malen hoger. +/- honderd dvd's is bij elkaar al 1TB... er worden wereldwijd absoluut meer dan 900 dvd's per dag gedownload via usenet. Het totaal wat gedownload wordt is moeilijk te meten, omdat je dan de gegevens van alle verschillende providers nodig hebt. De hoeveelheid die gepost wordt is vrij makkelijk, want dat is in principe voor iedere usenet provider hetzelfde omdat de servers aan elkaar gesynced worden.
@Exorsist
Usenetaanbieder Giganews laat weten dat de dagelijkse hoeveelheid data die dagelijks in nieuwsgroepen wordt gepost in twee jaar tijd bijna is verdubbeld.
Gepost, dus niet gedownload. Ik weet de verhouding poster/downloader niet, maar ik denk dat er niet veel mensen zijn die elke dag 80 GB uploaden ;)

Usenet wordt steeds populairder in Nederland, maar in het buitenland is het torrent netwerk nog steeds heer en meester, zelfs onder de computer-experts. Daarbij helpt natuurlijk de NL wetgeving ook, waarbij van Usenet downloaden legaal is.

EDIT: stomme reply-to knopje :'(

[Reactie gewijzigd door Tomassie91 op 26 januari 2011 10:24]

Dus jij upload 70/80GB per dag?? Ben benieuwd wat voor serverpark jij thuis hebt... :P

Edit: tomassie91 was me voor

[Reactie gewijzigd door lenn2l op 26 januari 2011 10:30]

Heb je geen serverpark voor nodig.

Zelf heb ik ziggo AIO Extra met 10 Mbit up, waarvan ik 9 mbit constant kan uploaden.
Met een simpel rekensommetje kom je al op (9/8*3600*24) 97.2 GByte/dag

Dus het is gewoon te doen. Met een netbook zelfs al.
Maar 9tb aan nieuwe spullen is best wel veel.

Maar over het totaal aantal terrabytes op de servers.
Als ik via group info kijk op binsearch.net kom ik voor een dike 3000 groepen op 6.8PByte
@Exorcist
80GB per dag? Hoe zit het met je FUP dan? 8)7
Mijn ISP gaat boze mails sturen als ik zoveel download...
Ik ben geen Belg, en Ziggo hoor je niet over dat soort aantallen :)
Inderdaad. En als je dan een 120mbit/s down en 10mbit/s up hebt van Ziggo draai je je hand ook niet om voor 80GB op een dag. Ik niet in elk geval. Heb ook nog nooit klachten van Ziggo gehad met betrekking tot FUP zaken. Ik zit ook al bij die club sinds Castel@Home dus wat dat betreft hebben ze genoeg tijd gehad om over mijn verbruik te klagen. :P
Die 9TB is alleen de hoeveelheid data die geupload wordt, niet wat gedownload wordt.
Ik vind 9 TB nog wel meevallen eerlijk gezegd.
Dat zal hoogstwaarschijnlijk komen doordat niet iedereen via giganews download.
Dit gaat om inkomend verkeer, niet uitgaand verkeer. Er komt dus 9TB aan content bij op Usenet in de groepen die zij aanbieden. Wat gedownload wordt zal een veelvoudige zijn (waar ik eigenlijk ook wel naar benieuwd ben).
9TB zijn de uploads. Het gros van de gebruikers downloadt natuurlijk voornamelijk, dus de hoeveelheid dataverkeer per dag zal een veelvoud zijn van de genoemde 9TB.
Volgens mij hebben ze het over het uploaden van files a 9TB per dag. Knap dat je 80/90 gb op een dag upload, vraag me af wat..
Ze hebben het niet over downloads maar uploads naar hun server.
9TB upload per dag
Dus je downloadt zo'n 30 TB per jaar. Benieuwd wat voor serverpark je in je huis verstopt hebt.
Uiteraard heeft Giganews het hier over wereldwijd gepost usenet verkeer, niet over hoeveel er gedownload wordt. Ik ga er gemakshalve maar vanuit dat je geen 70 tot 80GB per dag upload naar de nieuwsgroepen.
het hele stuk gaat om uploads naar de server, de downloads zullen vele malen hoger liggen
Als je dagelijks een dergelijke stroom aan dataverkeer gegeneerd alleen voor downloads dan is het idd alleen downloaden om het downloaden.

Op een gegeven moment heb je je muziek/film en game collectie compleet en download je alleen nog maar spul wat pas uit is gekomen en daarmee verstook je echt geen 80gig per dag. (tenzij je natuurlijk alles wilt hebben incl content die je nooit zult gebruiken/bekijken/beluisteren)
50GB BR en dan gaat het hard hoor. Anderhalve film dus.
Tja, je kan ook gewoon in AVI downloaden, dan heb je BR kwaliteit met maar 2GB.
Industry standards zijn HEEEEEEL slecht gecompressed.
Waarom download je eigenlijk specifiek Blu-Rays als ik vragen mag? MKV's zijn toch veel makkelijker en kleiner?

Denk dat er zowieso weinig mensen zijn die HD downloaden, laat staan dat ze ook nog eens BR images downloaden. Het grootste dataverkeer gaat denk ik om in de game-sector met gemiddeldes van 7/8gb per download (DL's, 2 DVD's etc). Met de 20Mbit lijntjes doen we dat ook niet veel vaker als 2/3x per dag, en een paar films.. dus zal al met al best meevallen.
MKV zijn ook minder kwaliteit door hercodering waarbij men niet de moeite neemt om op de juiste plaats I-frames te plaatsen wat een filmstudio voor de BR-uitgave wel doet. Bovendien ondersteund MKV geen HD-audio.

Ik ga ook altijd voor de BR-release. Diskruimte is geen issue. Je kijkt en gooit hem daarna toch weg.
Toch effe vermelden: MKV is niet meer dan een container. Ik rip Blu-Rays en remux die in een MKV, zelfde kwaliteit als de originele disc maar makkelijk te streamen over het netwerk of te spelen door XBMC.

Waar jij het over hebt zijn re-encodes waarbij men de video en / of de audio tracks nog eens herencodeert naar een lagere bitrate.

Je kan eens zoeken naar MKVs met -Remux in de filenaam, die zijn doorgaans even goed als de originele BR.
MKV zijn ook minder kwaliteit door hercodering waarbij men niet de moeite neemt om op de juiste plaats I-frames te plaatsen wat een filmstudio voor de BR-uitgave wel doet. Bovendien ondersteund MKV geen HD-audio.

Ik ga ook altijd voor de BR-release. Diskruimte is geen issue. Je kijkt en gooit hem daarna toch weg.
Er zijn voldoende groepen die fatsoenlijke encodes maken, deze zijn dan ook wel groter dan de gemiddelde rip, maar ik betwijfel dat jij het verschil kunt zien...
Overigens kun je DTS-HD en Dolby TrueHD gewoon in een MKV gebruiken.

Verder bewaar ik 9 van de 10 films en ik kijk de laatste tijd vaker een film meer dan één keer.

[Reactie gewijzigd door Abom op 26 januari 2011 10:48]

"Denk dat er zowieso weinig mensen zijn die HD downloaden"

Ik haal niks meer binnen wat niet HD is, ik denk juist dat veel meer mensen HD binnen halen, immers alles is in HD te krijgen incl PoRn wat waarschijnlijk nog een groot aandeel heeft op usenet (vergelijk het aantal posts op FTD)
en bij mij net andersom, bij films is het altijd de 700MB divx/xvid, wil ik betere kwaliteit dan koop ik ze wel...

maar ik begrijp dat oneindige downloaden dan waarschijnlijk ook niet helemaal, doet ook blijken uit mijn vrij grote games/cd/dvd/lp collectie :P
Als ik de tekst lees, zie ik dat het over opslaan. (Dus uploads!).
"Waarom download je eigenlijk specifiek Blu-Rays als ik vragen mag? MKV's zijn toch veel makkelijker en kleiner? "
MKV is slechts een container, daar kan van alles inzitten (ook 10+ gb films).
Kwaliteit, plus vaak de DTS-HD of Dolby TrueHD track die anders wordt weggelaten.
Dan zou ik je geluidskaartje van 60 euro in je HTPC maar snel vervangen door iets beters. Die kan namelijk niet eens meer dan 96khz uitsturen. lol.

Maar de digitale penis groeit er absoluut door! :Y)

Niet om je af te zeiken, maar ik vind het zulke waanzin dat er mensen op een tech site lopen te verkondigen dat ze het verschil horen. In een studio met een geluidsset van €100.000 of meer misschien, maar NO-F'ING-WAY dat je dat thuis hoort.
Waarom trappen mensen toch altijd in die marketing bullshit? Alsof je wat hebt aan 10000 Megapixel camera met ruis tot je erbij neervalt? Alsof je wat hebt aan digitale zoom op je camera? Alsof een bitje ineens een betere kwaliteit bitje wordt in een HDMI-kabel van 300 euro? Alsof (en daar gaan we nu heen met dank aan Apple) je wat hebt aan een resolutie van 300.000 x 240.000 pixels op een 3,7" scherm? Oordopjes/speakers die tot 100.000 hz weergeven?
Er is een limiet aan wat een mens waar kan nemen, en het heeft GEEN zin om daarboven/buiten te ontwikkelen. En al helemaal niet om daar dus extra geld voor neer te leggen.

Maargoed, iedereen mag zijn geld besteden hoe hij wilt natuurlijk. En de films downloaden die hij wilt. :) Ik ga een 100% UV-lamp kopen om mijn huis te verlichten...

[Reactie gewijzigd door Plague op 26 januari 2011 14:31]

Nu lul je echt onzin. Het verschil tussen een track met compressie (mp3, mp4, DTS of whatever) en zonder of veel minder compressie (dus raw PCM of DTS-HD) hoor je echt wel op een goede set. Verder hoor je het verschil tussen 16 en 24 bits geluid ook zeker. Het dynamisch bereik, dus het verschil tussen had en zacht, is ten eerste veel groter. Verder blijft vooral het hoog beter intact dus je geluid klinkt veel frisser en je hoort meer details. Ook een hogere sample rate zorgt voor een aanzienlijk beter geluid.

Uiteraard hoor je het verschil op een PC speaker setjes zeker niet. Op een gemiddelde surround receiver misschien ook nog niet. Maar als je een beetje geld hebt uitgegeven aan speakers, (voor) versterker en DAC is het verschil zeker goed te horen. En dan heb ik het echt niet over een ton ofzo. Met bluray wordt dat mooi duidelijk als je overschakelt van de normale DTS track naar DTS-HD of uncompressed PCM. Lijkt ineens of je midden in de film zit, zelfs op een stereo set ipv surround.
"Verder hoor je het verschil tussen 16 en 24 bits geluid ook zeker."
Dat vind ik knap als je dat kunt horen. Volgens de cd standaard haal je met 16 bits een dynamisch bereik van 80 tot 90 dB verliezen door digitaliseren meegerekend.
Aannemende dat je het geluid van je film optimaal wilt horen ga ik er van uit dat je in een stil mogelijk ruimte gaat luisteren. De achtergrond ruis zal dan rond de 40 dB(A) bedragen. Als je dan je volledige dynamische bereik wilt kunnen horen, zal je het geluid op minimaal 120 dB(A) af moeten spelen. Je zachtste geluid zal immers boven de ruisdrempel van je ruimte uit moeten komen ;).
Mocht je dit daadwerkelijk doen, kunnen we nog even uitrekenen na hoeveel tijd je dan een gehoor beschadiging op gaat lopen. Ik ga even uit van de richtlijn van de arbo dienst. Deze stelt dat je in een ruimte met een geluids-druk van 80 dB(A) 8 uur veilig kunt werken voordat je een gehoor beschadiging op gaat lopen. Voor elke 3 dB(A) extra moet je deze tijd halveren. 8 uur bevatten 8*60*60=28800 sec. Voor een ruimte met 120 dB(A) moet je deze tijd 13 x halveren (13*3=39~40). 28800/2^13 = 3.5 sec. Je kunt dus maximaal 3.5 sec van je film genieten voordat je een gehoorbeschadiging op gaat lopen }>.

Met bovenstaand verhaal hoop ik aan te tonen dat 16 bit meer dan voldoende is om audio vast te leggen. Het probleem is de manier waarop de laatste jaren opnames gemaakt worden. Alle geluid word helemaal plat gecomprimeerd om maar zo hard mogelijk te klinken. Hierdoor worden er van je 16 bits misschien maar 10 nuttig gebruikt. De 6 lsb zijn gewoon altijd 1 waardoor je dynamisch bereik ineens een heel stuk kleiner word. Al is dit bij (pop)muziek een stuk erger dan bij films.
Totaal goed aangegeven. Ik snap ook al die vage reacties hier niet. Mensen WILLEN horen wat ze horen. Daardoor klinkt het beter maar het is gewoon net zo'n reactie als op een placebo
Reageer je op mij? Want jouw reactie raakt ook kant noch wal; DTS-HD en Dolby THD kunnen namelijk alleen via HDMI worden uitgestuurd. Je geluidskaart heeft er dus sowieso niets mee van doen.
Om maar niet op heel je post te reageren maar het meest opvallende eruit te pakken: jij zegt dat een bitje niet beter wordt door een dure 300 euro hdmi-kabel? Ten eerste, hoeveel meter heb je dan? Ik weet dat een goede kabel echt duur is, maar 300 euro? Ten tweede, een bitje wordt misschien niet beter van een dure hdmi-kabel, maar hij kan wel slechter worden van een goedkope. Ruis bijvoorbeeld. Dus het kan wel degelijk zin hebben. En als je de apparatuur ervoor hebt, heb je grote kans dat je het verschil merkt.
@RV

Inderdaad zal je het verschil wel merken. Ruis op een digitale lijn kan ervoor zorgen dat er bitjes droppen. Die bitjes maken hele informatieblokken corrupt, waardoor het signaal corrupt overkomt. Dit leest de ontvangende kant niet, dus gebeurt er ook niets.

Daar hoef je geen dure apparatuur voor te hebben om dat te merken.

Kortom: Niks geen verbeterde geluidskwaliteit via HDMI door dure kabels. Iets of niets. Koop gewoon een kabel die het doet. Beter wordt het niet.
@RV

Ik heb een 15 meter!!! lange HDMI kabel gekocht voor €30,- en hij doet het werkelijk fantastisch. Geen last van artifacten. Beter wordt het dus niet:
  • de kleuren worden er niet beter van
  • er komen niet meer pixels
  • het geluid wordt niet anders
  • enz.
de link die exorcist geeft is daarvoor inderdaad interessant leesvoer.
Maar ik vind wel dat Plague gelijk heeft

De reacties over kwaliteit en verschil is al dan niet licht overdreven, maar sommige reactie's laten doorschemeren dat een "de mijne is groter dan de jouwe" niveau belangrijker is dan eigen mening

als je tussen de regels leest heeft iedereen een hyperquality set in huis, die op MTV Cribs niet misstaat.

tevens de download ratio's - lekker belangrijk dat je 800+ GB ophaalt, of het er totaal niet mee eens bent .. allemaal mooie trolls
let & let live...

Ik pik mijn tvseries met Sickbeard binnen, in SD kwaliteit divxjes van 300mb
lekker klein en handzaam, of te spelen op mijn telefoon en mijn mediaplayer
Films haal ik binnen op divx, of dvd5 wederom - dat voldoet in mijn behoefte

< ik geef niets om surroundsound of die kant op >


Tuurlijk zie en hoor ik het verschil in kwaliteit, maar voor de ene keer dat ik iets kijk ga ik geen 15GB aflevering van Hawaii five-o ophalen, dan volstaat de 350 / 600 mb versie ook wel
Exact. Ditzelfde geldt bijvoorbeeld voor mensen die beweren dat 1080P video op een 42" 1080P scherm van 5m er beter uitziet dan 720P op een 720P scherm met diezelfde afstand. Het menselijk oog kan de pixels simpelweg niet meer onderscheiden, dus het maakt gewoon ECHT niet uit.
Een bitje werkt of hij werkt niet, ruis bestaat niet in een digitaal signaal. Hooguit dat het digitale signaal verstoord wordt, maar dan heb je gewoon geen/corrupt geluid. Geen ruis.
En zo ga je, zoals Sgrovert aangeeft in zijn post, in een normale setting (met audioapparatuur tot +- 10.000 euro in een niet-studio opstelling) het verschil tussen 16bit en 24bit niet horen.
Het verschil waar Exorcist op doelt, komt voort uit het feit dat de geluidstracks anders gemastered worden. En daar is op zich wat voor te zeggen, maar heeft weinig te maken met de kwaliteit van de standaard an sich.
True kwaliteit van een 1 op 1 rip is nog altijd beter dan de .mkv versie. En de .mkvs missen vaak de HD audio tracks.
Surround is wat anders dan goed geluid, met een flinke dac (belangrijkste geluidskaart onderdeel voor muziek, voor muziekliefhebbers ook zonder de rest van een geluidskaart te koop) en buizenversterker op goede speakers/headset kan je daadwerkelijk het verschil horen.
offtopic:
Met een buizenversterker hoor je inderdaad het verschil, maar dat is vooral vervorming van de versterker zelf. Wanneer je een buizenversterker hebt met zeer weinig vervorming, klinkt het gewoon het zelfde als een willekeurige goede versterker.

Ik snap prima dat mensen complete BR images downloaden, dan heb je net wat meer zekerheid dat de kwaliteit zo goed mogelijk is. Ik neem aan dat die grafiek van de groei exponentiëel blijft lopen als Giganews blijft doen wat ze doen.
Wat heb je aan een DAC zonder 'de rest van de geluidskaart'? Sluit je die optisch aan ofzo?
Wat heb je aan een DAC zonder 'de rest van de geluidskaart'? Sluit je die optisch aan ofzo?
USB of optisch. En de versterker doet de rest. Kort gezegd
haha lol@buizenversterker. Zelfde discussie als een LP vs CD. Geluidstechnisch is die ouwe meuk stukken minder, alleen geloven mensen dat het beter klinkt. Mensen 'horen' graag wat ze willen, dus gebrom en ruis van zo'n buis verhoogd de kwaliteit? hahaha

Is hetzelfde als beweren dat een Austin Martin DB4 uit 1960 een betere auto is als een Audi 4 ofzo. Ja, in een audi voel je geen hobbeltjes, wat minder motorgeluiden etc. Dus is het een mindere auto... :)
Niet zo snel. Meet-technisch zijn moderne versterkers ongetwijfeld beter, maar het gaat hier om de type vervorming. Een buizenversterker heeft vervorming in de harmonischen die mooi klinken en als het ware de muziek van nature aanvullen ipv. afvallen zoals bij transistor versterkers. Hij is dus niet per definitie beter, maar hij klinkt wel beter.
wil je keer mijn fender twin tegenover mijn behringer zetten? roflpantoffel
@goestin: Ten eerste vergelijk je oude high-end met nieuwe low-budget en ten tweede heb je het nu over gitaaramps in plaats van normale versterkers, dat is dus appels met peren vergelijken.
Ten eerste: Het is Aston Martin, niet Austin Martin. Austin is ook een brits automerk, onder meer bekend van de Mini.

Maar verder is het een erg goede vergelijking. Een Aston Martin is inderdaad niet beter dan een Audi A4. Maar de beleving van de Aston kan wel als veel beter worden ervaren. Misschien is het geluid van vinyl niet beter dan van CD's, maar de beleving voor sommige mensen wel. Bij muziek hoort emotie en niet alleen geluid.

Nu heb ik dat met films niet zo. Ik ga nu niet lekker een VCD kijken omdat dat zo lekker aan vroeger doet denken. Welke kwaliteit je wilt downloaden hangt vooral van je apparatuur af, de beschikbare bandbreedte en hoelang je wilt wachten. Zelf geloof ik alleen niet dat het kijkplezier nog toeneemt als de kwaliteit van beeld en geluid beter dan in orde is. Het verhaal is toch belangrijker.

[Reactie gewijzigd door esrever op 26 januari 2011 20:18]

Niks bullshit. Zoals je zelf al zegt laat je er compressie op los. Je spreekt jezelf dus gewoon tegen. Komt niet echt slim over. Maar goed, geluid dat ongecomprimeerd is, is altijd beter. Dat iemand niet de boxen heeft om het verschil te horen, wil niet zeggen dat niemand die boxen heeft.
Gecomprimeerd is juist beter, stop maar eens een uur muziek in 50 mb. Wat zal beter klinken, gecomprimeerd of een lage bitrate ongecomprimeerd ?
Dude,

Je moet niet 50 MB als limiet nemen.
Die BR's zijn zo groot dat je makkelijk ongecomprimeerd geluid er op kan zetten.
Gecomprimeerd hoeft overigens geen probleem te zijn, zo lang je het maar lossless doet zoals bijvoorbeeld flac
Die moeten me toch een serverpark hebben :o 9TB per dag en dat voor 900 dagen retentie, dat zijn enorme hoeveelheden data.
Nogal een scheve kijk op de storage van deze server vrees ik. Die 9Tb is de traffiek dagelijks en kan dus perfect gaan over een MP3-tje van 5Mb (we veronderstellen van niet natuurlijk) :)
Nee, juist niet. Die 9 terabyte is wat er elke dag op hun server geupload wordt. Wat mensen naar hen toesturen dus. Reken er maar op dat het aantal terabyte wat ze verstoken vele malen hoger is!
Usenetaanbieder Giganews laat weten dat de hoeveelheid data die de klanten van het bedrijf dagelijks downloaden, in twee jaar tijd bijna is verdubbeld. De provider verwerkt nu bijna 9 terabyte per dag.
Tweakers heeft het op z'n minst wel heel verwarrend gebracht. Een aanpassing lijkt me wenselijk.
Die 9 terabytes (niet bits) is niet de 'traffiek' (dat heet dataverkeer), maar de hoeveelheid data die wordt gepost, en staat los van de hoeveelheid data die wordt gedownload.
Nee, daar gaat het juist niet om. Er wordt 9TB per dag geupload naar usenet servers. Dus het gaat wel om opslag. Er zal veel meer gedownload worden.
Nee, het gaat over de upload. Er zal wat overhead in het netwerkverkeer zitten, maar verder worden alle bytes gewoon opgeslagen.
.edit: mmja misschien moet ik refreshen voor het posten 8)7

[Reactie gewijzigd door .oisyn op 26 januari 2011 11:31]

Uit het bron artikel zelf:
The simple solution is to add more hard disks, and we certainly added thousands of those.
En ja, we need to see some pics of that ... :+

Edit: Even een rekensommetje:
Over the past two years, the Usenet feed has grown from 5 TB/day to 9 TB/day.
Een gemiddelde dus van 4TB/day * 365 * 2 = 2920TB ... + nog eens de data die men 240 dagen voordien had vergaard.

Edit2: Binsearch heeft het trouwens over iets meer dan 5PB (http://binsearch.info/groupinfo.php)

[Reactie gewijzigd door Ravefiend op 26 januari 2011 12:46]

En ja, we need to see some pics of that ... :+
http://www.giganews.com/i...homeBannerReliability.jpg voilá. Van hun homepage, met het label 'Actual GigaNews servers in Amsterdam, NL'. Neem aan dat ze hier nog een flink aantal meer racks van hebben.
900 * 9TB = 8100TB

Maar het is natuurlijk wel wat minder, aangezien het pas een half jaartje 9TB is, daarvoor was het nog 5 a 6, dus dan komen we ergens tussen de 900*6TB=5400TB en de 8100TB uit...

Ach ja, op deze manier worden de harde-schijven in ieder geval goedkoper door grote afname :D
Uiteraard is het meer. Ze hebben heus wel redundante storage om de hoeveelheid read requests aan te kunnen.

Wat ik me eigenlijk altijd afvraag. Zijn usenet platforms tegenwoordig slim genoeg om identieke pakketjes te herkennen en dan maar 1 bestand op te slaan en de rest als reference aan te houden?

Als je ziet hoeveel redundante bestanden gepost worden zal dit een gigantische besparing in HD ruimte moetne opleveren.

[Reactie gewijzigd door swtimmer op 26 januari 2011 13:34]

Of nog iets lager, want de retentietijd was 700 dagen.
Hoeveel tb heeft heeft een gemiddelde aanbieder? Want het lijkt me dat als het zo door gaat dat het snel vol raakt. Ik denk ook mede dat dit ligt aan dubbele posts. Misschien een idee om bestanden te checken of ze al op usenet staan voordat er gepost wordt.
Het weren van dubbele posts zou flauw zijn voor mensen met een korte(re) retention. Eweka houdt volgens mij op het moment op bij rond de 400 dagen.

Wat mij betreft mogen ze de password protected troep filteren, maar mischien zijn sommige mensen wel blij met het invullen van online enquetes in ruil voor films/series

[Reactie gewijzigd door walterg op 26 januari 2011 10:20]

Nee... niet de passwords weren ....


Ik heb de afgelopen dagen 3 x 30GB ge-upload in AESencrypted containers
mijn personal photo backup, elk jaar een keer omhooggooien

(en met nietszeggende namen kom je ook een heel eind - zonnige dagen in de lente.xxx )

Who needs cloudstorage :+)
Ik wou je een DM sturen maar dat staat blijkbaar niet aan bij jou. In welke groep post je dan zo'n backup ? ;)
Idioot, wat een verspilling van wereldwijde recourses om backups kwijt te kunnen.
Nee, 80x "doctor davis in de regen.avi" |:(

Het wordt pas verspilling als ik het er op zou zetten zonder doel.
Die door jou aangehaald wereldwijde recources worden gewoon betaald door mijn en een ieders abonnement.
Wat ik dan op dat moment met die recources doe, is mijn zaak

De usenetaanbieder "geeft" je de mogelijkheid om een upload te doen, en ik ben legaal binnen de norm bezig, door eigen materiaal te plaatsen, eventueel zelfs 'deelbaar' met mijn select gezelschap.

Maar omdat dus 99,9% van de anderen ( want een community is het niet ) er niet bij zou kunnen, is het een verspilling
Het mag duidelijk zijn dat de files die zijn geupload ( dataset2010 is er één van ) niet toebehoren aan één of andere release, ik maak er geen catchy titel van ( populaire film of muziekstukken ) dus op een standaard manier zou je er geen last van hebben

Het enige wat er gebeurd is dat ik een klein stukje opslag 'afsnoep' van de grote bulk, en dat inzet voor eigen doeleinden.

misschien is dat zelfs 'beter' te noemen, dan het herposten van dezelfde BRrip van 50 GB voor de 10e keer
DIE figuren verspillen resources...

[Reactie gewijzigd door FreshMaker op 26 januari 2011 16:07]

Ben je niet 100% bij je kop ofso, zoek aub een ander plekje om je backups op te zetten..
Ik vind het eigenlijk best wel een creatieve oplossing. Er wordt voor betaald, de auteursrechten zijn in orde het is dus volstrekt legaal. Usernet is dan ook een grote vuilnis bak waar af en toe wat interessants tussen zit..
@TereZz

Kun je je reden dan geven, misschien kun je me overhalen om het niet (meer) te doen

Welke nadelen zijn er aan "mijn" systeem ?

[Reactie gewijzigd door FreshMaker op 26 januari 2011 17:55]

Tegenwoordig kom ik ze bijna nooit meer tegen op binsearch. Voor series moet je gewoon zoeken op 'efnet' en dan de oudste nemen. Ik kan met zekerheid zeggen dat die zonder password is.
Wat mij betreft mogen ze de password protected troep filteren
Je vraagt om censuur? Wat betreft de mediaindustrie mogen ze de auteursrechtschendende materialen filteren. Als ze beide gaan doen wordt het heel stil in nieuwsgroep land.
Het weren van malware bestanden en surveyware (geen idee of dat een bestaande term is, hij dekt de lading denk ik wel) vind ik niet hetzelfde als censuur, maar die discussie lijkt me hier niet nuttig.
Ik blijf het spannend vinden. Juridisch is usenet volgens ´googlepedia´ nog bijna niet aan te pakken omdat het ´caching´ zou betreffen. http://en.wikipedia.org/wiki/Usenet#Legal_issues, http://www.iusmentis.com/...usenet/inbreuk-juridisch/
Hoe lang voor die wetten aangepast worden? En ik had eigenlijk wel een hoger getal verwacht ook, 9 TB vind ik niet echt opzienbarend...

[Reactie gewijzigd door Doane op 26 januari 2011 10:22]

Dat blijft raar, als je een topsite hebt (nee, dat is dus geen torrentsite...) dan doe je in feite ook alleen aan cachen van (illegale) content maar zodra er een label nieuwsgroep opplakt en de toegangtechniek (dus via een andere manier dan ftp) dan is het ineens volkomen legaal en mag je er geld aan verdienen. Kromme shit als je t mij vraagt...
Volgens mij is het meer dat het nog niet echt is aangepakt, maar het lijkt me zeker niet legaal.
Zucht. Wrijf het zand uit je ogen en lees. 9 TB is niet de download maar de upload naar Giganews toe.
"Usenetaanbieder Giganews laat weten dat de hoeveelheid data die de klanten van het bedrijf dagelijks downloaden"

Maar later in het bericht lijkt het over de totale bandbreedte te gaan, dus uploaden en downloaden neem ik aan...
Zucht, doe jij ook even wrijven dan? Ik heb die reply 3x gelezen, maar nergens duidelijk of die user spreekt over up- of downloaden. Want ook ik vind die 9TB per dag als vrij weinig klinken, zelfs als het uploaden/posten betreft, ik zou het minstens het 10 tot 100 voudige toegerekend hebben.
Ik dacht altijd dat Giganews de grootste was maar niet dus dat is News-Service Europe B.V .

http://www.top1000.org/

Goed te weten dat m'n spotgoedkope LightningUsenet USP gewoon een reseller is van News-Service :)
Hoezo news-service is groter. Van hun homepage:
394 days binary retention
1598 days text retention
99.8% completion
Up to 50 connections p/a
Free Headers & SSL
6.0TB+ Daily new articles
Dan zie ik daar toch 'maar' 394 dagen binary-retentie tegenover 900 dagen bij Giganews
en 6 TB tegen 9 TB bij Giganews.

Het is me dus ook niet duidelijk wat ze bijhouden bij Top1000.org.
Vraag me af hoeveel het werkelijk is als al die illegale muk eruit gehaald wordt, dan haal je waarschijnlijk nog niet de terrabyte per maand..
Tja, ik begrijp niet waarom eigenlijk nog steeds usenet wel illegale muk mag hebben, terwijl het zo simpel te blocken is, zeker omdat usenet van origine NIET bedoeld is om binaries te posten. Sowieso gebruikt amper iemand usenet nog voor waar het voor bedoeld is, namelijk als 'forum'.
Sowieso gebruikt amper iemand usenet nog voor waar het voor bedoeld is, namelijk als 'forum'.
Weinigen inderdaad. Gemakkelijker is het om het forum gedeelte van je favoriete site te gebruiken; of zelfs de 'frontpage' van T.net...
Ik gok dat er dan bij Giganwes maximaal een GB per dag overblijft...

Maar he, downloaden is legaal in Nederland!

Maar 9 TB is wel veel, als alle dubbele bestanden enz eruit gehaald worden zou al veel schelen, er wordt echt veel gerepost...
maarja posten van die muk is dus niet legaal in nederland.. LOL..
Ook wordt Usenet steeds goedkoper. Ik betaal voor 50Mbit en 431 dagen retentie nog geen € 2,50 per maand.
Welke provider voor maar 2,50 per maand?

[Reactie gewijzigd door davidgilmour op 26 januari 2011 13:42]

De usenetprovider, die in Nederland aan diverse wederverkopers zijn diensten aanbiedt en een serverpark aan de AMS-IX heeft gekoppeld, stelt dat hoofdoorzaak van de groei simpelweg het toenemende gebruik van nieuwsgroepen is.
Ik denk dat het ook te maken heeft met steeds grotere acceptatie van 720p/1080p materiaal. Dit wordt natuurlijk ook mogelijk door de steeds snellere verbindingen en het feit dat grote monitoren en tv de standaard zijn.
Ik vind het een beetje kort door de bocht om te stellen dat er meer files getransfereerd worden.
Wel vreemd die 'vage' wereld. De overheden weten niet precies wat ze er mee aanmoeten. Burgers eerst ook niet nu steeds meer. Ben benieuwd waar dit gaat eindigen. Dit zijn natuurlijk enorme hoeveelheden data. Meer nog volgens mij dan op youtube.

Op youtube wordt iedere minuut 35 uur aan video geupload. bron
Stel 10 MB per minuut. Kom je uit op 21 GB per minuut.
Per dag is het dan 21 x 60 x 24 = 30.240 GB = 30,24 TerraByte.
Ik heb er geen rekening mee gehouden dat er 1024 MB in een GB gaat en 1024 GB in een TB. Ook kan 10 MB per minuut nog wat weinig zijn.

Hmm blijkbaar is mijn schatting toch verkeerd geweest en word er meer op youtube geupload dan op usenet. Had ik niet verwacht.

[Reactie gewijzigd door walletje-w op 26 januari 2011 10:29]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True