Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties
Bron: AnandTech

Op AnandTech staat een interessant stukje leesvoer over peer-to-peer netwerken. De meeste mensen zullen wel weten dat de eerste informatiesystemen die in bedrijven werden toepast werkten met een groot mainframe waarop al het werk gebeurde en een groot aantal domme terminals waarmee gebruikers opdrachten in de wachtrij konden zetten. Met het goedkoper worden van de hardware stapte men langzaamaan over op het client-server model, waarbij de computer van de gebruiker zoveel mogelijk werk zelfstandig uitvoert en de server alleen gebruikt wordt voor communicatie en het ophalen/wegschrijven van gegevens. Ook dit heeft zo z'n nadelen, servers zijn prijzig, hebben een maximale capaciteit en kunnen crashen. De schrijver ziet daarom het peer-to-peer netwerk zonder dure servers als dé oplossing voor kleine en middelgrote bedrijven die goedkoop en efficiënt willen draaien:

Over the years, I have seen some companies take an innovative approach to resource sharing in a dedicated Peer to Peer environment. Since the cost of individual machines and peripherals has dropped so low, it is easy to purchase and configure "Super Peers" that serve primarily as shared workstations, but can also become productivity stations should the need arise. For instance, one well configured workstation in each "cluster" of employees can be host to a scanner, a CD-RW drive with burn-proof technology, a color printer, a high-volume black and white laser printer and perhaps even a plotter and a tape backup device. Thanks to USB, it is quite easy to configure and share multiple printers and plotters on that one Super Peer station, making them readily available to those with network access.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (49)

Dit gebeurt allang in een aantal kleine bedrijven. Een zware machine die zowel dienst doet als workstation en server. Voor bedrijven met meer als 10 werknemers vindt ik het niet echt aan te raden.
De kosten van een crash van die machine is gelijk aan medewerkers*uurloon en dan heb je al snel een servertje terugverdiend. Bovendien hoe meer er decentraliseerd gewerkt wordt hoe minder beheersbaar het geheel.
Overigens vreemd in het verhaal dat hij zo doorgaat over Internet sharing via een hardware router terwijl die printers met USB aan een PC hangt ipv. met een printservertje in het netwerk ;)
Volgens mij is er in algemene termen niet zo makkelijk te spreken of dit of dat nou goed zou zijn.
In kantooromgevingen is een server client opstelling met dichtgetimmerde servers en workstations qua TCO wel het voordeligst maar in een netwerk met ontwikkelaars ed. wil je daarnaast meer namelijk workstations en servers die je 'verkloot' kunnen worden. En trouwens is de suggestie dat servers duur zijn en (vaak) kunnen crashen niet echt waar. Goede 'dure' servers crashen bijna nooit. (behalve wanneer het niet uitkomt of er dombo's aan werken)
Weet uit eigen ervaring dat het makkelijker is om 5 servers te beheren dan 10 workstations.

En één of meer super workstations per groep werkt ook niet omdat verdeling van de beschikbare tijd hierop stukloopt. Want je zit toch zelf ook liever met een dual AMD/Intel bak te compileren dan op je miezerige PIII-500?

En heb je telewerkers of medewerkers van buiten dan is een applicatieserver ook wel handig. En die zijn ook heel goed beheersbaar. (Zit zelf nog wel eens met Citrix te werken en het werkt ontzettend goed)

Wat is eigenlijk de toegevoegde waarde van deze voorstelling van peer to peer netwerken? Pak het dan een beetje robuust aan en investeer in een pf meer fatsoenlijke servers die aankan(kunnen) wat getdaan moet worden en als er duurdere workstations nodig zijn dan moeten die er gewoon komen. Het is toch bijna niet bij te houden ook al schrijf je ze in 3 jaar af wat dat betreft.
Want qua produktiviteit levert het al veel meer op dan je uitspaart. En laat het maken van backups alsjeblieft over aan mensen die er verstand van hebben en geen harry die toevallig nou eens computer idee heeft doorgebladerd. (lees kantoorpik\doos)

Om van het (mis)gebruik van CD-RW schrijvers maar te zwijgen. Als je eens wist wat er allemaal in de kamers van sysadmins gekopieerd wordt weet je alleen maar dat als iedereen het kan het nog veel erger word. Dat doen ze maar lekker thuis en lenen ze de CD's via via. En goed afspraken hierover kunnen er wel gemaakt worden maar als de baas van de zaak is...

Dus mocht je de behoefte hebben aan speciale zaken regel het op zo'n manier dat er gedaan kan worden wat er moet en er niet een halfbakken oplossing komt die door niemand beheert kan/gaat worden want hoe je het ook wend of keert het gaat tijd kosten want dan zal hij ook zeker veel gebruikt worden. (anders ga je niet iets aanschaffen)
En in het geval van een sysadmin kun er net zo goed een server van maken met de onderdelen die er nodig zijn. En printers kun je aan een server knopen, zijn het er veel dan ga je voor een printerserver. (wel handig om grote spoolfiles aan te kunnen of je moet een HD in je printer proppen waar het op kan)

Backuppen doe je zoveel mogelijk centraal. Dan kan dit goed bijgehouden worden want de kans op corrupte data als je een backup mist neemt exponentieel toe.

En zijn je servers zo bedrijfskritisch dan zul je ook moeten inzien dat je wil je je daar voor behoeden dat het misloopt je daar je voorzieningen op moet aanpassen. En dan kun je nog zoveel superworkstations hebben, als je server platligt dan heb je meer aan een backup server dan aan 10 superworkstations. En zoals de auteur al zei. De prijzen van de hardware zijn behoorlijk minder geworden.

Mocht je dan toch voor het superworkstation gaan zorg voor een backup van het systeem (met bijv. ghost, of driveimage oid) zodat je het binnen 30 minuten weer hebt draaien als iemand het weer flikt om het hele systeem te vernaggelen, want ze doen het erom!
Peer-to-peer is zeker leuk bepaalde informatie toepassingen bij bedrijven. Maar kost voor data opslag veel te veel netwerkcapaciteit, tevens is het erg lastig te beheren.
Het vergt juist minder van het netwerk, denk je dat Napster had kunnen werken als alle data op 1 centrale server zou staan? In traditionele client-server netwerken zit er altijd een bottleneck bij de servers :'(

Dat een peer2peer netwerk lastig te beheren zou zijn klopt zolang je client-server beheer software gebruikt. Als je peer2peer beheersoftware gebruikt gaat beheren net zo makkelijk.
Je moet even leren dat je het groot moet zien, niet meer x computers met data op HD's en andere data op netwerkdrives, vergeet het ingebakken idee "my_computer vs network_neighborhood", maar zie het als 1 grote poel data. De peer2peer software zorgt wel dat de data op de juiste stations terecht komen.

Als er een beetje wordt gezorgt dat data op veel plekken tegelijk wordt opgeslagen, dan doet het er ook niet meer toe dat alle computers aan moeten staan en backupppen hoef je dan alleen nog maar te doen tegen het risico dat het hele bedrijf (of iig een groot deel) in vlammen op gaat.
Het vergt juist minder van het netwerk, denk je dat Napster had kunnen werken als alle data op 1 centrale server zou staan? In traditionele client-server netwerken zit er altijd een bottleneck bij de servers
De architectuur van een netwerk in het MKB ziet er helaas iets anders uit dan van internet. Een hoop gebruiken nog hubs. Als de server aan een router of switch zou hangen heb je gelijk, maar met een hub maakt het echt niet uit of het peer-to-peer is of een server.
en dan te bedenken dat je vann 200 piek al een 8-poorts switch hebt...
Een mogelijk probleem is security: als je data overal op werksystemen rondslingerd, hoe kan je dan je data goed beveiligen? Hoe garandeer je dat een of andere niet heel slimme medewerker geen backdoor installeert met een 'leuke attachment' in het emailtje van broer, en hoe regel je de fysieke beveiliging? Als er iemand met een systeem onder zijn arm wegloopt (wat bij machines die voor alle medewerkers toegankelijk zijn veel waarschijnlijker is dan bij servers die je in afgesloten ruimtes neer kan zetten) ben je wel data kwijt, of is er in ieder geval data uitgelekt!
Ook in peer-to-peer netwerken blijft het van belang om backups te maken. Ik heb geen idee of goede beheerssoftware dat zou kunnen (lijkt me wel eerlijk gezegd, ik stel het me voor als een groot gedeeld filesysteem waarbij de beheerssoftware zorgt voor spreiding en synchronisatie van files), maar het is in ieder geval iets om over na te denken...
a) encryptie
en/of
b) je zou een raid-idee kunnen nabouwen waarbij elk station slechts een deel van de data bevat. van een file zet je dat de eerste byte op station 1, de tweede op 2, ... de tiende op 10, de elfde weer op 1, etc. Dan heb je er niets aan om 1 systeem te jatten, daar staat namelijk maar flarden van de data op, niets waar je iets mee kunt iig. natuurlijk moet je nog wat data dubbel opslaan (b.v. op een centraal systeem dat dient als backup-systeem?) anders is alle data onbruikbaar wanneer er 1 systeem gejat is :+

Denk aan hoe dat werkt bij Raid 5: het uitvallen van één station maakt niets uit, er zit nog voldoende data in het systeem om de originele data terug te rekenen, maar geen enkel station bevat voldoende gegevens om zelfstandig de data terug te halen. Als je fysiek de data wilt jatten zul je vrijwel alle stations moeten jatten }>
Alleen zitten in een peer2peer netwerkt de schijven van het Raid-systeem niet allemaal in 1 kast, maar zijn ze verdeeld over alle computers in het netwerk.
Helemaal niet hoor met 5 computers, in een peer-to-peer netwerk is het helemaal niet moeilijk, het is namelijk heel makkelijk, allemaal windows 98 en aanloggen op het netwerk, de ene dient dan om data op te slaan de andere om het te sturen. Ik noem dan wel een heel makkelijk voorbeeld, maar alle bedrijven onder de 5 computers hebben dat hoor, komt het er boven dan wordt het al gauw iets moeilijker, zit het boven de 10 a 15 dan hebben ze gewoon een server nodig, i.v.m. eventueel backup of een inbel server en natuurlijk als email server etc.

Maar wat ik niet snap is dat servers helemaal niet duur zijn want er zijn ook linux servers, open source en een P I 200 is al genoeg, voor minimale oplossingen en soms meer dus ik snap niet waar ze het hier nou over hebben, een midden en klein bedrijf kan dit makkelijk aanschaffen
De prijs van een server zit echt niet in de hardware die erop staat.
De prijs zit vooral in de software en service die je krijgt. Een IBM server had laatst iets van 99,9% uptime garantie, dat betekent dus ook dat er weinig marge is op de machine zelf.

Daarnaast moet je eens kijken wat een 'gratis' OS met een P I 200 kost. Misschien 1000 gulden aan hardware, maar een x aantal keer dat aan installen en service, want zeg nou zelf, als je de eerste keer Linux installeert, dan ben je wel een paar daagjes bezig, en als je het vaker hebt gedaan, dan is vanzelf je uurprijs weer een stuk hoger.

* 786562 TheGhostInc
Oh ja het bedrijf waar ik werk doen dat ook en tot nu nog nooit een probleem met de hardware gehad en uptime problemen, en als je een paar daagjes over linux installeren doet dan ben je een leek en hoor je niet thuis in een automatiseringsbedrijf, ten tweede een PI met een ISDN kaart en netwerk kaart en Red hat 6.1 kost geen 1000 gulden, en een midden en klein bedrijf gaat geen IBM server kopen terwijl je de helft van de ondersteuning en service niet gebruikt, denk nou na zeg je gaat daar toch geen duizenden misschien 10 duizenden guldens aan besteden, daarvoor heb je linux goedkoop en betrouwbaar!!
Reactie op tweede blade posting

Ben het eens over het installeren van een linux server maar je vergeet dat niet IEDER bedrijf in de IT zit.
Je reactie over hiet niet thuishoren in een automatiseringsbedrijf wil dus niets zeggen :)

Maar zoals je zegt kan je als klant beter een linux server vragen dan een IBM bak....
Ben het eens over het installeren van een linux server maar je vergeet dat niet IEDER bedrijf in de IT zit.
Je reactie over hiet niet thuishoren in een automatiseringsbedrijf wil dus niets zeggen
Ben dat met je eens, maar ehm dan laat je het toch door een it-bedrijf doen, dan weet je zeker dat het goed gaat, en dan kan je rekenen op support, want ik heb bedrijven gezien die net zo koppig waren en die het lieten doen door een hobbiest en die daarna de problemen moesten accepteren.....

Het scheelt je echt geld als je het door een erkend bedrijf laat doen.
Een IBM server had laatst iets van 99,9% uptime garantie
de high end machines van IBM (mainframes) hebben een uptime garantie van 99,999% (2 minuten downtime per jaar)
5 computers is ook wel erg klein. Die heb ik thuis ook. Maar goed, voor weinig PC's werkt het wel, met meer is centralisatie erg voordelig. Kunst is om het omslagpunt te bepalen.

edit:
First Post?
Als je het hebt over 5 computers, dan heb je het over een klein bedrijf. In kleine bedrijven wil men ook emailen neem ik, maar om bijvoorbeeld te kunnen emailen gebruikt men vaak 1 pc met een internetverbinding en dan een proxy erop en klaar. Dan wordt zo'n PC (gewoon een desktopje dus) als snel een "Server". ;)
De schrijver ziet daarom het peer-to-peer netwerk zonder dure servers als dé oplossing voor kleine en middelgrote bedrijven die goedkoop en efficiënt willen draaien:
Dus als ik het goed begrijp zouden alle werkstations dan aan elkaar geknoopt zitten zonder centraal punt?

Wordt leuk om een backup te maken dan, kan je elk werkstation af gaan met je portable brandertje.

Ik vind een server juist wel handig, je hebt één plaats die je moet backuppen en als er een stroomstoring is hoef je maar 1 pc van een UPS te voorzien om de belangrijke data te kunnen beveiligen. En als de server echt zo belangrijk is maak je er een cluster van twee servers van die elkaar opvangen als dat nodig is.

Ik zal het wel fout zien, maar ik zie juist voordelen aan een centrale server.
In plaats van het rondlopen met je brandertje kan je misschien wel het _netwerk_ gebruiken voor het backuppen ;) B-)

Wat de UPS heb je gelijk maar thuis heb ik ook nog nooit last van stroomuitval gehad dus zonder zou misschien toch ook wel kunnen.
In de bedrijven moet de belangrijkste data HEEL goed beveiligd worden, omdat ze anders weer een paar dagen terug in de tijd vallen, en daar zeer hoge kosten aan zitten. Daarom is het voor die bedrijven beina een must om ook op de stroom te letten, anders kan het ze nog veel meer centjes kosten.
Het peer-to-peer concept lijkt mij wel interessant om bv een soort gedistribueerde raid op te zetten (in meervoudige mirrors) - het kost wel wat diskcapaciteit maar da's nog amper een punt in gewone desktops. Je zal natuurlijk wel een goede besturingstool daarvoor nodig hebben en extra netwerkcapaciteit.

Van de andere kant vind ik het in strijd met het concept van de fysieke gegevensbeveiliging, de data staat immers niet in een afgesloten serverlokaal.
/ maar thuis heb ik ook nog nooit last van stroomuitval gehad dus zonder zou misschien toch ook wel kunnen /

wat voor flauwe kul hebben we het hier over.. steek je bijde vingers in het stopcontact en je verneemt direct het effect van het niet aanwezig zijn van een UPS.

p.s. door een fout van de NUON ging hier afgelopen week de boel plat. Ik wou dat ik een UPS had gehad..
Ondanks de de schrijver roept dat peer to peer goedkoper kan zijn betwijfel ik dit. Het netwerk waar ik zelf dagelijks in werk bestaat uit circa 4000 client machines die vanaf een handvol applicatie servers hun txt, cijfer en data verwerkingssoftware trekken. Ondanks dat deze servers je een aardige batterij Rollsjes laten rijden zal deze setup qua licensing goedkoper zijn dan 4000 clients met allen hun office app's. Laat staan even het hele netwerkje up to date brengen ivm de noodzakelijke compatibiliteit. Met die handvol applicatie servers is dat relatief eenvoudig. Ook op backup niveau zijn die handvol servers beter te beheren. En ach de clients, reinstall, client install en klaar :)
Speciale peer2peer software-licenties lossen dat prbleem op. Dan ga je betalen voor het daadwerkelijk gebruik van de software ipv voor het aantal plaatsen waar je het opslaat.
Een peer-to-peer netwerk heeft iets van de kracht,
die vergelijkbaar is met die van het internet.
* Geringe kwetsbaarheid, als geheel systeem gezien.
Als er een pc uitvalt, draait de rest gewoon door.
* Moeilijk te beheren.
Hier is met policy en ghost wel wat aan te doen.
* Een bedrijf-leiding heeft weinig directe controle
over wat er precies gebeurd. (Small Brother)
* Hardware kan goedkoop worden
uitgevoerd, aangezien
het accent op uptime veel minder streng zijn.
* Elke PC is een autonome eenheid,
waardoor de snelheid op een vast niveau staat.
* Een peer-to-peer netwerk levert een redundancy
in data op.
De kans dat het document ook nog op de PC
van een collega staat, is groot.
Sommige noemen dit 'overhead',
maar de noodzaak van een centrale backup
neemt hierdoor af.
* Aansluitend is de beveiliging van
belangrijke documenten
hierin wel een lastig item, maar dat kan
met data-encryptie
opgelost worden.

De andere kant is 'thin-client computing', die juist heel
centraal is. Veel bedrijven hebben hier een oog voor:
* Makkelijk te beheren.
Echter een klein foutje, zoals een vage driver kunnen
voor problemen zorgen.
* Controle is makkelijk uit te voeren, omdat het
centraal georganiseerd is. (Big Brother)
* 100% uptime is noodzakelijk.
Dit eist betrouwbare (dure) dubbel
uitgevoerde hardware.
* De snelheid van de client is variabel.
Meer gebruikers op een server verlagen de
snelheid van iedereen.
Trage datalijnen verslechteren dit op idividueel
niveau.
* Totale afhankelijkheid van
de verbindingsinfrastructuur.
Dit geldt voor externe verbindingen, zoals data-lijnen.
Een 'kink in de kabel', kan het gehele systeem voor
geruime tijd plat leggen. De recentelijke
terreur-aanslagen, geven mij het gevoel dat
een centraal-systeem kwetsbaar is.
Een peer-to-peer netwerk heeft iets van de kracht,
die vergelijkbaar is met die van het internet.
* Geringe kwetsbaarheid, als geheel systeem gezien.
Als er een pc uitvalt, draait de rest gewoon door
Security? Je documenten zijn slecht of nauwelijk te beveiligen. Systeem/laptop wordt gestolen???
* Moeilijk te beheren.
Hier is met policy en ghost wel wat aan te doen.
* Een bedrijf-leiding heeft weinig directe controle
over wat er precies gebeurd. (Small Brother)
Op zich valt het wel mee.... peer to peer zal over het algemeen alleen voor kleinere bedrijf relevant zijn. tot 20 werkstations. Daarna is het echt niet meer te doen.
Elke PC is een autonome eenheid,
waardoor de snelheid op een vast niveau staat.
Ik zit lekker te autocadden en jij wil graag een document van mijn computer hebben en printen op mijn laser. Snelheid op een vast niveau??? Denk het niet.
* Een peer-to-peer netwerk levert een redundancy
in data op.
De kans dat het document ook nog op de PC
van een collega staat, is groot.
Sommige noemen dit 'overhead',
maar de noodzaak van een centrale backup
neemt hierdoor af.
En hoe denk je het versie beheer onder controle te houden?
* Aansluitend is de beveiliging van
belangrijke documenten
hierin wel een lastig item, maar dat kan
met data-encryptie
opgelost worden.
Perfomance winst behalen aan de ene kant om het dan weer aan de andere kant te verliezen... :)
Zo werken wij hier dus ook. Voor een dedicated server zijn we te klein, dus wordt een werkstation min of meer superpeer (de mijne :) ). Belangrijkste functies zijn (a) opslag files (administratie, orderbeheer, correspondentie etc.), (b) printerserver (b/w laserprinter en een deskjet kleurenprinter.
Om eerlijk te zijn is dat niet iets waar vooraf hard over is nagedacht. Het onstaat min of meer vanzelf. Op deze manier kan je je m.b.t. backups e.d. toch tot 1 plek beperken en is het niet zo schadelijk voor je bedrijfsvoering als de 'lichte' werkstations in het netwerkje niet superstabiel zijn (Windows 98 ...) en/of wanneer niet alle gebruikers wizzkids of tweakers zijn. Bijzonder zwaar wegend voordeel t.o.v. een dedicated server is dat het ook 1 computer scheelt. Eigenlijk wordt het netwerk absoluut niet zwaar belast, en het zou dom zijn veel energie te steken in het in de lucht houden van nog een machine. Dan kan je die taak beter door een werkstation laten doen waar regelmatig op gewerkt wordt. Als het netwerk groter wordt verandert dat natuurlijk, een centrale server is dus wel de logische maar pas volgende stap.

edit:

Koffie: Superpeer is w2k :7 En je mag p2p best niet zien zitten, maar het is nog dommer veel tijd & geld te investeren in een minder goede oplossing die jij wel ziet zitten.

Roland Witvoet: Alle belangrijke bestanden staan op 1 machine, maar indien nodig (superpeer in onderhoud of op de beurs :) ) kan alles gewoon locaal gedraaid worden.
Zeg, heb jij dat rapport al voor me? Ja bijna ... ik wilde hem net printen maar 'Arjenk' is z'n superpeer aan het rebooten na een crash/installatie.

Verder doet iedereen als of peer2peer de uitvinding van de eeuw is ... deze eeuw wel te verstaan.
Niemand die zich afvraagt waarom we in he begin tijdperk van p2p zijn afgestapt?
Enig idee waar de W in WfW (Windows for Wokrgroups) voor staat?

En een MKB wat een hobbiest met een linux doosje het netwerk laat beherenmoet ook 'ns achter de oren krabben. (ter info dus: geweldig al die PI en 486ers als servertjes met niet ondersteunde software. Regel maar eens binnen 4 uur nieuwe hardware voor die aftandse troep).

Neuh.... ik zie P2P niet o zitten hoor ...
Dat is dus geen peer2peer netwerk, maar een netwerk waar de fileserver gespeelt wordt door een win98 machine. of de server nu een dedicated server is doet er niet zo veel toe, dat maakt het zeker nog geen peer2peer netwerk. Zolang er een centrale (groep) macines is aan te wijzen waar alle anderen van afhankelijk zijn is een peer2peer netwerk uitgesloten.
Ook dit heeft zo z'n nadelen, servers zijn prijzig, hebben een maximale capaciteit en kunnen crashen
Maar zo'n mainframe kan ook crashen en dan kan helemaal niemand zijn werk meer doen. Terwijl bij de client / server methode de client gewoon nog op zijn workstation door kan blijven werken :)
Een server kan crashen, een mainframe (=server met extreem domme clients) kan crashen, maar een peer2peer-netwerk niet. Tenzij je een manier weet om een zeer groot aantal van de clients tegelijk te laten crashen? maar dan zou je ook niets meer hebben aan een server :+

Als je op de client door kan werken terwijl de server gecrasht is, wat is (was) dan de rol van die server binnen het netwerk? :?
Een server kan crashen, een mainframe (=server met extreem domme clients) kan crashen, maar een peer2peer-netwerk niet. Tenzij je een manier weet om een zeer groot aantal van de clients tegelijk te laten crashen? maar dan zou je ook niets meer hebben aan een server Als je op de client door kan werken terwijl de server gecrasht is, wat is (was) dan de rol van die server binnen het netwerk?
Ten eerste koop je een mainframe alleen maar omdat je applicaties wilt draaien met extreme eisen aan de beschikbaarheid. Een mainframe crash is dan ook een zeeeer zeldzaam iets (als we het tenminste hebben over zOS, het vroegere MVS van IBM)

Ik begrijp jouw argumentatie over het niet down kunnen gaan van een p2p netwerk niet zo goed. Als je alles wat je installeert (data en programmatuur) nodig hebt om te kunnen werken, dan moet dat ergens staan. Op het moment dat de node waar mijn data op staat niet beschikbaar is, kan ik dus niet werken. Voor mij is de volledige functionaliteit dus niet beschikbaar.

Dit is te ondervangen met replicatie van data en software, maar dan wordt het heel snel heel ingewikkeld. Wwar stond de meest recente versie ook al weer? Wat doe ik met mijn temp bestanden? Hoe gaan we er mee om als een medewerker besluit om te gaan Quaken in de pauze terwijl ik net bezig was op die machine?
Een server kan crashen, een mainframe (=server met extreem domme clients) kan crashen, maar een peer2peer-netwerk niet.
Sorry hoor, hier moet ik je even corrigeren, een IBM mainframe crashed NOOIT (tenzij er een vliegtuig tegen aan vliegt :)).

En de tijden dat aan een mainframe domme terminals werden gehangen zijn ook allang voorbij.
Uh-huh... daarom ben ik ook een paar jaar geleden eens een middagje op zoek geweest naar de sleutel van de IBM AS/400 waarmee je hem uit kunt zetten. Andere manier om hem te rebooten was er niet meer. (De sleutel zat met een plakbandje aan de onderkant geplakt, het was niet de eerste keer). |:(
Ten eerste is een AS/400 geen mainframe, maar een Midrange systeem. Ten tweede is een crash op een AS/400 een grote uitzondering. Wat jij hier beschrijft is vrijwel onmogelijk zonder een hardware-probleem. Ik heb 1 1/2 jaar lang 6 AS/400's beheerd ZONDER DAT ER OOIT EEN CRASHTE, terwijl die dingen stuk voor stuk op elk willekeurig moment >200 gebruikers bedienden.
een as/400 is geen mainframe en draait op een ander os (unix variant)
OK. Midrange of niet, hardware probleem of software, alle servers gaan wel eens down. Al was het maar omdat de stroom uitvalt. Zoals bij diezelfde AS/400, toen er twee man in de serverruimte zaten te kettingroken (op zich niet slim), waardoor het rookalarm afging, waardoor automatisch de stroom uitging, wat overgenomen werd door de UPS, die leegraakte na een kwartier, en de generator was nog niet gestart, want die waren ze aan het testen... freak accident, maar dit soort dingen gebeurt vaker. 100% uptime bestaat niet zolang sysadmins koffie drinken en roken :D

edit:
Als je dan echt niet aan IBM wil twijfelen, noem het dan de human factor :7
Dan moet je natuurlijk niet afhankelijk zijn van informatie van anderen zoals een gezamelijke programmeer omgeving
Ja, maar een gebruiker kan ook niet verder werken als z'n Windows is gecrashed. Op z'n minst moet die wachten totdat z'n compu weer is opgestart.

Ik heb zo het vermoeden dat je bij een mainframe veel minder last hebt van een falende computer dan bij allemaal workstationtjes.
...sharing in a dedicated Peer to Peer environment...
Dedicated voor filesharing, is imo domweg een server, en als er wel op gewerkt word is het niet echt dedicated meer.
Maar dat is millimeteren over de benaming, zoals de schrijver, en vele boven mijn post, ook al beamen is het een veel voorkomend netwerksysteem.
Idem bij ons op het kleine kantoor, 1 pc met de bestanden, Zip en CDRdrive, waar dus ook de backups op gemaakt worden als iedereen slaapt, en op de 'eigen; pc de programmatuur.
Eigenlijk zijn super-peers niets anders dan gewoon servers. Alleen ipv 1 server voor je hele netwerk verdeel je nu dus de super-peers over een paar werkgroepen. Blijft in mijn ogen gewoon een server dus :?, want de peers onderling praten niet met elkaar. Is dus eigenlijk geen peer-to-peer verbinding.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True