Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 99 reacties

Pano Logic brengt een klein hardwarematig virtualisatieapparaat op de markt, dat is ontworpen om de desktop-pc te vervangen. De gadget heeft geen cpu en geen geheugen en draait zelf geen besturingsysteem.

Pano achterkant De Pano verbindt toetsenbord, monitor en usb-apparatuur via het netwerk met een gevirtualiseerde versie van Windows Vista of XP die op een server draait. Bedrijven die het apparaat gebruiken kunnen de kosten voor desktops met zeventig procent terugbrengen en het beveiligingsrisico verkleinen dat dergelijke systemen met zich meebrengen, zo beweert Pano Logic.

In tegenstelling tot veel andere thin clients bevat de Pano geen drivers of andere software waardoor er geen kans op infectie met malware zou zijn. Het bedrijf weigert overigens over een thin client te spreken omdat de Pano een volledige Windows-versie voorschotelt, waar normale thin clients een server met elkaar delen. Het apparaatje werkt in combinatie met VMware Server; en kan in een bestaande VMware-configuratie worden geïmplementeerd. De virtualisatiegadget bevat drie usb-aansluitingen, een vga-uitgang en een ethernet-aansluiting. In de Pano bevindt zich een chip die de virtualisatie beheert. Volgens Pano Logic verbruikt hun product slechts 5 watt, aanzienlijk minder dan de gemiddelde desktop-pc. Het bedrijf vraagt twintig dollar per maand voor een licentie op een Pano. Het betreft hier overigens niet de eerste hardwarematige thin client: Sun biedt met het Sun Ray-systeem bijvoorbeeld vergelijkbare functionaliteit, al beschikken zulke terminals wel over onder andere een eigen processor.

Pano opzet
Moderatie-faq Wijzig weergave

Reacties (99)

Volgens Pano Logic verbruikt hun product slechts 5 watt, aanzienlijk minder dan de gemiddelde desktop-pc.
Als we het stroomverbruik van de server gewoon even volledig links leggen.

Interresant vraagstukje: Hoort dit apparaat nu bij de mainframe-retro hype of bij de post-moderncomputing virtualisatie hype. Of zijn beiden fenomenen een potje van hetzelfde nat.

[Reactie gewijzigd door fevenhuis op 28 augustus 2007 13:22]

wat een onzin. Het is wel degelijk een thin client want er vind virtualisatie plaats en het apparaat doet in principe niets.
Wat is nu verder het grote vernieuwende dan?
Oplossingen als Tarantella en Citrix doen hetzelfde, maar dan met software.
Je kunt een OS met browser en zo'n client gebruiken voor hetzelfde doel.
Verder een hoop netwerk load als daar alles overheen moet.
Een P2 met VMplayer is waarschijnlijk goedkoper :)
Wat is nou precies het verschil tussen dit apparaat en de al bestaande Chip-PC bijvoorbeeld? Dat ie geen software (drivers) heeft? In het plaatje zie ik anders duidelijk boven de virtualisatie laag staan "PANO Desktop Service". En op de website staat: "Pano Desktop Service is a lightweight Windows service residing within each desktop virtual machine..." dus dat is al niet helemaal waar.
En voor wat ik lees is ie gericht op VMware Server. Het zou mooi zijn als ie ook zou werken met ESX Server en/of Lab Manager. Grotere bedrijven gebruiken dit meer dan gewoon VMWare server. Ik kan er weinig over vinden op hun website.
En wat nou als VMWare server een major update doet die ervoor zorgt dat er dingen moeten veranderen in de besturing van PANO? Firmware updates?
Ik denk dat die drivers die andere thin clients hebben helemaal niet zo gek zijn. Daarentegen vind ik het wel een goeie ontwikkeling. Er komt steeds meer aandacht voor virtualisatie en thin clients.
Dit beperkt dus nauwelijks de beheerskosten.

Bij een Terminal Server-omgeving is een groot voordeel dat er maar 1 OS beheerd hoeft te worden. (Toegegeven: dit kan ook een nadeel zijn: als je niet weet waar je mee bezig bent, kun je ook alle gebruikers treffen).

Met deze Pano-oplossing moet je alle clients voorzien van een virtueel OS op een VMWare-server, en moet je nog steeds 100x servicepacks uitrollen en 100x een nieuwe applicatie installeren. Het beheer wordt er niet makkelijker door.

Ook vraag ik me af wat licentietechnisch goedkoper is: 1x een dikke TS met 100 CAL's, of 100x Windows client-OS licentie.
Templates zijn de oplossing. Een goede beheerder maakt 1 of 2 perfecte images van een OS, druk op een knopje als "Copy" of "Clone" en nog geen 10 minuten later heb je 100 of 200 identieke werkplekken.

Als je dan ook nog eens zou werken met profiles, is dus zo'n virtuele werkplek nooit "van jou", net als bij fysieke flexplekken, en zou een beheerder dus 's avonds zijn perfecte image kunnen Windowsupdaten, weer op "Copy" klikken en de volgende ochtend staan alle 200 werkplekken weer klaar met hetzelfde servicepack.
Je kunt op deze manier natuurlijk wel weer makkelijker meerdere OS'sen beheren.
Met deze Pano-oplossing moet je alle clients voorzien van een virtueel OS op een VMWare-server, en moet je nog steeds 100x servicepacks uitrollen en 100x een nieuwe applicatie installeren. Het beheer wordt er niet makkelijker door.
Niet dus

Ooit gehoord van Kopieren ? tis toch allemaal virtueel
Da's het mooie van virtuele machines. 1x maken en daarna 1000x copieeren.

Of nog eenvoudig: OS streaming (b.v. Ardence). kost het nog geen disk ruimte ook.

Over licenties: Normal gesrpoken heb je voor een TS niet alleen CAL's nodig per client maar ook nog een een license voor de client als deze zelf ook op windwos (CE) draait.

Met dit Pano ding dus alleen nog maar een XP of vista licentie per ingelogde gebruiker.
Verder natuurlijk ook nog eventuele licenties voor je virtualisatie software.
1x maken en daarna 1000x copieeren betekent dus wel dat je alle gebruikersgegevens die buiten jouw vastgestelde grenzen liggen ( my documents / geinstalleerde progs etc ) compleet teniet doet, wat is dan nog het voordeel boven TS

En over licenties, alle thin clients die ik ken worden gewoon inclusief licentie geleverd die ook werkt. Wil je het echt dan kan je op de meest-gebruikte thinclients nog gaan experimenteren met een linux-client die GPL is en dan nog eens een GPL TS client of gewoon de standaard linux citrix client.

Waardoor je dus in principe geen licentie kosten hebt, want alles is inbegrepen in 1 bedrag. ( ter info, wij hebben al 2 jaar geen nieuwe ( niet speciale 20inch dingen ) monitoren / muizen / toetsenborden meer hoeven te kopen puur door het feit dat wij gewoon setjes thin clients kopen, inclusief muis - toetsenbord - scherm tegen een vaste prijs, is iemand tevreden over zijn toetsenbord en muis en scherm dan komt er alleen een TC te staan en de rest gaat voor reserve. Onze boekhouding is hier heel tevreden over, want die ziet per werkplek gewoon maar 1 bedrag voorbijkomen ipv 1 muis a 25 euro, 1 toetsenbord a 25 euro, 1 scherm a 100 euro, 1 TC a 250 euro. Waardoor elke afwijking ( gebruiker wil een groter scherm / draadloze muis / draadloos toetsenbord ) veel uitzonderlijker wordt en de boekhouding dus minder onregelmatigheden ziet.
perfecte uitvinding voor bedrijven, alleen mij lijkt het ook dat het netwerk daar te sloom van wordt.
Men snapt het nog steeds niet he? In 99% van dit soort oplossingen, worden alleen "veranderingen" over het lijntje gestuurd.

Wat houdt dat in? Dat als jij in Word zit en 20 karakters typt per seconde, dan zal alleen de oppervlakte in pixels van die 20 karakters worden overgestuurd. Dat in tegenstelling tot een conventionele desktop die 60 of 75 keer per seconde het hele beeld ververst (a 1024x768x16 bit).

Reken uit je bandbreedte voor 20 karakters van 12 pixels breed en 14 pixels hoog met 2 pixels spacing...
Valt wel mee denk ik zo. Tegenwoordig is Gigabit geen uitzondering meer. Per connectie zal je misschien hooguit 5mbit nodig hebben waardoor dus zeker 200 clients op 1 LAN verbinding tegelijk kunnen werken. De 5mbit is overigens ruim genomen.
eerst 20 mil inversteren in fiber aanleggen...dan loopt alles prima
Hangt er heel erg vanaf hoe je netwerk opgebouwd is. Is dit een beetje fatsoenlijk gedaan dan merk je er niets van ( is het qua computergebruik zelfs nog sneller ).

Door gewoon gbit tussen je servers te gooien en max 2mbit per gebruiker heeft iedere gebruiker een supersnelle computer ( want hij werkt op een server dus heeft gbit toegang tot fileserver en sql/server etc. ) terwijl de schermafhandeling en de ingedrukte toetsen makkelijk in 2mbit passen.

Dus met 100 gebruikers op 10 servers hoef je maar 10 kabeltjes van 1 Gbit ( of meer ) te hebben en dan 100 kabeltjes van 2mbit.
Tov computers waarbij gebruikers op vestiging Y die een file van 100Mb probeert te benaderen die op een fileserver op locatie Z staat een verbinding tussen locatie Y en Z nodig hebben dat die 100Mb snel afgehandeld kan worden ( en 100Mb huurlijnen zijn duuuur )
Heb je dan niet een peperdure server nodig?
Leuk voor bedrijven maar voor thuis zou ik het niet zo snel gebruiken denk ik.
Tot op zeker hoogte wel... Ik kon het op de site van Pano niet 1-2-3 vinden maar het lijkt erop dat je VMWare ESX nodig gaat hebben en dat is vrij kieskeurig qua hardware. Ook de kosten van VMWare-software zijn niet gering voor een thuissituatie.

Een simpele rekensom zo uit de losse pols voor een gemiddeld bedrijfje (zeg 100 werkplekken), dan ga je al richting de 30K voor het VM-backend. Hebben we het nog niet over extra servers en/of Pano-clients. Lijkt misschien veel, maar dat is "maar" 100 Euro per werkplek per jaar bij de gemiddelde afschrijving van 3 jaar voor normale computers.

*edit*
Het verbruik van dat backend ligt rond de (zeer grof genomen) 2kW en 100 gewone werkstations trekken wel meer uit het stopcontact.

[Reactie gewijzigd door MAX3400 op 28 augustus 2007 19:47]

Dit ziet er zeker handig uit, alleen vraag ik me af of het niet beter is om een eigen processor te hebben, wordt het niet zeer traag zo?
Ik vraag me eerder af waar de video feed dan vandaan komt als er geen videokaart in zit?
Een simpele 2D chip met een ramdac (voor 'analoge' SVGA aansluiting, bij DVI niet nodig) is voldoende. De laatste van die soort die ik ooit in handen had was een S3 Trio geloof ik. Maar in het pre-pentium tijdperk had bijna geen enkele videochip die in x86 PC's gebruikt werden 3D functies. Verder praten ze over 'PCI over Ethernet' dus verwacht ik een dergelijk schema:

(speciale) PCI controller met stukje firmware regelt data over PCI bus (en coderen/decoderen PCI over Ethernet pakketjes)
|
|<-->(standaard) Ethernet controller met PCI interface
|
|-->(standaard) 2D video chip met PCI interface -> RAMDAC -> SVGA aansluiting
|
|<--> (standaard) USB controller <--> USB aansluitingen en USB<>PS2 voor toetsenbord.

Je hebt dan geen geheugen, geen echte processor (behalve wat low level processing in die controller), geen ingewikkelde videochip e.d. nodig. Het is dan echt fundamenteel anders dan een terminal, die meestal toch nog wel kleine PC'tjes zijn (zelf genoeg winterms e.d. opengeschroeft)
Hoeft natuurlijk niet. Ligt aan de latency en doorvoersnelheid van je netwerk, hoe goed die 'KVM'-to-Ethernet-chip in het Paneo device de data kan aanbieden/collecteren van de aangesloten randapparatuur en natuurlijk de hoeveelheid resources die je ter beschikking krijgt op de server waar de gevirtualiseerde desktops op staan. Het kan heel erg snel zijn alhoewel ik een ding niet verwacht: fatsoenlijke 3D prestaties. Niet vanwege dat het Paneo device dat niet door zou kunnen geven maar vanwege de hoeveelheid rekenkracht die daarvoor door de CPU's op de server geleverd moeten worden .... tenzij ze op de een of andere manier daar toch GPU's voor kunnen gebruiken en hun output view window kunnen capturen en doorsturen over het netwerk .... ..... dan kan het misschien wel .....
Het heeft maar weinig zin om een eigen processor te hebben, aangezien alles via VMware server loopt. Een lokaal systeempje zou dan toch niks te doen hebben, behalve een paar toetsaanslagen en muisbewegingen sturen en wat schermupdates ontvangen. Ik neem aan dat dat precies de dingen zijn die dit apparaat nog net kan doen (en natuurlijk de USB-aansluiting door'lussen' naar VMware) (dingen die uiteraard ook doro een processor worden gestuurd, maar die processor is niet als zichtbaar deel beschikbaar voor de software/VMware aan de andere kant)

[Reactie gewijzigd door Bright.Light op 28 augustus 2007 14:06]

Mooi spul! Alleen lijkt me dat je wel een hele zware achterban moet hebben draaien in het grotere bedrijfsleven... Wat ook het nodige zal kosten.
Zeker als je zaken 'redundant' wil kunnen aanbieden.

Stel dat er 1 of meer van je VM servers platgaan.
Dan is het niet meer 1 applictie of onderdeel wat plat gaat maar een hele unit van verwerkings apparaten. Ik zie al een failover van een zwaar gebruikte VM Server in een VM cluster... :X Ken heftig zijn.

Maar mooi spul, doe mij er maar eentje! :)
Stel dat er 1 of meer van je VM servers platgaan.
Dan is het niet meer 1 applictie of onderdeel wat plat gaat maar een hele unit van verwerkings apparaten. Ik zie al een failover van een zwaar gebruikte VM Server in een VM cluster... Ken heftig zijn.
Ik snap je niet helemaal. Als een Terminal Server op z'n bek gaat, tref je gegarandeerd alle clients. Als een virtuele host down gaat, tref je alleen die host, en zal hooguit 1 client getroffen zijn.

Of bedoel je dat de hele virtuele omgeving met alle hosts plat gaat? Dan heb je hetzelfde als met een TS die down gaat: alle clients down.
In mijn beleving/ervaringen is een terminal omgeving meestal minder zwaar opgezet dan de vaste werkplek omgeving.

Het hangt uiteraard af van de organisatie, maar in vergelijking met een terminal omgeving, die vaak wordt gebruikt als buitenpost/telewerk/dislocatie oplossing, wordt de vaste werkplek toch het meest ingezet voor hoofd administratieve taken en zwaardere applicaties - vaak de ICT core van een bedrijf.
Uitval in deze zone lijkt me dus heftiger, en dan vraag ik me af of de kosten wel zo veel minder zijn in vergelijking met het traditionele idee (de losse werkplek). Beheer wordt met deze oplossing eenvoudiger, maar beschikbaarheid garanderen complexer en duurder.

Hoeveel werkplekken (afhankelijk van hun rol en server capaciteit) kunnen er in praktijk op 1 server draaien, en wat betekend dit voor een organisatie met 1000 to 4000 werkplekken. Dat wordt een heftige VM omgeving. (Backup (naast data ook de VM machines/opslag voor alle VMs/beheer VMs).

Dus dat bedoel ik met dat het heftig kan worden.
Jouw beleving loopt wat achter bij de realiteit?

Veel bedrijven die kiezen voor TS/Citrix-oplossingen, hevelen al snel > 95% van de applicaties over en zinken alle vaste werkstations af.

Als we naar VM kijken t.o.v. vaste werkplek is ook best interessant. Op je vaste werkplek heb je een P4-2000 staan ofzo, met 1GB geheugen en x GB HDD. Op VM kan je dat ook krijgen maar op momenten dat je het niet daadwerkelijk nodig hebt, gaat de rest dus gewoon in een grote pool en dus mogelijk beschikbaar voor je collega's.

In ieder geval, met goede benchmarks, zou je dus een mooie basis kunnen neerzetten tussen performance en prijs.
Dat jij wat anders beleeft zegt niet dat een ander niet in de realiteit leeft.. wat niet zegt dat je ongelijk hebt... Maar de algemene ervaring is tussen ons duidelijk anders. :P

Ik kom nog bij veel bedrijven waar een deel van de applicaties nog steeds problemen geven binnen de TS omgeving. Maar ook daar wordt hard gewerkt... dat klopt.
@magic31:
Mwhoa, als ik kijk naar argumenten als "vaak voor de buitendienst" en "hoofd administratieve taken werkt op een gewone PC", dan stel ik daar mijn ernstige vraagtekens bij uit hoofde van mijn professionele vlak. Ik ken zat bedrijven, zoals accountants, die ook gewoon hun core-applicaties gecentraliseerd draaien en daar geen vaste desktop meer voor nodig hebben.

En wat verstaat men onder "een heftige VM omgeving"? Ik kijk niet meer op van storage-oplossingen van enkele TB's die ook nog eens redundant zijn uitgevoerd. Stel dat je een XP-omgeving aan wil bieden met een paar applicaties, dan kan je uit de voeten met een 10GB per omgeving... 2TB / 10GB = best wel wat virtuele desktops op een (voor mij) niet zo heftige omgeving.
Take a chill pill Max3400

Totaly off topic:
Dat je een 'profetionele vlak' met vraagtekens is hartverwarmend. Het zou heel misschien kunnen dat ik uit een iets andere perspectief aan het redeneren ben dan wat er bij jou in het hoofd en/of jou omgevingen speelt, o mighty Max. O.a. het startpunt waaruit je moet vertrekken (ook je interne kennis en kunde bij de beheerders).
Er bestaan immers ook andere doelstelling en kaders waarmee moeten worden gewerkt. Er spelen meer factoren en onze werk omgevingen zijn blijkbaar erg anders, dat gaf ik al aan.
Ik zou kunnen uitwijden over wat voor mij een heftige omgeving is, dan gaat dat veel dieper dan wat ik even probeerde aan te geven... maar jou vermogen om je buiten je eigen denkbeeld te plaatsen is kennelijk niet zo aanwezig.

sorry for breathing....
Als een TS down gaat is dit niet zo´n ramp, gemiddelde TS is ervoor opgezet dat deze rustig down kan gaan, profielen op fileserver, mijn documenten op fileserver, gebruiker geen schrijfrechten op fileserver ( behalve in temp mappen ) waardoor de gebruiker hooguit zijn openstaande werk verliest.

Maar bij gebruikers met een pc zie ik heel vaak mappen op het bureaublad verschijnen, allerhande programmaatjes geinstalleerd worden. Oh, ik ga over mijn quota op deze netwerkschijf, laat ik het lokaal maar even opslaan, daar heb ik meer ruimte.
Natuurlijk is dit allemaal in te stellen ook op pc´s / vm´s. Maar als je al dit soort dingen gaat dichttimmeren dan vraag ik me af waarom je nog geen TS hebt ingericht. En timmer je het niet dicht, dan heb je met mijn gebruikers kans dat je veel meer verliest dan met een TS.

Simpel gesteld, als je gebruikers local admin moeten zijn is mijn ervaring dat ze ook meer willen doen met die computer waardoor het risico op verloren gegevens extra groot wordt...
Twintig dollar per maand, is dat dan per gebruiker? Dat is toch veel?
¤ 20 x 12 = ¤ 240/jaar. Stel dat een normale desktop in een bedrijf vervangen wordt na 4 jaar: ¤ 960. Voor dat bedrag heb je al twee desktops? Of zie ik het verkeerd?
Je vergeet de factor onderhoud en beheer. Dat is met dit apparaatje ongetwijfeld een stuk lager. En de kosten daarvan overstijgen de aanschafprijs met gemak.
Onderhoud en beheer gaan nauwelijks naar beneden door een dergelijke oplossing.
Alleen de focus verschuift.
En daarom gaat het onderhoud ook omlaag. Nu heb je nog maar op 1 lokatie onderhoud en beheer nodig. Misschien nog 1 mannetje per vestiging ofzo, maar niet een heel team. Dat scheelt toch wel veel geld. Vergeet niet dat dit opzich een enterprise oplossing is (zoals VMware ESX/GSX opzich ook al is)
Nee, imho is het enige wat je hiermee bereikt dat het niet meer nodig is om naar de computer van de gebruiker te lopen, voor de rest houdt je nog alle client-side problemen. En voor het lopen naar computers is vnc / dameware / remote assistance uitgevonden.

Qua onderhoud verander je niets, je verplaatst het alleen maar. En qua beheersbaarheid verander je imho ook niets. Of je nou 20 clients via wan moet lopen opstarten voor windows update of 20 vm´s imho lood om oud ijzer, zelfde problemen kunnen optreden ( misschien iets meer vanwege gestandaardiseerde hardware maar ja moet je gewoon maar goede hardware kopen... )

Ik heb nou ook niet echt het idee dat je hiermee iets centraal doet, het blijven 20 clients.

IMHO ben je veel verder met gewoon een goede fat-client kopen met behoorlijke wake on lan support en degelijke hardware. Het enige voordeel wat ik zie is dat je gebruikers van client kunt laten wisselen zonder dat ze het merken terwijl je evengoed de cd-speler / youtube ervaring mist aan de client kant.
Tja... Een enkele Sun Ray, die dus {bijna} hetzelfde doen en ook "geen processor of OS hebben", aka "stateless" zijn (dit in tegenstelling tot normale thin clients om bovenstaande vraag van Sa1 te beantwoorden) kost zo'n $250 éénmalig.

Voor gewone pc's is de vergelijking een stuk minder makkelijk, omdat je in TCO moet denken;

PC hardware
+ OS
+ stroomverbruik
+ extra onderhoud
enz.
Is dit niet gewoon een Ncomputing oplossing onder een andere naam? Alleen noemt Ncomputing ze dan volgens mij wel ThinClients.
Volgens mij is dit wat kleinschaliger bedoeld:
zet een simpele pc weg met een stukje extra software daar kan je dan met je collega's / kamergenoten gezamelijk op werken.

In dit artikel gaat het echt over VMware server, dat is denk ik toch iets professioneler en beter schaalbaar.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True