Door Julian Huijbregts

Nieuwsredacteur

Gamelaptops op Computex 2019

Intel-prototype, eyetracking en 4k120Hz

31-05-2019 • 06:00

37

Multipage-opmaak

Gamelaptops op Computex 2019

Taiwan is het thuisland van veel laptopfabrikanten en de jaarlijkse Computex-beurs in hoofdstad Taipei is dan ook een plek waar ze graag hun nieuwste waren tonen. De beurs heeft ook internationaal aanzien, want bedrijven van over de hele wereld komen ernaartoe met hun nieuwe hardware.

Intel greep de beurs aan om zijn Ice Lake-processors voor laptops te introduceren. Die 10nm-processors zijn er vooralsnog alleen in zuinige 15W-uitvoeringen voor dunne en lichte laptops, zoals de Dell XPS 13 2-in-1. In april kondigde Intel echter al zijn negende generatie 45W-laptopprocessors aan, met onder andere de Core i9-9980HK en de i9-9880H-octacores.

Die snelle, achtkoppige processor zien we op de Computex terug in veel gamelaptops, in combinatie met Nvidia RTX-videokaarten. Op het gebied van cpu's en gpu's voor gamelaptops is er op deze beurs dus weinig nieuws onder de zon, maar als het om beeldschermen en schermtechnieken gaat, is dat wel anders. Ook eyetracking van Tobii neemt een vlucht. In deze round-up bespreken we de gamelaptops die we in de afgelopen dagen op de beurs tegenkwamen.

Intel-prototype met twee schermen

Vlak voor de start van de Computex-beurs kregen we bij Asus de ZenBook Pro Duo te zien; een laptop met een 15,6"-4k-oledscherm en op de onderkant van de behuizing nog eens een half 4k-scherm. Dat idee blijkt niet helemaal van Asus zelf afkomstig te zijn, want op de beurs kwamen we Intels conceptlaptop Honeycomb Glacier tegen.

Intel blijkt achter de schermen al langer aan een laptop met verschillende schermen te werken. De processorfabrikant heeft dat concept getoond aan fabrikanten als Asus en hoopt dat die er een systeem omheen bouwen. Intel is niet van plan om zelf laptops uit te brengen; het concept is enkel bedoeld om aan te geven wat mogelijk is.

Intel Honeycomb Glacier

Asus' ZenBook Pro Duo is een gelikt apparaat dat fraai is afgewerkt. Het primaire scherm en het scherm daaronder sluiten goed op elkaar aan; beide zijn even breed en hebben dunne bezels. Dat kun je van het Intel-prototype niet zeggen. Het is een 15,6"-laptop met brede schermranden, vooral de rand aan de onderkant is gigantisch. Het onderste scherm heeft nóg dikkere randen.

Bij Intels prototype gaat het echter niet om de specificaties en het uiterlijk, maar om de werking. En Honeycomb Glacier heeft iets dat de laptop veel interessanter maakt dan het model van Asus: een scharnier waarmee je het tweede scherm omhoog kunt klappen en in verschillende hoeken kunt vastzetten. Dat werkt met knopje aan de zijkant. Als je dat indrukt, kun je de positie van het scherm aanpassen. Laat je het knopje los, dan klikt het scharnier vast in een van de posities. Het primaire scherm zit met een scharnier aan het tweede scherm vast, zodat je ook daarvan de positie kunt aanpassen. Dat is een regulier scharnier zoals in andere laptops, zonder knop of vaste posities.

Die scharnierconstructie heeft een paar voordelen. Het belangrijkste is misschien wel dat je niet naar beneden hoeft te kijken om het tweede scherm te gebruiken. Dat het primaire scherm wat naar boven wordt verplaatst bij het uitklappen van het onderste scherm, komt de ergonomie in veel situaties nog eens ten goede. Het scherm komt zo meer op ooghoogte.

Intel Honeycomb Glacier
Intel Honeycomb GlacierIntel Honeycomb GlacierIntel Honeycomb GlacierIntel Honeycomb Glacier

Een ander voordeel is dat het gedeelte van de behuizing onder het tweede scherm ademruimte krijgt. Volgens Intel kunnen fabrikanten op die manier hardware wegwerken die 195W verbruikt. Intel heeft zelf een Core i9-octacore in zijn behuizing gestopt en een GeForce GTX-kaart uit de 10-serie, omdat het die componenten had liggen voor het maken van een prototype.

Asus richt zich met zijn ZenBook Pro Duo op creatievelingen, maar Intel presenteert zijn concept als een gamelaptop. We vroegen aan Intel waarom dat zo is en daarop antwoord de fabrikant eerlijk dat dit een segment is waarin laptops voor veel geld worden verkocht en dat dit een groeimarkt is. Gamers zijn dus eerder geneigd om een dure laptop met dergelijke nieuwe functionaliteit te kopen.

Om de focus op gamers kracht bij te zetten, heeft Intel Tobii-eyetracking geïntegreerd in de scharnier tussen de twee schermen. Dat kan gebruikt worden in games die de techniek ondersteunen, maar Intel wil het ook inzetten voor productiviteitsdoeleinden. Zo is het mogelijk om met eyetracking van scherm te wisselen. Staat er bijvoorbeeld een tekstverwerkingsprogramma op het primaire scherm en een chatvenster op het tweede scherm, dan kun je door er naar te kijken de cursor van het ene venster naar het andere verplaatsen.

Alienware m15 en m17 met eyetracking

Op de CES-beurs begin dit jaar introduceerde Dell de Alienware Area 51m. Dat is een dikke en zware gamelaptop met een desktopprocessor. Het model sprong in het oog met zijn nieuwe ontwerp, met een ledstrip aan de achterkant. Dat ontwerp heeft nu zijn weg gevonden naar de dunnere en lichtere Alienware m15 en m17. De 15,6"-versie weegt zo'n 2,2kg en het gewicht van de 17,3"-variant is ongeveer 2,6kg. Dat maakt ze een stuk handzamer dan de Area 51m die bijna 4kg weegt.

In de m15 en m17 tref je uiteraard geen desktopprocessor, maar Dell levert ze wel met maximaal een overklokbare octacore: de Core i9-9980HK. Er komen veel varianten, want de Alienware-modellen worden geleverd met alle recente Nvidia-videokaarten. Van de GeForce GTX 1650 tot aan de RTX 2070 en 2080 Max-Q.

Alienware m15 en m17
Alienware m15 en m17Alienware m15 en m17Alienware m15 en m17Alienware m15 en m17Alienware m15 en m17Alienware m15 en m17

Bij de Alienware m15 is er keuze uit drie schermen. De duurste optie is een 4k-oledpaneel met een verversingssnelheid van 60Hz. Er is ook een ips-paneel met diezelfde verversingssnelheid en een fhd-resolutie. De derde optie is een 240Hz-ips-paneel met eveneens een fhd-resolutie. Het 17,3"-model wordt alleen met fhd-ips-panelen geleverd en daarbij is er keus uit een 60Hz- en 144Hz-variant.

Beide modellen hebben onder het scherm een sensor van Tobii voor eyetracking. Dat werkt als een soort Kinect-camera die de hoofdbewegingen van de gebruiker in de gaten houdt en ook registreert waar de gebruiker naar kijkt. De techniek werkt inmiddels in 140 games en Dell demonstreerde dat met The Division 2. Die game heeft verschillende implementaties voor het gebruik van eyetracking. Zo kan je delen van de interface verbergen en tevoorschijn laten komen op het moment dat je er naar kijkt.

Ook kan je op vijanden mikken door er naar te kijken. Als je met je ogen focust op een vijand en dan op de rechtermuisknop klikt om je wapen te richten, wijst dat automatisch in de richting van de vijand. De Tobii-software heeft een demomodus waarin je met een blauwe vlek continu op het scherm ziet waar je ogen op focussen. Daarmee is duidelijk te zien dat de techniek prima in staat is om snelle oogbewegingen vlot te volgen.

Of eyetracking echt een toegevoegde waarde heeft, hangt af van de implementatie in games en het is ook een kwestie van smaak, maar de techniek werkt goed en steeds meer games kunnen ermee overweg.

Dell XPS 15 met oledscherm

Het is niet echt een gamelaptop, maar toch willen we je de nieuwe XPS 15 niet onthouden. Dell maakte in april al wat details bekend en heeft het nieuwe model op de Computex officieel aangekondigd. Aan de buitenkant is het nieuwe model weinig veranderd, op de plaatsing van de webcam na. Die zit nu in de bovenste schermrand en dat is goed nieuws voor mensen die er veel gebruik van maken. Bij de vorige XPS 15-modellen zat de webcam onder het scherm en dat levert niet zo'n charmant beeld op omdat de camera dan je neus in kijkt.

Dell XPS 15 7590

Belangrijker is echter de nieuwe hardware. Dell positioneert de dunne XPS 15 7590 niet als een gamelaptop, maar met zijn GeForce GTX 1650-videokaart kun je er aardig op gamen. De processor is maximaal een Core i9-9880H met acht cores, al verschijnen er ook modellen met goedkopere processors met zes of vier cores. Dell levert het nieuwe model met maximaal 64GB ram. De oudere versie kon al wel met die geheugenhoeveelheid uitgerust worden, maar Dell verkocht zo'n configuratie niet zelf.

Wat aansluitingen betreft is de nieuwe XPS 15 gelijk aan zijn voorganger, maar nieuw is WiFi 6-ondersteuning. Dell gebruikt daarvoor de Killer AX1650-module van River Networks, die gebaseerd is op een Intel-chipset.

De 15,6"-laptop heeft verschillende schermopties. Het duurste model krijgt het 4k-oledpaneel van Samsung, dat ook beschikbaar is in de Alienware m15. Er kan ook gekozen worden voor een ips-paneel met 4k-resolutie, of een fhd-ips-paneel. In de Verenigde Staten komt er een versie met oledpaneel voor een prijs vanaf 1900 dollar. Europrijzen zijn nog niet bekend.

Asus ROG-laptop met 4k-120Hz-paneel

Toen Intel in april zijn nieuwe 45W-laptopprocessors aankondigde, kwam Asus met nieuwe ROG-laptops in de Zephyrus- en Strix-series. De fabrikant heeft die laptops uiteraard meegenomen naar de Computex, maar interessant is ook dat Asus een aantal modellen laat zien die je nog niet kunt kopen: varianten met nieuwe schermen.

4k-120Hz

Zo heeft Asus een Zephyrus S uitgerust met een 15,6"-4k-paneel met een verversingssnelheid van 120Hz. Laptops met een 4k-paneel van dat formaat zijn er al in overvloed, maar die hebben tot nu toe allemaal een verversingssnelheid van 60Hz. Asus heeft met zijn 4k120Hz-laptop een primeur. Het paneel ververst niet alleen snel, maar heeft ook goede kijkhoeken en kleurweergave. Volgens Asus kan het honderd procent van de Adobe-rgb-kleurruimte weergeven.

Ook de responstijd is met 3ms erg snel. De maximale helderheid is 400cd/m² en het paneel heeft G-Sync-ondersteuning. AU Optronics is de fabrikant ervan en gezien de eigenschappen gaat het waarschijnlijk om een ahva-paneel. Asus weet nog niet wanneer het paneel daadwerkelijk in laptops wordt toegepast. De versie die nu op de Computex staat, is een prototype.

Asus ROG Zephyrus S met 4k120Hz-paneel

4k-oled

Van diezelfde Zephyrus S-laptop heeft Asus ook een versie met een oledpaneel gemaakt. Het gaat om het inmiddels welbekende 15,6"-4k-paneel van Samsung. Dat scherm heeft, zoals je van een oledpaneel mag verwachten, een zeer hoog contrast en de kleuren spatten ervanaf. Voor een hoge verversingssnelheid moet je terugvallen op andere schermtechnieken, want het oledpaneel blijft op 60Hz steken.

Begin dit jaar op de CES zagen we van verschillende merken voor het eerst laptops met dit oledpaneel en inmiddels zijn er ook laptops met dit scherm te koop. Asus weet echter nog niet wanneer zijn Zephyrus met oledscherm in de verkoop gaat.

Asus ROG Zephyrus S met 4k-oledpaneel

240Hz in 17,3"-formaat

Laptops met een hoge verversingssnelheid waren in de afgelopen jaren zeldzaam en duur. Daar kwam vorig jaar verandering in; er verschenen veel gamelaptops met een 15,6"-144Hz-paneel en dat full-hd-paneel kwam ook naar relatief goedkope modellen. Nu 144Hz 'gewoon' is geworden, is er een refreshraterace in gang gezet.

Verschillende fabrikanten bieden al laptops met een 240Hz-fhd-paneel aan. Asus doet dat sinds kort met zijn 15,6"-modellen in de ROG Scar Strix-serie. Op de Computex laat de fabrikant een 17,3"-uitvoering zien met een 240Hz-paneel. Het is de eerste laptop die dat schermformaat combineert met die verversingssnelheid. Andere fabrikanten hebben dat nog niet. Volgens Asus komt de 17,3"-versie van de Scar III met 240Hz-paneel in het derde kwartaal van dit jaar uit.

Asus ROG Strix Scar III met 17,3"-240Hz-paneel

MSI Titan en Raider: de dikke en de dunne

Toen Intel in april zijn nieuwe 45W-laptopprocessors aankondigde, volgde MSI direct met een nieuw assortiment gamelaptops. Twee modellen werden echter achtergehouden en zijn nu op de Computex wereldkundig gemaakt: de GT76 Titan en de GE65 Raider. De tegenstellingen tussen die twee zijn aanzienlijk.

De dikke

De GT76 Titan is een zogenaamde desktopvervanger. Dat blijkt niet alleen uit het gewicht van 4,5kg, maar ook uit de processor die MSI in het apparaat stopt. Dat is een Intel Core i9-9900K en dus geen laptopprocessor, maar de overklokbare chip die voor desktops is bedoeld. MSI combineert die processor met een RTX 2080-videokaart en er is ruimte voor 128GB ddr4-geheugen.

De koeling die MSI inbouwt, ziet er indrukwekkend uit. Het gaat om een systeem dat bestaat uit dikke heatsinks, elf heatpipes en vier ventilatoren. Dat alles moet ervoor zorgen dat de hardware maximaal kan presteren. De behuizing heeft flinke uitlaten om de warme lucht af te voeren en is voorzien van vele rgb-leds. Niet alleen het toetsenbord is kleurrijk verlicht, ook de zijkanten en de voorkant hebben rgb-verlichting.

MSI GT76 TitanMSI GT76 TitanMSI GT76 TitanMSI GT76 Titan

MSI maakt de GT76 met twee verschillende 17,3"-schermen. Er is een variant met een 4k-resolutie en een verversingssnelheid van 60Hz, en een versie met een 144Hz-paneel met een fhd-resolutie. In beide gevallen gaat het om schermen met ips-eigenschappen.

De dunne

De andere nieuwe laptop van MSI is de GE65 Raider. Dat model is veel dunner dan de GT76 Titan, al is het niet MSI's dunste gamelaptop. Die eer komt toe aan de GS Stealth-modellen, waarvan MSI begin dit jaar nieuwe versies introduceerde in 15,6"- en 17,3"-formaat.

Die allerdunste GS-modellen zijn aantrekkelijk vanwege hun geringe afmetingen en het relatief lage gewicht, maar de prestaties worden daardoor al snel tegengehouden, omdat de hitte niet goed kan worden afgevoerd. Bij het GE65 Raider-model moet dat wat beter gaan; deze laptop is iets groter en heeft wat meer ademruimte. Met een gewicht van zo'n 2,3kg is het wel een gamelaptop die je goed kunt meenemen.

MSI GE65 RaiderMSI GE65 RaiderMSI GE65 RaiderMSI GE65 Raider

Het belangrijkste wapenfeit van de nieuwe GE65 Raider is het scherm. MSI gebruikt nu een 15,6"-paneel met een verversingssnelheid van 240Hz. Het paneel heeft ips-achtige eigenschappen met goede kijkhoeken en een correcte kleurweergave. MSI stopt maximaal de Core i9-9880H-processor in de laptop; die heeft acht cores. De videokaart is een GeForce RTX 2060 of RTX 2080.

Reacties (37)

37
37
23
2
0
10
Wijzig sortering
Wat mij bij al deze laptops vooral opvalt is het nogsteeds zeer beperkte gebruik van Thunderbolt3/USB-C.

Alle laptops hebben nogsteeds een klassieke voedings aansluiting en een HDMI/Mini-DP aansluiting voor het scherm.

Wanneer gaan fabrikanten nou eens gewoon volledig TB3/USB-C implementeren zodat ik gewoon een werkplek neer kan zetten en met 1 kabel m'n laptop aansluiten? Ik ben weer terug gegaan naar een desktop systeem omdat ik bij thuiskomst iedere keer voeding, scherm, toetsenbord, muis, headset, netwerk opnieuw aan moest sluiten. Dat gepiel zou ondertussen verleden tijd moeten zijn.
Het probleem van USB-C, zeker met dit wat krachtiger type laptop, is dat het vaak niet in de vermogenswensen voldoet. Ik heb op m'n werk exact hetzelfde probleem... Ik heb twee laptops, één Surface Book 2 (BYOD laptop, 13,5") die met gemak op 45W vanuit een USB-C scherm oplaad (scherm kan, hypothetisch dat uitzenden, andere schermen meer, maar de max van de spec is 100W; 20v 5a). No problemo.

Nu m 'n andere laptop. Ik doe GIS werk, en tsja... de 17" stoeptegel wordt met z'n eigen middenspanningsstation geleverd. 230W vermogen. Ja; er zitten twee thunderbolt poorten op (de laptop draait een Optimus configuratie met een Quadro kaart, dus nog maar de vraag of die poorten gebruiken uberhaupt goed gaat zonder dat ik op een of ander manier op dat scherm niet kan 'pinnen' aan de quadro). Helaas vanwege de 230W niet mogelijk om aan USB-C te laden.

En dat is hetzelfde met gamelaptops. Sterker nog: er zijn modellen geweest die gewoon twéé power bricks nodig hebben. Maar hoe je het ook went of keert, de DGPU varianten zou je een zeker vermogen voor willen garanderen; een 45W schermpje zal geheid niet genoeg zijn om én te gebruiken, én te laden... En helaas kan USB-C geen garanties bieden. Ik snap een dedicated brick dan ook heel erg, eigenlijk. Het is de enige manier om zeker te weten dat het ding bruikbaar blijft én kan laden... (overigens zie je alsnog vaak wel een USB-C met DP-alt mode op dit soort laptops, zei het dus niet met power opties, erg verwarrend voor de consument).

Ik hoop dat nieuwe USB-C specs zeker voor de HEDT laptops dan ook ~250W rated gaan raken. Heb ik er ook wat aan tenminste, want ik zal ook wel met één kabeltje willen werken!

[Reactie gewijzigd door Umbrah op 23 juli 2024 07:42]

Allemaal leuk en aardig en dit zal vast voor een aantal modellen gelden.
Maar ik heb hier een heerlijke ASUS game laptop staan met een dikke quad core i5 en een nVidia 1060. Die komt met een 65W voeding en dat is meer dan voldoende. Daar is 100W via USB-C geen enkel probleem. En toch worden ook dat soort laptops nogsteeds niet uitgevoerd met volledig functionele TB3/USB-C aansluitingen.

Ik ben het met je eens dat er laptops zijn die het daar mee niet trekken. Maar buiten Apple is er nog niemand die zich hier serieus mee bezig houdt. Ik ben, wat dat betreft, heel blij met Intel's nieuwe initiatief om voor het Athena platform TB3/USB-C als eis neer te zetten, hoop dat dat er voor zorgt dat dit zich snel verder ontwikkelt.
Athena legt tevens een limiet op van ~45W; om de accuduur goed te houden. Daar zal je GPU niet binnen vallen, hooguit een IGP of een low-end Max-Q GPU...

Het punt wat ik probeer te maken is dat zelfs 65W vaak te veel is. Dan krijg je, net als wat ik krijg als ik een telefoonlader in m'n Surface Book 2 ram, van die mooie meldingen dat er niet voldoende laadstroom is (daar is Windows goed in geworden, misschien vooruit kijkend naar een meer USB-C wereld), en dat buiten alle verwachtingen om nog steeds accu drain is.

Het enige wat we zouden kunnen doen is een systeem bedenken waardoor we door te voorkomen dat je een stekker met te weinig vermogen er uberhaupt in kan steken :P.

Ik denk dat je het USB consortium (naast de meest dronken naamgeving ooit, sowieso is USB-C een connector en niet een specificatie) hier een hoop in kan kwalijk nemen. Onduidelijke eisen rondom voeding hebben zelfs tot gare power negotiating telefoons (OnePlus had er een handje van...) geleid. Elektriciteit ís geen grapje, en hoe leuk het concept één kabeltje ook is, dat kabeltje is compleet verziekt door een onduidelijke, gare standaard. Ik hoop dat USB4 (waar thunderbolt ín zit, waardoor het ook z'n Intel exclusiviteit kwijt is, gelukkig) hier een hoop in oplost, maar voor nu? Ik zou m'n pa bijvoorbeeld niet vertrouwen om niet z'n laptop te mishandelen door een telefoonlader er in te rammen...
Het punt wat ik probeer te maken is dat zelfs 65W vaak te veel is. Dan krijg je, net als wat ik krijg als ik een telefoonlader in m'n Surface Book 2 ram, van die mooie meldingen dat er niet voldoende laadstroom is (daar is Windows goed in geworden, misschien vooruit kijkend naar een meer USB-C wereld), en dat buiten alle verwachtingen om nog steeds accu drain is.
Wat is daar mis mee? Wat is er mis mee dat er, door de huidige snelheid van ontwikkeling, af en toe het bericht komt "Je bent niet op aan het laden maar kunt nu wel plots 4 keer zo lang met je accu doen". Of "Je bent nu op aan het laden maar realiseer je dat als je een spel gaat spelen dat anders zou kunnen zijn".

Ik zie dat meer als "Laten we dit eens proberen, kijken waar we tegenaan lopen" dan als een misser. Als de huidige implementatie er niet was geweest was er wellicht niets geweest en hadden we ook niets geleerd.
Ik koop liever geen 1000 euro laptop waar ze 'experimentele' connectors op hebben gezet. Als ik een avondje ga lannen moet dat ding niet opeens leeg kunnen zijn. Vrij elementaire dingen imo. Dit ging al goed met m'n Toshiba Sattelite P3 laptop minimaal 15 jaar geleden...
Niks experimenteels aan dat maak je er zelf van.

Logisch toch dat je telefoon lader niet met 100W oplaadt. Wat verwacht je nou, magie ofzo? Mooi toch dat het verder wel werkt en je accuduur verlengt?
Ik gebruikte het woord experimenteel omdat de bovenstaande poster de reden achter de implementatie als volgt beschreef:

Ik zie dat meer als "Laten we dit eens proberen, kijken waar we tegenaan lopen" dan als een misser.


Klonk voor mij als experimenteren.
Het komt wel hoor, ik type dit op een Dell XPS die enkel USB-C aansluitingen heeft, dus ook voor voeding. Ik kom op mijn werk en sluit 1 USB-C kabel aan en heb dan stroom, externe muis en mijn 2e (4K) scherm direct werkend.

Ik ben het wel met je eens dat wat mij betreft de fabrikanten hier meer op moeten zitten, zeker de 'werkplek' laptops zouden vrijwel zonder uitzondering genoeg hebben aan USB-C/TB voor laden en externe apparaten zoals schermen.
Ik doe dit ook, het is heerlijk. Met m'n Surface dan. Muis/toebo/monitor/netwerk, in één keer! M'n high-end laptop (amper een laptop) zou inderdaad via minstens twee kabels moeten, wat ik dan eigenlijk wel een beetje "wonky" vind. Voor die zou ik willen, puur om de accu niet te veel te laten slijten, dat het onmogelijk is. Overigens is dit het soort laptop wat zelfs mét de stoeptegel lader alsnog uit de accu moet trekken als de load hoog is en de turbo's staan aan...
Inderdaad. Op mijn primaire werklocatie levert mijn Dell Precesion met TB16 dock 180W over USB-C.

Op mijn andere werklocatie heb ik een Samsung 43 ultra-wide met USB-C Power delivery. Daar krijg ik een melding vanuit de BIOS dat de 60 Watt onvoldoende is om de laptop onder volle belasting te laden. In de praktijk merk ik er niks van. Tijdens zwaar werk trekt hij wellicht iets meer dan dat wat er geladen kan worden maar hierna laadt hij vrolijk verder tot 100%. Bijkomend voordeel is dat alle randapperatuur weggwerkt zit in de monitor.
Hebben ze jouw toevallig geen verkeerde adapter geleverd? 65W klinkt wel heel minimalistisch met een GTX1060 erbij.

Ik ben ze nog nooit tegengekomen, altijd 90W of hoger.
Lenovo is daar anders wel serieus mee bezig op kantoor hebben wij er genoeg serie,s geleverd met usb-c adapter.

Ik ben het met je eens laptops beneden de 90W zou het gewoon op moeten zitten.
Ik heb quasi dezelfde config maar een voeding van 180 watt.. Dus denk wel dat je daar gelijk hebt
Ik heb een 1060 MaxQ met een i7 maar heb nog een hogere voeding, dus zelfs met een energiezuinige videokaart variant klopt die 65W niet, de intel processor alleen is al meer dan de helft daarvan
Er zijn TB docks die met twee TB kabels werken waardoor je ~200watt naar een laptop kan pompen.
Ik heb dat op drie kabels zitten momenteel. Voeding, displayport die naar twee schermen daisy chained en 1 USB 3.0 kabel die naar de hub in mn Dell monitor gaat waar de rest van de USB zut op zit. Toegegeven, het is niet 1 kabel wat ideaal zou zijn maar beter dan alles los aansluiten.
Wanneer gaan fabrikanten nou eens gewoon volledig TB3/USB-C implementeren zodat ik gewoon een werkplek neer kan zetten en met 1 kabel m'n laptop aansluiten? Ik ben weer terug gegaan naar een desktop systeem omdat ik bij thuiskomst iedere keer voeding, scherm, toetsenbord, muis, headset, netwerk opnieuw aan moest sluiten. Dat gepiel zou ondertussen verleden tijd moeten zijn.
Dat is precies wat wij op het werk hebben, met doodgewone Dell laptops + dock. Het is er wel, maar je moet misschien even zoeken.
Omdat Intel CPU's maar 16 PCI express lanesin laptops hebben waar de GPU al het overgrote deel van inneemt, dan nog allerlei NVME drives etc. Dan ben je al uitgeweken naar de PCH en daar heb je ook maar een beperkt aantal lanes op. In dit geval dus vaak maar 1 TB3 port.

https://ark.intel.com/con...cache-up-to-4-10-ghz.html
Zie hier de veel gebruikte 9750H heeft maar 16 lanes, GPU's in laptops nemen 8 of 16 in afhankelijk van de configuratie. 2 NVME slots zijn samen ook 2x 4 lanes, dan heb je nog ruimte over voor maar 1 TB3 slot als er nog andere hardware PCI express lanes innemen.

Daarnaast een hoop gaming hardware zoals toetsenborden, muizen, headsets zijn nogsteeds standaard USB3, dit ook omdat op desktop PC's USB-C porten relatief zelfzaam zijn. De kosten zijn fors hoger ook om kabels voor USB-C in computer kasten te bouwen.

[Reactie gewijzigd door Sn0wblind op 23 juli 2024 07:42]

Mooie ontwikkeling die laptops met een tweede scherm. Vroeg mij al af waarom je die niet omhoog kon klappen...en voila...intel heeft die ook zo gebouwd in het prototype. Benieuwd wanneer een fabrikant er één op de markt brengt....
Ik heb de indruk van die twee schermen dat fabrikanten wanhopig op zoek zijn naar de volgende hype omdat er weinig vernieuwing meer in laptops is en de verkoop stagneert. Ik heb hier hetzelfde gevoel bij als die touchbar van Apple, een leuke gadget maar verder nutteloos en iets dat potentieel snel kapot gaat. Zelf zou ik zoiets nooit kopen.
Echt vernieuwend is het natuurlijk niet, ThinkPads hadden al een tijdje een tweede scherm: https://www.blogcdn.com/w...2009/01/w700ds_26-600.jpg
Lijkt mij ideaal juist voor op het werk. Met al die flex werkplekken is er niet altijd een tweede scherm voorhanden. Op dat onderste deel dan b.v. E-mail vast open hebben staan is dan geweldig handig
Ik heb de indruk van die twee schermen dat fabrikanten wanhopig op zoek zijn naar de volgende hype omdat er weinig vernieuwing meer in laptops is en de verkoop stagneert.
Dat lijkt me heel goed mogelijk, maar soms is zo'n hype feature werkelijk nuttig.
Tsjonge jonge. Moet nog langer duren met 4K @ 120+hz...

Vraag me af wat dat toch zo afremd in monitor land. Interface? Of anders?
Videokaarten misschien? Het lijkt me dat je een top kaart nodig hebt voor 4k@120. In een laptop raak je zoveel warmte niet kwijt.
Even een lekenvraag voor alle kenners hier, wat is precies het nut van een 4K monitor op een laptop (15', 16' etc) met zo'n kleine kijkafstand? Ik dacht zelf altijd dat 4K pas een beetje begint te lonen vanaf 40' - 50' en een kijkafstand van meeredere meters? Is dit dan gewoon een gimmick of heeft het ook echt nut?
Bij een laptop zit je doorgaans wat dichter er op dan op een PC. Het idee is niet zo zeer individuele pixels meer te kunnen identificeren, maar eerder om dat juist niet meer te kunnen doen, maar toch een soort van compatibiliteit te realiseren. Hier is duidelijk de bedoeling geweest om 16:9 te werken. En laat 4K net 4x meer zijn dan het vrij gangbare 1080p. Worst case wordt elke pixel 4x weergegeven puur als je niet-compatible apps draait (gelukkig steeds minder), maar voor de apps die het wél ondersteunen heb je echt super scherp beeld. Ik ben best om qua 'high dpi' schermen. Heb het o.a. op m'n Surface (3000x2000 resolutie op 13,5"). Als apps bovendien DPI bewust zijn, dan heb je de mogelijkheid om ook, als je dat wilt, meer screen estate te genereren (ik heb effective device pixels, goede ogen, op ~2000*1500 staan als je het vanuit een browser polt, scherpere elementen én meer werkruimte).

4K bied wel voordelen (al was het maar omdat de scherpte echt wel tof is, en dat je dus flexibel kan zijn), maar natuurlijk ook een hoop nadelen; het is zwaarder voor je (i)GP(U), en buiten exoten als OLED/IGZO om, is het ook zwaarder voor panelen: een hogere dot-pitch betekent doorgaans dat er meer licht tegen gehouden wordt, en dus ook meer licht nodig om tot de helderheid te komen (en dus ook: meer energie).
Waarom moeten game laptops er altijd uitzien als GAME laptops, met spuuglelijke RGB lighting en logo's en al die onzin? Ik wil een Alienware die eruit ziet als een Dell XPS, misschien iets dikker voor de thermals, met een RTX 2070 erin en een goede i7 CPU.
Misschien omdat sommige mensen dat wel mooi vinden. Heb zelf de area 51 gekocht en dat ronde licht ziet er toch wel erg gaaf uit.
Grappig om te zien hoe snel de techniek soms gaat. Toen ik januari 2018 een nieuwe laptop moest kopen waren er maar twee merken die 15 inch laptops boden met een ultradunne rand (waardoor ze kleiner zijn en mooier ogen), de Dell XPS serie en de Gigabyte Aero 15. Zelfs de ultradure Razer laptops en de alienwares hadden dat nog niet. Ben uiteindelijk maar voor een gigabyte gegaan.

Nu anderhalf jaar later hebben nagenoeg alle kwaliteits gamings laptops een ultradunne rand.
Acer had geen nieuwe modellen dan? Acer Predator doet het wat mij betreft koeling beter dan MSI , mijn MSI werd een vliegtuig en bleef dat dan ook een lange tijd en bleef warm dat is bij mijn Predator toch wel anders.

Die hebben mij dus positief verrast!
Wat maakt die dikke rand onder het grote scherm van Intel's prototype de boel toch lelijk. :X

Heel leuk wat allemaal mogelijk is door extra schermen toe te voegen, maar kom eerst maar weer eens met fatsoenlijke 16:10 schermen om de ruimte die nu wordt opgeslokt door die onderste dikke rand nuttiger te gebruiken.
Bij Intels prototype gaat het echter niet om de specificaties en het uiterlijk, maar om de werking.
OK, over de werking: niemand zit erop te wachten om constant naar beneden te kijken. Zie alle andere initiatieven om extra informatie op aparte schermen/LCD's toe te voegen (Logitech op toetsenborden, Apple bovenaan notebooktoetsenborden, de toetsenborden van Art. Lebedev...). Het is misschien een unique point, maar geen unique selling point.

Gecombineerd met dat priegelige toetsenbord denk ik niet dat dit lekker werkt. ;)

[Reactie gewijzigd door The Zep Man op 23 juli 2024 07:42]

OK, over de werking: niemand zit erop te wachten om constant naar beneden te kijken. Gecombineerd met dat priegelige toetsenbord denk ik niet dat dit lekker werkt. ;)
Errrr... Het probleem van naar beneden kijken wordt juist opgelost door dit nieuwe systeem.... Je hoofd scherm zit nu een stuk hoger. Het tweede scherm zit, na scharnieren, op dezelfde hoogte als met klassieke laptops het hoofd scherm. Je bent dus juist veel minder naar beneden aaan het kijken.
Naar boven kijken (naar het hoofdscherm) is goed, maar daarvoor heb je geen lager scherm nodig. Kan net zo goed een stuk plastic daar beneden zijn.

Dat je door een tweede scherm gaat schakelen tussen recht en naar beneden kijken is niet goed, ook niet tijdens het spelen van spellen.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 07:42]

Dat je door een tweede scherm gaat schakelen tussen recht en naar beneden kijken is niet goed, ook niet tijdens het spelen van spellen.
Waarom is dat niet goed? Ik zou het heerlijk vinden om m'n Outlook, bijvoorbeeld, op het tweede scherm te hebben staan. Of een explorer scherm met de lijst aan bestanden die ik wil bewerken. Of m'n Rambox (universeel chat programma).
Op m'n vaste werkplek heb ik daarvoor een tweede scherm staan. Op m'n laptop zou dit een ideale oplossing zijn.

Dat schakelen doe ik ook al tussen scherrm en toetsenbord dus waarom niet tussen scherm en scherm en toetsenbord? Als dit ding er voor zorgt dat ik 90% van de tijd een ergonomisch betere houding heb dan is dat een hele berg winst.

(Ik zie overigens veel meer nut in kantoor werk dan tijdens gamen voor dat tweede scherm)

[Reactie gewijzigd door Croga op 23 juli 2024 07:42]

Je kijkt alleen niet constant naar beneden, dat zijn momenten. Plus je zou ook alleen je ogen kunnen bewegen ipv je hele hoofd.
Dat Intel concept (op die randen na) ziet er gaaf uit. onderste scherm Spotify, Outlook en rekenmachine en op hoofdscherm full screen kunnen RDPen

Ben alleen wel bang dan Windows niet lekker omgaat hiermee

Op dit item kan niet meer gereageerd worden.