Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Door Jelle Stuip

Redacteur laptops en componenten

Geforce RTX 3050 Ti voor laptops

Goedkoop alternatief voor de full-hd-gamer

Conclusie

Waar Nvidia's GTX 1650- en GTX 1650 Ti-videokaarten 'instapkaartjes' waren, heeft de chipontwerper met de opvolgers RTX 3050 en 3050 Ti laten zien dat de *50-serie ook voor het serieuzere werk geschikt is. Ten opzichte van eerder geteste laptops met GTX 1650 (Ti)-videokaarten is het verschil minstens dertig procent en het loopt in sommige benchmarks zelfs op tot een procent of zestig. Daarmee toont de RTX 3050 Ti zich in de door ons geteste games op full-hd-resolutie een heel capabele videokaart. Gezien de tekorten op de markt zouden we een laptop met deze videokaart zeker overwegen als full-hd-gamen het doel is*.

*Bij die bewering moeten we natuurlijk wel een asterisk zetten, want de ene 3050 Ti is de andere niet. Net als bij de snellere Nvidia-kaarten zijn ook de prestaties van de 3050-gpu's sterk afhankelijk van het vermogen dat ze mogen opnemen. Dat kan tussen de 35 en 80 watt liggen en bij de Medion E25 is het op 75 watt geconfigureerd. Dat is bij deze laptop geen probleem, want de behuizing is groot genoeg om de daarvoor vereiste koeling te herbergen. Schaf je een compactere laptop aan die niet op gamen, maar op productiviteit is gericht, dan zal daar waarschijnlijk een zuiniger afgestelde 3050-gpu in zitten, met lagere prestaties tot gevolg.

Uiteraard staat een laptop-gpu niet op zichzelf en in de Medion E25 wordt hij vergezeld door een Ryzen 5 5600H-processor en 16GB werkgeheugen. Die processor is lekker vlot en blijft dat ook onder zwaardere belasting.

Wat de hardware onder de motorkap betreft, heeft de Medion E25 het goed voor elkaar. Het schort echter aan de randzaken, met als belangrijkste minpunt het scherm. De eigenschappen 'full hd' en '144Hz' zien er op papier mooi uit, maar helaas kan het scherm niet de volledig sRGB-gamut weergeven en passen de responstijden eerder bij een 60Hz-scherm. Eigenlijk vinden we dat we bij gamelaptops niet over accuduur moeten zeuren, maar toch: veel gamelaptops doen het op dat vlak stukken beter dan de E25.

Tot slot verdient de behuizing geen schoonheidsprijs. Hij is stevig genoeg, maar de naden tussen de delen van de behuizing zijn goed zichtbaar. Dat lijkt samen te hangen met het sterke punt van deze laptop, namelijk de hardware en de toegankelijkheid ervan. Het is niet moeilijk om de behuizing open te schroeven en vervolgens kun je maar liefst twee ssd's toevoegen en het werkgeheugen vervangen. Bovendien is er niets mis met de prestaties van de Ryzen-processor en de RTX 3050 Ti-videokaart.

Getest

Medion Erazer E25 MD62301

Prijs bij publicatie: € 1.000,-

Vanaf € 999,-

Vergelijk prijzen

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Reacties (53)

Wijzig sortering
De 3050 krijgt bijvoorbeeld twee keer zoveel Cuda-cores als de 1650
Dat is niet waar. Nvidia is cuda cores anders gaan tellen en daar komt de, op papier, verdubbeling vandaan. Maar de cuda cores zijn nu veelzijdiger geworden. Dezelfde hardware kan nu zowel int als fp32, maar niet tegelijk. Zoals AMD al sinds GCN1.0 doet en Nvidia heeft gedaan alsof ze de hardware verdubbelt hebben. Dat is flink vals spelen van ze. Hier staat het uitgelegd.
Yup. Het is een GPU-variant van "Hyperthreading/SMP = extra cores" of het hele verhaal rondom bulldozer destijds. Het geeft wederom een paar dingen aan:

- Je kan ruwe statistiek over execution units niet vergelijken tussen architecturen
- Je kan kloksnelheid niet vergelijken
- Je kan geheugen bandbreedte niet vergelijken
- Je kan geheugen hoeveelheid niet vergelijken

Het enige wat resteert is testen op een per-game basis, synthetische tests, en de voor- en nadelen van bepaalde architecturen uitleggen (het valt me op in vergelijking met Navi2 hoe weinig voortgang er is in rasterisation terwijl shading e.d. juist sneller werd; en hoe AMD naar hardware scheduling is gegaan terwijl nVidia dat nog in software doet waardoor een low-thread CPU een nVidia kaart sneller 'afremt' dan een AMD kaart etc...)
Behalve de eerste zin ben ik het volledig met je eens. Je kan pas GPUs gaan vergelijken met praktische tests, dit geldt zelfs gedeeltelijk binnen eenzelfde architecture.

Het is wel echt geen GPU-variant van HT hoor. De core counts wijzigen per achitecture op basis van hoe Nvidia denkt ze de meeste prestaties kunnen bekomen. Als je even de geschiedenis oplijst van architectures dan zie je dat de CUDA-cores voortdurend veranderen:

Tesla: 8/SM
Fermi: 32/SM
Kepler: 192/SM
Maxwell: 128/SM
Pascal: 128/SM
Turing: 64/SM
Ampere: 128/SM

Ik zie niet hoe Ampere hier speciaal is en als je Turing negeert is het de gelijk aan de vorige 2 architectures. Die hadden trouwens ook geen aparte INT-cores.
Snap niet dat mensen nog steeds deze onzin geloven. Altijd grappig dat mensen denken dat ze beter weten dan Nvidia wat een Cuda-core is wanneer Nvidia zelf de definitie van een Cuda-core bepaalt en deze is nog steeds onveranderd. CUDA-core = FP32 alu en dus ja een 3050 heeft wel degelijk 2x zoveel Cuda-cores als een 1650. Levert dit 2x de prestaties op? Meestal niet want er zijn tal van andere bottlenecks. Dit zie je zelfs binnen eenzelfde architecture. Een 3080 heeft bijna 50% meer Cuda cores als een 3070 maar dit zal je bijna nooit weerspiegelt zien in de prestaties.

Het valspelen noemen is gewoon lachwekkend. Wat stel je dan voor? Dat Nvidia gaat zitten liegen over de hardware zodat het makkelijker te vergelijken is met Turing? Trouwens de enige achitecture die tegelijkertijd INT & FP32 kan doen is Turing dus Ampere is hier helemaal geen uitzondering in. Het ligt gewoon in lijn met oudere architectures.
Je bent heel goed in het napraten van de Nvidia marketing. Maar waar haal je vandaan dat Nvidia de fp32 onderdeeltjes als cuda core omschrijft? Als ik de marketingslides van Nvidia lees (die ook in mijn bron staan) dan noemt Nvidia de combinatie van fp32 en int cores (en nog wat dingetjes) de cuda core. Dan vind ik het erg lomp dat als daarbinnen ineens een fp32 core ook int kan doen, waarbij het een of-of situatie is, dat ze ineens dubbel gaan zien bij Nvidia.

Ik zie nergens bij presentaties van Nvidia over hun architectuur iets staan over dat ineens cuda op de fp32 cores zou slaan.

Ik zou als ik Nvidia was lekker de SMs tellen. Dat klopt tenslotte veel beter. Ik denk dat dit artikel het veel beter uit weet te leggen. En dat onderstaande quote uit dat artikel de lading goed dekt.
The 3070's "5,888 cuda cores" are perhaps better described as "2,944 cuda cores, and 2,944 cores that can be cuda."
Het is lomp, vind ik, om de 2944 cores in zo'n GPU die alleen in een heel beperkt aantal situaties mee kunnen doen mee te tellen als volledige units. Dat is misleidend. AMD doet dat ook niet. Als die dat zouden doen, zouden ze ook een dubbel aantal cores kunnen opgeven per GPU sinds 2011, maar dat vonden ze onterecht. Nvidia is altijd al wel eentje geweest van dit soort vieze trucjes.

[Reactie gewijzigd door fapkonijntje op 17 oktober 2021 16:17]

Omdat jij iets denkt of vindt, wilt niet zeggen dat het zo is: https://images.nvidia.com...tecture-Whitepaper-V1.pdf

Betreft:
Ik zie nergens bij presentaties van Nvidia over hun architectuur iets staan over dat ineens cuda op de fp32 cores zou slaan.
Antwoord:
One datapath in each partition consists of 16 FP32 CUDA Cores capable of executing 16 FP32 operations per clock. clock. Another datapath
consists of both 16 FP32 CUDA Cores and 16 INT32 Cores, and is capable of executing either
16 FP32 operations OR 16 INT32 operations per clock.
"16 FP32 CUDA Cores", lijkt me duidelijk.
All four SM partitions combined can execute 128 FP32
operations per clock, which is double the FP32 rate of the Turing SM, or 64 FP32 and 64 INT32
operations per clock.
Dus 2x de fp throughput.

[Reactie gewijzigd door Vlad86 op 17 oktober 2021 18:31]

Dat doen ze dus pas bij ampere, op die manier tellen. Dat was het hele punt, dat ze bij ampere ineens anders gingen tellen met een suffe smoes om te doen alsof er veel verschil zit tussen de vorige generatie. Ik had duidelijker aan moeten geven dat ik doelde op turing en eerder. Hoe dan ook blijft het fout, want ze tellen dus een core die maar in 50% van de gevallen mee kan doen, als complete core in de specs. Realistisch is dat niet. Dat is net als bij auto's alleen het koppel op de banden in de 1e versnelling opgeven. Staat stoer, doet niets.
Nope, dit werd niet gedaan vanaf Ampere.
Kijk eens naar hoe gesegmenteerd de volgende lijst is: https://docs.nvidia.com/c...l#arithmetic-instructions

Als je alleen al naar int en fp FMA instructies kijkt, het veschilt per architecture al enorm. Laat staan andere type instruction sets.

De throughput verhoudingen worden iedere arch aangepast. Is niet anders voor AMD of Nvidia.

Moet je dan ook AMD en Nvidia leugenars noemen omdat de hardware met een partial rate sqrt uit kan voeren (Intel zal ook niet anders zijn)?

[Reactie gewijzigd door Vlad86 op 18 oktober 2021 16:36]

Ah je bent sterk anti-Nvidia. Dat verklaart veel. Een geval van confirmation bias dus.
waar haal je vandaan dat Nvidia de fp32 onderdeeltjes als cuda core omschrijft?
https://images.nvidia.com...chitecture-whitepaper.pdf
Kijk maar eens naar p11/12 en je kan hetzelfde terugvinden bij veel oudere whitepapers.
Cuda cores zijn gewoon een marketing term voor FP32 ALUs, net zoals dit bij AMD "Stream processors" heet. Allemaal marketing, maar de definitie is niet veranderd.

In dat artikel van je moet je maar eens lezen wat er boven je eigen quote staat:
Ampere keeps the 64 FP32 cores as before, but the 64 other cores are now designated as "FP32 and INT32.” So, half the Ampere cores are dedicated to floating-point, but the other half can perform either floating-point or integer math, just like in Pascal.
Die laatste 4 woorden zijn heel belangrijk. Nvidia was dus ook al aan het valspelen bij Pascal??? Maar het niet alleen "just like in Pascal" want het geldt voor elke architecture met uitzondering van Turing. Als je dan even nadenkt dan realiseer je je dat dus volgens jou AMD net hetzelfde doet. Ze spelen allemaal vals :o. Het is enkel Turing die aparte INT cores heeft. Nog wel even een correctie:
heel beperkt aantal situaties mee kunnen doen.
INT-ops worden relatief weinig gebruikt in games. Ik vond Turing altijd al een vreemde architecture want het is gewoon beter om algemenere cores te hebben die zowel INT als FP kunnen doen. Als je dan een workload hebt die enkel FP nodig heeft, dan doet een deel van de cores bij Turing niks terwijl andere architectures gewoon FP kunnen doen met al hun cores. Ik vermoed dat het een restant is van hun professionele kaarten, net zoals de Tensor cores, waar ze dan later wel een doel voor hebben gevonden.

Om nog eens even duidelijk te maken dat Turing de utizondering is en niet Ampere lijst ik even de Cuda-cores per SM op van de laatste 4 architectures:
Maxwell: 128/SM
Pascal: 128/SM (GP100 is hier wel een uitzondering op, maar voor alle 1000 series kaarten klopt het).
Turing: 64/SM
Ampere: 128/SM
Ik denk dat het wel duidelijk is welke de uitzondering hier is, niet?

[Reactie gewijzigd door napata op 17 oktober 2021 21:18]

Aan de benchmarks te zien kan je voor de rtx 30xx serie beter vermelden hoeveel vermogen de gpu mag verbruiken en of de koeling in orde is dan wat voor gpu erin zit.

Die eerste twee gegevens lijken van veel grotere invloed op de prestaties dan de gpu op zich.

Daar staat asus dan met een laptop met rtx 3070 onder veel 2070, 3060 en zelfs 3050 ti GPU’s in de benchmarks. Zonde van die gpu, die had ook in een laptop met goede koeling en power-delivery gekund. Een mindere gpu had waarschijnlijk even goed (of slecht) gepresteerd in die laptop.

Nvidia zou hier wel wat strenger mogen zijn voor hun partners en eisen dat ze zorgen dat zo’n gpu ook fatsoenlijk kan presteren, anders denken mensen na een tijdje ook “jaja 3070 dat zal wel”. Medion heeft het hier keurig voor elkaar.
Misschien moeten ook de normen voor esthetiek wat gaan schuiven. De configuratie van het opgenomen vermogen is hoog te zetten bij de gratie van een behuizing met voldoende lucht voor een geloofwaardige koeloplossing.

Mogen we zeggen dat een merk dat pretendeert een game hardwaremaker te zijn niet mag wegkomen met hardware waarop na vijf minuten niet meer kan worden gegamed, of tegen prestaties die een belediging zijn voor de hardware die aan boord is? Momenteel lijken deze hardwaremakers er mee weg te komen. Afgezien van een enkele review die vraagtekens plaatst.

Het bouwen van een gamelaptop is een worsteling tussen beperkte ruimte en koelvermogen. Wat mij betreft nemen hardwaremakers die op zich goede hardware in een te dunne behuizing proppen hun opdracht niet serieus. Voor mij in ieder geval ondergraven ze daarmee hun geloofwaardigheid als hardwarebouwer. Dit straalt bij mij dan ook af op hun producten die wel voldoen. Medion laat hier zien dat met een beperkt budget en met enige concessies goed te gamen is op een laptop.

Dit is wat mij betreft een uitdaging aan merken die alleen bij hun flagship modellen er serieus werk van maken om een uitgebalanceerde oplossing te maken die goed werkt. Dit dan tegen heel wat hogere kosten en met hardware die mij doet afvragen of die in een laptop wel tot zijn recht kan komen.
...hier keurig voor elkaar met deze 3050ti, de vraag is of ze dat ook zo 'keurig' voor elkaar hebben als ze er een GPU uit het hogere segment in stoppen.

Des al niet te min loopt Nvidia wel flink de boel te verkloten met alle TDP's van de gpu's.

Bij de vorige generatie GPU's werd je ook al belazerd als je niet oplette, waarbij een 2070 super beter presteerde als de bovenliggende gpu's in een max-q variant. En onder aan de streep betaal je toch meer voor een xx80 of xx90, ondanks dat een lager gepositioneerde serie mogelijk beter presteert én goedkoper is.
Ik ben geen gamer, verre van dat. Wat ik wel regelmatig doe is in de weide omgeving van mij laptops upgraden en repareren. Ik heb echter ook al 10tallen laptops kunnen verschroten van mensen die flink gaan gamen waarvan na 2 jaar ongeveer de videokaart defect gaat/vreemd gedrag begint te vertonen. Meestal schakelen de laptops dan terug naar de standaard VGA kaart en als je de videokaart driver weg mikt uit de software heb je dan nog een dure laptop met standaard VGA. Soms helpt opnieuw solderen (reballing) maar een langdurige oplossing is het vaak niet.
Wat er vaak na een jaar of 2 gebeurt is dat de koeling verslechterd door vooral stof. Door de extra warmte productie ontstaan flink spanningen in de kaart waardoor deze vervormd an zaken scheuren. Meestal melden dit soort dingen zich wel door temperatuur melding maar vaak is het kwaad dan al geschied.
De meeste gamers raad ik maar aan om een desktop te kopen waarbij de koeling veel beter te regelen is of om de laptop koeling veel vaker schoon te maken.
Dat klopt, helemaal. Ik raad de mensen in mijn omgeving ook aan om ongeveer elk half jaar de gaming laptop open te schroeven en alles stofvrij maken. Die dingen zijn net stofzuigers.
Vaak bepaald ook het prijskaartje en de dikte van de laptop hoe goed of minder goed de koeling is. Ook nu nog bij hedendaagse laptops zie je vaak dat er bespaard word op koeling. Of bij de heel dunne en lichte laptops dat er te weinig plek is voor een goede koeling. Ander punt is ook dat fabrikanten het vaak er niet gemakkelijker op maken om een laptop open te maken voor reiniging.
het ligt ook aan het gebruik, een gamelaptop is prima te gebruiken en ook voor hardcore gamers, maar wat vaak gebeurt is: de game wordt afgesloten en daarna wordt het scherm naar beneden geklapt en komt hij in slaapstand(idle) doe dit een jaar en je laptop wordt zo traag als dikke stront, gewoon normaal afsluiten, dichtklappen en klaar.de slaap stand is gemaakt voor een uurtje en daarna verder te gaan.misschien is dit wel al verholpen de laatste jaren?

daarnaast, kijk als jij gaat gamen in de zomer en dat is je goed recht, maar als het 30 geraden op je kamer is( het net een sauna) dat tel je natuurlijk boven op de laptop die al warmte genereert, (zelfs als hij in idle staat)de ventilator zal sneller aan springen en bij apple M1 laptops hebben niet eens een ventilator.

wat betreft de stof in de ventilator, ja dat is idd gewoon een probleem, maar niet onoverkoombaar, klote maar het komt voor.

een laptop, of het nou een apple M1 of een windows loptop is, swappen van geheugen zal altijd blijven en de ssd zal in der loop ter tijden gewoon vervangen moeten worden anders wordt jou laptop ook gewoon traag.

[Reactie gewijzigd door solozakdoekje op 17 oktober 2021 16:42]

Ik heb twee dure, stukke gamelaptops in de kast staan die stil getuigen van de waarheid in wat je schreef.
Ik vind het heel moeilijk (want alle bureauruimte is hier al drukbezet), maar voor mij is het: ik ga nog liever dood dan nog eens zo'n ding aan te schaffen.
Het grootste struikelblok voor mij bij de “rond de €1000,- gaming laptops” zijn die belabberde schermen die er meestal inzitten. Ik zou graag wat prestaties inleveren voor een beter scherm. Ik heb liever een full hd 100% sRGB 60Hz scherm en een graka of processor met iets minder power bijvoorbeeld.

Desalniettemin vind ik de uitbreidingsmogelijkheden van deze Medion dik in orde!
Daarom altijd kijken of er een goede HDMI of andere aansluiting op zit voor een extern scherm.
Zelf neig ik voor een zuiver grafische toepassing naar Displayport. HDMI staat bij mij te boek als een alleskunner, en handig bij TV's (Audio Return Channel (ARC)), Displayport meer specifiek voor grafisch werk en heeft een iets eerdere Freesync en G-Sync support. Net toch eens naar een actuele vergelijking tussen Displayport en HDMI gekeken, of mijn kennis inmiddels was verouderd, maar deze Tomshardware en PCMag paginas reflecteren wel hoe het mij ook voor de geest staat. Ook niet onbelangrijk: Displayport is een open standaard en voor HDMI moeten royalties worden betaald.

Het nieuwste Displayport protocol kan meer bandbreedte aan dan het nieuwste HDMI protocol. De vraag is of dat in het kader van deze laptop relevant is. Puur als kanttekening wil ik toch die Displayport als optie even noemen. Deze laptop (hoop dat deze bron het over dezelfde heeft) zou volgens Chip.de en Testberichte.de (..... traag) in ieder geval Displayport 1.4 moeten ondersteunen. Welke HDMI wordt ondersteund kom ik niet achter, alle sites die specs over het apparaat delen lijken dezelfde bron te gebruiken die impliciet is over de HDMI versie. Zelfs door te zoeken op de Clevo NH55EKQ-M barebone kom ik niet verder.

[Reactie gewijzigd door teacup op 17 oktober 2021 22:34]

Inderdaad, hier kan je je aardig op verkijken als je puur naar de CPU en videokaart kijkt. De Asus TUF A15 leek ook een prima laptop, maar zonder goed scherm zijn die spelletjes toch een stuk minder mooi.
Wat dan misschien interessant is, is de markt voor 'content creation' laptops die de afgelopen paar jaar is ontstaan. Daar zit vaak een veel meer kleuraccuraat scherm in terwijl er toch een fatsoenlijke cpu/gpu bij wordt geplaatst. Het grootste verschil is verder het uiterlijk van de laptops (weinig/geen rgb en 'gamer'-elementen) en de marketing eromheen.
Inderdaad! Ik dacht dat het wel een acceptable compromis was, maar ik heb mijn low budget gaming laptop's IPS scherm met belabberd contrast na een half jaar vervangen door een TN(!) scherm met een veel hoger contrast. De kleurweergave is misschien wat minder, maar voor gamen was het hogere contrast de moeite zeer waard. In donkere levels was het IPS scherm bijna onbruikbaar, zo slecht was het.

Laptop is een Acer Nitro 5 met een GTX 1050 Ti. Over een jaartje vervangen door hopelijk iets als deze laptop in de uitverkoop, die RTX 3050 Ti is een zeer overtuigende upgrade voor dit soort budget.
Als zo een -game- laptop verkocht wordt met 144hz en het red de 60hz niet eens valt het toch gewoon onder de categorie sjoemelspecs? Misschien zelfs wel onder misleidende verkoop?
Dat ligt toch maar net aan wat voor spellen je speelt. Er zijn vast spellen die iets ouder zijn die je wel op hogere framerates kunt spelen. Dus de claim van misleidende verkoop kun je nooit hard maken.
Ze halen die 144hz wel, maar de responstijd is belabberd.
Ik zou verwachten dat je bij een spel als cs:go wel boven die 60 uit moet komen, en zo zijn er vast meer. En dan is 144hz echt wel lekker, uiteraard is een goede responsetijd dan ook fijn.
Is die 4GB vram in de 3050 niet een ongelooflijke bottleneck? Kan me niet voorstellen dat dat lang stand houdt.
Ik denk dat tegen die tijd dat je de volle 4gb kunt benutten in 1080P gaming dat je die settings zodanig terug moet schroeven om respectabele fps te krijgen dat de game over het algemeen weer minder vram nodig heeft. (ligt er uiteraard ook aan welke gametitels je speelt)
Dus ik denk dat dat wel meevalt over het algemeen, maar bijvoorbeeld 6gb vram zou inderdaad een veiligere keuze zijn geweest.
Het 'probleem' is dat de geheugenbus 128bit breed is, waardoor 6GB niet mogelijk is maar het de keuze is tussen 4 en 8.

En inderdaad, als ik de algehele prestaties van deze chip zo zie denk ik niet dat dit een probleem gaat zijn, in situaties waarbij meer dan 4GB nodig gaat zijn is de chip toch te langzaam om er een speelbare framerate van te maken. Het enige wat 8GB dan doet is zorgen voor hogere kosten terwijl het niks oplevert.

[Reactie gewijzigd door !mark op 17 oktober 2021 11:31]

Het is jammer dat het scherm zo slecht is. Qua specificaties is het wel interessant. Maar het scherm doet het teniet. Jammer dat men in het artikel niet ingaat of het scherm dan ook werkelijk last heeft van ghosting.
Ik ben be ieuwd hoeveel herrie die kaart maaktmet koelen.
En welke frequenties.

Want laten we wel wezen, de orkaan danwel fluittoon die deze apparaten kunnen maken kunnen comfort en gebruik flink in de weg staan.
Voor deze prijs vind ik het een prima laptopje dat nog wel eens interessant kan zijn als je niet te hoge eisen stelt: Prima cpu, goede gpu, goede koeling (dus ook prestaties) en nog genoeg upgradepaden te bewandelen, dus de meeste games zullen voorlopig nog wel blijven draaien op acceptabele settings.
Natuurlijk is het schermpje een minpunt, maar voor deze prijs mag je wat mij betreft ook niet klagen.

Als ik even snel de prijzen vergelijk kom ik tot de conclusie dat je voor deze prijs een erg goede deal hebt.
Hierbij is wel de vraag of dit de prijs betreft van medionshop of van de aldi, bij aldi zijn de medion producten namelijk goedkoper dan in de webshop. ;)
Het blijft sneu om te zien dat een 3050 nu wordt aangeraden om te gamen.. zelf zit ik nog met een 1060 die ook prima zijn werk doet. Ik had echter liever geüpgraded en een gaming pc gebouwd voor vr. Daar zijn deze kaartjes niet goed voor, maar om nu een maand salaris te betalen aan een videokaart is ook weer zoiets..
Idem hier. 1060 GTX 6GB en game er al jaren op.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True