Gigabyte introduceert lowprofileversie van GeForce RTX 4060

Gigabyte heeft een low-profile versie van de Nvidia GeForce RTX 4060 8GB geïntroduceerd: GeForce RTX 4060 OC Low Profile 8G. De gpu meet 182x69x40mm en is uitgerust met drie ventilatoren. De kaart beschikt over een 8-pinsconnector en twee DisplayPort 1.4- en twee hdmi 2.1a-aansluitingen.

Gigabyte heeft ervoor gekozen om de videokaart lichtjes te overklokken en op 2475Mhz te laten draaien, in plaats van op 2460MHz zoals de reguliere RTX 4060. De GeForce RTX 4060 OC Low Profile 8G wordt standaard met een low-profile-bracket geleverd. Hoeveel de videokaart moet kosten, en wanneer het product beschikbaar is, is nog niet duidelijk.

Nvidia bracht de RTX 4060 met 8GB geheugen op 29 juni uit. Deze videokaart beschikt over een AD107-gpu met 3072 CUDA-cores en 24MB L2-cache. De gpu wordt standaard geleverd met 8GB GDDR6-geheugen en haalt een geheugenbandbreedte tot 272GB/s. De RTX 4060 kostte bij release 329 euro. Tweakers schreef een uitgebreide review over deze videokaart.

GeForce RTX 4060 OC Low Profile 8G
GeForce RTX 4060 OC Low Profile 8GGeForce RTX 4060 OC Low Profile 8G

Door Jay Stout

Redacteur

05-08-2023 • 10:44

93

Reacties (93)

Sorteer op:

Weergave:

Toch vreemd dat deze kaart van een 8 pin i.p.v. 6 pin voorzien wordt. Gezien het stroomverbruik zou dat helemaal niet nodig zijn.
Als ik me het correct herinner, kan een 6 pin connector 75W leveren en een 8 pin connector 150W. Door de PCI-e bus kan je nogmaals 75W trekken, maar dat heeft minder de voorkeur gezien dit het power-budget weg neemt van eventuele andere devices.

De 4060 is default 160W; deze licht overklokte versie mogelijk net iets meer?

Persoonlijk heb ik dan liever dat er 150W van de connector komt en uitzonderlijk tot 10W uit de PCI-e dan 75W uit de connector, 75W uit de PCI-e en potentieel 10W "overload".

Edit
snel even een bron gezocht van de cijfers

[Reactie gewijzigd door Prince op 23 juli 2024 01:19]

160w is de Ti.
4060 doet 115W volges specs, 125w volges de tweakers review

review: Nvidia GeForce RTX 4060 - De kleinste chip voor de grootste doelgroep
Dan nog is het 50W over het mobo trekken; met de 8 pin is dit grotendeels overbodig.
Niet elk mobo is evenwaardig en geeft een even mooi "zuiver" voltage. Uit een rail van een PSU is dat beter (als het rail geshared wordt niet altijd, maar door de meet wel).
Ook de traces op een mobo zijn niet vergelijkbaar met de kabels. Ze zijn adequaat volgens de specs, maar wil je dit?
Is die 75W van het mobo trouwens maximum of continuous?
Dan denk ik dat je even goed naar je mobo moet kijken... (en of n 300+ eu gpu t dan waard is op n <30 eu mobo?)

Mn oudere Inno3d 1050ti doet t nog prima op n b250 msi boardje
https://tweakers.net/pric...ot-edition/specificaties/
Wat is het probleem? Er word al jarenlang tot 75watt over de PCIe bus getrokken afhankelijk van wat de videokaart nodig heeft. Heb tot dusver nooit vernomen van affikkende moederborden in relatie tot dit.

Sterkerl nog, Asus heeft een model (is het al te koop?) waar je gewoon een dikke, 200+ watt slurpende videokaart in kan plaatsen die geen pcie stroomkabels nodig heeft. Alle juice komt van het moederbord.Technisch is het blijkbaar geen enkele belemmering.

Maw; je zorgen zijn totaal overbodig.

ps: printplaten kunnen btw meer hitte verwerken dan kabeltjes. Bij de cpu zitten de vrm's daar en de logic control eromheen vooral omdat de cpu zeer snel meer of minder vermogen nodig heeft, zeer nauwkeurig. Heel anders dan een stofzuiger van 1500watt.
In practice, PCBs are designed conservatively so that there is plenty of room for excess current capacity. This ensures reliable operation in all conditions.
Zo kan je stellen dat bij budget moederborden de vrm's de eerste zijn die loodje leggen, omdat juist daar bij budget moederborden bespaard is. Maar goed, die verzorgen de cpu. Voor de pcie bus, moeten ze ten alle tijden 75watt garanderen.

[Reactie gewijzigd door Madrox op 23 juli 2024 01:19]

200W+ op de PCI-e bus kan gezet worden bedoel je? Dit is een shared powerbudget over alle slots.
Wat jij aangeeft is dat als je 5 PCI-e slots hebt, je plots zogezegd 375W beschikbaar hebt, of dat het Asus mobo tot 1000W zou kunnen leveren. Daarnaast kijken we nog niet of die 75W ook voor andere on-board zaken gebruikt wordt zoals de SSD die ook op een PCI-e lane zit.

Het is ook niet omdat een mobo meer energie krijgt, dat de traces op jouw grafische kaart kaart plots 3x zoveel stroom kunnen transporteren. Het voltage gaat tenslotte niet omhoog, dus het amperage gaat omhoog. Dus de traces worden dikker.

Ik heb ook geen zorgen dat de grote fabrikanten de specs niet volgen; ik geef wel aan wat er in de achtergrond gebeurd.

Sowieso geeft een trace waar energie over gaat (zowel data als power) een storing naar de naburige traces. Daarom ook dat ze zo ver mogelijk gescheiden liggen. Waarom wil je dat? Waarom jouw signaal niet zo zuiver mogelijk houden als je de mogelijkheid hebt?
Nee, je leest het verkeerd. Het is idd het totaal. Er gaat niet meer dan 75watt over de pcie bus, incl ssd e.d.
Nergens zeg ik dat toch? Benoem alleen de videokaart omdat die de grootste verbruiker is/kan zijn op die bus.

Precies, afhankelijk van de max wattage wat er getransporteerd moet morden, zullen traces breder, dikker of meer worden. Net als een 18W kabel op een moment niet meer afdoende is en er meer van of dikkere gebruikt moeten worden.

Je legt wederom dingen in mijn mond, nergens zeg ik dat ik meer watt erdoor wil hebben, wel zeg ik dat die persoons zorgen omtrent 75watt totaal uit de lucht gegrepen zijn. Snap je mij nu?

O wacht, die persoon ben jij..haha
Persoonlijk heb ik dan liever dat er 150W van de connector komt en uitzonderlijk tot 10W uit de PCI-e dan 75W uit de connector, 75W uit de PCI-e en potentieel 10W "overload".
Er bestaat geen pcie overload, simpelweg omdat de atx-psu standaard dat niet toestaat. Gelukkig maar. Tegelijkertijd is 75watt over die bus geen enkel probleem, daar fabrikanten er gewoon 2,3,4 en zelfs vijf ssd poorten aanhangen. Alles wat die dingen slurpen, krijgt de videokaart niet van het mobo en zal van de pcie 6/8pins stekker komen.

[Reactie gewijzigd door Madrox op 23 juli 2024 01:19]

Dan denk ik dat we elkaar beiden verkeerd begrepen hebben. Ik heb ook geen enkele zorgen om die 75W of wat de fabrikanten doen.
Ik had een reactie gegeven op het feit dat in de post waarop ik reageerde aangaf dat een 4060 ook met een 6-pin kon. (omdat 75 + 75 = 150 en we hebben maar ~120 nodig). Mijn reactie was dat dit niet slim was omdat je dan erg veel van dat power budget gebruikte van de PCI-e en er niet veel meer over bleef voor de rest van het systeem. Dat het gebruik van een 8-pin dus een logische keuze was van Gigabyte omdat de kaart dan weinig afhankelijk is van de stroom van de PCI-e bus.

Persoonlijk vind ik die 75W ook wat weinig aan het worden; die Gen5 SSD's trekken in gebruik al snel > 10W en veel systemen hebben er 2; een Wifi 6E kaartje of 2.5Gbit netwerkkaartje erin; weeral 10 - 20W; sommige audiofielen (of hoe je dat ook schrijft) hebben graag een audio kaartje (hoewel die steeds vaker extern zijn, maar je snapt m'n punt). Ik druf zelfs wedden dat de helft van die RGB lichtshow ook van dat power budget gebruik maakt (het mag dan niet veel zijn, maar er blijft ook niet veel over).

Het is dan ook toch niet gek dat Gigabyte zegt dat ze zoveel mogelijk over de connector willen trekken ipv te veronderstellen dat het wel beschikbaar zal zijn over de bus? (dat bedoelde ik met de "overload" - was beetje sarcastisch bedoeld)
Sowieso voelt vermogen over PCIe trekken niet zo lekker. Ik blijf toch signaalintegriteit in mijn achterhoofd houden. Alle lijntjes op een moederbord beïnvloeden elkaar wel.

Nu is het wel zo dat PCIe ontworpen is met het idee dat je zoveel Watt kan trekken zonder dat je snelheid in elkaar kukelt door een verslechterde signaalintegriteit, maar het blijft minder dan ideaal.
Op zich zijn de lijnen voor stroom en voor data ook niet gedeeld he. In de connector zie je ook dat die in twee delen is: data aan de binnenkant en power aan de buitenlant (buiten zijnde de achterkant van de kast).
Lijkt mij een sterk verhaal. Dit soort hardware wordt vast wel getest.
Niets sterks aan. Dat zijn gewoon fysieke eigenschappen. Harde natuurkundige wetten.

Maar goed, de ingenieurs die hardware ontwikkelen weten dat ook wel en houden daar bij hun werk wel rekening mee. Maar toch zou ik persoonlijk liever het vermijden.
maar deskundigen die hieraan werken, niet.
Algemeen bekend. Vandaar dat er ook enorm veel literatuur is over dit onderwerp.
Geen zin om een hele rits aan artikelen erover te te posten maar dit is wel een aardig begin
Lijkt mij een sterk verhaal aan het worden. Engineers met veel ervaring hierin, hebben vast betere argumenten dan "mijn gevoel" zegt...
Oké...
Daarom kwam ik ook met daadwerkelijk litteratuur van deze zogenoemde 'engineers'
En waarom is het wijzen naar "litteratuur", bewijs dat engineers van chips dit niet weten? En over het hoofd gezien hebben?
Ik zeg in de reactie waar jij op reageert dat die deskundigen dat ook weten....
Maar al die lijntjes die beinvloeden elkaar ook op de printplaat van de GPU (en ook op het moederbord bij CPU). Hongerige cores en geheugen chips hebben veel stroom nodig maar ook snelle datalijnen. Dus of je je vermogen nou via 8-pin of PCI-e aanbiedt, uiteidelijk komt het toch wel bij elkaar.
maw; niks geen overload. Gigabyte zegt het zelf al notabenr; UP TO 75 watt on the pcie bus.

Dus niet een beetje meer, omdat het kan. Nee, nee. Max 75watt, niks meer. Dat werkt, is veilig. Heb nog
nooit gezien dat de een videkaart de pcie bus "opblaast".
Spec says 75 watts but generally they can do more then that. Problem is when you are dealing with cheaper boards that might skimp on tracing so that 75 watts ends up being absolute max. Usually higher ends boards can do 75 problem and even a bit more. Nvidia hasn't been known to go above spec on and only ones that ever would are ones that are sole relying on pcie for all its power but generally they rely more on extra power connectors 6/8pin. AMD on other hand they had cards in history that drew more then they should be from pcie slot which did cause issues which they had to fix with updates i think to the cards bios to make it draw from the 6pin over pcie slot.

It has nothing to do with the traces or the slots. It has to do with the 24-pin connector itself. The 24-pin can only really supply ~75w to the PCI-E bus. If you start pulling more than that bad things happen. There are only 2 12v pins on the 24-pin that feed the PCI-E bus. They get hot and melty when you start pulling over 75w.
En hier zit de echte bottleneck, de specs van de 24pins connector. Twee 12v draadjes gereserveerd voor de pcie-bus. En die draadjes mogen niet te warm worden, vandaar de grens bij 75watt. Dat werkt en is veilig, 24u per dag.

Het heeft dus alles te maken met de standaard die afgesproken is voor psu fabrikanten. Die 24pins connector bijv. is zo "oud als de weg naar rome" en toendertijd bestonden er nog geen gpu monsters die honderden watts verstookten. Er was ook geen pci/pcie bus. Men heeft simpelweg de 24 pins connector in stand gehouden, want dat is backwards compatible en telkens connectors toegevoegd aan de standaard.

Asus heeft dan ook , om meer stroom te kunnen leveren via het moederbord, simpelweg meer draadjes nodig via, niet de 24 pins, maar andere aansluitingen. Wellicht gebruiken ze wat van de onbenutte 2x 8pins cpu aansluitingen die je tegenwoordig vaak ziet.

[Reactie gewijzigd door Madrox op 23 juli 2024 01:19]

Je hebt natuurlijk geen garantie dat die maximale 75w via de PCI-E niet wordt aangesproken.
En die 75W van het PCI-E slot gaan ook niet volledig naar de GPU zelf, er zijn meer onderdelen op de PCB die voeding nog hebben.
Het limiet is dan ook 75W per PCI-e slot, niet in totaal.

Als x16 kaart kan je gewoon verwachten dat er 75W via het slot beschikbaar is, als je moederbord dit niet kan is die gewoon eigenlijk niet compliant met de PCI-e specificatie.

Is ook niet echt super veel, 6.25 Ampere (op 12V), hoef je echt geen monster van een trace voor aan te leggen in je printplaat. Ja het kost wel wat ruimte, maar met de 6 lagen of meer die moderne moederborden zijn is er wel plek voor te vinden hoor. Helemaal als je een budget bordje hebt met maar een enkel x16 slot.

[Reactie gewijzigd door smiba op 23 juli 2024 01:19]

Neen, het is een shared budget. Het is 75W in totaal voor alle PCI-e devices; zowel in de slots als onboard.
Dit komt omdat deze stroom van een enkel paar van de 24-pin connector komt.
Madrox heeft dit netjes in zijn post gequote van Gigabyte zelf

Om 6 amp over een trace te laten lopen, moet deze 4 mm breed zijn. Dat is een serieuze ruimte om mee rekening te houden op een mobo, zeker als je meerdere PCI-e slots hebt.
Die 15mhz overclock heeft toch wat extra power nodig... }>

[Reactie gewijzigd door keejoz op 23 juli 2024 01:19]

Niet nodig wellicht, maar wel een stabielere stroomvoorziening, doordat alles nu in theorie direct kan worden aangeleverd via de PSU.
Daarnaast baseer je je wellicht op de TDP, welke echter niet gelijk staat aan het daadwerkelijke maximale stroomverbruik, deze is vaak aanzienlijk hoger.
Ook kan het voordelig zijn voor overklokkers en willen ze zich dan wellicht ook onderscheiden van de rest door betere stroomvoorziening mogelijk te maken.
Voor mij is een betere stroomvoorziening altijd een pluspunt.
Ik heb pas bij een rx570 getest met een 8 pin aansluiting, als je de 6 pin aansloot gaf hij exact dezelfde 3dmark score dan dat je hem met een 8 pin aansloot.
Dit is een low-profile kaart. Die sloten worden vooral in erg kleine systemen gebruikt en daar is een groot deel van HP, Dell, Lenovo enzo Die geven het moederbord niet altijd die 75 watt aan af te geven vermogen. Dan zal de power dus direct vanuit de voeding moeten komen.

Al is natuurlijk de vraag of de voeding genoeg is, die zijn meestal ook minimaal. En hoe de pc deze hitte gaat afvoeren, daar zijn ze meestal niet op gemaakt.

Het scheelt in ieder geval 1 hobbel.

[Reactie gewijzigd door White Feather op 23 juli 2024 01:19]

Snap niet goed de hele discussie rond 6/8 pin. Is dit niet meer dan gewoon een extra connectortje aansluiten op de videokaart ?
Eerste keer dat ik een low-profile kaart zie met een 6/8-pin power connector, op de consumentenmarkt waren de kaarten die ik me kan herinneren altijd op 75W uit de PCIe slot gelimiteerd.

Verder weet ik ook nog dat de GTX 750 Ti met 75W de koeler alsnog flink aan het werk zette, zelfs in een full-size ATX behuizing met voldoende airflow. Als ik kijk naar het verbruik van een 4060 dan zal dit wel standje straalmotor worden in een low-profile behuizing, hoewel de koeler er wel stukken competenter uit ziet dan de geëxtrudeerde alu blokken van weleer.

[Reactie gewijzigd door Richardus27 op 23 juli 2024 01:19]

Dat is ook waar ik een beetje bang voor ben.

Mijn HTPC heeft nu een drie jaar oude low profile GTX1650 en die zou ik graag upgraden met zoiets als deze 4060. Maar bij lage belasting (niet gamen) moet hij wel stil zijn. Mijn 1650 is semi-passief en zijn ventilatoren draaien alleen met games. Tijdens gewoon video kijken wil je geen geluid van de fans.

Als ik dit bakbeest zie, vraag ik me af of die dat ook kan? Eerst maar eens de reviews afwachten dan maar.

Hoe dan ook, de 4060 is dan wel duur en relatief langzaam, maar voor een lage behuizing is dit wel het beste waar we op konden hopen!
Langzaam? Tov een 1650 is die razend snel.
Als er genoeg luchtverplaatsing in je kast is kan je natuurlijk ook zelf een fancurve instellen waarbij de fan alleen onder belasting aan gaat. Met de software Fan Control kan je deze curves ook op basis van GPU temperatuur of belasting instellen.
Ik kan de RTX A2000 aanraden. Low profile, krijgt alle stroom uit de PCI-E bus en is iets sterker dan een RTX 3050 voor maar 75W. De ventilator draait altijd maar is praktisch onhoorbaar tenzij je de kaart echt aan het werk zet. Ik zou hem wel tweedehands kopen, want anders is hij veel te duur.
Die 750 ti had wel een simpel en klein geextrudeerd stukje aluminium als heatsink. Hier zie ik toch wel een geavanceerder ontwerp met koperen heatpipes en aluminium koelvinnen. Ik denk dat het wel zal meevallen.
Er is gelukkig wel aan gedacht om hem een kwartslag te draaien :). Anders had je nog een gekke uitstekende connector gehad boven je low-profile kaart :+
Jammer om te zien dat een tegenvaller als de RTX 4060 twee HDMI 2.1-aansluitingen krijgt van bordpartners als Gigabyte, maar dat die nergens te bekennen zijn bij de RTX 4070, een kaart die ik overweeg als upgrade voor mijn GTX 1070.
Maar je 1070 heeft ook geen 2x HDMI, laat staan HDMI 2.1?

Op computers gebruiken we meestal DisplayPort.
Ik gebruik al jaren geen DisplayPort meer gezien TV's meer waar voor je geld bieden (LG OLED C-serie). Idee is om in de toekomst 2 televisies met HDMI 2.1 aan te sluiten. Heb kort een DisplayPort 1.4 naar HDMI 2.1 adapter gebruikt, dat zorgde voor een hoop ellende (problemen met bepaalde signalen, ook op RTX 2000 kaarten). HDMI 2.1 heeft nu eenmaal meer bandbreedte dan DisplayPort 1.4, waardoor je zonder compressie (en dus zonder beperkingen/problemen) de hoogste signalen kunt doorsturen (4K 120Hz 10-bit HDR 4:4:4). Dan hakt de teleurstelling van het gemis aan DisplayPort 2.0 op de huidige RTX 4000 kaarten er ook in, waardoor meer HDMI 2.1-aansluitingen de enige uitweg biedt om te bezitten over een veelvoud aan aansluitingen met meer (ongecomprimeerde) bandbreedte

Maar hoe je het wendt of keert... het blijft gek dat zo'n simpel RTX 4060 kaartje als deze het wel heeft en de RTX 4070 niet, terwijl Gigabyte bij iedere RTX 3000 kaart twee HDMI 2.1-aansluitingen heeft.
Als je deze configuratie perse nodig hebt dan zou je eventueel een ASUS RTX 4070 ti kunnen kopen. De TUF en de STRIX hebben namelijk 3x DP en 2x Hdmi.
Klopt, vind de Ti alleen niet de flinke meerprijs waard en zou dan ook een nieuwe voeding moeten aanschaffen. Ik zie dat de ASUS ROG Strix RTX 4070 als enige wel 2x HDMI 2.1 krijgt. Buiten het feit dat die kaart nog steeds niet uit is, wordt ie waarschijnlijk een flink stukkie duurder, wordt het een joekel van een ding (groot en zwaar), slurpt ie waarschijnlijk veel meer door z'n flinke OC en heeft hij die onhandige 2x 8 naar 16-pins connector. Het is gewoon jammer dat de 4070 zo in de kou wordt gezet betreft extra HDMI tegenover de lagere en hogere RTX-modellen. Raar en onnodig.
Je zou natuurlijk ook nog voor een 2ehands 30 serie kaart kunnen gaan van Gigabyte, de Aorus modellen hebben volgens mij allemaal 3x DP + 3x hdmi. Dat bleek voor mij ook essentieel om een goedkoop tripple monitor setupje te laten werken op 75hz, dit wilde op geen enkele manier lukken via displayport/converters. En ze zijn ook hdmi 2.1 dus filmpje kijken op LG C2 werkt ook lekker. Maar ik krijg de indruk dat je specifiek naar de 40 serie wilt, om welke reden precies?

[Reactie gewijzigd door BruT@LysT op 23 juli 2024 01:19]

Goeie, heb ik serieus overwogen. Ook al is het maar als tussenweg voor een jaartje of 2. Wil alleen graag uit het 8gb territorium stappen en de 3060 12gb vind ik niet snel genoeg. De 4070 is daarin echt een mooie opwaardering. Rond 3080 prestaties, maar veel zuiniger, dus werkt op m'n huidige 550 watt voeding. Bezit nieuwere / betere features (futureproof)... krachtigere raytracing, DLSS 3, AV1 encoding (ik edit ook). En uiteraard 12gb tegenover de 8gb die ik nu heb.
Waarvoor zou je specifiek hdmi 2.1 nodig hebben wat niet middels de bestaande displayport zou kunnen?

Passief verloopje is losse euro's en displayport is technisch "beter".
Zie bovenstaande reactie aan CyBeR ;)

DisplayPort 1.4 bezit minder bandbreedte dan HDMI 2.1.
Ah heb nu pas door dat t "maar" dp 1.4 is, dat staat vrij scheef met op dezelfde kaart wel een hdmi 2.1 8)7
Nog maar eens bewijs dat de 4060 eigenlijk 4050 zou moeten heten.
waarom dan wel?
Als je kijkt naar dingen zoals core count, compute units en die size en die afzet tegen de vorige generaties aan kaarten is de 4060 gewoon een xx50 series product. Hij is zelfs TRAGER dan de 3060 in sommige gevallen. Minder geheugen, minder ruwe kracht in de kaart. De enige reden waarom je deze kaart zou kopen is omdat Nvidia heel graag wilt dat je gelooft in het hele DLSS en upscaling verhaal. Om nog maar te zwijgen over de input lag bij DLSS3.
Als je kijkt naar dingen zoals core count, compute units en die size
Maar daar gaat dit artikel toch niet over? De stelling is dat een low profile versie betekend dat het geen 4060 zou moeten zijn. En daarmee zegt hij eigenlijk dat de kaart niet genoeg energie gebruikt om een 4060 te heten.
In het verleden waren vooral de xx50 serie in low profile te krijgen.
Met dan meestal 2 fans, of zelfs compleet passief op een xxx30 of xx10 serie kaart...
De 1050ti had 1 fan, de 1650 had er 2, deze kaart heeft er 3.
hangt vant model af, ook die 1050/ti's waren met 2fans in low profile beschikbaar
Die size maakt weinig uit, de die size van de 4090 is kleiner dan die van de 3070ti, ga je de 4090 nu een "3070" noemen? De die size van de 2060 was bijna dubbel zo groot als de 3060 ik hoorde toen dat gezaag niet van "het is een 3050 " .

https://www.techpowerup.c...tx-4060-gaming-oc/31.html
review: Nvidia GeForce RTX 4060 - De kleinste chip voor de grootste doelgroep

4060 is 15-20% gemiddeld sneller dan de 3060 in 1080p/1440p
3060 is 19-22% gemiddeld sneller dan de 2060 in 1080p/1440p

Onzin dus "minder ruwe kracht" die kaart IS gewoon sneller en dat zonder dlss3

Zet je dat aan (en buiten voor competetive fps zal die extra latency weinig verschil maken) dan spreek je 50+% verschil.

De prijs van de kaart is te hoog (en dan zeker de ti of 16gb versie) qua performance zit dit grotendeels in mijn met wat het was tussen 2060>3060 . Maar tja prijzen zijn al 2+jaar "te hoog" en mensen blijven zowel amd als nvidia kopen.
Die size zegt zeker niet alles nee, maar dit gevalletje doet mij een beetje denken aan de 960 tov de 1050. 1050 was vaak dan net iets sneller dan de 960 maar had dan wel een veel kleinere chip. Ik doelde erop dat ze 'm eerder de 4050 hadden mogen noemen (en daarmee vergelijkbare/iets snellere prestaties heeft dan een 3060) ipv de stagnatie die het nu is. Maarja, de kassa moet rinkelen bij Nvidia
Bij amd en
Nvidia beide hebben even duur aanbod. En nee die 4060 is 15-20% sneller dan een 3060 als het dlss3 ondersteund 50+% dat 4050 noemen met zo'n prijs zou absurd zijn.
De RX7600/RX6650XT zitten op polsafstand van de 4060 met als 4% verschil, dat is dus verwaarloosbaar. Wel staan de AMDs in de pricewatch voor zo'n 50 tot 70 euro minder.

Voorheen hadden we een 1060 die sneller was dan een 980. De 4060 is niet heel veel sneller dan de 3060 en een 3080 kan ie al helemaal niet tegenop. Steker nog, in sommige games zoals Hogwarts Legacy zit een 2060 (!) in de buurt van een 4060, dat is gewoon ronduit triest na 4 jaar. Daarbij, voor 30-40 euro meer dan een 4060 heb je een 6700XT met meer VRAM en die kaart vreet de 4060 met huid en haar op. En dat is dan ook nog eens echte rekenkracht en prestaties, niet een software trucje zoals framegen dat is.

Het is een 4050 qua prestaties, niet qua prijs.
Onzin nogmaals de feiten zijn 15-20% sneller dan een 3060, die amd kaarten kregen ook allemaal het label "te duur" en mankeren dan nog de betere raytracing en dlss2-3.

En dat software trucje kan sommige games speelbaar maken
Op re soluties of kwaliteit waar je bij amd een veel hogere kaart voor
Nodig hebt
Als je framegen nodig hebt om een game speelbaar te maken is het echt niet te doen. Upscaling prima, maar bij lage framerates framegen gaan doen is echt verschrikkelijk.
Neen cyberpunk op 4k ultra geeft met dlss3 & FG 45-50 fps dat is gelijkaardig aan een 3900/6950/7900xt en op het randje speelbaar (settings ietse lowering van ultra en je zit aan 60fps) . ZOnder dat heb je 25-30 fps met enorme drops, onspeelbaar dus.
op een 4060? Succes...
Ja heb het gezien, ook op een pc. En dan blijf ik erbij: een 4060 is niet voor 4K. Leuk dat het kan, maar je merkt dan echt wel latency. Nu is deze video een stukje auto rijden, maar als je de game gaat spelen en in drukkere gebieden komt gaat de framerate omlaag. De latency is dan te hoog. Leuke gimmick dus. Dan kun je echt de game veel beter gewoon met dlss op 1440p medium spelen. Wil je meer dan dan zal je toch echt naar 4070/4080/4090 moeten gaan kijken.
4060 is 15-20% gemiddeld sneller dan de 3060 in 1080p/1440p
3060 is 19-22% gemiddeld sneller dan de 2060 in 1080p/1440p
Je lijkt vooral te cherrypicken. De 3060 was erg slecht ontvangen rond release, omdat het relatief aan de andere 30-serie kaarten een enorm kleine winst had op de voorganger. De 3080 was bijv. 50% sneller dan de 2080 en had daarnaast veel betere raytracing performance.

De 3060 was zo slecht omdat de 3060 een kleinere chip had dan de 2060 die relatief sterk was in de 20-serie. Nu is met de 40-serie precies hetzelfde. Weer een kleinere chip dan de voorganger, weer erg kleine vooruitgang.

Kijken we naar het verschil tussen 1060 en 2060, dan was de 2060 ruim 50% beter. En de 1060 was ruim 70% beter dan de 960.

Ik snap niet hoe je Nvidia kan blijven goed praten. De consument is gewoon slechter af: waar je eerst een 1060 had met de performance van een 980, heb je nu een 4060 die niet eens sneller is (lees: significant langzamer is) dan de 3060ti en slechts een beetje beter dan de 4060. De enige manier waarop het nog goed klinkt is als je fg meeneemt. En dat is niet vergelijkbaar met, of een vervanging voor native performance. FG is een bonus feature, net als DLSS upscaling.
De prijs van de kaart is te hoog (en dan zeker de ti of 16gb versie) qua performance zit dit grotendeels in mijn met wat het was tussen 2060>3060 . Maar tja prijzen zijn al 2+jaar "te hoog" en mensen blijven zowel amd als nvidia kopen.
Deze snap ik niet, de reden dat deze kaart te duur is is omdat Nvidia het een 4060 noemt (en ook zo prijst). Terwijl de kaart eigenlijk gewoon een xx50 klasse kaart is in praktisch alle opzichten. Je vind zelf de kaart ook te duur (net als anderen hier). Waarom blijf je dan de 4060 (en nvidia) zo verdedigen? Enkel omdat mensen de die size en corespecs gebruiken als argument waarom de kaart te duur is?

[Reactie gewijzigd door Raphire op 23 juli 2024 01:19]

Die size maakt weinig uit, de die size van de 4090 is kleiner dan die van de 3070ti, ga je de 4090 nu een "3070" noemen? De die size van de 2060 was bijna dubbel zo groot als de 3060 ik hoorde toen dat gezaag niet van "het is een 3050 " .
De 4090 heeft een die size van 609mm2, de 3070ti een die size van 392mm2. De die size van de 4090 is iets kleiner dan de 3090. Waar haal je weg dat de 4090 een enorm kleine die size heeft?

De 2060 had een xx70 klasse die, inderdaad groter dan normaal was voor een 60 klasse kaart. De die size van de 4060 is wel echt significant kleiner dan de 3060 (en 1060, en 960), daarnaast heeft de 4060 minder SM's en cudacores. Waar dat in het verleden altijd gestaag toenam.

Naar de Cudacores/SM's kijken is trouwens wel een betere manier om te vergelijken. De 3080 had bijv dezelfde fysieke die als de 3090, maar dan met een deel uitgeschakeld.

Ik weet niet of mensen de 3060 een "3050" noemden, maar de reviews van de 3060 waren alles behalve positief over de minimale vooruitgang over de 2060.

[Reactie gewijzigd door Raphire op 23 juli 2024 01:19]

De 4090 heeft een die size van 609mm2, de 3070ti een die size van 392mm2. De die size van de 4090 is iets kleiner dan de 3090. Waar haal je weg dat de 4090 een enorm kleine die size heeft?
https://en.wikipedia.org/wiki/GeForce_30_series

Die size vergelijken is zoals de oppervlakte van een motor vergelijken en dan zeggen : "hoe groter hoe beter." Elke reviewer die daarmee afkomt tussen generaties liegt tegen jou, elkeen die daarmee afkomt in een argument heeft geen idee waar die over spreekt.

EEn 2080 ti heeft een veel grote die size dan een 4090 (754 mm²) net zoals een 300ti of 3080 en de 4090 is 2-4 keer sneller dan die kaarten.
Waarom? Wel 2080ti heeft 18 miljard transistor op 754mm² en de 4090 76 miljard op 608mm² door beter chip productie proces. 3070 ti/3080 hebben er 28 miljard (merk op dat die aantal transistoren ongeveer overeenkomt met hoeveel sneller die is niet dat dit op zich ook een goed maatstaf is maar veeeeeel beter dan oppervlakte)
Ik weet niet of mensen de 3060 een "3050" noemden, maar de reviews van de 3060 waren alles behalve positief over de minimale vooruitgang over de 2060.
tweakers had er dit over te zeggen :
Voor gamers zelf is de komst van de RTX 3060 in ieder geval niet spannend. De prestaties van de kaart zijn vergelijkbaar met die van een RTX 2070: een acceptabele generatiesprong, maar niet uitzonderlijk en zeker niet zo imposant als we bij voorgaande generaties hebben gezien.
Zelfde vooruitgang nu . En nee daar cherrypick IK niks mee ik pakte de gemiddelde van die kaart over een boel games.
Ik snap niet hoe je Nvidia kan blijven goed praten. De consument is gewoon slechter af: waar je eerst een 1060 had met de performance van een 980, heb je nu een 4060 die niet eens sneller is (lees: significant langzamer is) dan de 3060ti en slechts een beetje beter dan de 4060. De enige manier waarop het nog goed klinkt is als je fg meeneemt. En dat is niet vergelijkbaar met, of een vervanging voor native performance. FG is een bonus feature, net als DLSS upscaling.
Ik praat niks goed ik wijs op de feiten, amd doet het niet beter en de vooruitgang is gelijkaardig als de vorige generatie. Vind je dat te weinig: koop dan geen gpu nu en wacht tot er wel genoeg verschil is.
Deze snap ik niet, de reden dat deze kaart te duur is is omdat Nvidia het een 4060 noemt (en ook zo prijst). Terwijl de kaart eigenlijk gewoon een xx50 klasse kaart is in praktisch alle opzichten. Je vind zelf de kaart ook te duur (net als anderen hier). Waarom blijf je dan de 4060 (en nvidia) zo verdedigen? Enkel omdat mensen de die size en corespecs gebruiken als argument waarom de kaart te duur is?
Je snapt toch dat die xx50 compleet arbitrair is? Daarbij als je naar aantal transistoren kijkt zie je : 4.4 miljard (1060) -> 6.6 miljard 1660 -> 10.8 miljard 2060 -> 3060 13miljard -> 4060 19 miljard of altijd rond de 30% erbij. Dat er vroeger grote sprongen gemaakt werd klopt, maar net zoals met cpu's komt zoiets ooit op een einde .
Er is niet echt meer input lag bij DLSS3. Het is meer dat voorheen je input lag gelijk was aan je framerate. Nu is je input lag gelijk aan je oude framerate, die blijft onveranderd, maar je hebt een hogere framerate. Sommige frames reageren niet op je input, en sommige wel.
Klopt dat wel? Als geen frames geïnterpoleerd worden, dan kun je een frame meteen doorgeven aan het beeldscherm om zo snel mogelijk getoond te worden. Met interpolatie aan moet je zodra een frame getekend is daar (ongetwijfeld samen met andere informatie) dan eerst een voorgaande frame uit interpoleren, die geïnterpoleerde frame dan een gepaste tijd laten zien, om daarna pas de getekende frame te tonen. Dat frame komt dus daadwerkelijk later op het scherm te zien dan zonder interpolatie.
Tja, ik zie voor deze prijs niet zo snel een betere kaart. Hij kost net boven de €300 en presteert gemiddeld net iets beter dan de RX 7600 die een paar tientjes minder is. Een stuk beter als je ray tracing meetelt.

review: Nvidia GeForce RTX 4060 - De kleinste chip voor de grootste doelgroep

Als je kritiek wil hebben, heb dat dan op AMD die én ray tracing nog steeds niet voor elkaar heeft, én als B-merk helemaal niet gunstig prijst. Voor die paar tientjes extra gaat men gewoon voor het A-merk.

[Reactie gewijzigd door Wolfos op 23 juli 2024 01:19]

Van die input lag merk ik niet. Maar ja speel eigenlijk alleen single player games.
Er is wel degelijk een vrij significant verschil, afhankelijk van de framerate die al hebt voor fg wordt aangezet. Sommige mensen voelen dat meer dan anderen.
fg komt altijd met latency reduction dus het verschil is echt wel klein.
Ik vind het verschil erg groot, zelfs met reflex: https://www.techspot.com/article/2546-dlss-3/

In dit artikel hebben ze de latency gemeten van bijv Cyberpunk, hier zie je dat 112 fps met frame evenveel latency heeft als 42fps native. En zelfs een veel hogere latency dan je op 72fps met DLSS quality hebt. Dat is geen fijne ervaring, zeker niet als je met toetsenbord/muis speelt, al kan je er misschien aan wennen. Met een wireless controller zal het wat minder merkbaar zijn omdat de latency van de controller zelf al veel hoger is.

In flight simulator is de latency zelfs bijna het dubbele.

In f1 is het iets lager dan native maar alsnog hoger dan enkel DLSS upscaling. Gelukkig heb je in die game al hoge FPS, dus dan maakt dat weinig uit. Maargoed dan zijn de voordelen van FG ook erg klein.

[Reactie gewijzigd door Raphire op 23 juli 2024 01:19]

Het maakt niet uit. Als je de normale framerate hebt op native of dlss2 activeer je reflex en fg dan is je latency gelijkaardig aan wat je had ervoor
Dus niet. In cpu limited games verdubbel je je latency (zoals flight simulator). En in praktisch alle andere games verhoog je je latency als je al dlss upscaling gebruikte. In de meeste games kun je ook reflex gebruiken zonder dlss fg aan te zetten, dus native zonder reflex vergelijken met fg met reflex is niet eerlijk.
Je hebt wel een veel vloeiender beeld wat zeker in mindere systemen zoals waar een 4060 inzit het verschil
Kan zijn tussen speelbaar en niet speelbaar.
En je hebt vervolgens de input latency van je native framerate. Het ziet er vloeiender uit, maar qua input speelt het nog zoals de originele framerate. In CPU-limited games is de latency wel degelijk veel slechter. Reflex doet daar niks. Die extra latency maakt in sommige games minder uit dan anderen, flight simulator en world of warships zullen vast prima spelen. Maar in racing games, shooters of andere first person games is die extra latency wel degelijk merkbaar en een probleem. Dat is ten minste het geval als je originele framerate al niet hoog was. En dat is nou het probleem: hoe slechter je kaart hoe groter de nadelen.
Zeggen dus dat het nutteloos is is dom .

En dat is voor games dat het uitmaakt iknspeel world of warships en 20-40ms extra maakt niet uit.
Ik zeg niet dat het nutteloos is. Ik noem het een feature met beperkt nut, zolang je een game speelt waar latency niet uitmaakt of als je niet zo gevoellig bent voor latency, je al een redelijke native framerate hebt en de game het ondersteund. Dan is het een leuke bonus.

Ik gebruik frame generation ook in cyberpunk. En dat werkt opzich prima, maar als de FPS daar rond 100 komt of eronder duikt dan wordt de latency echt enorm merkbaar, en ik vind het dan niet veel beter voelen/uitzien dan enkel upscaling.

Maar er zijn genoeg games waar ik het heb geprobeerd en uitgeschakeld laat. In forza horizon 5 gebruik ik het bijvoorbeeld niet omdat het beeld van die game al erg schokkerig is en fg/dlss dit versterken. Dat is al snel wat misselijkmakend.

[Reactie gewijzigd door Raphire op 23 juli 2024 01:19]

Dus niet. In cpu limited games verdubbel je je latency (zoals flight simulator).
We spreken hier van een 4060 of 4060 ti, zelfs in 1080p komen die niet in de buurt van 100% cpu of je moet wel een heel trage hebben. Uitzondering is als je die games(f1 of FS) op 4k wil spelen en dan RT, ultra en alles van dlss en FG aanzet. Uitzonderlijk dus en weinig relevant omdat je met dergelijke gpu's dan amper een speelbaar spel krijgt.
Maar in racing games, shooters of andere first person games is die extra latency wel degelijk merkbaar en een probleem.
Neen, heb er CS en PUBG ook mee gespeeld , geen probleem. Misschien voor een pro of iemand die wil doen alsof die pro is of iemand die heel gevoelig darvoor is? Overgrote meerderheid gaat hier nul de botten van merken.
Ik zeg niet dat het nutteloos is. Ik noem het een feature met beperkt nut, zolang je een game speelt waar latency niet uitmaakt of als je niet zo gevoellig bent voor latency, je al een redelijke native framerate hebt en de game het ondersteund. Dan is het een leuke bonus.
Onzin, zoals aan aangehaald kan je cyberpunk op resoluties spelen dat je anders niet kon, kan enkel door dlss3, latency en schokkende beelden hebben ook weinig met elkaar te maken hoor. Dat is eerder dat je frame drops hebt (1% in reviews) .
Met schokkende beelden bedoel ik letterlijk dat de ingame camera veel schokt/beweegt. Dlss en fg kunnen daar niet goed mee omgaan. Na 5 minuten forza horizon 5 werd ik al misselijk, terwijl ik daar nooit last van heb. Na het uitzetten van DLSS en FG was het probleem weg.

Los daarvan is het duidelijk dat jij niet veel merkt van de extra latency, extra latency die er wel degelijk is en waarvan het effect erger/merkbaarder is in het lagere segment van kaarten. In het algemeen is men erg verdeeld over FG, een deel wil het niet en een deel vind het geweldig. Ik zit er wat midden in, maar ik vind het in ieder geval geen wonder middel om de performance op te krikken of een must-have als je een nieuwe kaart koopt.

[Reactie gewijzigd door Raphire op 23 juli 2024 01:19]

Tja niet iedereen kan duurdere kaarten zich permiteren, als je dan games hebt waar het wel in ondersteund word dan is dat een enorme plus.
DLSS op zich heeft geen probleem met snelle beelden , FG meer maar ik heb nog nooit gehoord dat iemand er misselijk van werd. Veel kritiek en issues is ook al aangepakt met updates, het is echt wel een meerwaarde.
Als je kijkt naar dingen zoals core count, compute units en die size
Allemaal zaken die niks met de naamgeving te maken hebben. De naam is een verzinsel van de marketing-afdeling die de plaats in de line-up aangeeft, niks meer en niks minder.
Jammer dat de low profile kaart niet een enkel slot is, zoals de 1030. Dat zou mooi zijn.

Van mijn part dat het een 4070m is, dus de mobiele chip versie.

Dat zou voor kleine builds al super zijn
Eigenlijk raar dat 'low profile' de vroeger '2 slotter' was, low profile denk ik nog steeds single slot.
Zoals anderen ook al terecht opmerken heb ik ook wel zo mijn twijfels of zo'n dubbel slots kaart gaat passen in de meeste mini pc kasten. Veelal is er maar plaats voor 1 slots videokaarten plus dat vaak ook net onder het pci-e slot een aantal aansluitingen zitten zoals usb. Dus blijft ook nog maar de vraag of er nog ruimte blijft om usb stekkers etc.. in te kunnen steken.
2475 MHz (Reference card: 2460 MHz)
15mhz
niet echt de naam OC waardig...
Inderdaad. Puur marketing.
Nu OC in de naam voor mensen die de specs niet vergelijken. Zal beter verkopen dan zonder OC in de productnaam.

Misschien biedt het meer OC functies, maar bij daadwerkelijk gebruik van low profile wordt koelen een probleem, naast dat fans met kleinere diameter meer geluid produceren vanwege het hogere toerental om een goede flow te creëren.
Komen ze ook met een GeForce RTX 4060 OC Low Price 8G? :P
Nee, Dan zouden de zakken van nVidia niet goed genoeg gevuld worden.

[Reactie gewijzigd door alexboon op 23 juli 2024 01:19]

nVidia werkt niet meer met zakken, ze doen aan zeecontainers...
Nvidia vult de zakken allang niet meer met GPU’s. Open maar Nvidia.com. Het eerste wat je ziet is AI. Daar zit de groei en het grote geld voor Nvidia.
Ideaal kan ik mooi me verouderde low profile kaart vervangen .

Op dit item kan niet meer gereageerd worden.