Gerucht: Nvidia komt met GTX 11xx-serie naast RTX-videokaarten

Nvidia brengt halverwege januari een GeForce GTX 1160 op de markt en ook andere komende mid-range- en instapkaarten verschijnen in de GTX 11xx-serie. Dat claimt althans de website Videocardz op basis van een bron.

Nvidia gaat zijn actuele aanbod volgens de site uitsplitsen in een RTX- en een GTX-deel. De RTX-kaarten blijven in de 20xx-serie uitkomen en nieuwe GTX-modellen krijgen een 11xx-naamgeving. Videocardz verwijst naar de Chinese site Expreview die zijn gerucht in een afgeschermd bericht deels zou bevestigen, zij het dat die site zou spreken van de komst van een GTX 1160 Ti, terwijl Videocardz het op een GTX 1160 houdt.

Een GeForce RTX 2050 gaat er niet komen, is de claim verder. Over de komst van een RTX 2060 gaan al weken geruchten, deze kaart zou de TU106-200-gpu krijgen en in de tweede week van januari verschijnen. De GTX 11-modellen krijgen ook Turing-gpu's, maar andere videochips, zonder de specifieke hardware voor raytracing. Zo zou de GTX 1160 een TU116-gpu krijgen. Verdere details, zoals prijzen, zijn nog niet bekend.

GeForce RTX 2060 logo gerucht

Door Olaf van Miltenburg

Nieuwscoördinator

21-12-2018 • 14:53

169

Reacties (169)

169
163
53
9
2
94
Wijzig sortering
Nu kwam ik een tijd terug dit bericht op segmentnext.com tegen welke luid:
"300,000 Nvidia GPUs Returned By Major OEM, Could Cause A Delay For Next-Gen Nvidia GTX 1180" en na wat stevig door klikken daaro, kwam ik nog het een en ander tegen over een 11XX serie's GTX kaarten van NVidia, zoals: Next-Gen Nvidia GPU & GTX 1180 To Arrive In July 2018" En al kloppen de datums daar inmiddels al niet meer van, er is toch het een en ander aan interessante achterliggende info over te lezen kan ik melden (althans dit laatste vond ikzelf dan), zo ook waarom NVidia hier waarschijnlijk voor kiest: "There are reports coming in that there will be an upcoming GP104 GPU based Nvidia GTX 1060 coming out. The GP104 GPU is the same variant that we find in the GTX 1080, 1070 Ti as well as the 1070. While these graphics cards are pretty old they are some of the best graphics cards on the market right now. Other than that if you already have the GTX 1060, you need not worry as the specifications will be the same as the original.

The GP104 GPU will be cut down for the GTX 1060 so the performance should be the same but this is something that we will have to see. Other than that it seems that most of the people that are going to be reading this will not be able to get their hands on one as this will be exclusive to China. Unless you have a mate in China that can get you one chance of getting one on your own are slim. You can check out the specifications of the original below."

En dit laatste hierboven kwam ik dan weer via hier tegen = ook segmentnext.com

Anyhow, ik ben nu wel benieuwd geworden in ieder geval, en blijf dit dan ook nog wel even in de gaten houden kan ik melden.

[Reactie gewijzigd door SSDtje op 23 juli 2024 15:38]

Een GTX 1060 op basis van GP104 is inmiddels al uitgebracht door verschillende fabrikanten, dus een eventuele GTX 1160 (Ti) zal ofwel op een andere chip gebaseerd zijn ofwel een hele simpele refresh worden.

Gigabyte heeft drie GTX 1060-kaarten met GDDR5X gereed
MSI brengt GTX 1060 Armor OC uit met GDDR5X-geheugen
Nvidia zet GeForce GTX 1060 met GDDR5X-geheugen op zijn website

[Reactie gewijzigd door Trygve op 23 juli 2024 15:38]

Dat niet alleen we krijgen dus weer een type aanduiding erbij.Nvidia heeft nu dus de 2000 serie een andere serie was de 1000 denk aan 1080 en nu dus de 1100 serie,voor als het allemaal niet ingewikkeld genoeg is met de type aanduidingen.
Zo moeilijk is het niet, er staat altijd nog het prefix "RTX" dan wel "GTX" voor. Het is geen rocket science.
GTX1180ti zonder raytracing voor 800 euro graag _/-\o_
+1 ja! 1200 is gewoon idioot. En dit is nog niet eens een Titan.

Het prijsbeleid spoort gewoon niet meer. Ik heb het idee dat nVidia verslaafd is geraakt aan de megawinsten tijdens de cryptobubble, als ze nu teruggaan naar normale prijzen dan zakt hun winst in ten opzichte van de cryptopiek en dat vinden de aandeelhouders niet leuk. Ondanks dat er een duidelijke reden voor is (geen miners meer).

Maar ik denk dat inkakkende verkopen door de hoge prijzen hetzelfde gaan bewerkstelligen dus hopelijk gaan ze toch wel overstag. Dat raytracing gedoe mogen ze van mij ook er af laten, gebruik liever dat oppervlak voor meer gewone units, of laat het helemaal weg voor een lagere prijs.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 15:38]

De reden is nochtans overduidelijk. Een totaal gebrek aan concurrentie.
Dat is het ook ze hebben bijna een alleen recht op deze videokaarten en amd kan die bijna niet bijbenen.
Zij bepalen de prijzen op het hoge segment midden en laag segment.Ik had gehoopt dat amd eens op de proppen komt met een rete snelle gpu op de videokaart.Nvidia heeft overal een antwoord op en daarom bepalen zij die prijs daarvoor,alhoewel amd daar met de prijs een flinke tik onder zit.
AMD heeft prima kaarten en dat al tijden lang in het lage en mid segment, helemaal als je freesync vs de extra kosten van G-sync, en met undervolten zijn de VEGA56 and VEGA64 aanzienlijk interesanter, helaas is de gemiddeld tweakers bezoeker daar geen eens bekend mee.
Jawel, maar het zijn gewoon minder goede GPUs. Luider, heter, je hebt in bepaalde gevallen een zwaardere PSU nodig, en over de gebruikstijd verlies je je winst in de aankoopprijs aan stroomkosten. Een VEGA gebruikt namelijk gewoon 30% meer dan een gelijk presterende Nvidia kaart. Een 1080 versus een Vega64 is een compleet andere build, waar je bij de laatste met allerlei zaken rekening moet houden, en dat kost vaak ook geld. 270-300W is niet niks.

Bovendien moet je met VEGA ook héél goed opletten dat je niet een van de vele matige versies te pakken hebt. En ook geen pech hebben met je undervolt, want dat is een optie maar geen garantie. Stabiliteit is niet gegarandeerd.

Zet daar Nvidia's aanbod tegenover, dat out of the box al zichzelf overklokt, en met twee sliders doe je er zelf nog een schepje bovenop. Driver installeren en klaar, en je weet ook dat je TDP bij je volgende upgrade ongeveer hetzelfde zal zijn. Dus ook upgraden is simpeler.

Verder vwb lage/midrange segment: absoluut waar, maar ook Polaris wordt nu zwaar uit de comfort zone getrokken om nog iets van vooruitgang te laten zien. De RX590 is net zo achterlijk gebalanceerd als Vega, met minimale prestatiewinst voor veel extra verbruik. Je ziet aan alles dat er niet meer in GCN zit en dat het niet kan meekomen.

AMD's GPU aanbod doet mij denken aan Fallout 76 en zijn engine. Ja het draait en 'kan meekomen', maar iedereen kan zien dat het eigenlijk zwaar over datum is en dat er achterstallig onderhoud is. Geen fijne boodschap, maar laten we het aub gewoon bij de naam noemen.

[Reactie gewijzigd door Vayra op 23 juli 2024 15:38]

Ik weet niet wat je doel is, maar de marketing machina van Nvidia heeft jouw niet nodig om het voor hun op te nemen. Afgezien van het stroom kan je ook niet te gemoed komen, kosten kwa kosten iets scheelt, maar uiteindelijk praten we we over ~50w tot 100w max TDP extra , en dat daar dus het een andere aan te toen, het scheelt in elk geval niet 270 tot 300w zoals jij hier afschilderd.

Ik snap verder ook niet waarom je de RX590 aanhaalt, een gemiddelde tweakers zou vervolgens ook moeten inzien dat juist "GEEN" goeie deal, is.
Het doel is tekst en uitleg geven bij de reden waarom de keuze van velen niet op een AMD Vega valt en wel op een Nvidia Pascal. Laat ik je uit de droom helpen: dat komt echt niet omdat Vega bij mensen niet in beeld zou zijn. Het komt omdat het een GPU is die slechts op prijs kan, en moet concurreren. Zoals zo'n beetje alles wat AMD heet. En de prijs van Vega was lange tijd veel te hoog.

En nee, het scheelt geen 270-300w, dat is het totale verbruik van Vega. Een 1080 doet daarentegen 180-220w. Dat is nogal een verschil, 50-100w is optimistisch, die 50w verschil haal je zelden. Best-case is Vega dus alsnog een kwart hoger in verbruik.

Je hebt gelijk vwb FreeSync vs Gsync en dat is zeker 'added value' maar alleen als variabele sync een ding voor je is.. Maar over het nut van een vendor lock-in op je monitor kun je ook nog twisten. Dat geldt zowel voor Gsync als FreeSync. Persoonlijk heb ik er nul behoefte aan, ik tweak en lock liever 100 FPS of meer. Kortom er zijn alternatieven en variabele sync is er slechts eentje, met zijn voor- én nadelen zoals alle andere.

Vwb die marketingmachine... ik zal ook de eerste zijn die roept dat AMD goed bezig is als dat ook daadwerkelijk het geval is - zoals bijvoorbeeld op CPU, want Zen is een briljante architectuur die nog jaren meekan. Feit blijft, Vega is primair geen gaming-GPU en de prestaties zijn ernaar, GCN is niet meer bij de tijd, en AMD gaat er nog jaren over doen om weer een echt antwoord te hebben op de high-end. Ik vind het dus niet raar dat Nvidia de strijd wint.

Het is net zomin gunstig voor AMD dat ze in het zonnetje worden gezet met een falend RTG, want daarmee hou je stagnatie in stand. De beste hoop voor Nvidia concurrentie is op dit moment Intel... hoe vreemd (en triest) dat ook klinkt. En die concurrentie is zeker voor de high end nog jaren van ons verwijderd. Toen AMD de focus op Polaris ging leggen riep ik al dat het verlaten van de high-end de doodsteek zou zijn. Waar staan we nu? Yup. Met midrange spul ga je het niet volhouden, dat heet uitstel van executie.

[Reactie gewijzigd door Vayra op 23 juli 2024 15:38]

Je blijft maar doorgaan he ?
Even heel kort samen vatten, deze site heet tweakers.net dus met andere worden in elk geval deel van de doegroep is een tweaker, die heeft dus bepaalde interese
- In de meeste nieuwe benchmarks verslaat de VEGA64 de 1080 en de 2070, en is goedkoper, meer bang voor je bucks, energie rekening is een vraag die eventuel aan jezelf kan stellen, in mij geval game ik in minder in de zomer, en de winter hoef ik de kachel minder snel aan, en in plaats van dan het hele huis hoef ik alleen maar 1 kamer op te warmen(teminste als ik alleen thuis ben). Als je niet in NL woont maar bijvoorbeeld in USA dan heb je meestal de heflt minder aan stroom, en gebruikt men electrischteit om het huis te verwarmen, weder maakt stroom verbruik niet uit. Met andere woorden maak het punt niet groter dan het is en maak er zeker geen misbruik van.
- The optie om te undervolten en daardoor juist meer performance halen en dik meer dan 50w van stroomverbuik afhalen is gewoon leuk voor een tweaker, tja het werkt niet altijd, soms krijg per definitie een slecht computer onderdeel toegestuurd, dat hoort er ook bij, maar wat ik gezien en gehoord heb 90%+ haal 50w of meer van zijn stroomverbuik af.
- Je zou zelfs je VEGA56 kunnen proberen te flashen naar VEGA64 (not recommanded)

Vraagje waar komt je haat voor AMD weg ? En volgens mij weet je niet welke bedrijven wellicht terecht gehaat zouden moete worden, AMD is dat in elk geval niet. Indien je als je na deze onder staande video's heb gezien zal wat anders tegen Nvidia en intel aankeken, voor mij persoonlijk redelijk genoeg om geen geld uit te geven aan moreel verwerpelijke bedrijven,die zonder AMD waarschijnlijk nog veel meer hadden gevraagd voor minder

Nvidia - Anti-Competitive, Anti-Consumer, Anti-Technology
https://www.youtube.com/watch?v=H0L3OTZ13Os

Intel - Anti-Competitive, Anti-Consumer, Anti-Technology.
https://www.youtube.com/watch?v=osSMJRyxG0k

[Reactie gewijzigd door DEXSTAR op 23 juli 2024 15:38]

Haat? Volgens mij moet je mijn post eens lezen zonder AMD brilletje. Ik benoem feiten, meer niet, jij raakt helemaal over de pis omdat zaken bij de naam genoemd worden. Die reactie van jou zie ik al tien jaar langskomen. Je hoeft maar naar marktaandeel te kijken en je snapt dat je aanpak niet werkt. Ik zeg: beloon AMD niet voor matige producten. Er springt wel iemand anders in dat gat. En 'anti consumer'... echt? Ik kan een dozijn recente AMD anti consumer praktijken noemen. Misleiding is AMD bijv ook niet vreemd. Het zijn allemaal bedrijven die geld willen verdienen, maak je geen illusie. De underdog spelen werkt momenteel voir AMD gewoon het beste.

[Reactie gewijzigd door Vayra op 23 juli 2024 15:38]

Hmmmm, AMD brilletje? Het moge duidelijk zijn voor iedereen behalve jouw, dat jij een Nvidia brilletje op hebt.
Ik zou zeggen kom maar op met al die anti-AMD dingen, ik volg de hardware industrie al zo beetje 20jaar en AMD heeft belange na niet zo bond gemaakt, Nvidia daarintegen, zie de video en huiver.
Deze plaat is allang grijsgedraaid, laten we er mee ophouden. De cijfers spreken voor zich. Het topic was, AMD biedt geen concurrentie en dus kan Nvidia doen waar het zin in heeft op het high end segment. Daar Vega tegenover zetten, de sub-high end van gisteren, doet daar weinig aan af en ik heb ook aangegeven waarom dat zo is. En dan zijn we eigenlijk gewoon klaar.

[Reactie gewijzigd door Vayra op 23 juli 2024 15:38]

Daarintegen moet de gemiddelde consument wel goed doorkijken, en AMD in het lage en midsegmet met zich meenemen, tevens moeten de extra kosten van G-sync en het de vraag of je uberhaupt moraal verwerpelijke Nvidia in enig opzich moet sponsoren.
Het is al jaren zo dat Nvidia in de midrange óók op prijs concurreert. Kijk nu naar Polaris. De RX480 en GTX 1060: beschikbaarheid van de RX480 was lange tijd slecht oa dankzij mining. 1060's vond je overal. Met hogere beschikbaarheid kwam ook een betere prijs en dus had je in veel gevallen niet alleen een leverbare, maar ook gelijk of lager geprijsde 1060 te koop.

En nu? Nu is Polaris prima leverbaar in een aantal smaken/generaties die kort door de bocht nagenoeg gelijk presteren. De prijs is ook OK. Maar de 480 is nog altijd iets langzamer, en de 580 en 590 verbruiken véél meer energie. Bovendien heeft de 590 een veel te hoog MSRP.

Het is dus helemaal niet per definitie zo dat AMD op midrange de betere optie heeft. En dan is er een stuk imago en beeldvorming dat een rol speelt. Nvidia heeft een groter marktaandeel op de PC. Dat biedt ook meer zekerheden over support - niet altijd reëel, maar mensen denken het wel. Over de moraal verwerpelijke praktijken: dat is geheel persoonlijk en zoals aangegeven, ook AMD heeft zo zijn momentjes gehad. Recent nog met een RX560D, dat was pure misleiding.

En die variabele sync... ik blijf het zeggen... je kunt veel beter je centen investeren in een degelijke monitor/paneel en met adaptive of Fast Sync heb je vrijwel dezelfde ervaring. Maar dan wel met volledig vrije GPU keuze in de toekomst omdat je niet aan Gsync of Freesync vastzit.

Maar goed, zoals ook aangegeven, deze discussie is al tien jaar oud en er is nog altijd niets veranderd. AMD blijft de underdog en houdt dat zelf in stand. Nvidia blijft de arrogante marktleider. Uiteindelijk maken de producten de markt, en Nvidia heeft simpelweg een betere product stack met meer toekomst en visie. AMD heeft de focus verlegd naar consoles en dat merk je, de PC gamer staat bij hen allang niet meer in de top 3, die bungelt ergens onderaan als 'mooi meegenomen' naast pro-GPUs (Vega is primair géén gaming GPU) en Navi laat nog altijd op zich wachten maar lijkt ook de console-focus te hebben.

Ik zal je zeggen dat ik het ook liever anders zie, maar te denken dat wij die realiteit gaan veranderen met een paar posts op een forum is een illusie. En zelf inleveren om een underdog te steunen die de focus allang elders heeft, vind ik niet verstandig.

[Reactie gewijzigd door Vayra op 23 juli 2024 15:38]

En zelf inleveren om een underdog te steunen die de focus allang elders heeft, vind ik niet verstandig.
Dat zei de treinmachinist naar Auswitz ook ; O-), Maar goed je hoeft niet in te leveren als je voor AMD gaat, en blijf nou mee ophouden dat altijd zo is.
Een fabrikant moet gewoon in beweging blijven. Zitten ze een maandje stil, staan ze al bijna voor de positie om af te sluiten.
Nou hoeft het ook weer niet so massaal en willekeurig als samsung in smartphones.
Als ze niet regelmatig iets uitbrengen, na monster producten dan vaak een soort budget serie, dan moeten ze flink aanklauwen om weer op de been te komen.
Het gaat gewoon erom dat er kan worden verkocht. Nu is duidelijk dat lang niet iedereen een rtx2k kan betalen...
Of zou je als fabrikant alleen maar denken: concurentie, blahdieblah...
Fabrikanten in en van de moderne tijd zijn doorgaande stoomtreinen, geen snelheidstreinen.
Nvidia heeft fatsoenlijke concurrentie nodig, die is er nauwelijks.
Ja dat klopt maar precies daarom kunnen ze een prijs claimen voor bepaalde producten die ze maken.
Aan amd licht het niet die videokaarten zijn goedekoper.Wat die concurentie betrefd heb je helemaal gelijk.
Ik heb het idee dat nVidia verslaafd is geraakt aan de megawinsten tijdens de cryptobubble, als ze nu teruggaan naar normale prijzen dan zakt hun winst in ten opzichte van de cryptopiek en dat vinden de aandeelhouders niet leuk. Ondanks dat er een duidelijke reden voor is (geen miners meer).
Crypto is één reden, maar AI is een ander. Bij crypto-mining (voor GPU-coins) is AMD nog een serieuze concurrent, in AI is NVidia onbetwist nummer 1. De tensorcores van de RTX zijn maar zijdelings bedoeld voor raytracing - de naam wijst al op de beoogde toepassing. Het belangrijkste AI framework is Google's Tensorflow, en de snelste Tensorflow backend is NVidia CUDA.
tja de vraag is wat je er voor gaat krijgen. zelfde prestatie als de 1080ti of iets beter lijkt me een logische keuze en dan kan je beter een 2080 halen die sneller is voor minder geld.

Ik denk echt niet dat ze dom genoeg zijn om een 1180 Ti even snel te maken als een 2080TI maar dan goedkoper.
Daarmee zouden ze de hele RTX serie uit de markt prijzen.
Grote kans dat je meer een rebrand effect krijgt waardoor je getalletje dus hoger is maar je prestaties niet.
Een 1180TI voor 800 euro is alleen logisch als hij sneller is als de 2080 die maar 750 euro kost en dat gaat echt niet gebeuren tenzij nvidia de RTX serie snel wil vergeten.

[Reactie gewijzigd door computerjunky op 23 juli 2024 15:38]

Ik denk dat dat wel meevalt als ze de prijzen dicht genoeg bij elkaar houden.
1080TI € 750,
1180TI € 1000,- (even snel als 2080TI)
2080TI € 1200,-

Dan zijn er denk ik mensen zat die voor die € 200,- extra tóch raytracing willen, met alle voordelen die DLSS en Raytracing mogelijk nog gaan opleveren het aankomende jaar.

@computerjunky Ik zei dan ook specifiek mogelijke voordelen.... DLSS kan denk ik wel wat worden als het goed uitgedokterd is, en dan is de vraag, hoelang wil je deze kaart gebruiken? 2 jaar? lekker voor de GTX variant gaan. 5 jaar? tja, dan is het een moeilijke keuze, want ik verwacht in de aankomende 2 jaar wel erg veel optimalisaties voor zowel DLSS als Raytracing.

[Reactie gewijzigd door zion op 23 juli 2024 15:38]

Nou ja persoonlijk vind ik ray tracing erg interresant maar om er 200 euro voor te betalen? Hell no!

Nou zijn het aantal mensen die zo absurd veel geld uit geven aan een gpu toch al maar een paar % van de bevolking dus misschien dat die dat wel doen.

En DLSS heb ik voorbeelden van gezien maar vooralsnog krijg je er wel meer fps van maar is de kwaiteit gewoon slecht met lagere texture kwaliteit en allerlij rare effecten die je ook kan realiseren door de settings gewoon lager te zetten en daar win je ook fps mee.
Misschien dat de huidige drivers nog niet optimaal zijn of de games maar ik zou het iet gebruiken. ik moet juist al reshade draaien wat 5% fps kost om alles superscherp te krijgen. Dan wil ik geen AA die het nog waziger maakt.
Ja klopt. Heb de 2080ti van inno3d. Maar het is een behoorlijke tegenvaller. GTA v is niet eens op 4k ultra te spelen met 60 FPS stabiel.
Laat staan bfv met raytracing.

Ze hadden beter deze kaart zonder raytracing kunnen maken en vervolgens meer aan de performance kunnen doen.
Dan doe je toch echt wat verkeerd want mijn 2080ti van msi heeft daar geen problemen mee...
Met enb en visualv mods? En alles op ultra? Zonder antialising

[Reactie gewijzigd door F5544 op 23 juli 2024 15:38]

De performanceimpact van ray tracing is nog dermate groot dat langzamere kaarten dan de xx70 serie niet echt nuttig meer zijn voor real-time ray tracing in spellen.
Wat ik laatst zag was zelfs de 70 serie niet genoeg voor 1440 misschien net 1080 als ik goed herinner maar dan gaat de scherpte van beeld wel flink achteruit is mijn ervaring en je wilt toch minstens 60fps
Het is natuurlijk ook nog een techniek in ontwikkeling. De eerste kaarten die tesselation ondersteunden konden dat ook niet doen zonder tientallen procenten aan performance in te leveren, de eerste kaarten die DX10 ondersteunden waren ook niet vooruit te branden in DX10 mode - deze lijn kun je doortrekken tot het prille begintijd van hardware-geaccelereerde videokaarten (texture compression, bump-mapping, anti-aliasing, ambient occlusion, etc., etc., etc.) Praktisch alle grafische features die we tegenwoordig vanzelfsprekend vinden zijn via een hobbelig pad, en dikwijs over meerdere GPU-generaties, pas gemeengoed geworden.

Daarom zijn er ook kar-trekkers (zowel aan de hard- als softwarekant) nodig die nieuwe technologieen een platform bieden - zij zijn degenen die graphics/gaming tech op een hoger plan brengen, niet de critici en cynici aan de zijlijn.

Het verschil is dat gamers 5 of 10 jaar terug enthousiast waren over de nieuwe features en zich er bewust van waren dat implementatie ervan tijd kost, en dat ook voor lief namen. Vandaag de dag gedragen veel gamers zich als verwende kinderen, die, niet gehinderd door kennis van zaken* en verslaafd aan instant gratification, die meteen gaan stampvoeten als ze hun zin niet krijgen.

* waarmee ik bedoel dat ze niet (willen) beseffen dat de introductie van nieuwe technieken (zoals overigens praktisch alle vernieuwing in de IT-wereld) een geleidelijk proces is, een evolutie, en niet een revolutie.

[Reactie gewijzigd door w00t00w op 23 juli 2024 15:38]

Doch de prijzen van deze nieuwe Turing kaarten zijn wel een revolutie...
Niemand heeft iets tegen technologische vernieuwing, waar men wel boos van wordt is dat Nvidia nu al de R&D kosten wil recupereren terwijl Raytracing en DLSS implementatie een lange weg te gaan hebben. Was de prijs vergelijkbaar met Pascal series dan had niemand er problemen mee.
Dat ray tracing gebeuren is maar de vraag of het iets kan gaan worden ze hebben meerdere trukjes in het verleden uitgeprobeerd maar die waren ook niet echt meteen of helemaal niet succesvol.
Het is de vraag aan de game ontwikkelaars en de heren programmeurs of ze daar daadwerkelijk iets mee gaan doen.Als zij er niks mee doen zal het nooit op het scherm aanwezig zijn.
Het zal per spel en per ray tracing gebruik en instelling verschillen of 1440p wel of niet haalbaar zal zijn met een 2070. Door het gebruik van variable ray tracing heeft men de performance al wat op kunnen schroeven, mede met wat optimalisaties in de drivers en spellen zelf.

https://nl.hardware.info/...variable-rate-ray-tracing

https://nl.hardware.info/...ks-rtx-raytracing-met-dxr (deze test is nog op 1080p, helaas niet op 1440p getest)
Het wordt allemaal erg duidelijk Nvidia...
Dat inderdaad, als er nou ook een 1180ti komt, een 2080ti maar dan zonder die RTX onzin dus, heb ik ook weer wat om naar uit te kijken :)

RTX kaarten koop ik pas als daar 100+ fps op 4k mee te behalen is met Raytracing aan.

[Reactie gewijzigd door watercoolertje op 23 juli 2024 15:38]

Ik denk dat we dat nooit zullen krijgen. Niet zolang er geen enkele concurrentie op het high-end vlak is.
Dat er geen concurrentie is kan je Nvidia niet de schuld van geven. AMD en Intel moeten gewoon meer gas geven.
Je hoort het wel vaker. "Dat er geen concurrentie is, is de schuld van de concurrentie! Laat die maar eens meer gas geven" En zodra er dan wel concurrentie is, is het "yay! Eindelijk wat serieuze concurrentie! Nu is nVidia/Intel/whatever goedkoper, ga ik alsnog lekker die cheap cheap opkopen!". Maar daadwerkelijk geld investeren in de producten van de concurrentie, is vaak een stap te ver. "Ken ik niet zo goed als merk X", "misschien nog kinderziektes", "al mijn vrienden hebben nVidia/Intel", de excuses zijn vaak niet aan te slepen.

Waar denkt men dat de concurrentie van betaald wordt? In ieder geval niet van de opportunisten die alleen maar kraaien om 'meer concurrentie' voor lagere prijzen om vervolgens lekker bij hetzelfde merk te blijven omdat je daar nou eenmaal 'goede ervaringen' mee had, ipv best value te kopen.

Als je niet ondubbelzinnig bereid bent om daadwerkelijk best value te kopen wanneer die kans zich voordoet, is er voor 'de concurrentie' ook geen animo om die markt te bedienen. Wil je het wel doen, is het verdomd moeilijk door de heersende mindspace door te breken en zul je meerdere jaren voorop moeten lopen wil je je kunnen vestigen - een groot risico dus ook. Wederom is het resultaat van een markt-dynamic gewoon de schuld van de consument die irrationele keuzes maakt - het gros van de consumenten is helemaal niet bereid zelf onderzoek te doen naar wat 'het beste voor het geld' is, maar waait veelal mee met 'meningen', danwel van vrienden/internet, danwel vanwege sheer fanboyisme - de mindspace dus. Dus spreek eerst je mede-consument aan voordat je klaagt dat er geen ander bedrijf is met genoeg budget om te concurreren. Voor niets gaat de zon op.

Voorbeeldjes:
• under-delivering pre-orders
• microtransactions
• unfinished game + 50$ 'DLC'
• volledig buggy games
• console exclusives

Etcetera - als de consument er geen bakken met geld tegenaan smeet, zouden al deze fenomenen simpelweg niet bestaan.

[Reactie gewijzigd door Boxman op 23 juli 2024 15:38]

Ik ben zelf ook wel voorzichtig met overstappen op nieuwe techniek, maar ik heb me daar in het verleden te vaak aan gebrand. Te vaak is er geroepen dat nieuwe producten het helemaal zouden zijn, ja ook door reviewers. En in de praktijk blijkt dan dat het toch niet zo lekker uit de verf kwam als gehoopt.

Als er werkelijk een duidelijk prestatievoordeel is in de praktijk, dan blijf ik niet stug bij Intel/Nvidia, maar bijvoorbeeld bij Ryzen op dit moment zijn er gewoon nog steeds situaties waar Intel het beter doet. Dan wordt er geroepen dat dat niet uitmaakt en de Ryzen is sterk genoeg, maar door die slechte ervaringen vroeger en de tests die toch laten zien dat het niet altijd zo gaat zou ik er toch voorzichtig mee zijn.

Overigens heb ik nog niet geupgrade, zit nog op een 2500K@4.4, en kijk ik vol spanning uit naar Zen2... of 3... ik volg de nummering even niet, maar die nieuwe die komend jaar verwacht wordt en waar hopelijk zo'n mooie sprong in performance te zien zal zijn. Als AMD inderdaad het kloksnelheidsverschil weg kan nemen dan hoop ik dat ze eindelijk overtuigend genoeg kunnen zijn voor mij en zal ik de sprong wagen.

Dus ja, het is lekker simpel om te roepen dat je als consument met je geld moet stemmen, maar het product moet het om te beginnen ook gewoon waard zijn. En het feit dat de fanboys dat massaal roepen hoeft dat nog niet waar te maken.
maar ik heb me daar in het verleden te vaak aan gebrand
Oei! Heb je voorbeelden?

Het punt wat ik wil maken schetst zich beter met de verhaallijn van Zen1. Toen Zen1 uitkwam, waren er plotsklaps processoren die zich konden meten met Intel's aanbod in gameprestaties (ik zeg 'konden meten' omdat ze zo'n 10% achter bleven op single-core performance) terwijl ze volledig de vloer aanveegden met alles wat Intel te bieden had in productie, en dat alles voor de helft van de prijs met dubbel zoveel cores. Kwa performance per $ hadden ze Intel op dat moment volledig tuk. Echter, in plaats van over te stappen naar AMD voor hun volgende build, kozen veel mensen alsnog voor het wachten op de prijsdaling van Intel (die MOEST komen) of het antwoord in de vorm van een nieuwe desktop-processor. Het mocht even duren en na wat rare stuptrekkingen schoof Intel bijkans zijn gehele HEDT platform naar beneden door het te rebranden als "Desktop-processoren", zei men "Intel is nog steeds sneller in games", bedankte daarbij AMD vriendelijk voor de lichte prijsdalingen bij hun vertrouwde merk (die ook niet te lang duurden) en kocht gewoon weer een Intel zonder dat AMD er een cent beter van werd, en ging over tot de orde van de dag.

Dat lijkt een beetje de algemene gang van zaken, gezien er geenszins een explosie in AMD processor-adoption is gekomen. Ookal hadden ze gemiddeld het beste product, al helemaal als je processoren tussen de twee ging vergelijken op prijsstelling. Ookal waren ze kwa bang-for-buck ver voorbij aan alles wat Intel te bieden had - maarja, die 5% (want meer is het niet met de huidige Zen+) in games he.. 8)7

Bovendien vindt die hele 'achterstand' in games ook zijn oorsprong in het Intel monopolie - het hele feit dat Intel zo'n 10 jaar achter elkaar nooit meer dan 4 cores op het desktop-platform heeft willen uitbrengen (want klanten kochten hun spullen toch wel) maakte dat game-devs ook geen reden hadden hun engines te schrijven voor meer cores. De technologie om dat te gebruiken was er niet dus had het simpelweg geen zin daar resources in te steken. Een 8-core Ryzen staat in veel titels voor de helft van de tijd uit zijn neus te vreten.

Een leuke status-quo, dus - zolang Intel geen concurrentie heeft, maakte het geen >4-cores (want surprise surprise ineens kunnen ze het wel), maakten de game-devs geen engines die >4-cores gebruiken, wordt nieuwe superieure technologie niet optimaal benut en komt het verminderd goed uit de verf in die specifieke workload, waardoor consumenten niet overstappen naar de nieuwe technologie, de kans bestaat dat de nieuwe technologie het daarom simpelweg niet haalt (geen geld = geen ontwikkeling) en game-devs dus nog steeds hun engines niet hoeven te optimaliseren.

Ik schets het overdramatisch, gezien AMD blijkbaar nog niet uitgespeeld is, maar het geeft maar aan hoe lastig het is om ertussen te komen - en hoe onterecht het is om te zeggen "de concurrentie moet maar beter zijn best doen" zonder even in de spiegel te kijken.
Als er werkelijk een duidelijk prestatievoordeel is in de praktijk, dan blijf ik niet stug bij Intel/Nvidia, maar bijvoorbeeld bij Ryzen op dit moment zijn er gewoon nog steeds situaties waar Intel het beter doet. Dan wordt er geroepen dat dat niet uitmaakt en de Ryzen is sterk genoeg, maar door die slechte ervaringen vroeger en de tests die toch laten zien dat het niet altijd zo gaat zou ik er toch voorzichtig mee zijn.
Opzich schets je het hiermee ook best goed - er is inderdaad flink gehamerd op de 5% die Intel nog op Ryzen heeft in games (wat vooral te verhalen is op engines die niet met >4 cores om kunnen gaan). De dubbele core-count/production-performance of de gehalveerde prijs t.o.v. vergelijkbare Intel processoren werden gek genoeg terzijde gelaten. Die 5% in 1 specifieke taak is - blijkbaar ongeacht de prijsstelling - genoeg voor veel mensen om bij het vertrouwde te blijven. Zoals jou nog vele anderen die zeggen "Ik stap alleen maar over als er echt een product is dat op alle vlakken beter is".

Dat is allemaal prima, maar de kans dat zoiets spontaan gebeurt is ontzettend klein; stel dat Zen 2 het straks niet redt, dan moeten diezelfde mensen dus ook niet zeuren dat er geen goede concurrentie is - ze zijn zelf niet bereid geweest die concurrentie in het zadel te helpen door de best value te kopen toen daar de kans voor was.

--------------------------------------------

Dit is het enige punt wat ik wil maken. Het gebeurt zoals het gebeurt want zo werkt de vrije markt, maar de hypocrisie in de soms desperate schreeuw om concurrentie terwijl men zelf steevast op het Intel of nVidia pluche blijft zitten, wijs ik al te graag aan.

Again, als de consument bereid is dubbel te betalen voor een product wat slechts 5% beter is in een specifiek geval - wat gewoon geen logische keuze is - dan zetten ze zelf de concurrentie buitenspel.

[Reactie gewijzigd door Boxman op 23 juli 2024 15:38]

Je hebt absoluut goede punten, en ik ben het met je eens dat 'we' als grote groep samen meer AMD zouden moeten kopen... Maar als je als individu de beslissing moet maken dan is het nogal wat gevraagd om voor 'the greater good' het product te kopen dat beter voor de markt is, maar wellicht niet beter voor jou.

Ik heb me verder ook niet heel diep er in verdiept omdat ik nog niet overgegaan ben tot aanschaf (eigenlijk pas vorige maand of zo echt tegen de grens aangelopen van mijn 2500K en nu begin ik er langzaam weer over te denken, maar heb nog geen haast), het kan dus dat ik het mis heb of dat de benchmark scores die ik zie niet eerlijk of correct zijn of whatever... Maar als ik nu bijvoorbeeld naar https://www.anandtech.com/bench/product/2125?vs=2250 kijk, dan zie ik daar bij games toch regelmatig grotere verschillen dan die 5% waar jij het over hebt. Meestal niet, meestal scheelt het inderdaad net niks. Maar de keren dat het wel flink meer scheelt is het altijd in het voordeel van die Intel. Als je dan twee cpu's hebt die allebei in bijna alle gevallen top performance neer zet, maar eentje ziet er op test scores uit als meest waarschijnlijk om dips in die performance te tonen, waarom zou je dan als je puur naar het product kijkt niet voor die andere gaan? En Anandtech Bench is misschien niet de beste bron, maar dit heb ik keer op keer bij andere reviews ook gezien... als er een verschil is bij gamen, is het steeds in het nadeel van AMD.

Nou weet ik overigens wel dat die benchmarks in laboratorium condities gevoerd zijn, er draait niks op de achtergrond. Zodra dat wel zo is krijgt de CPU met meer cores een voordeel. Dat is ook mede de reden dat ik toch op AMD aan het wachten ben nu (met die Zen 2). Een van de problemen waar ik met mijn 2500K tegenaan loop is dat Destiny 2 de CPU compleet voltrekt als ik tegelijk een Twitch stream op volle kwaliteit heb lopen (edit: voor de duidelijkheid, als kijker, ik ben niet zelf aan het streamen). Ik wil dus in mijn volgende CPU genoeg cores om gewoon wat ik ook wil op de achtergrond te hebben draaien terwijl ik game. Maar puur afgaand op de reviews snap ik dus wel dat mensen voor 'bekend' gaan.

Wat betreft voorbeelden, ik moet wel zeggen dat het grootste voorbeeld wel erg lang geleden is. Dat was in 1998, toen heb ik van mijn eerste beter betalende zomerbaantje een PC met een AMD K6-2 300 en een Nvidia Riva 128 gekocht. Nvidia was toen de nieuwe uitdager die het tegen 3DFX op ging nemen. Zowel die CPU als GPU werden toen voornamelijk door Tom van Tomshardware flink opgehemeld (en 19 jarige ik verslond die site). Helaas bleek de praktijk anders en mijn PC was pure crap vergeleken bij die van vriendjes met Intel Celerons of Pentium 2s, met Voodoo kaarten er in. Uiteindelijk heb ik toen zelfs alsnog het hele moederbord vervangen, er een celeron 300a ingehangen en die lekker op 450 Mhz geklokt (de Riva 128 heb ik het geloof ik wel mee uitgezongen). Daarna nooit meer in diezelfde mate me gebrand, maar heb wel slechte ervaringen met de drivers van AMD die bij mij altijd problemen gaven, en zelfs diverse malen met jaren er tussen als ik het dan toch weer probeerde DEZELFDE bug terug gekregen op een compleet nieuw systeem.

Overigens, wat betreft waarom Ryzen niet massaal omarmd werd... Daar denk ik toch ook dat de OEMs, de retailers, en wellicht Intel zelf ook de schuld moeten krijgen. Er werden simpelweg minder tot geen systemen aangeboden met Ryzen (al dan niet onder druk van Intel). Natuurlijk zit een deel in tweakers die zelf componenten kopen om een PC samen te stellen, maar het grootste deel van de markt zit in kant en klare systemen. Waar ik het dus wél met je eens ben is dat het inderdaad zeker niet zo simpel is dat de concurrentie maar gewoon harder zijn best moet doen, het is inderdaad niet AMD's schuld. Ik vind alleen dat het te simpel is om de schuld dan maar volledig bij de consument neer te leggen. Er zijn meer partijen, en die zijn minstens zo schuldig.

[Reactie gewijzigd door Finraziel op 23 juli 2024 15:38]

maar als je als individu de beslissing moet maken dan is het nogal wat gevraagd om voor 'the greater good' het product te kopen dat beter voor de markt is, maar wellicht niet beter voor jou.
Het is imo niet zozeer for 'the greater good' maar alsnog een keuze voor de individu zelf. Het verschil is of het *nu* beter is voor jou, of *later* ook nog. Het zou inderdaad in de aard van de mens moeten liggen om de 'beste' keuze te maken, maar oprecht vind ik met de release van Zen1 (en destijds de AMD 64 reeks) de 'beste' keus niet op Intel vallen. Daarom is het zo gek dat mensen alsnog gekozen hebben om te wachten voor Intel's antwoord, zodat ze met 'het bekende' verder konden. Ook 10 jaar geleden heeft AMD een moment van brilliance gehad, maar gingen veel alsnog voor de gevestigde orde. Zou men die keus alsnog maken als men wist daarmee 10 jaar stagnatie in de hand te spelen, omdat AMD bijna volledig kopje onder ging?

Uitschieters in game-benchmarks - tsja, wat kan ik erover zeggen. Tal van redenen - een quick look naar je link waar ik even snel de 8700k tegen de 2700x zet laat vooral bij Far Cry 5 een vreemde uitschieter zien, wat zijn origine vindt in specifiek de 1440p-test in deze review en verder aldaar niet besproken wordt als de schijnbaar onmogelijk lage score die het is. Dit ook terwijl een andere review op dezelfde 1440p iets totaal anders laat zien. Vaak zijn dit soort rare uitschieters veroorzaakt door slechte set-up, of een obscure software-fout, bug of instelling, negen van de tien keer met een simpele patch verholpen. Voor de titels die niet direct optimaal werken geldt dezelfde status-quo; als niemand of een te kleine groep een andere processor dan Intel draait, is er geen drijfveer om de software voor alternatieve configuraties te optimaliseren terwijl de gevestigde orde wel dat privilege geniet.

Op basis daarvan de hardware afschrijven vind ik persoonlijk misplaatst, gezien het gros van de resultaten juist laat zien dat de compute-kracht van beide zeer dicht bij elkaar ligt en in principe dus - bugs daargelaten - vrijwel gelijk preseren. Maar het gebeurt nu eenmaal en is juist een goed voorbeeld van wat ik bedoel - men blijft het liefst bij het bekende en betaalt graag meer voor die zekerheid.

Ik vind gewoon dat men dan niet moet zeuren als het alternatief kopje onder gaat.

Bij uitspraken als "En Anandtech Bench is misschien niet de beste bron, maar dit heb ik keer op keer bij andere reviews ook gezien... als er een verschil is bij gamen, is het steeds in het nadeel van AMD." zou ik toch proberen bronnen paraat te hebben - er is altijd een reden voor sterk afwijkende resultaten. Maar dat gaat te ver off-topic.
Daar denk ik toch ook dat de OEMs, de retailers, en wellicht Intel zelf ook de schuld moeten krijgen. Er werden simpelweg minder tot geen systemen aangeboden met Ryzen (al dan niet onder druk van Intel). Natuurlijk zit een deel in tweakers die zelf componenten kopen om een PC samen te stellen, maar het grootste deel van de markt zit in kant en klare systemen.
Het is hetzelfde idee imo - juist consumenten van OEMs willen niet wat de boer niet kent, hoe goed het ook is. "Ryzen? Wat is dat? Heeft deze PC wel Intel?", of onsterfelijk hoe vroeger een vriendje aan me vroeg "of ik Pentium op zijn PC kon zetten", want dat was snel en goed. OEMs bouwen geen Ryzen-pc's omdat de vraag ontbreekt. En omdat Intel rare incentive programma's heeft, maar laten we het daar niet over hebben.. Puntje bij paaltje is alles gedomineerd door waar de klant geld naartoe wil sturen. Er zijn tal van producten die niet de beste zijn en al helemaal niet voor de prijs, maar wel als warme broodjes verkopen - status en mindspace zijn de sleutelwoorden daar.

Uiteraard wordt de consument gemanipuleerd tot-en-met. De diepe zakken van Intel hebben vaker laten zien waar ze toe in staat zijn als er een mogelijke monopoliepositie op het spel staat. En er is een reden dat mensen bereid zijn steeds exorbitant te spenderen aan de nieuwe iPhone terwijl innovatie de laatste paar jaar op een significant lager pitje staat dan voorheen. Ik neem het de consument ook niet kwalijk. Maar als paal boven water staat dat de consument altijd met de portemonnee stemt, bewust of onbewust. Zolang het braaf gekocht wordt is er geen enkele drijfveer tot verandering.

Again, het enige punt dat ik maak is dat ze niet raar moeten opkijken als het bedrijf waar ze geen geld aan gaven, geen geld meer blijkt te hebben voor 'gezonde concurrentie'. Om zich vervolgens af te vragen waarom ze niet even wat gas bij geven. Ik vind dat zó hypocriet..

[Reactie gewijzigd door Boxman op 23 juli 2024 15:38]

[...]
Toen Zen1 uitkwam, waren er plotsklaps processoren die zich konden meten met Intel's aanbod in gameprestaties (ik zeg 'konden meten' omdat ze zo'n 10% achter bleven op single-core performance) terwijl ze volledig de vloer aanveegden met alles wat Intel te bieden had in productie, en dat alles voor de helft van de prijs met dubbel zoveel cores.
Ik weet niet welke resultaten en prijzen je naast elkaar zet, maar bovenstaande is simpelweg onjuist (en benaderd de waarheid niet eens).

Bijvoorbeeld: Een 7700k was singlethreaded nog 25% sneller dan een 1700X, multihreaded 60% langzamer, kostte niet eens zoveel meer én was beter overklokbaar.
"multihreaded 60% langzamer", dat is ruim een factor 2 trager, voor meer geld.

Het staat wat ongelukkig, er had een / tussen gekund; en dat alles voor de helft van de prijs / met dubbel zoveel cores - niet beide tegelijk natuurlijk. Toendertijd.

Ironisch genoeg is het op moment van schrijven wel volledig correct.

7700k, 4core; 365 euro
1700x, 8core; 185 euro

Dubbel de cores, helft van de prijs ;)
Je hebt terechte kritiek op hoe het kapitalisme niet in dienst staat van de consument.

De kosten om in te stappen, om iets vergelijkbaars goedkoper aan te bieden, zijn enorm, om het nog maar niet te hebben over alles wat fout kan gaan onderweg.
Ik verwacht eerder concurrentie vanuit ARM, daar worden jaar op jaar enorme vooruitgangen geboekt.
Die ARM concurrentie is inderdaad goed bezig, maar dat is iets waar je als gamer helemaal niks aan gaat hebben. Als het al te lastig is om gaming engines beter met meer dan 4 cores om te laten gaan, dan gaat het helemaal lastig worden om helemaal op een totaal andere architectuur over te stappen natuurlijk.
Ik heb zelf een oudere Intel cpu, een I7 4790k. Die kan nog best meekomen, maar toch kijk ik af en toe naar iets nieuws.
Ik heb niet perse een voorkeur voor Intel, ik heb ook AMD cpu's gebruikt en was tevreden.
Toch is er wel een reden die maakt dat ik er tegenaan hik om nu serieus naar een AMD cpu te kijken. De cpu's zelf zijn namelijk zeker goekoper, maar moederborden kosten 2 keer zoveel...
Ook is er nog het geheugen, waarbij je eigenlijk de duurdere, snellere versies moet gebruiken.

Dan is je besparing ineens verdwenen of een stuk minder....

[Reactie gewijzigd door Dracae op 23 juli 2024 15:38]

"moederborden kosten 2 keer zoveel" :? Met een snelle blik op de pricewatch zie ik B450 bordjes voor minder gaan dan Z370, terwijl dit wel de minimum chipsets zijn voor de high end cpu's. Ja je hebt nog X470, maar die is in 99% van de gevallen overbosig tegenover een B450 bordje met enigzins goede vrms. Ook het geheugen probleem van 1st gen ryzen is een stuk minder erg bij zen+ door de veranderingen aan de architectuur. Ja je profiteert nog wel van hogere snelheden, maar 3200 is lang niet meer een must have.
maar moederborden kosten 2 keer zoveel
Zoals Gamerstijn terecht opmerkt, is dit simpelweg onwaar.
Zen2 is er allang hoor :) Ik draai zelf prima op een Ryzen 5 2600 hier. Omdat intel er pas nog 100 euro bovenop heeft gedaan (i5-8600 van 180 naar 280 euro) was het een makkelijke keus.

En ja intel doet het misschien iets beter op bepaalde gebieden maar wie koopt er nou een processor voor de absolute maximale prestaties op dat moment? Ja de paar mensen die de absolute topmodellen kopen voor 1000 euro. En dan nog is die bij het uitkomen van het volgende model alweer verouderd.

Voor de meeste mensen is het een afweging van "snel genoeg voor de prijs" en daar doet AMD het prima.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 15:38]

Ryzen 2 is gebaseerd op zen+. Zen 2 is dus nog niet uit gebracht.

[Reactie gewijzigd door runeazn op 23 juli 2024 15:38]

Ah okee, dat was me niet duidelijk. Bedankt!
Ja dat is dus precies wat ik bedoel met de verwarring rond de benaming... Er is een tweede Ryzen, maar dat is dan weer niet Zen 2...

En je hebt geen CPU van 1000 euro nodig om hogere prestaties in games te halen dan op de huidige Ryzens behaald wordt. De top CPU is net iets meer dan de helft (de 9900K), maar een i5 9600K van rond dezelfde prijs als die Ryzen wint ook nog vaak genoeg in games. En inderdaad, meestal zal die Ryzen snel zat zijn en maakt het niet uit, maar je ziet bij Ryzen toch meer spikes naar onder in de framerate. En dan wordt ik toch huiverig van het gewoon maar aannemen van het internet dat het wel goed komt.

Maar goed, zoals gezegd, ik heb goede hoop dat de volgende Zen dat probleem kan ondervangen en ook op die momenten AMD een topkeuze zal blijken :)
Ja ik heb dat ook wel een beetje dat het tegenvalt maar ik dacht dat dat komt doordat ik met mijn stomme kop 2400Mhz geheugen heb gekocht. Was veel goedkoper, maar ik las later pas dat dat bij AMD heel erg uitmaakt omdat de Infinity Fabric dan ook op een veel lagere snelheid draait. Bij intel maakt het over het algemeen niet zo veel uit tenzij je echt super ram intensieve dingen doet.

Niettemin kom ik van een i5-3330 in een AlienWare X51 met kapotte USB 3.0 poorten waardoor ik niet goed kon VR'en. Hoe dan ook is het een mega upgrade en het kostte een appel en een ei.
ja en die afweging heb ik ook al gedaan volgend jaar of een upgrade of een nieuwe computer.
Wat ik nu draai is een i7 3770 met een nvidia gt630 ,upgrade zou dan bestaan uit een ssd harde schijf en een nieuwere videokaart.
Of een nieuw systeem het zou dan die 84 of 8600 processor worden van intel van medion.
En dan heb ik 2 kernen meer dan ik nu heb,geheugen kan ik er naar verloop van tijd erbij kopen.
Maargoed dit is effe offtopic.Ik had ook een aanbieding gezien van medion waar een amd videokaart bij zit en die was meteen goedekoper of althans het gehele gezamelijke systeem-prijs.
En denk eraan voor iedereen is er een systeem wat je kunt samenstellen of compleets systeem zoals jij dat wilt.
Als je nu die arm student bent ,of die rijke pief die op het hedt platform zit te gamen en zaken te doen.
Voor iedereen wat wils.Enne op die amd systeem kan je ook goed gamen, en ook met een amd videokaart erbij.
Ja zelf wil ik geen kant-en-klare systemen meer sinds ik die AlienWare heb gehad. Veel te veel gezeur met GPU's die net niet passen, een externe PSU met converter board dat niet met pieken overweg kan. USB 3 controller die kapot ging en geen extra slot aanwezig voor een aparte controller.

Het was een super klein systeem (Ongeveer even groot als de originele Xbox 360) en dat was handig toen ik hem (tweedehands) kocht, maar upgraden is echt een drama met zo'n systeem. Dus nu heb ik gewoon een goede midsize kast gekocht (Cooler Master N200, heel erg tevreden met wat je krijgt voor die 45 euro!). Hier kan de grootste GPU die ik ooit wil gewoon in. Wel maar eentje, maar SLI is toch mijn ding niet.

Overigens was het alles bij elkaar ongeveer 380 euro, voor prima kwaliteit componenten. Uiteraard moest bijna alles geupgrade worden.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 15:38]

Als je een kant en klaar systeem koop net zoals ik het nu heb dan kan je beter een full atx kast kopen,want dan heb je genoeg ruimte om nog alles te kunnen uitbreidende tevens ook kijken wat voor een moederbord erop zit en de mogelijkheden daarvan.Wat ik wens is dat er bv wifi opzit maar er hoeft geen bleutooth op.ik heb plaats genoeg in de kast maar ik kan niks meer uitbreiden wat er maximaal inkan zit erin, dan zou je wel een nieuw moederbord kunnen kopen maar dan zit je weer te klooien met de windows versie die geactiveerd moet worden etc. Kortom voor een rampscenario te voorkomen zal het toch een geheel nieuw systeem worden en ook van medion aangezien er windows gratis er ook bij zit.
En wat de videokaart betreft zal het een 1050 worden met 4 gb geheugen gddr5 weliswaar.
En hopen dat ik een full size atx moederbord heb of althans dat dat erbij zit,meestal is dat niet zo.
Ja ik heb de componenten allemaal los gekocht.. Nieuwe kast, moederboard, voeding, CPU, geheugen. Windows licentie heb ik gewoon samen met de SSD overgezet van mijn vorige computer. Moest wel ff met Microsoft bellen omdat er zo veel veranderd was maar het is gewoon geactiveerd. Want ik had destijds een retail licentie.

Maar ik heb geen ATX genomen, maar micro-ATX. ATX heb je eigenlijk alleen nodig als je SLI wil gaan draaien en daar heb ik niks mee (1 huidig model videokaart is me al te duur, laat staan twee :') )

Maargoed ieder zijn voorkeur natuurlijk! Als je de ruimte hebt dan is full ATX ook prima.
Wow, dat was random XD
AMD heeft een veel kleiner budget en Intel heeft nog nooit eerder een high end gpu uitgebracht. Ben bang dat het nog wel even gaat duren.

Vind het eigenlijk al knap dat AMD nog zo goed mee komt. Ben ook erg benieuwd naar Navi.
Asus i740 gehad dus voor iNtel wordt het een comeback.
Daar kunnen we Nvidia niet de schuld van geven? Nadat Nvidia jarenlang systematisch geprobeerd heeft (zijn best heeft gedaan) om AMD uit het veld te ruimen?
Nee dat is niet nvidia maar intel.
Ten eerste concurreren GPU merken ATi/AMD vs nVidia op dezelfde procede.
Maar het is CPU tak op 32nm vs 14nm van intel waar AMD CPU tak de Radeon Tak mee de afgrond in trok. En de gpu tak AMD nog drijvende hield .

Radeon tak kan alleen comback krijgen als goed gaat met de CPU tak met paar jaren winst draaien en vergrote R&D ook voor gpu.
Je kan eerst een nextgen midrange of sub highend verwachten.
Big chip highend kan vergeten. Dan moet het eerst voor lange tijd heel goed gaan met de CPU tak
concurrentie of niet heel veel mensen kopen blind Nvidia en niet alleen de laatste jaren, zelfs in de ATI dagen zag ik dit vaak.... op vandaag word juist vaak gezegd dat AMD moet opschieten met hun kaarten voor de concurrentie alleen zoat Nvidia hun kaarten afprijst zodat ze dit uiteindelijk kopen. Vind het zelf wel goed zo met dit soort mensen, dat ze maar bloeden met hun Nvidia }>
Er is simpelweg geen concurrentie voor de high end kaarten van nvidia, of wil je beheren dat de vega 64 tegen de 1080 ti/2080/2080 ti kan opboksen. "Vind het zelf wel goed zo met dit soort mensen, dat ze maar bloeden met hun Nvidia" is natuurlijk een wel hele simpele opmerking.
Mij hoor je niet beweren dat de Vega 64 dat kan, de Vega 64 is een goede concurrent voor de 2070/1080 qua gaming performance.
Jij mag het een simpele opmerking noemen, maar het is wel zo uiteindelijk.... De slechte Nvidia kaarten werden ook gewoon massaal gekocht ook al waren ze slechter in performance en price vs Radeon kaarten, Dat AMD een flater heeft gemaakt met Polaris op de High end is hun eigen schuld maar mensen begonnen toen ook echt te denken dat AMD gewoon ronduit ruk was ondanks dat hun Polaris kaartje gewoon uitstekende performance bied in de prijs categorie waar ze zaten en in veel gevallen ook beter dan Nvidia. Toch bleven steekvast geloven dat Nvidia beter was omdat ze de highend kaarten aanboden in de markt en daarnaast werd Nvidia door elke gek aangeraden aan iedereen een PC wilde bouwen (van budget tot the highend). De huidige situatie hebben we toch volledig aan ons zelf te danken, Niemand wild AMD dus waarom zou AMD dan nog investeren?
Ja vroeger hadden lokale shops niet eens ATI gkaarten of AMD cpu op stock toen online shoppen nog niet zo gamgbaar was.
Dat is niet mijn ervaring, weet ook niet hoe representatief mijn omgeving was gezien ik op fiets afstand 3 computer speciaal zaken had liggen (waarvan 2 op gamers gefocused) en dan nog 4 grotere ketens zoals de vobis, haremse smit, maxwell en als ik goed herinner ook expert. deze zaken haden ook over algemeen een goede beschikbaarheid van merken (hercules was in die tijd toch mijn favoriet, met hun dozen :9 )
Het is je goed recht om fanboy te zijn en AMD het liefst kapot te zien gaan (I mean, je hebt het over 'anti-radeon', dat zegt al genoeg). Het is ook je goed recht daarom op irrationele wijze iedereen die je maar kent AMD koste wat kost af te raden, om wat voor redenen dan ook. Maar dan ook niet janken als jullie clubje fanboys hun zin krijgt, AMD daadwerkelijk ten onder gaat en je volgende mid-range kaartje voor 1000 euro pijn doet voor 10% meer performance.

[Reactie gewijzigd door Boxman op 23 juli 2024 15:38]

Daar betaal je ook voor, als jij het niet erg vind om voor de TU102 €1300,- of €2499,- te betalen terwijl diezelfde GP102 uit 2016 €850,- en €1200,- kostte en om nog verder terug te gaan naar de GM200 uit 2015 die €850,- en €1200,- kostte.
Dit is een schoolvoorbeeld van de vrije markt die zij werk doet. Jij wilt persé dat product, daar betaal je dan ook voor. Nvidia premium? sorry die snap ik niet.
Daarentegen ben ik nooit loyaal geweest aan een merk, ik kijk wat mij de beste prijs/kwaliteit bied en dat koop ik (of dit nou Nvidia of AMD of welk merk dan ook)

[Reactie gewijzigd door Richo999 op 23 juli 2024 15:38]

De Turing gpu zijn grote chips die door tensor en RT cores xtra groot zijn tov vorige gen.
Een 2080ti is 1080ti en tensor en RT cluster erbij.
Mij lijkt dan meer prijs wel op zijn plek gezien kosten van grotere Chips produceren.

Gezien AMD niet mee gaat met DXR in hardware op korte termijn en DXR tot zijn recht komt in de highend , heeft nV eigenlijk wel een low en midrange conventionele betaalbare tegenhanger nodig voor aamkomende Vega 2 en Navi.
Dus vind het eigenlijk wel logisch gezien deel van markt die hele RTX overslaat.
Als je over een console bezit dan is de kans heel groot dat je dus toch AMD hebt :+. Nvidia heeft alleen de Nintendo Switch momenteel wat een oude Tegra X1 chip bevat.
Trieste reactie, koopkracht heeft niks met consoles te maken ;(. Consoles hebben wel meer pro's (zoals veel couch co-op games), maar ik ga mijn tijd niet verspillen om dit aan jou uit te leggen.
Wellicht, alleen zo komt het wel over :P. Ik denk dat mensen die consoles kopen prima met geld kunnen omgaan, het is maar waar je je waarde aan hecht.
Het is dus jouw mening, niet aan mij omdat te veranderen. Zoals het bijvoorbeeld mijn mening zou kunnen zijn dat mensen die een GTX 2080Ti kopen niet met geld kunnen omgaan.
Mensen die juist voor console gaan hebben juist goede geld baten en kosten overweging.
Ten eerste is console al soort van PC met prijs iets meer dan productie kostprijs.
Dus kwa bang for tha buck zit je goed.
En kwa gane industrie zijn dat juist de primaire targets waar meeste games voor ontwikkeld worden.
En PC master race is totaal afhankelijk van port aspiraties van devs en publisher backing voor dat.
Waar nV gelobby bij sommige games wat dev overhaald om wat extra te doen.

Voor online gaming is daar meer gelijkheid kwa hardware en minder last van cheaters.

Bij mij is PC gaming meer gebleven voor singleplayer games.
Online gamen uitsluitend op PSN met PS4
Dat de concurrentie achterblijft komt ook omdat Nvidia héél veel geld aan gamedevelopers doneert plus ze patenteren bepaalde dingen die ze vervolgens wel in games pushen.
Hairworks bijvoorbeeld was zelfs zo gemaakt dat 't systemen van de concurent vertraagde, moest de Tesselation van 64x naar 8x gezet worden om 't een beetje werkend te krijgen.
Ondertussen allemaal nvidia kaarten blijven kopen :+
Ik dacht precies hetzelfde. RTX is wat mij betreft als techniek nog niet volwassen genoeg om nu in te investering maar een flinke performance boost om fatsoenlijk op 4K te kunnen gamen zie ik echt wel zitten.
Ik denk alleen dat heel veel early adopters gaan ontploffen als er een 1180TI beschikbaar komt voor een substantieel lager bedrag dan wat de 2080TI kost. Het lijkt me toch dat veel van deze kopers het meer om de performance boost ging dan om de RTX.
Logischer zou zijn dat nVidia de 11 serie tot ongeveer de 1160 laat gaan en daarmee het high end segment op de 20 serie houdt.
Inderdaad, ik heb onlangs zelf een rtx 2070 gekocht. Dit enkel en alleen om mijn 3440x1440 redelijk vlot te laten draaien. Raytracing heb ik zelfs nog niet eens geprobeerd. Stiekem ook wel een beetje omdat men kaart beter bij het kleurenschema van mijn build past.
En dan is de vraag, had je niet liever opties gehad zonder RTX die óf goedkoper zouden zijn (1170) óf meer performance zouden leveren (1180).
Maar zoals eerder gezegd, ik denk dat ze de 11 serie in het budget segment houden om zo niet te concurreren met hun eigen high end lijn.
ik betwijfel echt zwaar of ze goedkoper zouden zijn, de 20xx serie is nu al standaard nieuwe generatie prijs, die RTX heeft er niet zoveel aan prijs bijgedaan.
Denk eerder dat als er echt een 11xx serie uit komt, dat het om refreshes gaat
Als het zo zou gaan is dat inderdaad wel een beetje lullig.. Maar aan de andere kant wordt hun RTX2080Ti niet minder snel en ze blijven de Raytracing ondersteuning houden wat de 1180Ti dan niet zal hebben.. Ik denk ook niet dat een mogelijke 1180Ti sneller zal zijn dan een RTX2080Ti, maar inderdaad wel een stuk goedkoper.. Als er dus überhaupt een 1180Ti komt, want ik vermoed dat Nvidia de 1100 serie niet verder zal laten lopen dan een 1160, dan blijft de RTX serie daar dus allemaal boven zitten behalve de mogelijke RTX 2060 die dan gelijk loopt met de GTX 1160 wat het "top" model van de 1100 serie zal zijn.. Een mid/low range serie dus, waar RTX highend blijft..

[Reactie gewijzigd door Inflatable op 23 juli 2024 15:38]

Helemaal mee eens. Dat bedoelde ik ook. nVidia zou zichzelf behoorlijk in de voet schieten als ze met een 1180TI zonder RTX die verder dezelfde performance biedt als een 2080TI maar een stuk goedkoper is. Denk dat ze dan niet veel RTX kaarten meer verkopen. En ik denk ook dat veel RTX eigenaren zich behoorlijk genaaid zullen voelen. Daarom zal voorlopig de 1160 wel de max zijn.
Een 11 serie die lager presteert dan de 10 serie is gewoon volkomen onduidelijk en daar zouden ze heel veel gezeur mee krijgen.
Ze wringen zich hier in een bocht die wel eens kan eindigen in een cirkeltje waar ze niet uit komen.

Ze kunnen beter accepteren dat de RTX kaarten "niet af' zijn RTX is immers niet volwassen genoeg en er is geen content. de prijs verlagen naar de zonder RTX kaarten prijzen en accepteren dat het pas over 2 a 3 generaties goed genoeg is of volgende generatie flink meer tenser cores inbouwen om te kijken of dat ze beter maakt.
Wat is er niet af aan de RTX kaarten dan? Ze werken prima, alleen is de stap omhoog qua prestaties dit keer niet zo groot als de 2 generaties daarvoor.. Waarschijnlijk is technisch gezien gewoon niet meer mogelijk op dit moment en waren we de afgelopen generaties kaarten gewoon een beetje verwent met grote stappen van 50% meer prestaties steeds.. Raytracing prestaties zelf zullen ook wel beter worden zodra men de software beter optimaliseerd.. Er is volgens mij niks niet af aan de RTX serie kaarten, ze zijn alleen wel erg duur en de stap wat betreft betere prestaties is wat minder groot..
De fps is teleurstellend iets dan in volgende generaties aangepakt moet gaan worden. DLSS is een domper behalve voor fps maar ten koste van kwaliteit.
Ik zioe het meer als een kaart die demonsterrt wat er mogelijk is maar een product dat breed inzetbaar is voor ray tracing als een standaard is het gewoon niet.
verder is het natuurlijk een prima kaart met de verwachte upgrade in snelheden.
Als hij niet vroegtijdig overlijd natuurlijk. En de prijs tja die is gerechtvaardigd door de sukkels die het kopen als niemand het betaald had waren ze nu al 35% goedkoper. teveel mensen met teveel geld (of schulden) die het verpesten voor de rest.
Ze moeten helemaal niks.. Zolang er geen ander bedrijf is dat Nvidia enige competitie kan bieden qua prestaties in het highend al helemaal niet.. Zoals ik al zei, denk niet dat Nvidia express prestaties achterhoudt ofzo, ik denk dat dit het gewoon is op dit moment wat technisch mogelijk is..
Probeert Nvidia hier niet gewoon een "rebrand" scheme op te voeren om weer een price bump door te voeren op de "mindere" kaarten?

Nu ga je nog een lijn krijgen tussen de 1060 en 2060, de 1160. De prijs tussenin maar toch weer een beetje hoger dan de 1060.

Het is dringend tijd aan het worden dat AMD wakker begint te schieten en er zich eens goed in gaat mengen.
Erg veel speel ruimte zit er qua prestaties niet tussen deze series dus ze moeten heel erg oppassen wat ze doen anders snijden ze zichzelf in de vinger en diep ook.
Ik denk dat bij de vergelijking wat mooier is: 4K zonder RTX, 1440p met RTX best wel eens in het voordeel van RTX kan uitpakken. Goede online vergelijkingen voor zulk soort dingen ben ik echter nog niet tegen gekomen (want da's lastig, mooi = subjectief).

Daarnaast moet je ook gewoon zien hoe de prijs gaat vallen. Als NVidia nauwelijks meer gaat vragen voor raytracing als optie en de kaarten als je raytracing uit zet hetzelfde kunnen, dan weet ik wel wat ik zou willen. Ik hoef in single player echt geen 100 fps, en in multiplayer kan je het gewoon af zetten.
Of de prijs veel of weinig verschilt is aan nvidia, het kost ze in ieder geval veeeeeeel minder om die nieuwe zooi er gewoon niet in te stoppen.
https://cdn.wccftech.com/...Turing-GPU_19-740x416.png

Hier kan je goed zien wat voor invloed die extra cores (die ik dus nog niet hoef, dat scheelt dus de helft van die chip) aan ruimte pakken. Daarmee zou de kaart sneller zijn dan de 1080ti (16TFLOPS vs 13TFLOPS) op een flink kleiner oppervlakte (20% kleiner oid), en daarmee dus ook fors goedkoper kunnen zijn dan een 1080ti. Om te maken dan....

[Reactie gewijzigd door watercoolertje op 23 juli 2024 15:38]

Waarom zou een merk zijn top selling points aan de wilgen hangen en het uit een goedkopere reeks kaarten laten.
Dit kost ze in de toekomst omzet en game makers gaan minder hun best doen om betere games te maken.
Einde van de rit heb je alleen jezelf ermee.

Echter zie ik niet hoe ze een lijn ernaast kunnen lanceren die goedkoper is.
Want als de kaart trager word is hij trager of even snel als de voorgangers en is hij sneller kiezen mensen voor de niet rtx versie zo lang als er niet veel games voor zin wat game makers niet motiveert.
Ik snap dan ook helemaal geen hol van deze keuze verlaag gewoon de RTX prijs en klaar is kees voor 12 tot 18 maanden.
Nu koop ik gewoon niks, dus 800/900 euro die ik wel bereidt ben te betalen voor een 1180TI lopen ze nu mis :)

Uiteraard kunnen ze de RTXen goedkoper maken, maar dat kost net zo goed omzet...
Op de korte termijn kost dat idd omzet maar as RTX en daarmee ray tracing en deep learing een standaard word in games levert ze dat in de toekomst geld op omdat mensen eerder een gpu met ray tracing support kopen.
Nu moeten ze het dus gratis weg geven om in de toekomst te oogsten.
Me tooo, maar dan wel met volledige raytracing..

Wanneer gaat Nvidia snappen dat RTX een dikke faal geworden is, zeker deze generatie.

Geef mij maar indd een 1170(ti)/1180(ti) zonder die RTX features.
Klopt: RTX vs GTX, lijkt mij heel duidelijk.
Mensen die zulke kaarten kopen, weten heus wel wat ze kopen.
Mensen die geen ene moer kan schelen, maken gebruik van de iGPU.
Er zullen genoeg mensen zijn die zo'n kaart kopen maar het verschil niet weten hoor.
Dan hadden die mensen maar hun huiswerk moeten doen. Kom op zeg, we hebben het hier niet over een zak chips maar over een aanschaf van minimaal enkele honderden euro's: dan mag je verwachten dat een consument zich eerst enigszins informeert alvorens tot koop over te gaan. Hoeft niet, maar dan moeten die mensen ook niet gaan mauwen als ze veel meer hebben uitgegeven dan noodzakelijk.
Dit is nochtans niet alleen heel erg logisch, maar zelfs de enige mogelijkheid voor nVidia.

De goedkopere RTX kaarten zouden immers veel te traag zijn om ray-tracing enabled games aan speelbare framerates weer te geven. Dan is het zinloos om die hardware te voorzien natuurlijk.
Klopt maar daarvoor hoeft dus enkel RTX naar GT(X) te veranderen, niet de cijferreeks anders te maken...

GTX 2060 was dus prima mogelijk ipv GTX 1160...
Nee dat zou heel lullig zijn, mensen die het verschil niet weten tussen GTX1180 en RTX2080, tja, die zijn gewoon lui en moeten zich een beetje inlezen, maar je kan er op wachten dat er heel veel teruggestuurd gaat worden als mensen denken een RTX2080 te kopen, en een vriend wijst ze erop dat ze per ongeluk een GTX2080 hebben gekocht....

Ik ben pro de naamgeving voor duidelijkheid, maar schaar me bij alle comments hierboven dat dit een onmogelijke marketing wordt voor Nvidia, vanwege alle reeds genoemde argumenten.
Ik denk dat er bedoeld wordt dat er onder de RTX2070 dan bijv. een GTX2060 komt. Er komt dan dus niet een GTX2070 naast de RTX2070. M.a.w., alles onder de xx70 wordt dan "GTX".
Ze moesten wel....ze snappen ook wel dat het midden segment weg gaat als ze niet snel een alternatief voor de GTX 1060 e.d. bieden omdat ze niet meer produceren....

Verwarrend maar wel noodzakelijk.
Ik vind het niet heel verwarrend.. GTX 1100 serie is de nieuwe mid/low range, RTX 2000 serie blijft highend..
Niet de naamgeving, de positionering en de timing die daarmee gepaard gaat. Alsof het een last second call was om toch ook maar weer GTX kaarten te doen....
Dat zullen we toch nooit weten.. Ik vind dat in ieder geval wel een logische stap.. Je hebt niks aan raytracing op minder krachtige videokaarten en om het verschil tussen wel of geen raytracing support aan te geven noemen ze de serie gewoon weer GTX.. Zo heel ingewikkelt is het allemaal niet..
Dit lijkt me alleen een logische stap als de RTX kaarten matig verkopen, want een goedkopere GTX 11 serie gaat namelijk direct concurreren met de RTX lijn. Bovendien loopt men nog niet echt warm voor raytracing, een betere prijs/prestatie verhouding heeft een veel grotere invloed op nieuwe aankopen. Een nieuwe 11 serie lijn zal waarschijnlijk veel populairder worden, mits de prijs significant lager is dan een RTX tegenhanger.

Verder lijkt me dit ook niet heel bevorderlijk voor de grote voorraden 10 serie Pascal kaarten die ze niet verkocht krijgen. Het gat tussen Pascal en Turing is momenteel vrij fors en wordt dan ineens kleiner, waardoor Nvidia wederom met zichzelf concurreert.

Het begint ook echt een rotzooi te worden met oude kaarten in nieuwe jasjes, denk dan aan bijvoorbeeld de 1060 GTX met GDDR5X geheugen. Waarschijnlijk heeft Nvidia dermate hoge voorraden dat ze geen idee meer hebben hoe ze de boel moeten slijten. Ja, de prijzen verlagen, maar dat is natuurlijk geen optie voor ze.
Waarom is prijs verlaging geen optie? Nvidia is nog steeds in staat kleine gpu's te maken die even snel of veel sneller zijn dan de concurrent kijk maar naar de originele 1070/1080.

Fabricage kosten liggen dus laag genoeg om ze voor minder te slijten. Echter ben je dan wel je premium waarde kwijt.

Nvidia is wat dat betreft een beetje een Apple geworden waar het merk alleen al de waarde vergroot ten opzichte van AMD.

Zie de 1050ti die even duur is als een Rx570.

Maar nooit en te nimmer in geen enkele toepassing in de buurt komt.
omdat de 2000 serie eigenlijk ontworpen van voor 10nm. maar dat is er nooit gekomen dus moest het op 16/12nm gemaakt worden en zijn de GPU dus veel groter, en dus duurder, als orgineel de bedoeling was.
Ze kunnen vragen wat ze willen wegens gebrek aan concurrentie en jij denkt serieus dat ze lagere prijzen zouden berekenen als het op 10 mm was geproduceerd.
Straks ga je nog zeggen dat my little pony echt bestaat ;)
nvidia weet ook dat AMD er aan komt met 7nm GPU met veel performance voor een lage prijs. alles wat nvidia nog op 16nm maakt dat niet significant sneller is als AMD's nieuwe 7nm chips moet enorm zakken in prijs. nvidia imago loopt straks een flinke deuk op als ze de prijzen moeten halveren, mogelijk zelfs binnen 6-9 maanden na release. ik kan me niet voorstellen dat ze daar op zitten de wachten, om AMD zo'n grote PR overwinning in te schoot te gooien.
Nou. Ik heb bij de buren vernomen dat het gerucht rondgaat (lekker dubbelop) dat AMD serieus nieuwe kaarten gaat maken. Waarbij het topmodel moet gaan tippen aan de RTX2070. (zonder raytracing dan). Heb ook gehoord dat ze die met een MRSP van 350 op de markt gooien. Dus laten we 400 zeggen.

Stel nu dat dit klopt. Dan zeggen 99% van de kopers: Ga je hol maar raytracen. want dat is een behoorlijk verschil. Vermoedelijk wil Nvidia dat scenario gewoon voor zijn en gaan concurreren met die AMD kaarten. Stel dat die AMD kaarten releasen en er kan plotseling 150 euro van die RTX af dan komt dat ook niet echt geloofwaardig over.

Maargoed het is geruchten op geruchten. Eerst maar eens braaf die CES afwachten.
Hmm dat wordt wel interessant ja... Ik ben erg op zoek naar een vervanging voor mijn 2070 970 maar die prijzen zijn gewoon niet normaal meer.

Dus ja inderdaad, ik zou dit ook gaan zeggen. Het gaat mij veel meer om de prestaties (voor VR) dan raytracing. Volgens mij is er nog geen enkele VR game die dat gebruikt.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 15:38]

Waarom zou je een 2070 nu al willen vervangen?
Sorry, een 970 bedoelde ik! Heb het aangepast. Ik zat naar de prijzen van de 2070 te kijken dus die naam zat nog in mijn mentale "keyboard buffer" 8)7

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 15:38]

Goh, paar weken geleden waren de geruchten dat die kaart voor $250 verkocht zou gaan worden, dat zijn behoorlijk snelle prijsstijgingen al :P. Ik weet dat je ook zelf aangeeft dat het slechts geruchten zijn, maar volgens mij is het nog meer wishful thinking.
Dan zeggen 99% van de kopers: Ga je hol maar raytracen. want dat is een behoorlijk verschil.
Daar kun je toch echt nog wel vraagtekens bij zetten, zelfs toen Ati/AMD kaarten (veel) beter waren dan Nvidia kaarten gingen Nvidia kaarten nog steeds als warme broodjes over de toonbank ;)
De nvidia voorkeur gaat al ruim 10 jaar om de software. Amd heeft gewoon nog niet de keuze genomen, na al die tijd, om goeie software erbij te leveren.
Grote kans is dan ook dat die 1060 chips straks een beetje overgeclockt worden met wat GDDR5X geheugen en die gewoon de 1160 wordt genoemd.
Een nieuwe naam doet tenslotte verkopen 8)7
Mja, maar turing vs pascal is niet echt te rijmen, nieuwe architectuur, dus je kan niet zomaar gaan rebranden lijkt me.

1100 series > 25% boven huidige 1000 series prijzen
1000 series ongewijzigd
2000 < 0-10%

[Reactie gewijzigd door zion op 23 juli 2024 15:38]

Heel veel zal RTX niet verkopen omdat het highend kaarten zijn die sowieso altijd veel minder verkopen dan mid-en lowend kaarten en deze serie ook duurder is dan alles daarvoor.. Ik vind het eigenlijk wel een logische stap om verder geen goedkopere RTX kaarten uit te brengen, want het hele punt van die serie is Raytracing en een kaart trager dan een 2070 zal dat niet echt kunnen draaien.. Dat ze dan met een serie daaronder komen zonder Raytracing met een andere naam vind ik wel logisch..
Rotzooi? Het is meer dat alle kaarten nu een nieuwe serie moeten worden. Vroeger had je veel vaker dat de topkaart van de vorige generatie een midrange variant werd in de generatie daaropvolgend. Een mooi voorbeeld hiervan is de 7970 van AMD die later de 280X werd (overigens heeft Nvidia vaak hetzelfde gedaan).

Het lijkt alleen erger te worden omdat het nu 2 of 3 jaar duurt voor er een volledige nieuwe serie is terwijl er vroeger iedere 6 maanden of ieder jaar sowieso er een nieuwe lineup was.
Ik zeg eerlijk dat ik aardig in de war aan het raken ben. Nu ga ik binnenkort een nieuwe Photoshop computer in elkaar zetten waarbij ik kies voor een Nvidia Quadro kaart voor 10bit video out. Nu hoor ik geruchten dat de RTX 2080 10bit video out heeft maar lees nergens dat dat echt zo is. Nu kijk ik naar de Quadro lijn en komt er een RTX Quadro serie aan maar krijg ik te horen dat je beter kan kiezen voor de niet RTX serie. 8)7
Meer nieuwe kaarten is alleen maar gunstig voor mensen die in zijn voor een tweedehands kaart zoals ik. Voor een tijd was het niet te betalen, dus is het nu misschien wordt het nu wel een moment om mijn GTX970 te vervangen voor een schappelijke prijs.
Ik hoop dat er snel iets gaat veranderen. Ik sta letterlijk te springen om een nieuwe PC te bouwen. Ik ben 1200 euro er aan kwijt excl een videokaart. Met het niveau wat ik zoek kom je gewoon op een 2080ti (Ik wil geen compromissen deze keer ;-) )
Maar om tussen de 1200 en 1400 euro voor deze kaarten te betalen gaat het mij toch even net iets te ver. Pas als die prijs onder de 900 gaat zakken zal ik het overwegen tot die tijd krijgt Nvidia geen cent. Ik lees dat veel mensen er zo over denken dus laat ze maar even krom liggen bij Nvidia en koop ze vooral niet voor dit bedrag!
gekte

gaat leuk worden als de GTX nummering de RTX gaat inhalen :/

[Reactie gewijzigd door sgtjeroen op 23 juli 2024 15:38]

Het is te hopen dat tegen die tijd de technologie er wel is om de GTX serie achter ons te laten en we alleen nog verder gaan met de RTX serie.
Die kans zit er dik in, dat de volgende generatie wel snel genoeg zal zijn om ook de mid/low end te voorzien van raytracing ondersteuning.. Softwarematig zal de boel dan ook meer doorontwikkeld zijn.. Dan kunnen ze mogelijk door met alleen een RTX serie..
Vind het allemaal maar verwarrend. Maar goed, ik wacht wel op de volgende generatie. Kan nu nog aardig uit de voeten met GTX 1080.
Onzin ook om nu alweer een GTX 1080 te moeten upgraden, tenzij je over gaat op een 4K monitor ofzo.. Ik gebruik zelf nog steeds een GTX 980Ti (op 2560x1440) en dat gaat ook nog prima met wat tweaken van de settings in hele zware nieuwere games.. Volgende generatie ga ik denk ik wel weer upgraden..
Ik game op mijn ouwe bak standaard op 1440, dat met een poesje van 750ti. Draait allemaal prima, alleen de grootte en snelheid van geheugen en gpu lopen een beetje tegen volledige grafische opties aan. Alles beetje lager en het draait prima.
4k was me een beetje te groot, overzie ik geschreven teksten niet meer.
Mensen zullen wel zo zot zijn een 4k monitor aan te schaffen, terwijl de juiste keuze tv even goed voldoet, alleen de lagere vertragingssnelheid niet bijbenen kan.
Op zich niet verkeerd. Kaarten met raytracing hebben dus RTX in de naam en zonder GTX.

Naar mijn mening beter dan wanneer ze alles GTX hadden genoemd en je aan de hand van de nummering wijzer moest worden.

[Reactie gewijzigd door Mit-46 op 23 juli 2024 15:38]

Op dit item kan niet meer gereageerd worden.