Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 78 reacties

Hardwarefabrikant AMD zal nog dit jaar een nieuwe generatie gpu's introduceren, die - ondanks hardnekkige geruchten - niet onder de codenaam RV870 zullen verschijnen. Dit heeft AMD tegenover Tweakers.net bevestigd.

Sasa Marinkovic, senior marketing manager EMEA bij AMD, bevestigde aan Tweakers.net dat er aan het einde van het jaar een aantal nieuwe videokaarten zullen verschijnen. Marinkovic doelde hiermee op de nieuwe generatie DirectX 11-gpu's. Een introductiedatum en specificaties wilde hij echter niet geven. Het is niet bekend of AMD op dit moment al productiecapaciteit voor de nieuwe kaarten heeft ingericht.

Ondanks de problemen met het momenteel gebruikte 40nm-procedé voor de RV740 - beter bekend als de HD 4770 - denkt AMD dat de ontwikkeling van de nieuwe gpu zo voorspoedig zal verlopen, dat ze nog dit jaar te koop zullen zijn. Eerder hintte Rick Bergman, vice-president van AMD, al naar een mogelijke introductie van nieuwe producten in het vierde kwartaal.

Er wordt flink gespeculeerd over de specificaties en de introductiedatum van de nieuwe gpu, die veelal RV870 wordt genoemd. Marinkovic vertelde echter dat deze codenaam niet klopt. De RV870-aanduiding is volgens hem niet meer dan een verzinsel op basis van de namen voor eerdere gpu-generaties, zoals de RV570, de RV670 en de RV770 . Wat de codenaam wel is, of waarom AMD afstapt van zijn huidige manier om codenamen toe te kennen, is nog onbekend.

Update, 19.14: AMD heeft officieel ontkend dat het bedrijf een productintroductie van DirectX 11-gpu's gepland heeft en dat er concrete plannen zijn om in het vierde kwartaal van dit jaar een nieuwe lijn gpu's te introduceren. De chipmaker wilde wel formeel bevestigen dat een nieuwe gpu een afwijkende codenaam krijgt; de naam 'RV870' zal niet gebruikt worden.

Moderatie-faq Wijzig weergave

Reacties (78)

offtopic:
Voor de geinteresseerden onder ons:

Wat brengt Dx11 voor ons mee en wat hebben we eraan (let op engels !)

http://www.anandtech.com/video/showdoc.aspx?i=3507

ontopic: Voor de rest, ik ben wel benieuwd wat Nvidia hier tegenover zet. Ze zullen wel iets gelijktijdigs er tegenover zetten :)
hmm klinkt wel goed, een upgraded en aangepaste versie van dx10.1 de reviewer was er iig positief over.
Het wordt ook in vista bruikbaar schijnt het dus, maar windows 7 is een betere keuze (logisch)
Everything you need to know Directx 11

ik dacht, misschien leuk om te delen met jullie

http://www.youtube.com/wa...RHOlFKjiQ&feature=related

helaas heb ik geen geluid op de zaak..dus is het een gokje of er duidelijke uitleg wordt gegeven
Zo snel al weer wat nieuws terwijl DX10 vrijwel ongebruikt is. Ik heb nog nooit met DX10 gespeeld en noodzakelijk is ook niet, vrijwel alle games die op DX10 draaien zijn de moeite ten opzichte van DX9 niet waard en games die alleen nog maar DX10 ondersteunen speel ik niet want die zijn zelf de moeite weer niet waard. Halo 2 bijv. bout game.

Ik ga nu binnenkort de eerste overstap kwa videokaart naar DX10 maken en dan draai ik nog steeds XP die ik niet kan vervangen omdat er geen betere Windows versie is die DX10 wel ondersteund. Treurig dat deze standaard die toch redelijk wat jaren maatgevend is geweest zo is afgezakt dat vrijwel geen hond er meer wat om geeft. Zo slecht geregeld allemaal, zelfs als er een standaard is wordt er onzorgvuldig mee omgesprongen en wordt je door middel van koppel verkoop gedwongen alsnog slechtere software te kopen. Jammer
Het punt waarom DX10 en DX11 minder gebruikt zullen worden is dat games makers tegenwoordig niet meer exclusief voor de PC ontwikkelen. Enkel voor de PC ontwikkelen levert namelijk niet zoveel op als voor de consoles. En alle consoles onderstuenen op het moment nog geen DX10 of DX11. De xbox is de enige die een aantal features van DX10 heeft onder de noemer DX9.l die ook beschickbaar zijn onder Vista DX9
Ik denk dat directx11 wordt wat directx10 jaren geleden moest zijn. Ik hoop alleen dat de markt hier goed op reageert. Aangezien vrijwel elk bedrijf de EA-metamorfose aan het ondergaan is.

offtopic:

De EA metamorfose:
Laten we als voorbeeld EA nemen, zij maakten in het begin goede games. En verdienden hier veel geld mee. Toen werden ze t commercieel en heb je alleen nog maar kutgames. Nvidia gaat die kant op met slome driversupport, en ATI is onderweg...
heel jammer dit
nVidia en slome driver-support? Leg uit. Naar mijn weten brengt nVidia namelijk heel regelmatig bta-drivers uit met fixes e.d.
Als je nu de rebranding strategie van nVidia had genoemd...

ATi doet het ook niet raar trouwens met een vaste maandelijkse release-cycle, bta's worden alleen niet publiekelijk gereleased.

[Reactie gewijzigd door Woutoud op 27 mei 2009 15:08]

Halo 2 was is gewoon DirectX 9.0 ;)
Wel Vista-only, maar dat zegt niets over de DirectX versie die gebruikt wordt.
Halo 2 was trouwens met een hack ook prima onder XP te spelen.

Als je DirectX 10(.1) trouwens niet de moeite waard vind, waarom stap je dan over?
Ik zou zeggen: "Wacht op Windows 7 met DirectX 11 en koop dan een nieuwe videokaart."

En als je Vista zo'n slecht OS vind dan is een beetje argumentatie ook wel op zijn plaats.
Ik heb er namelijk nooit problemen mee gehad.
De meeste mensen kopen een nieuwe pc omdat de oude het begeeft. Wij ''tweakers'' zijn misschien 5% van de markt.

Volgens mij is het aanbod DX9 kaarten karig nietwaar? En wat moet je trouwens als doorsnee consument als zo'n verkoper al die tech-talk op je af begint te vuren?

Ik ben in de loop der jaren wijzer geworden, maar toen mijn 6 jaar oude pc het November 2008 begaf was ik mooi de klos! Wel cool, want nu heb ik een mooie i7, triple channel RAM en een DX10.1 videokaart, alleen jammer dat de meeste software het niet ondersteunt of er geen profijt van heeft!

Vista is geen slecht OS, het is anders. W7 is ook anders, maar niet zo anders als Vista t.o.v XP was. Helaas geld de wet ''aldoende leert men(van fouten)'' nog altijd, en leert men pas als het te laat is.

Jammer, want dit grapje komt de gaming business heel duur te staan!
Ik sluit me hier volledig bij aan.

Een mooi voorbeeld uit de praktijk is UT3. Dat zou ook DX10 gebruiken, maar uiteindelijk draait het grotendeels op DX9, en doet men er uiterst vaag en alles behalve concreet over.

Verder kun je de DX10(.1) spellen volgens mij op n(en anders twee) handen tellen.

Volgens mij kan men hieruit concluderen dat DX10 een marketing tool is geweest, of gewoon een grote flop omdat de meeste mensen nog een oudere pc hebben.

Nu wordt het helemaal anders met de crisis, dus ik wens onze rode en groene vrienden, en niet te vergeten onze OS en software giganten ontzettend veel sterkte toe de komende tijd!
Ik denk dat de tweede generatie Directx11 kaarten pas interessant zijn om te kopen, deze kaarten zullen dan veel betere prestaties leveren, en men kan hier ook leren van de fouten uit de eerdere generatie. Kijk maar eens naar de 8800GTX en de GTX295. Aan de andere kant vindt ik het ook wel leuk om te zien dat ATI/AMD bijbeent bij haar concurrent NVIDIA.
Dat baseer je waarschijnlijk op je ervaringen met Nvidia chipsets?

In het verleden is het nog nooit zo geweest dat men moest leren van de fouten uit eerdere generaties.

Wat vaak wel het geval was, was dat men *kuch*Nvidia*kuch* een kaart maakte die wel nieuwe generatie features had, maar daar eigenlijk niet sterk in was.

De reden daarvoor was heel simpel: Die nieuwe generatie features werden toch nog bijna niet gebruikt en het was dan zonde om daar veel tijd/geld/die-space aan te besteden.
Tegen de tijd dat de volgende generatie kaarten uit kwam waren er wel spellen die die features gebruikten en dan werd er een kaart ontwikkeld die wel snel was met die features.

Dat het niet zo hoeft te gaan bewees ATI met de R300. (9700 pro)
Die kaart was meteen voluit gemaakt voor DX9. En bovendien bleken er ook al spellen voor DX9 te zijn, en was die kaart ook snel met DX8.

De vraag is nu of het mogelijk is om een kaart 100% voor DX11 te ontwerpen, die bovendien snel is met DX10 en DX9 spellen.
(En of een herhaling van het R300 scenario dus mogelijk is)

Ik denk eigenlijk van wel.
Je ziet dat kaart steeds flexibeler worden (moet ook wel met DX11 gpgpu features) en dat kan juist betekenen dat een kaart die snel is voor DX11, ook snel genoeg zal zijn voor DX10 en DX9.
wat jij aangeeft is wat ik ook aangeef, ze maken niet nieuwe kaarten ze passen ze aan zodat het met de nieuwe dx, systemen, software enz. werkt. ook recyclen van cores is de laatste tijd te erg voor woorden.
Het enige wat nvidia op pc gebied als innovatie heeft gedaan dat werkelijk nuttig is is dat cuda gpgpu idee.

Ati: dx10.1 kaarten, voordat nvidia zelfs maar dx 10 kaarten had.
Geheel nieuwe architectuur, nvidia gtx reeks is een aangepaste g80 core. ati *claimt* voor 2010 dx11 kaarten te maken, nvidia heeft die pas in 2010.
Nvidia kaarten vrijwel alle nieuwe kaarten zijn slecht gedistribueerd en slecht verkrijgbaar, (ati heeft dit nu ook met de 4770 maar door de grote vraag vooral door CF optie)
De hd4xxx reeks was een grote stap voorwaarts ook al was het een aangepaste core van de hd3xxx reeks, Nvidia loopt nog steeds te klooien met de g80/g90 cores die 10% sneller lopen op gewoon andere naam krijgen.
De 8800gt is een van de goede kaarten geweest, geen baanbrekend iets maar goede performance + betaalbaar.
SLI zal ik maar niet over beginnen icm met mobo fabrikanten.
CF kan op elk 2x pci-e lane mobo en is vrijgegeven.
(let wel ik heb gewoon een 8800gt in mijn pc zitten nu omdat die toenmalig wel goed was en de hd4xxx serie te lang wachten was)
Kan nog wel ff doorgaan.
In mijn mening kan ik aangeven dat ati iets toevoegt aan de grafische wereld en nvidia vooral een beetje de boel uitmelkt en profiteert.

[Reactie gewijzigd door SouLLeSSportal op 27 mei 2009 14:58]

De reden daarvoor was heel simpel: Die nieuwe generatie features werden toch nog bijna niet gebruikt en het was dan zonde om daar veel tijd/geld/die-space aan te besteden.
Dus dan heeft ATI wel een fout gemaakt door dx10.1 te implementeren.
bijna elke generatie is beter dan de vorige generatie, lijkt me nogal logisch... nvidia heeft gezegd voor 2010 nog geen dx11 kaart te hebben klaarliggen. En met de geschiedenis van nvidia + paperlaunches, beschikbaarheid lager dan die van diamanten ter grootte van een golfbal lijkt het me sterk dat ze voor de zomervakantie volgend jaar iets concreets hebben liggen in de winkel, maar dat half jaar dat ati kan verkopen zal ati zeker goed doen. Nvidia is lui en traag geworden de laatste tijd.
Hier kijk ik zo naar uit! Ik ben razend benieuwd hoe dat straks presteerd, DirectX 11.
Direct X 11 presteert zelf niet, de GPU kracht/bandbreedte/Geheugensnelheid/drivers samen doen dat wel!

Verder ben ik ook benieuwd wat Direct X 11 meebrengt kwa beelden, misschien nog een stap dichter bij het foto realisme?
foto realisme zal zeker nog 10jaar duren, men wil wel, maar de rekenkracht van de (home)computers blijft nog achter. als je de wet van more hanteerd wordt verwacht dat tussen de 10-20jr foto realisme mogelijk wordt.

toevallig stond er recentelijk een stukje van op nu (directe link)
Hier is een directe link http://www.gamasutra.com/...he_future_tim_.php?page=1

Waar ik vooral naar uit kijk is OO shaders, hopefully goodbye uber shader

[Reactie gewijzigd door NC83 op 27 mei 2009 14:26]

Toch heeft de DirectX versie daar een rol in. Zeker in DirectX 10 en 11 zitten in aantal api wijzigingen om de snelheid te verhogen. Daarbuiten is er de ruimte om van meerdere cores gebruik te maken. En dat merk je zeker wel op de prestaties.

[Reactie gewijzigd door jvo op 27 mei 2009 15:02]

niet vergeten: DirectX 10.1 van de Ati kaarten. in de weinige games waarin het bruikbaar was kon je +10% FPS verwachten.

@Rody9933

ten eerste: de 8600 is ook geen geweldige kaart.
ten tweede: Grafische Api's hebben enhancements om met dezelfde Eye candy sneller te lopen. echter word er ook extra eye candy toegevoegd waardoor de snelheid achteruit gaat. ook moeten drivers eerst nog geoptimaliseerd worden voor DX 10. ik denk dat dat verschil wat jij noemt nu n og maar in weinig spellen voorkomt, en dat je zelfs kan verwachten dat je DX 10 games nu sneller draait.
en ten derde: DX 11 is niet DX 10. DX 10 voegde niet zo veel optimalisaties en veel extra eye-candy toe, DX 11 voegt weinig Eye-candy toe en veel optimalisaties. en je hebt nu ook alle DX 10.1 optimalisaties.
Met DirectX 10.1 wilde men bepaalde standaarden/eisen invoeren, zoals de mogelijkheid voor minstens 4x fullscreen anti-aliasing.
Veel spellen hebben nog steeds geen (goede) ondersteuning voor FSAA, ondanks dat de meeste moderne spellen het wel aan kunnen.
Tjsa, moeten we dan nog ook wel wat games hebben om het mee te testen. Veel consoleports draaien nog altijd op DirectX9.
Veel native games ook. Dit zal er misschien mee te maken hebben dat een behoorlijk deel van de klandizie nog op XP zit...
Misschien wordt dat beter als er een behoorlijk alternatief voor XP uit komt. (Mits dat niet 2x zo duur is als Vista natuurlijk...)
Laat ze maar nog een tijd compatibel zijn met DirectX9, anders moet ik mijn pc helemaal omgooien om nog af en toe een spelletje te kunnen spelen.
Laat ze maar nog een tijd compatibel zijn met DirectX9, anders moet ik mijn pc helemaal omgooien om nog af en toe een spelletje te kunnen spelen.
Ik denk ook dat je toch echt om moet, de meeste gamer's 60% hebben nu een DX10 kaart , waar van dan wel de helft op XP draaien, maar de meeste zitten denk ik toch op win7 te wachten.
Bron Valve: Steam Hardware Survey: April 2009

Dus als ATi samen met win7 op de markt komt met DX11dan dan zullen de meeste/veel ontwikkelaars voor alleen nog maar 2 code base gaan ondersteunen DX10 en de op het zelfde maar uitgebreidere driver model gebaseerde DX11.
Dan is DX9 gewoon verouderd, en om voor 3 code bases te schijven is toch te veel denk voor veel studio's

Op het hoofdkantoor van nVidia hebben ze waarschijnlijk dagelijkse crises vergaderingen, De G300 series is weer een kolossale chip, en moet op een op alle kante lekkende 40nm proces van TSMC gemaakt moet worden terwijl ATi/AMD zijn 40nm chips nu al onder controle heeft (HD4770 draait makkelijk op 850MHz, Persoonlijk getest ;-)
Ook alle midrange en budget chips die gebaseerd zouden zijn op de G200 core zijn missing in action.

ATi is al sinds de HD2x00 serie bijna klaar voor voor de huidige DX11 (meest interessante delen die nu in DX11 zitten waren geschrapt onder druk van nVidia terwijl ATi er toen al klaar voor was), dus nVidia moet bijna een heel nieuw ontwerp voor de G300 serie maken.

Qua CPUs moet AMD het afleggen ten op zichtte van Intel, maar qua GPUs is het pressies andersom en moet nVidia door de zure appel bijten, want een ding is zeker ze hebben daar problemen.
Interessant artikel over de G300 van Charlie Demerjian (zeker geen fan van het nVidia team ;-) bij de The Inquirer waar wel het sarcasme van afdruipt maar imo klinken veel dingen zeer aannemelijk (tenzij je natuurlijk een echte nVidia fanboy bent ;-)

[Reactie gewijzigd door player-x op 27 mei 2009 18:19]

kolossale chip? de G300 is kleiner dan de GT200b

de G300 wordt gewoon waanzinnig mooi beest:

http://www.hardware-infos.com/news.php?news=2944
http://www.hardware-infos.com/news.php?news=2954

http://www.guildwarsguru.com/forum/showthread.php?t=10376363

[Reactie gewijzigd door gbh op 27 mei 2009 18:42]

Hij mag dan wel kleiner zijn dan de GT200b maar vergeleken met de RV870 is hij bijna 2x zo groot dus ja het is nog steeds een kolossale chip, en waar men meestal een midrange chip eerst op een proces srink uit brengen, gaan ze nu hun top chip er op uit brengen.

Waar ze waarschijnlijk tegen de zelfde problemen aan gaan lopen als met de GT200a grote chip lage yields.
  • ATi heeft al ervaring met 40nm, het word NVs eerste chip
  • ATi heeft al bijna alle DX11 fun stuf in de GPU, NV ondersteund zelfs geen DX10.1 en moet alles daar voor nog ontwikkelen wat hun chip nog groter gaat maken, tesselator wat ook in de Xbox360 zit, zal een van de grootste stappen voorwaarts zijn zal de GT300 zo een extra 15~20% groter maken ten opzichten van de GT200 buiten de extra shaders het al zal krijgen
  • GT200b is ruim 70% groter dan de RV770 als beide hun shaders zouden verdubbelen zou de GT300 80% groter worden dan de RV870
Ik geef toe er zijn wat aan namens hier gedaan door mij maar dat is allemaal gebaseerd op informaties die ik her en der gevonden heb,
Dus ja in vergelijking met ATi's RV870 is de GT300 een gigantische chip waar heel veel risico mee genomen is.

Houd er ook rekening mee dat het ontwerpen van een chip ongeveer 3 jaar duurt, dus toen NV met de GT300 begon was de economie nog goed ATi had niks anders dan problemen 2900 die bijna een half jaar te laat was en niet echt een concurrent was, zelfde gelde voor de 3870, en zelfs tot dat de HD4870 uit kwam werd hij afgeschreven als een Phenom werd tegen over een Nehalem.

nVidia nu last van heeft is, wat Johan Kruif zo mooi zij "de terug houdende voorsprong" (of zo iets in die trend)
De 280GTX kwam uit voor 600 euro, alleen een week later kwam de 4870 uit voor de helft van dat geld en was maar 10~20% langzamer.
Waar ATi in het verleden zijn prijzen afstelde op NV moet NV dat nu op ATi doen.
Waar ze waarschijnlijk tegen de zelfde problemen aan gaan lopen als met de GT200a grote chip lage yields.
Bronnen aub. Ik heb nog nooit iets anders gezien dan Charlie "ik haat NVIDIA" Demerjian's geblaat daarover. NVIDIA heeft altijd volgehouden prima yields te hebben, en aangezien Charlie gewoon geen enkele manier heeft om aan die info te komen geloof ik er nog steeds niets van.
ATi heeft al ervaring met 40nm, het word NVs eerste chip
ATI heeft nu toevallig al een chip op de markt, maar NVIDIA komt waarschijnlijk binnenkort met 40nm notebook chips. Een voorsprong van een paar maand telt amper in dit soort lange ontwerptrajecten.
GT200b is ruim 70% groter dan de RV770 als beide hun shaders zouden verdubbelen zou de GT300 80% groter worden dan de RV870
De hele shaderprocessor logica van G200 is maar een klein deel van de totale chipoppervlakte. Geheugen en andere IO nemen een veel groter deel in. "Shaders" (je bedoelt gewoon SIMD-cores, shader-multiprocessors of gewoon "cores") verdubbelen zorgt maar voor een kleine toename van die-size.
Bronnen aub. Ik heb nog nooit iets anders gezien dan Charlie "ik haat NVIDIA" Demerjian's geblaat daarover. NVIDIA heeft altijd volgehouden prima yields te hebben, en aangezien Charlie gewoon geen enkele manier heeft om aan die info te komen geloof ik er nog steeds niets van.
Ik zeg ook niet dat Charlie overal gelijk in heeft, maar het is wel een van de wijnige websides die niet bang is voor nVidia, en als je het artikel nog eens goed leest dan zie je dat er een hoop er van aanemelijk is
maar NVIDIA komt waarschijnlijk binnenkort met 40nm notebook chips
Eerst zien, dan geloven er zijn te veel NV chips "missing in action"
verdubbelen zorgt maar voor een kleine toename van die-size.
Een chip die rond de 470mm2 zit is imho gewoon een gigantiese chip.
De RV470 meet maar 137mm2 en de RV870 word verwacht dat hij rond de 250~270mm2 zal zitten.

Ik heb zelf helemaal geen voorkeur voor merk, wil gewoon meeste "Bang for Buck" en of dat ATi of NV is maakt mij geen reed uit, maar zo als ik het zie heeft NV op het momeent ge woon een probleem met een te grote chip en nog niet onder controle van het proces

NV heeft een Ferari Enzo gebouwd heel leuk en snel, maar te duur om te bouwen en lage productie (yields)
Waar ATi een Nissan Skyline heeft gebouwd, goedkoop bijna zo rap als de Enzo en ook bruikbaar voor normaal gebruik (lees meer allround ontwerp)
Ik zeg ook niet dat Charlie overal gelijk in heeft, maar het is wel een van de weinige websides die niet bang is voor nVidia, en als je het artikel nog eens goed leest dan zie je dat er een hoop er van aanemelijk is
Wat een onzin, wat aannemelijk is en goed klinkt voor ati fans is daarom niet waar. En zijn andere websites dan bang van NVIDIA? Waarom hebben ATI fans altijd dat kalimero gevoel, en komen met onzin dat NVIDIA de grote boze wolf is waar iedereen bang van heeft?
Eerst zien, dan geloven er zijn te veel NV chips "missing in action"
Inderdaad, eerst zien dan geloven. Dus laat eens zien welke chips zogezegd missing in action zijn.
Ik heb zelf helemaal geen voorkeur voor merk, wil gewoon meeste "Bang for Buck" en of dat ATi of NV is maakt mij geen reed uit, maar zo als ik het zie heeft NV op het momeent ge woon een probleem met een te grote chip en nog niet onder controle van het proces
Nogmaals, waar zijn de bewijzen voor deze fanboy uitspraken? Eerst zien dan geloven zei je zelf.
NV heeft een Ferari Enzo gebouwd heel leuk en snel, maar te duur om te bouwen en lage productie (yields)
Waar ATi een Nissan Skyline heeft gebouwd, goedkoop bijna zo rap als de Enzo en ook bruikbaar voor normaal gebruik (lees meer allround ontwerp)
Nu wordt het helemaal dom. Misschien moet je eens opzoeken wat het verschil is tussen produktieaantallen en de yields. En heeft een Enzo lage yields? Ik denk dat elke Enzo die gebouwd wordt ook daadwerkelijk rijdt dus de yield van 100%. Bovendien is deze lage produktie en hoge yields niet een "probleem" van het ontwerp van de wagen maar eerder van vraag en aanbod.
Ik ga hier echt niet de ATi fanboy uithangen, (lijkt er wel op dat je een NV fanboy bent want ik mag niks slechts over NV zeggen) maar het is gewoon hoe ik het zie, maar als jij denkt dat de GT300 een super chip is/wordt hey koop hem, en hoop dat je er blij mee bent. (niet sarcaties bedoelt)

Ik wacht de test wel af maar denk dat de GT300 niet mijn 275GTX gaat vervangen, (kan geen ATi kaart gebruiken in mijn main systeem omdat ik een Matrox TripleHead2Go gebruik met 3x 22" (5040x1050) werkt niet met ATi kaarten maar ook niet onder vista/win7 alleen XP.
Kans is wel groot dat ik een tweede 275GTX koop, maar als ik geen probleemen had met de TH2Go en ik tussen een 275 en een 4890 zou moeten kiezen zou ik het niet weten, zou ik eerst eens echt in de tests moeten verdiepen welke de beste zou zijn voor mij, bijde zijn goede producten aleen denk ik dat ATi meer winst maakt op zijn chips.
hij is nog steeds een flink stuk groter als deze nieuwe chip van ATI gaat zijn... en afgelopen generatie is nvidia dat niet zo goed bevallen (dag marges!)

[Reactie gewijzigd door Countess op 27 mei 2009 19:32]

hij is nog steeds een flink stuk groter als deze nieuwe chip van ATI gaat zijn... en afgelopen generatie is nvidia dat niet zo goed bevallen (dag marges!)
ik denk niet dat een consument zich iets aantrekt van de chipgrootte of de marges op die chip. Anders zouden er niet veel consoles verkocht worden.

[Reactie gewijzigd door aval0ne op 28 mei 2009 11:39]

De G300 is kleiner dan de GT200a, die 576mm2 meet. De G300 wordt kleiner dan 490mm2, en zal dus vermoedelijk van ruwweg hetzelfde formaat zijn als de GT200b op 470mm2. Nog steeds een enorme chip dus.
een waarop baseer je dat?
linkje?
Ik denk toch dat je je pc zo langzamerhand moet gaan omgooien, want gamestudio's zullen geen jaren meer dubbel blijven programmeren omdat sommige mensen niet meegroeien met de ontwikkelingen.
dat licht simpelweg aan de markt, hoe minder mensen XP hebben. hoe minder er games voor gemaakt zullen worden.. maar gezien xp vrijwel nergens meer te krijgen is zal het niet zo lang duren denk ik ^^
De markt gaat automagisch over. Veel (en volgens mij steeds meer) mensen kopeen een kant en klare pc (dell achtig) en krijgen daar dus meteen windows vista/7 bij geleverd.
In het begin verwacht er maar niet veel van die DX11, mits je een High end videokaart hebt.
Toen de tijd dat de serie 8 van Nvidia uitkwam, dacht ik tja, dan maar gelijk ff een DX10 kaartje kopen, dus een 8600GT gehaald. Tijdje laater thuis, heb ik Lost Planet geinstalleert, probeer hem in DX10 mode, 10-15 FPS, 800*600.
Later probeer ik hem in DX9 mode, en toen had ik 40-60 FPS.
Ik begin me erg te storen aan de titels van tweakers.
Nog zo een hit-geile titel! En ohw wat een informatie geven ze weer, aannames allom.
Geen aannames, je was niet bij het gesprek met Sasa. Hij vertelde onder niet mis te verstane woorden dat de nieuwe generatie gpu's in Q4 zal verschijnen. Ik zie het probleem niet.

Overigens, als je niet kunt inzien wat het impliceert dat de codenaam RV870 compleet uit de lucht gegrepen is, dan is het bericht niet aan jou besteed. Met andere woorden, andere websites die claimen specificaties te hebben van RV870, een codenaam die niet bestaat, lullen uit hun nek. Dat zijn pas een hitgeile titels en onnodig interessant doen, als je het mij vraagt dan.

[Reactie gewijzigd door Marc Rademaker op 27 mei 2009 15:50]

Zeg dat dan in het artikel, ipv "dat er aan het einde van het jaar een aantal nieuwe videokaarten zullen verschijnen."

Dat is wat anders dan "dat er aan het einde van het jaar een aantal nieuwe videokaarten van de nieuwe generatie (met Directx11) zullen verschijnen.
Dat staat er 'nu' ook: Marinkovic doelde hiermee op de nieuwe generatie DirectX 11-gpu's.

Er stond eerst nog 'naar alle waarschijnlijkheid' tussen. Dat is nu in ieder geval weggehaald. Maar het was niet echt anders op te vatten :)
Met andere woorden, andere websites die claimen specificaties te hebben van RV870, een codenaam die niet bestaat, lullen uit hun nek.
Of ze praten voor het gemak over RV870 omdat ze weten dat mensen weten wat bedoeld wordt. Alsof NVIDIA's G200 niet 20 verschillende andere namen heeft. Zelfs professionele reviewers praten nog steeds over GT200, terwijl het ding G200 heet. Ik las laatst nog ergens dat NVIDIA intern gewoon over NV65 praat. Codenamen zeggen niets.

EDIT: Om dat iets te nuanceren, bedankt voor de info, het is natuurlijk nog steeds interessant om te weten dat de chip niet zo lijkt te heten. Ik denk dat jij er echter te grote conclusies aan verbindt. :)

[Reactie gewijzigd door Snoitkever op 27 mei 2009 17:32]

Tweakers zet dit dus als feit neer met de titel "AMD introduceert DirectX 11-gpu's in vierde kwartaal" (zonder quotes). Met als enige basis:

"Sasa Marinkovic, senior marketing manager EMEA bij AMD, bevestigde aan Tweakers.net dat er aan het einde van het jaar een aantal nieuwe videokaarten zullen verschijnen."
Dit is een standaard Tweakers titel, met de bedoeling om zoveel mogelijk hits te krijgen. Het is niet eens bevestigd door AMD dat de kaarten die eind dit jaar uitgegeven worden DX11 ondersteunen. Dit maakt Tweakers er zelf van.
Volgens CJ op GoT is de kaart wel degelijk codename RV870. Verder uit de topicstart:
RV870 zal waarschijnlijk wel een stuk sneller zijn dan RV770 (afhankelijk van de situatie 70-100%). De eerste samples komen in Q2 09 uit en de uiteindelijke videokaart zal in de tweede helft van 2009 gereleased worden. RV870 is een 40nm GPU net als RV740.

De R8x0 generatie heeft UVD3 aan boord en zal voor de notebook GPUs onder de Manhattan noemer vallen. Daarnaast heeft R800 iets wat nu nog luistert naar de mysterieuze naam "Dual Shader Engine".

Wie is er eerder met een DX11 kaart? Ik durf veel geld in te zetten op AMD. De laatste roadmaps wijzen op Q3 (September).

RV840 is natuurlijk een cutdown version van de RV870. Deze staat gepland voor Q4.
Dat de RV870 bestaat betekend natuurlijk niet dat het ook de chip is die nog dit jaar op de markt komt.

Blijkbaar komen met iets anders dan de RV870...
Gezien het feit dat bekend is, sinds oktober 2008 dat er in 2009 een 40nm dx11 kaart van AMD gaat komen. Kun je er wel vanuit gaan dat dit dan een "nieuwe" kaart moet zijn. Anders hadden ze wel gezegd dat de huidige GPU nog meer uitgemolken gaat worden.
Echter, neem wel mee dat er roadmaps zijn, geruchten, bevestigingen over en weer. Het is niet enkel die uitspraak, maar vele uitspraken samen waarbij deze de doorslag geeft. Er is al veel bekend en 1+1=2.

De DX11 serie zou dit jaar komen. Er is veel bekend over de chip qua geruchten. AMD heeft hem vast wel ergens op een roadmap. Uit diezelfde roadmap zal je ook kunnen opmaken dat er geen nieuwe DX10 chips meer komen. Nu dit gerucht er bij en het enige wat overblijft is dus dat het wel een DX11 chip aan eind 2009 moet zijn.
Onderschat de crisis niet. Ook CPU fabrikanten moeten hun koers wijzigen.

Je moet niet vergeten dat de gevolgen van de crisis nu nog niet echt merkbaar zijn, dat zal in de komende paar jaar pas duidelijk gaan worden.

We zijn in de afgelopen jaren verwend met al die bloei, reken er maar op dat dat nu afgelopen is.
Welke problemen met het huidige 40nm proces :S? Ik dacht juist dat je yields van de RV740 erg goed waren, mede daarom dat de HD4770 zo goedkoop is...verklaar u nader tweakers :P
Dat vroeg ik me dus ook al af. Heb niks gehoord over problemen met de 40nm of de 4770.
leveringsproblemen dus. Ik schrok al :) De benchmarks lieten namelijk wel leuke resultaten zien. Wellicht dat ze over een maandje beter leverbaar zijn.
Goed nieuws, aan het einde van het jaar zet ik mijn nieuwe pc in elkaar. En sinds dit jaar ook al de I7 en windows 7zijn uitgekomen zitten we wel weer ander half a twee jaar goed.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True