Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 121 reacties

Een dag nadat bekend werd gemaakt dat er van nVidia's GeForce 6800 versies met 512MB zouden verschijnen op de CeBIT-beurs, publiceert ATi alvast de eerste portretfoto's van zijn 512MB videokaart op basis van de X850. Onlangs was de komst van de 512MB X850 al bevestigd door ATi, nadat geruchten hierover de ronde deden. De kaarten zullen publiekelijk getoond worden tijdens een overklokwedstrijd te Dallas, Texas.

ATi X850 512MB a
ATi X850 512MB b
Moderatie-faq Wijzig weergave

Reacties (121)

Zo te zien zijn het dubbel zoveel chips? Dus gewoon 2 keer zoveel chippies op 1 print dan normaalgesproken (16 keer 32mb chips ipv 8x 32mb chips :)). Ik had eerder gehoopt dat de opslag capaciteit per chip was verdubbeld, maar helaas. Dat betekend volgens mij ook dat de bandbreedte van elke chip nu is verminderd, aangezien we hier nog steeds spreken over een 256bits brede bus?

Of heeft Ati ineens nVidia-style alle chips op 1 kant van de plank gestopt, en is de hoeveelheid opslag per chip wél verdubbeld? Als dat zo is, draaien deze chips dan nog wel op dezelfde kloksnelheid als de 256mb versie?
@ ThaMind

Dat er 8x 32MB geheugen chips op één kaart zullen komen zal waarschijnlijk niet lang meer duren, omdat Samsung al bekend heeft gemaakt dat ze 512Mbit chip de deur uit hebben gestuurd waar die chip configuratie mogelijk wordt.
8x32mb is al lang normaal (8x32 is namelijk 256mb ;)). Wat je waarschijnlijk bedoelt is chipjes met 64mb (64x8mb = 512mbit), deze heeft samsung idd al aangekondigd.
@EJay79:
Nee hoor, hij zegt het goed alleen hij is laks met de hoofdletters. Wat hij bedoelt is:

8 chips van 32 MB is normaal (8x32 = 256 Mbit)
Wat wel nieuw is zijn de 512 Mbit chips, dus 64 MB (8x64 = 512).
Ik vind het gek dat het mogelijk is van het aantal chips te kunnen tellen. Bij de introductie van X850XT heeft ATi ook gezegt dat ze een ander PCB gebruiken waarbij de geheugenchips dichter bij de core staan, en dus ook helemaal onder de koeler zitten. En als je foto's zoekt van de X850XT, overal zie je geen geheugenchips zitten. Ze deden dit om zo een hogere snelheid te kunnen halen, maar als ik het zo zie hebben ze de chips terug verder van de core geplaatst. Dus ofwel was het niet nodig van de chips dichter te zetten, ofwel loopt het geheugen bij de 512MB versie gewoon langzamer. Het kan natuurlijk ook een combinatie zijn van de 2.
voordelen 512MB ten opzichte van 256MB zijn te merken in bijvoorbeeld sims2 en doom3 .. mogelijk dat je ook in rollercoaster tycoon3 voordeel hebt.

Vergeet niet dat alleen een texture tegenwoordig niet meer genoeg is... denk aan bumpmap's, 3D-texturen, displacement maps en of lighting maps. Dit geeft developers en designers weer de kans om een keertje niet loading te laten verschijnen bij het door een deur lopen in een grafisch hoogstaand spel.

Ik heb geen bezwaar om zon plankje in mijn kast te hangen (voorals nog echt hangen aangezien ik nog een bordje met PCI-E aan moet schaffen :+) aangezien, omdat (vrijwel) alles dan echt soepel loopt (zeker op 1280*1024) ongeacht de eye-candy die dan aanstaat...
Een spel leuker maken .. dat doet het zeker niet, maar misschien net wel wat mooier of toch net iets soepeler...

De videokaart zal het probleem niet meer zijn ... de rest van het systeem of het spel zelf blijft dan nog over ;)
Ach weer een reden om te upgrade ;)
Doom 3 kan ik inkomen.. maar Sims 2???? dat spel leunt voor mijn idee toch meer op de CPU dan op de GPU.. iig.. dat spel draait extreem soepel op 1280x960 4xAA 16xFA op een stock 6800GT met 256MB.
512MB op een videokaart.

Mijn playstation 2 heeft 48MB ram. Nu is de resolutie niet hetzelfde, maar omdat de limitatie van het geheugen definitief is, moet een ontwikkelaar wel werken met de riemen die hij heeft. Op de PC is die limiet van 'weinig videoram' zo langzamerhand compleet verdwenen. En dat is een slechte zaak.

Het punt is nl. dat om een scherm met 1024x786 te vullen met 1 texture van 32bpp, je 3MB nodig hebt. Laten we 3 buffers nemen, da's 9MB. Met zo'n kaart heb je dan dus 503MB over voor textures. Echter, omdat het scherm maar 1024x768 pixels bevat en in totaliteit 9MB vreet, heb je dus erg veel data op je kaart staan die je wellicht nooit ziet.

Van die 2048x2048 textures voor 'ultra detail', waarbij de polygon waar ze opmoeten nooit op het scherm past op ware grootte.

Men zou veel meer moeten investeren in texture management ipv texture memory. Op een console MOETEN ze wel, en het lukt ze nog ook. Let wel, 48MB is dus videoram EN mainram. Toch kan de renderware engine dat aan in GTA. Ik lees hier mensen roepen dat 512MB nodig is want doom3 kan anders niet in ultradetail zn schermpjes tekenen. Come again? Carmack duwt alle textures vooraf naar de kaart en gaat dan het level starten. Niks management gedurende de game. En waarom zou hij ook, hij hoeft niet. Maar daarom is het nog wel onnodig, zoveel memory.

Gedurende de ontwikkeling van Diakatana zei John Romero dat een van zijn designers eens aan kwam zetten met een 2048x2048 texture voor een pijlpunt. IEWAT te groot wellicht, en 'belachelijk' zul je denken, maar met 512MB requirements voor een leveltje in doom waar 90% zwart is, zit je er dicht tegenaan, tegen die grens.
Het is duidelijk dat 512 wel nuttig is. De 3dmark 2001 score bewijst het. Verklaar maar eens waarom die score zoveel hoger ligt dan een 256MB kaart.
Dat een benchmark hoger scoort is geen bewijs dat iets nuttig is. Het geeft alleen maar aan dat er in bepaalde gevallen een verschil is.
Nou, dat iets niet echt verrassend. Is er iemand die daadwerkelijk gedacht had dat er geen enkele situatie te verzinnen is waarin die extra 256MB effect heeft?

Een benchmark heeft alleen maar tot taak het een videokaart moeilijk te maken. Het hoeft echter totaal niet overeen te komen met wat je in de praktijk in applicaties tegenkomt.

Daarom mag je pas concluderen dat iets nuttig is, als het ook bij normale applicaties een positief effect heeft.

Overigens zou je bij zo'n oude benchmark totaal niet verwachten dat het uitmaakt. De designers zullen immers nooit met zoveel geheugen rekenening hebben gehouden. Waarmee wordt het dan nu gevuld?

Waar staat die score overigens? Wellicht kijk ik er overheen, maar ik zie geen links naar benchmarks?
Laatst was er wel dat nieuwsitem over die 40k score in 3DMark2001, maar Zardon heeft al duidelijk gemaakt dat dat NIET was gedaan met een huidige GFX kaart met extra geheugen.
Dus die specifieke score is zeer zeker geen bewijs dat 512MB nuttig is.
Ik ben het helemaal met je eens.

Maar er is wel één kanttekening te plaatsen. Als je bv met displacements maps bezig gaat. (al of niet virtual) dan moet de resolutie van je texture wel heel wat hoger zijn dan het aantal pixels dat je op het scherm ziet. Je moet dan namelijk vertexen gaan maken op basis van die texture. En om genoeg detail in die vertexen te krijgen moet die texture flink wat detail hebben.

Maar hoewel is moeilijk is om aan te geven hoeveel dat meespeelt is wel duidelijk dat nooit de 512MB voor Doom kan verklaren.
Zou er nog enige hoop zijn dat deze kaarten (of welke toekomstige generatie dan ook) met passieve koeling komen? Voor de 9600 en 9800 had sapphire wel altijd passieve oplossingen die maar een stukje duurder waren.
Er zijn wel alternatieve koelers te koop die een stuk stiller zijn. Zalman en Arctic Cooling hebben er een paar die ook op de X800 werken (dus op de X850 misschien ook wel).

Ik denk dat een passieve koeling voor een videokaart niet zo zinnig is. Het doel zou eigenlijk moeten zijn om ervoor te zorgen dat de videokaart niet meer het meest luidruchtige onderdeel is. Je kunt dan ook beter je HDD's dempen en een stillere CPU-koeler en casefans monteren.
Ik hoop dat dit monster te koelen is met een Zalman Reserator-1. Ik heb wel een waterblock voor de GPU, maar als ik deze meegeleverde fan en enorme heatsink zie, dan brengt het toch twijfels (ja, ik ben nog een n00b in waterkoeling).
Het lijkt me in ieder geval wel koeler dan 2 geforce kaarten in SLI opstelling :) Natuurlijk zal je reserator dit aankunnen, maar je zal je koeltoren dan wel op een koele plaats moeten zetten en misschien dat je een externe ventilator erop moet laten blazen. Waterkoeling is namelijk koeler dan luchtkoeling zolang de warmte maar afgevoerd kan worden.
ik denk dat deze zo heet wordt dat je wel een ventilatortje wilt hebben :o
Sommige kaarten worden gereproduceerd met een kleinere (nano..nogiets? kan ff niet op de naam komen) dan voorheen. Je kan het vergelijken met DDR en DDR2. DDR2 is niet zozeer sneller maar zo gemaakt dat er minder voltage nodig is en dus ook minder hitte vrij komt.
Ik weet dat er FX5200 kaartjes bestaan die passief gekoelt zijn.
En natuurlijk kun je er altijd zelf een dikke passieve zalman koeling opgooien, maar daar vraag jij volgens mij niet naar ;)

Verder vind ik het erg jammer van ATi dat ze deze als 2slots uitbrengen in plaats van dat ze er een andere oplossing voor zoeken..
Er is al één spel (engine) die gebruikt maakt van de volle 512MB. En dat is de Doom3 engine.

Bij 128MB en 256MB worden alle textures nog compressed in/uit het videogeheugen geperst. Als de engine een 512MB videokaart detecteert, worden de textures rauw verwerkt.

Dus ja, er zijn eigenlijk al wel applicaties die 512 kunnen gebruiken, alhoewel de beeldkwaliteit misschien hetzelfde blijft of niet merkbaar veranderd. :)
Ik heb het in het vorige topic ook al gezegd. De NV40 (GeForce 6800) heeft een losless compressie algoritme dat textures 1:5 kan compressen. Natuurlijk wordt die 1:5 compressie lang niet altijd gehaald, maar feit blijft dat als ze echt rauwe textures gingen verwerken 512mb alsnog niet voldoende is om alle rauwe textures van een grote scene met een engine als Doom3 erin te stoppen. Ik ken de technische details van de R420 niet zo goed, maar het lijkt met dat deze eenzelfde soort compressie heeft (dus losless 1:5) dus dat geld dan ook voor deze kaart.

Edit: Hoezo nou weer dubbelpost?
Ik ken geen 5:1 compressie die lossless is, je bedoelt waarschijnlijk de DXT compressies wat 4:1 voor kleure data is, en dat is vere van lossless.
DXT word overigens op bijna alle NVidia en ATi kaarten ondersteunt.
Ook de nieuwst Unreal engine gebruikt al 512Mb eigenlijk kan die nog wel meer gebruiken omdat bij deze engine 512Mb echt het minimum is.
Maar is die al uit? Nee dus.
Ik snap niet waarom iedereen zit te zeuren over het feit dat je die 512MB niet nodig hebt. 256MB hadden we twee jaar geleden ook niet nodig en tegenwoordig komen die toch aardig van pas. Dit wil niet zeggen dat het een must is, aangezien je met 128MB ook prima kan gamen, maar het heeft in ieder geval nut.

Zo is het nu weer net hetzelfde. Iedereen klaagt maar dat we dat niet nodig hebben, maar het moet er ooit van komen. Binnen afzienbare tijd is het de normaalste zaak van de wereld en horen we er niemand meer over. Overigens is het niet zo dat we er niets aan hebben, aangezien Doom3 al 512MB aan videogeheugen vraagt, wanneer we op Ultra Settings gaan spelen.

Het is ook een goeie zet van ATi om deze kaart nu uit te brengen, voor de overklokwedstrijd in Dallas. We weten tenslotte dat benchmarks als 3DMark en AquaMark en dergelijke best wel genieten van een hoop extra megabytes. Daar gaat het dus om pure benchmark-resultaten, en die grote jongens in de overklokwereld hechten volgens mij niet zo heel veel belang aan het aantal frames per seconde in games :+.
Als een spel 512MB gebruikt, maar de textures zijn nog steeds hardstikke lelijk....
Heb je er dan wat aan?

Als er nou een spel komt dat door 512MB daadwerkelijk mooier wordt, DAN heb je er wat aan.
512 MB video-geheugen. Dadelijk zijn er mensen met meer video-geheugen dan intern.... :+
Ik vraag me dan tog af waar de grens ligt , om de zoveel maanden ligt er alweer een nieuw topmodel in de winkel , en het zal er niet goedkoper op worden
De grens komt wanneer de pioneers-consumenten het spuugzat zijn om ieder halfjaar een nieuwe videokaart te kopen. Aangezien deze doelgroep dat nooit zal doen vanwege het " kijk eens wat ik in mijn kast heb" semi-surrogaat-machogedrag zal DAT wel de eerste tijd niet gebeuren. De grens kan ook bereikt worden als de doorsnee consument massaal gaat overstappen op consoles (wat nu al veel gebeurt, en wat in de toekomst alleen nog maar zal toenemen)
Waarvoor izjn die aansluitingen aan de achterkant??
Prik, ook wel bekend als stroom.
Die gele aaansluiting lijkt meer op een audioaansluiting zoals je die vind op een geluidskaart of zit ik er nou erg ver naast?
is het niet zo'n dingetje wat ook op floppydrives zit voor prik?
Het gele poortje is voor het aansluiten van een van een video ingang of uitgang. Het schijnt dat sommige pc-kasten aan de voorkant een setje tulpaansluitingen heeft voor video en die kun je op deze manier gebruiken.
die zijn voor DVI oftewel de nieuwe genareratie van aansluitingen maar je kunt er ook gewoon een scherm aanhangen met een kabeltje no worry
hij had het over de achterkant :)
Ja nou? Dat zit toch ook aan de achterkant? ;)
Of steken bij jouw computer alle kabels voor monitor etc er aan de voorkant uit?
voeding, het beestje trekt wel wat stroom :Y)
Maar ik zie 2 aansluitingen.. Je gaat me niet vertellen dat hij 2 aansluitingen nodig heeft...
correctie verkeerde achetkant lol

ik denk ook extra voeding dat trekt die PCI express poort nie zomaar

(EDIT PCI XPRESS)
is dit neit een PCI-Xpres kaart??
Je hebt PCI-X en PCI-Express.

PCI-X komt vrijwel alleen in servers voor.
PCI-Express is de opvolger van PCI met een hogere bandbreedte dan AGP, in dit geval erg geschikt voor videokaarten.
Dit is dus een PCI-E kaart.

Even simpel uitgelegd..
dat is volgens mij voor extra voeding
2x dvi en 1x tv-out (s-video)

als je nog gewoon crt-scherm hebt---> er bestaan handige omvormstukjes daarvoor


edit... 1 min te laat en al zoveel reacties lol
Nu krijgen de ATI fans de deksel op hun neus...Dit ding neemt 2 PCI sloten @#%@#$^ :+
Dat nam elke x850xt al hoor ;)

En dat die mensen het pci slot onder hun kaart niet gebruiken.
Tjah, nu kun je waarschijnlijk nog nauwelijks het 2e slot onder je grafische kaart gebruiken.
Dus dat is eigenlijk geen exuus (niet dat ik negatief ben over ati hoor, ben namelijk zeer tevreden x800 gebruiker B-) )
Bij deze koeler kan je het 2de pci slot wel degelijk gebruiken omdat deze koeler geen extra vrije ruimte nodig heeft in het volgende slot om lucht aan te zuigen. (net zoals de FX5800 koeler dat ook niet nodig heeft)

Maar bij de 6800U koelers is dat wel een probleem. Daar ben je om die reden eigenlijk 2 pci slots kwijt.
Ik zie hier niet echt het probleem van in. Ik denk namelijk dat er maar heel weinig mensen zijn die direct onder hun videokaart meteen een andere kaart hebben zitten. De meesten houden toch al een pci slot vrij zodat de warmte daar nog een beetje weg kan. Dus dan maakt het toch niet uit dat daar precies de koeler zit ?
Ja, ik ben het vokomen met je eens. Dat heb ik destijds ook vele malen beweert, maar er waren mensen die zich toch aan dat 2e slot stoorden... :?
Volgens mij kwam dat meer om het lawaai en omdat hij lucht naar binnen blaasde in plaats van naar buiten
Ookal gaat dat ding 8 sloten in beslag nemen,.....
Sinds nForce2 het regelende hart in mijn pc is, gebruik ik geen PCI poorten meer. (tenzij je de AGP als dubbele PCI rekent, maar da's niet gebruikelijk.)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True