Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 54 reacties
Bron: Hot Hardware

Nadat nVidia's TurboCache al uitgebreid in de praktijk onder de loep genomen was, vond Hot Hardware dat de tijd rijp was om ATi's antwoord daarop te onderzoeken. Theoretisch gezien doen beide technologieën hetzelfde: ze nemen een deel van het systeemgeheugen over en wijzen dit toe aan de videokaart, zodat deze van minder onboard geheugen voorzien moet worden. Hoewel ATi razend enthousiast is over deze technologie, zijn er nog geen kaarten beschikbaar die hiermee uitgerust zijn, zodat het voorlopig bij een vooruitblik op basis van specificaties blijft. Als eerste worden even de dingen die men wel al weet op een rijtje gezet. Zo zal er een Radeon X300-versie zijn met 128MB en met 256MB HyperMemory-geheugen. Beide kaarten zullen de RV370-core gebruiken op 325MHz en zullen het lokale geheugen op 300MHz geklokt hebben.

ATi logo (klein)Dankzij de 64bit-geheugenbus zullen deze kaarten in totaal tegen 4,8GB/s met het lokale geheugen kunnen communiceren en met 12,8GB/s in combinatie met met het systeemgeheugen. Het gaat hierbij vanzelfsprekend over communicatie over een PCI Express-bus, aangezien AGP-varianten van deze kaarten niet ontwikkeld zullen worden. Volgens Hot Hardware is het aanbod bij ATi veel gebalanceerder. Zo hebben beide kaarten een 64bit-geheugenbus en consistente kloksnelheden, in tegenstelling tot de TurboCache-kaarten met zowel een 32bit- als een 64bit-geheugenbus en de uiteenlopende frequenties, waardoor de nVidia-kaarten allemaal een andere theoretische maximum bandbreedte hebben. Bovendien heeft ATi genoeg aan 256MB systeemgeheugen, terwijl de GeForce 6200 TC minimaal 512MB vereist.

Kaart Core /
Geheugen
(MHz)
Onboard
geheugen
(MB)
Totaal
geheugen
(MB)
Lokale
bandbreedte
(GB/s)
Totale
bandbreedte
(GB/s)
Radeon X300 SE 128 325 / 300 32 128 4,8 12,8
Radeon X300 SE 256 325 / 300 128 256 4,8 12,8
GeForce 6200
16-TC 128MB
350 / 350 16 128 2,8 10,8
GeForce 6200
32-TC 128MB
350 / 350 32 128 5,6 13,6
GeForce 6200
64-TC 256MB
350 / 275 64 256 4,4 12,4

Alvorens men zich aan een voorspelling van de prestaties waagt, gaat Hot Hardware eerst wat dieper in op de werking van HyperMemory. In tegenstelling tot traditionele videokaarten, waarbij alle communicatie met het systeemgeheugen via de Northbridge moet passeren, hebben HyperMemory-kaarten wel rechtstreeks toegang tot dit geheugen. Geïntegreerde videochips op het moederbord doen dit ook, maar het verschil is dat HyperMemory in staat is het gereserveerde geheugen dynamisch uit te breiden of in te krimpen. Daar worden drie componenten voor gebruikt: de HyperMemory-software, de HyperMemory-geheugencontroller en de PCI Express-verbinding. Wanneer een geheugenblok aangesproken wordt, bepaalt de software automatisch of het hierbij om systeemgeheugen of lokaal geheugen gaat en kan deze desgewenst data verplaatsen om resources vrij te geven en veelgebruikte data toch naar het lokale geheugen te halen. Indien nodig kan de HyperMemory-software data ook van het systeemgeheugen naar de pagefile wegschrijven.

Tot slot baseert Hot Hardware zich op enkele ATi-grafieken en -specificaties om een poging te doen te voorspellen hoe de prestaties van HyperMemory zich zullen verhouden tot deze van de TurboCache-technologie. In deze tests werd volgens ATi steeds gebruikgemaakt van de minimale systeemeisen, wat zou betekenen dat het ATi-systeem uitgerust werd met 256MB en de nVidia-kaarten 512MB systeemgeheugen meekregen. Er wordt echter niet gemeld of het om een TC-16- of TC-32-variant gaat, zodat het onduidelijk is of het nVidia-systeem over een 32bits- of een 64bits-geheugenbus kon beschikken. In de tests zien we, gezien de bron van de grafieken niet geheel onverwacht, dat de Radeon X300 beduidend sneller is dan de GeForce en de i915G-chipset. Enkel in Doom3 illustreet ATi zelf dat nVidia nipt sneller is, maar zowel in FarCry, Half-Life 2, 3DMark01 als in PCMark heeft de Radeon een duidelijke voorsprong.

Hot Hardware concludeert dan ook dat ATi's HyperMemory-technologie zeker een kanshebber is, maar dat het wel belangrijk is dat kaarten op basis van deze technologie snel beschikbaar worden. Het bedrijf wil en kan hiermee relatief goedkope hardware ontwikkelen om toch tot vijfentwintig procent betere prestaties te bieden. In tegenstelling tot de TurboCache-kaarten zal het voor de gebruikers vermoedelijk gemakkelijker zijn een keuze te maken, aangezien elke Radeon HyperMemory-kaart over dezelfde bandbreedte zal beschikken. Vermoedelijk zal de 128MB-versie 59 dollar gaan kosten, beduidend lager dan de introductieprijs van de GeForce Turbocache.

HyperMemory
Moderatie-faq Wijzig weergave

Reacties (54)

Maar even wat geschiedvervalsing rechtzetten.

ATI was eerder met Hypermemory dan Nvidia met TurboCache kwam.
Als er dus al iemand antwoord heeft gegeven op de ander, dan is dat dus Nvidia.

Maar verder is het zowiezo onzinnig om op die manier over die beide technologien te praten, aangezien het beide volstrekt vanzelfsprekende gevolgens zijn van de PCI-Express specificaties waar beide partijen aan meegewerkt hebben.

Verder was ATI ook eerder met een hardware implementatie. Alleen heeft ATI gekozen voor een implementatie in een mobo met onboard gpu, terwijl Nvidia heeft gekozen voor een losse videokaart.
de data qua release van de specs zegt weinig over geschiedvervalsing imo. neem ff in gedachte dat wanneer de krant wat plaatst het allang ontwikkeld kan zijn en dat het absoluut geen antwoord hoeft te zijn op een ander.
neem ook in gedachte dat nvidia de oude voodoo creator heeft overgenomen en dus wat betreffend 'remote memory addressing' al heel wat techniek heeft overgenomen.
neem ook in gedachte dat nvidia de oude voodoo creator heeft overgenomen en dus wat betreffend 'remote memory addressing' al heel wat techniek heeft overgenomen.
Oh ja? Wat had 3dfx qua 'remote memory addressing' voor technologie dan?
Neem liever in gedachten mee dat ATI en Nvidia tegelijkertijd aan de ontwikkeling begonnen toen PCI-E het mogelijk maakte om het effecient in de praktijk te gebruiken.

Overigens zou ik net zoals Olaf wel eens willen weten wat voor remote memory addressing tech 3dfx dan had.

En als je echt zo ontzettend graag wilt bepalen wie er eerder in was, dan wordt het toch echt ATI.
Zo is namelijk gebleken dat vanaf de R300 serie de ATI gpu's al de mogelijkheid hebben om naar systeemgeheugen te schrijven. Nvidia heeft echter hun gpu's moeten aanpassen voor hun turbocache modellen.
Zie ook: http://www.beyond3d.com/forum/viewtopic.php?topic=20286&forum=9
Laptops gebruiken deze technologie ook al enige tijd, dit is een prima technologie om geld te besparen, en zo gewoon voor het zelfde geld meer memory in je kast, "voor het hele systeem" er in te kunne prikken.
Nee, laptops gebruiken shared memory. Dat is niet hetzelfde als hypermemory.
(Hoewel het in grote lijnen natuurlijk best wel grote overeenkomsten heeft)
Het verschil is dat bij de mobiele chipsets het geheugen niet dynamisch wordt toegekent, maar statisch.
Een moederbord met onboard GPU ? Je bedoeld waarschijnlijk de Intergrated Graphics van de Xpress 200. Dat is echter niet hetzelfde als de HyperMemory of TurboCache techniek.

Bij deze laatste techniek heeft de GPU lokaal geheugen wat je kunt uitbreiden met systeemgeheugen. Bij een IGP is er alleen sprake van Systeemgeheugen.

Als we jou redenatie volgt dan waren al diverse partijen jaren eerder.

Ik vind de conclusie in het bericht dan ook terecht. De TurboCache producten zijn gelanceerd en verkrijgbaar. De HyperMemory producten/technieken zijn wel gelanceerd/aangekondigd maar niet beschikbaar. Dus HyperMemory moet zich nog bewijzen en ATi ligt achter waar het aan komt op verkrijgbare producten.
Dan ben je toch echt slecht geinformeerd, want de RS480 Radeon Xpress 200 gebruikt wel degelijk hypermemory.

Bij dat bord is er dan ook zeker wel sprake van lokaal geheugen, wat je kunt uitbreiden met systeemgeheugen.
Zo heeft het reference bord van ATI bv 32MB lokaal geheugen voor de GPU, wat je vervolgens met systeemgeheugen kunt uitbreiden.

Voor verdere details verwijs ik je naar :
http://www.beyond3d.com/previews/ati/rs480/index.php?p=3
Dankzij de 64bit-geheugenbus zullen deze kaarten in totaal tegen 4,8GB/s met het lokale geheugen kunnen communiceren en met 12,8GB/s in combinatie met met het systeemgeheugen.
Van het systeemgeheugen wordt dus 8 gbyte/s verwacht?
Dat is minimaal dual-channel DDR500. En dan neem je aan dat de CPU geen bandbreedte gebruikt.
Neehoor, ze pakken gewoon de maximale (bidirectonele) bandbreedte van de PCI Express bus (2 x 4GBps) en die tellen ze bij de lokale bandbreedte op.
Leuk bedacht, alleen typisch marketing.
Zegt ook niks over de daadwerkelijke snelheid van het achterliggende memory subsystem.
Uiteindelijk is het gewoon een vorm van 2nd level caching, de vraag is hoeveel invloed de snelheid van dat achterliggende geheugen uiteindelijk uitmaakt voor de performance maar daar zullen we wat benchmarks voor moeten afwachten die verschillen op dat gebied.

NVIDIA laat deze berekening letterlijk zien in hun TurboCache documentatie, iets verglijkbaars bij ATi heb ik zo snel niet gevonden.
http://www.nvidia.com/object/IO_17361.html
Ik dacht dat de videokaart met turbocaching rechtstreeks data van en naar het hoofdgeheugen kon schrijven/lezen en het dus naast het onboard geheugen werd gebruikt. Als het inderdaad een soort caching is, dan is de snelheid waarmee de GPU de data krijgt nog altijd de snelheid van het onboard geheugen. De bandbreedte die de videokaart voor handen heeft kan allesinds niet gewoon de som zijn van de bandbreedte van het onboard geheugen en het hoofdgeheugen (of het zou moeten zijn dat elk stukje data verspreid is over onboard en hoofdgeheugen).
Zowiezo is die 8GBps langs het PCI-Expressslot onzin. Er is nog geen geheugenconfiguratie die theoretisch zo snel data kan versturen. De CPU gebruikt dan ook nog een groot deel van de bandbreedte van het hoofdgeheugen. Als er dus nog 3GBps overblijft dan zal het veel zijn.
Ik vind de techniek wel goed, vooral voor goedkope kaarten voor bedrijfscomputers die deftig Directx9.0 en OpenGL ondersteunen (dus met een prijs van maximum ¤ 60), maar ze proberen zo de klant te misleiden die wel een goede grafische kaart zoekt.
Ik dacht dat de videokaart met turbocaching rechtstreeks data van en naar het hoofdgeheugen kon schrijven/lezen en het dus naast het onboard geheugen werd gebruikt.

Dat klopt ook. Alleen is het achterliggende geheugensysteem inderdaad zoals je zelf al schetst een stuk langzamer (in de meeste gevallen) als het lokale geheugen. Dit heeft effectief tot gevolg dat het uiteindelijk alleen maar nuttig is om de wat minder belangrijke dingen in op te slaan, ik noem het maar cachen. (De vraag is of je bij zo'n kaart met 16MB local en een beetje resolutie op je scherm sowizo wel ruimte hebt om nog iets anders op te slaan maar goed)
NVIDIA can deliver its award-winning NVIDIA GeForce™ 6 Series graphics processing unit (GPU) architecture—including Microsoft® DirectX® 9.0 Shader Model 3.0 and the NVIDIA PureVideo™ technology—to entry-level desktop PCs and notebooks.

Aha, ok dan, het is dus een budget oplossing voor zowel maker als instap klanten.
En ik blijf het oude wijn in nieuwe zakken noemen a.k.a. 'shared memory'.
Dat er hogere scores gehaald worden, logisch, zelfs de budgetsystemen tikken sneller op gebied van proc. en (meer ook) mem.
Maar even wat geschiedvervalsing rechtzetten.

ATI was niet eerder met Hypermemory dan Nvidia met TurboCache kwam.
ATi begon er eerder over te bazelen....

Verder is het niet 512MB maar 256MB nodig hebben onzin, kan ik mij gigantisch ergeren aan dat compleet misplaatste HF2 logo daar (laat mij maar eens een hypermemory kaart zien dat dat netjes op high details 1024*768 met 2x AA en 2x AF in minstens 40FPS doet) en dat ATi's aanbod beperkter is hoeft ook niet een voordeel te zijn. En anders kijken we even naar x800pro en x800xl......

Verder zijn dit klote kaarten in de onderste regionen van wat met 'video-kaart' mag noemen en is het gewoon een enorm slecht idee, wat eigenlijk met AGP ook al mogelijk zou zijn geweest....Het direct aan het systeem geheugen zitten is uitgesloten....er lopen helaas geen extra lanes naar de achterdeur van het systeem geheugen toe, dat de drivers met je systeem geheugen aan de haal gaan is wat anders.....op A64 systemen moet de data dus van gpu naar northbirdge, van northbridge naar cpu en van cpu naar geheugen, kort pad, goed idee.

Ik zie maar een klein voordeel aan de hele techniek, en dat is dat misschien nu eindelijk die overdosis bandbreette van Dual Channel DDR2 op een fatsoenlijke maniet kan worden gebruikt (ipv er een cpu op aan te sluiten die nog niet 60 procent ervan kan gebruiken)
Maak je niet zo druk Jan.

ATI bazelde er eerder over dan Nvidia en kwam eerder met werkende hardware dan Nvidia.
Volgens de meeste definities ben je dan gewoon eerder.

Zoals ik zelf al heb aangegeven is dat echter niet zo belangrijk aangezien ze gewoon gelijk zijn begonnen met de ontwikkeling toen dat mogelijk werd met PCI-E. (en ook ongeveer gelijk klaar waren)

Maar stellen dat Nvidia eerder was en dat ATI moest antwoorden is dus in ieder geval niet waar. (dat zal zelfs jij moeten toegeven) en dat moet dan gewoon rechtgezet worden.

Verder ben je volgens mij een beetje allergisch aan het worden voor alles wat ATI is, als je je zo opwint over iets simpels als dat HL2 logotje.
Lang niet iedereen wil AA, en de RS480 doet het in vele spelen best heel aardig op 1024 zonder AA.
Voor ons niet voldoende, maar voor een heleboel mensen wel. (Je wilt niet weten hoeveel mensen HL2 spelen met een GF4MX of nog minder)
Helemaal zeker weten wie eerder was kunnen we helaas niet doen, nvidia houd nu eenmaal altijd dingen achter, als er niet van die duidelijke golden fingers op wat PCI-E kaarten zaten dan wisten we pas recentelijk over het bestaan van SLI.

Om een of andere reden heeft nVidia iets gepland met die PCI-E dingen, eigenlijk hebben ze heel inovaties gewoon laten wachten tot PCI-E, ondanks dat daar eigenlijk geen reden toe was, want niet alleen hypermemory/turbocache, maar ook SLI was met AGP mogelijk als de nforce 2 2 agp sloten had, die in dat geval op 4x gaan draaien, zou geen enkel probleem zijn geweest, en we hadden al lang met dual GeForce 4 Ti 4200 kaarten gezeten.

Over dat ATi eerder was, ik heb mijn twijfels, dat over werkende hardware, tja, nvidia kondigd het later aan, maar brengt het als eerste op de markt, dus ik voeg ook hyper memory toe aan de 2004 van nvidia geleende idieen.

Lijst
Neem een spel en melk het uit (nvidia Doom3 in zomer, ATi HF2 in de herfst.
2 Graka's, SLI en later dit jaar AMR
Shared memory, maar ja, als je de r en d wisselt van plaats staat er shader memory, dus dat zal dan wel weer goed.
Wat bedoel je met de golden fingers en SLI?

Wat betreft SLI voor AGP: Voor zover ik weet laat de specificatie van AGP geen 2 agp slots toe.

Met PCI en PCI-E is dat geen probleem, vandaar dat je daarvoor SLI achtige oplossingen hebt gehad en weer krijgt.

Komt natuurlijk bij dat SLI en/of meerdere gpu's op één kaart voor de videokaart fabrikanten op de lange termijn helemaal niet handig is. Daarom hebben ze er allemaal ook lange tijd niet naar gekeken. Dus je zou best gelijk kunnen hebben dat ze wel SLI in AGP hadden kunnen maken als ze hadden gewild.

Maar als je op de korte termijn hoognodig marktaandeel moet terugwinnen, dan worden de punten van overweging ineens anders.

En nogmaals. Hypermemory en Turbocache hebben ze niet van elkaar geleend. Het is de logische consequentie van de PCI-E specificatie.
Als je dus wilt beweren dat iemand een idee geleend heeft, dan zijn het dus ATI en Nvidia die het van de PCI-E specs geleend hebben. (Waar ze weer zelf weer aan bijgedragen hebben)
Vind ik een mooie conclusie :7
S3 had ongeveer 10 jaar geleden al videokaarten die gebruik maakten van het systeemgeheugen, dus ik snap sowieso de ophef niet...
Ik ben benieuwd of de leveranciers van videokaartgeheugen hier ook zo blij mee zijn....
(al zal de verkoop van systeemgeheugen natuurlijk wel aardig toenemen.)
Je zal nooit de prestaties halen van een gewone kaart met bvb. 256MB geheugen. Het is en blijft een omweg voor de data. Deze techniek is bedoelt om de prijs van de kaart naar beneden te halen, zodat ook gamers met een beperkt budget hun favoriete games kunnen spelen.
Wil je gamen in 1280x1024 met 8xAA en 16xAF, dan zal je toch echt beter af zijn met een van de topmodellen met 256 of nu zelfs 512MB geheugen.
Maar ook voor de topmodellen kan deze technologie interessant gaan worden.

Gebruik ipv 512MB local memory nou eens 128MB local memory en de rest in system memory.

Ten eerste gebruiken de meeste applicaties geen 512MB. En voor die enkele die het wel gebruikt wordt het meeste van die 512MB wordt immers toch niet gebruikt voor het renderen van een frame. (het wordt gebruikt als opslag voor data die je wellicht nodig gaat hebben voor het renderen van frames in een beperkt gebied)

Je kan het local memory als cache gaan gebruiken, analoog aan het cache geheugen voor een cpu.

Op een gegeven moment kan ik me zelfs voorstellen dat dit interessanter is voor high-end kaarten dan voor low-end kaarten. Geheugen wordt immers steeds goedkoper. Dus een low-end kaartje met een redelijke hoeveelheid local geheugen uitrusten kost dan vrijwel niets meer.

Maar een high-end kaart heeft veel geheugen nodig (duur) en snel geheugen nodig (ook duur)
En dan kun je met zo'n technologie een high-end kaart een stuk goedkoper maken.
Maar een high-end kaart heeft veel geheugen nodig (duur) en snel geheugen nodig (ook duur)
En waarom zou dat op te lossen zijn door systeemgeheugen te gebruiken?
Als systeemgeheugen goed genoeg is, kan dat toch ook gewoon op de videokaart zelf gebruikt worden in plaats van dat dure geheugen?
Het nadeel van systeemgeheugen is dat de latencies veel hoger zijn (pad is veel langer) en dat de bandbreedte gedeeld moet worden met CPU en andere hardware.
Je moet het wel even in de juiste context zien.
- Langzaam geheugen is altijd nog beter dan GEEN geheugen (of te weinig)
- Er zit een einde aan het bedrag wat mensen bereid zijn om uit te geven aan een videokaart, als dit een mogelijkheid is om de kosten te drukken, waarom niet.
- Nog een (level2) cache (uiteindelijk dient het huidige geheugen op een videokaart ook alleen maar als framebuffer en verder is het één grote cache) in hardware implementeren op een videokaart is een stuk kostbaarder (en schaalt niet mee!, in tegenstelling tot de achterliggende architectuur van de CPU/Mem/Chipset waar toch wel ontwikkeling op plaatsvind)
Ik ben het met mjtdevries eens, al zie ik het iets anders: aangezien de communicatie met het geheugen op de grafische kaart en met het systeemgeheugen tegerlijkertijd kunnen gaan wordt je totale bandbreedte hoger.

Het zou me niets verbazen als ze deze chip ook op bijvoorbeeld een X850 gaan zetten. Ik bedoel: dat die kaart daardoor een paar euro duurder wordt merk je niet eens, en in ruil daarvoor is je totale geheugenbandbreedte meer geworden en kan je opscheppen dat je 512 + 512MB aan geheugen hebt :). Bovendien komen high-end kaarten over het algemeen in high-end pc's (dus met veel geheugen) dus daar is het echt geen ramp als er een paar ongebruikte mb's als aanvulling op het videogeheugen wordt gebruikt.
in tegenstelling tot de achterliggende architectuur van de CPU/Mem/Chipset waar toch wel ontwikkeling op plaatsvind)
Zeg je nou dat er qua video memory en chipset geen ontwikkeling heeft plaatsgevonden?
Jongens, het hoeft toch geen of/of kwestie te zijn?

Een high-end video kaart met 512MB onboard, kan toch gewoon OOK nog systeem geheugen erbij gaan gebruiken?

Kun je met 1GB aan super hi-res textures gaan werken :9~

Plus, als je het systeem geheugen niet als cache gebruikt maar als apart onderdeel van de memory space van je GPU EN je de CPU ook toegang geeft tot dit geheugen, dan kan dit voor bepaalde effecten gebruikt worden. Consoles, (oa de Xbox) gebruiken dit ook.
Zeg je nou dat er qua video memory en chipset geen ontwikkeling heeft plaatsgevonden?
Dat is een conclusie die jij trekt..

De zogenaamde innovatie op videokaartgebied is uiteindelijk niets anders als core tweaken/opvoeren, weer wat functies toevoegen (in die core) en de geheugensnelheid opvoeren. Wil je daarbij een tussenvorm van geheugen als cache gaan implementeren dan zal je daar als GPU/videokaart fabrikant/ontwikkelaar toch echt ook onderzoek/geld in moeten gaan steken en dat schiet het doel nogal voorbij he? (de kosten drukken)
zijn de Athlon64's nou in het nadeel met deze constructie? De datarequest moet immers van de northbridge eerst nog naar de proc voor het geheugen aangesproken kan worden. Of bemoeit de proc in een P4-systeem zich ook met de datastroom naar de kaart?
Volgens mij maakt AMD64 geen gebruik van een northbridge?
De AGP bus was rechtstreeks op de memorycontroller (CPU) aangesloten via HyperTransport. Ik kan me voorstellen, dat dat voor de PCI Express x16 ook geldt. En dan verliest de AMD64 niets; ze wint er wellicht zelfs bij.
De I/O hub, AGP tunnel en PCI-X tunnel zijn via HyperTransport gekoppeld aan één van de processors in het systeem.
(bron: AMD Hammer platform review - april 2002)
De AGP bus was rechtstreeks op de memorycontroller (CPU) aangesloten via HyperTransport.
Dan heb je toch een 'gateway' nodig die 'vertaalt' tussen AGP en HT?
Die zit normaal in de northbridge.
zijn de Athlon64's nou in het nadeel met deze constructie?
Ja.
zijn de Athlon64's nou in het nadeel met deze constructie?
Ja.
Volgens mij is vga>athlon64>ram sneller dan bv. vga>nb>ram

Dit vanwege de veel betere latencies van de athlon64, en de hypertransport bus die een veel grotere bandbreedte geeft dan de relatief trage FSB van andere systemen.
Volgens mij is vga>athlon64>ram sneller dan bv. vga>nb>ram

Dit vanwege de veel betere latencies van de athlon64, en de hypertransport bus die een veel grotere bandbreedte geeft dan de relatief trage FSB van andere systemen.
De Athlon 64 CPU heeft geen PCI-E interface. Het is dus: vga>nb>cpu>ram.
De volgens mij heeft HT helemaal niet meer bandbreedte dan de FSB van de P4.
het is idd een nadeel.
veel chipsets hebben tegenwoordig dual channel ddr geheugen en dat heeft meer bandbreedte als de hypertranceport bus heeft, zodat deze een bottle nek vormed.
en daarnaast moet er een extra stap gemaakt worden
vga --> northbridge --> HTT/cpu --> memory controler.

het zelfde zie je als je naar onboard video chips kijkt (van ATI, dat is de enige met een chipset voor ahtlon64 en p4)
daar zijn de prestaties van p4 variant hoger.
maar daar kan ik niet echt mee zitten, alle voordelen van het hebben van de geheugen controler in de CPU wegen zeker op tegen dit ene nadeel
Verder kun je je ook afvragen of je bij een dure Athlon64 zo'n goedkopere videokaart koopt.
Indien nodig kan de HyperMemory-software data ook van het systeemgeheugen naar de pagefile wegschrijven.
Dat wil je niet meemaken, volgens mij, videogeheugen dat naar de HD weggeschreven wordt.. }> Verder lijkt het me wèl een hele zinnige feature; dat bespaart een smak geld op videogeheugen!
Volgens mij word hier bedoeld dat het systeemgeheugen leeg word gemaakt, zodat het videogeheugen dit kan gebruiken. correct me if wrong
//edit: gel*l & kwam de site niet op om het aan te passen :+
Handig vooral, sneller money earnen.
Zelf minder geheugen en aanverwant op je videoplanken, en de systeem performance doorschuiven naar je eigen mem.plankjes / hoeveelheid ram / snelheid van dat ram en last but not least, de HDD's die eventueel swappen....

Verder is het oude wijn in nieuwe zakken zoals anderen al opmerkten. Shared memory, oh oh wat zijn notebooks daarmee vlotter met gamen dan die met dedicated vid.mem... (NOT)
Het is een hybride oplossing. Deze oplossing heeft wel degelijk local memory.
Sneller geld verdienen vindt ik een beetje kort door de bocht geredeneerd. Het heeft eerder als resultaat dat de (very)low-end 3D kaartjes toch nog een beetje beter gaan presteren (voor minder geld als dat ze nu kosten). Iedereen weet dat je niets hebt aan 256MB op een Radeon 9200(SE) bijvoorbeeld. Maar je moet er WEL voor betalen. Doe me dan maar een kaartje van 32MB voor minder geld en met deze techniek.
correct me if i'm wrong, maar is dit niet eigenlijk hetzelfde als AGP Arperature Memory?

voor zover ik weet is de AGP Arperature gewoon een stuk systeem geheugen dat gebruikt word door de videokaart als extra geheugen (wanneer nodig, that is)
Nee, er is een belangrijk verschil.

Je kan alleen lezen van AGP geheugen. Je kan er textures in laden, en je videokaart kan die textures dan uit dat geheugen inlezen.

Met hypermemory/turbocache kan een videokaart ook in dat geheugen schrijven. En dat is bij moderne gpu bewerkingen van belang.
Verder moet de hogere bandbreedte van PCI-E het ook interessanter maken dan AGP ooit is geweest.

Of dat ook daadwerkelijk gaat gebeuren zullen we moeten afwachten.
Tja volgens mij kan AGP dit ook alleen minder snel... ofzo...

en dat gebruikt ook niemand volgens mij..
Dit is echt een goede technologie. Als ze dit gewoon bij alle toekomstige videokaarten inbakken, en ze je zelf laten bepalen hoeveel geheugen je wil toewijzen aan de GPU, dan gaat het helemaal goekomen met ATI :*)

Dit betekent dat kaarten met minder onboard memory prima \\\\\\\'kunnen\\\\\\\' presteren. En als je wat meer DDR geheugen koopt is dit OOK een voordeel voor je GPU.

Snellere kaarten kunnen hier ook prima gebruik van maken. Denk maar aan zware spellen enzo. IPV een nieuwe videokaart koop je er gewoon wat extra DDR geheugen bij, en je zit voorlopig goed.
Nee want de specificaties a la antialias, pipelines e.d. zijn constant. Meer videogeheugen (denk ook aan aperture size in bios) kan ook tegen(!) je werken.
Deze manier van werken met bestaand geheugen is dus een budget graka oplossing.
Nieuwe techniek of niet, maar op een X300 of een Geforce 6200 is écht niet fatsoendelijk te gamen. En over 1 jaar tijd al helemaal niet meer. Dus voor de langzame kaartjes neig ik toch meer naar een marketing stunt. Voor de high end kaarten zie ik wel een nut van deze technologie.
"Nieuwe techniek of niet, maar op een X300 of een Geforce 6200 is écht niet fatsoendelijk te gamen."

De bedoeling van de x300 ed is ook niet om doom3 keihard te knallen, maar om een degelijke performence te leveren tegen een lage prijs. De mensen die deze kaarten kopen zullen zich vooral met andere dingen bezig houden dan games.

Wat ze met deze technologie doen is de prijs van die kaartjes nòg verder naar beneden brengen, en/of de performence verbeteren, zodat ze aantrekkelijker worden voor het soort mensen dat ik net beschreef.

Er zijn een hele hoop mensen die niet gamen, en die profiteren er zeker van als die kaartjes nog goedkoper worden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True