ATi R520 mogelijk ook beschikbaar voor AGP

ATi logo (klein)The Inquirer heeft vernomen dat de ATi Radeon R520 waarschijnlijk ook beschikbaar zal komen in een AGP-versie. Om dit mogelijk te maken zou ATi gebruik maken van de Rialto PCI Express naar AGP bridge-chip. De AGP-versie zal dezelfde specificaties krijgen als de PCI Express-versie. Verder heeft ATi nog een aantal andere GPU's die gebaseerd zijn op de R520-architectuur op de roadmap staan. Dit zou kunnen betekenen dat ATi binnenkort in alle prijssegmenten een grafische chip kan aanbieden die overweg kan met Shader Model 3.0. Meer nieuws zou er op de CeBIT komen, die 10 maart van start gaat.

Door Ralph Smeets

Nieuwsposter

09-03-2005 • 20:28

40

Bron: The Inquirer

Reacties (40)

40
40
24
1
0
12
Wijzig sortering
Ik denk dat ati dit slim doet er zijn veel mensen die nog met een apg moederbord zitten, en toch een snelle pc hebben. Vooral de intel mensen kunnen erg snelle processoren hebben en nog geen pci-e chipset. En zelfs de AMD-64 Mobo hebben lang niet allemaal pci-e. Dus hiermee kan je mooi groot worden zonder concurentie(bij wijze van).
Ik zou zelfs willen zeggen dat juist de AMD64 mobo's lang niet allemaal pci-e hebben.

Op het moment dat ik naar een AMD64 bord op zoek was, had je gewoon P4 borden met pci-e, maar geen enkel AMD64 bord met pci-e.
Lijkt me vreemd omdat de oudere nforce-3 al pci-e heeft.
Denk dat er juist inverhouding weinig PCI-e borden zijn.
Het lijkt mij duidelijk dat je je vergist, aangezien op de site van NVIDIA duidelijk staat dat er geen ondersteuning inzit voor PCI-e maar AGP.
Mijn nforce3 ultra mobo anders niet. MSI K8N Platinum
Socket 754 voor amd bood nog geen ondersteuning voor pci-e, ook wel de overstap socket genoemd. Maar vanaf de nieuwe socket 939 is het bijna alleen nog maar pci-e, denk aan de NForce 4 series en de via KT890 chipsets
@robbievanderlee: KT890 en Nforce4 zijn pas ver na de introductie van socket 939 op te markt gebracht (denk aan Nforce 3 en KT800). Verreweg de meeste mensen met een Socket 939 processor zullen momenteel ook een AGP slot hebben.

Een AGP grafische kaart is bij mij dan ook meer dan welkom.
Aardig wat mensen hebben nog (semi) High-End AGP systemen...
Gezien de "nieuwe" budget platformen van AMD en Intel (s754 en s478) ook native AGP ondersteunen, en veel mensen sowieso nog oudere AGP systemen hebben, zullen AGP kaarten - ook de high-end modellen - nog wel een tijdje op de markt blijven komen.

Het marktaandeel van PCI-e is gewoon nog te laag om volledig daarop over te kunnen stappen. De transitie van PCI naar AGP ging ook niet in 1 jaar ;)
Daarbij komt dat zowel nVidia als ATi al bridgechips ontwikkeld hebben die cross-platform gebruikt kunnen worden (dus AGP > PCI-E en andersom), dus ze zouden niet zo slim zijn als ze die vervolgens niet gebruiken om van beide walletjes te kunnen eten.

Ik denk eerder aan midden tot eind 2006 voor een (vrijwel) volledige transitie van de high-end kaarten naar PCI-e. Het midden en budget segment zal er nog wel iets langer over doen :)
Ik betwijfel wat het uitmaakt of alle prijssegmenten met Shader Model 3.0 over weg kunnen, de low budget modellen hebben hier imho weinig baat aan.
Pas vanaf mid-en-high end heeft het nut want die kaarten worden gebruikt om te gamen.

Hopelijk heeft die pci naar agp chip niet zo´n vervelend extra koelblok nodig die montage van een alternatieve koeler als een ati silencer of zalman 700 onmogelijk maakt voor degene die zijn handjes niet vuil wil maken.
Tja, het zou niks moeten uitmaken of alle prijssegmenten met SM3 overweg kunnen.
Zelfs bij de R520 generatie en de Nvidia tegenhanger daarvan zal het hoogstens bij de high-end kaarten nut hebben.

Maar zo werkt de markt helaas niet. Kijk maar naar de FX5200 met DX9 support. Dat ding had daardoor toch een voordeel tov vergelijkbare ATI kaarten.
Ik heb hier een aanvulling op: als je i.p.v. alleen SM 2.0 ook ondersteuning geeft aan SM 3.0, dan kun je meer lijpe shit toveren (vb.Parallax Mapping) terwijl het spel zelf makkelijker doorvoert door de betere invulling onder SM 3.0, ik spreek hier uit mijn eigen ervaring.
Het houdt dus in dat het sneller gaat terwijl je meer ubershit op het scherm toont dan dat bij SM 2.0 mogelijk zou zijn.
lol
die "lijpe shit" gaat op een sm2.0 kaart even snel als een sm3.0 kaart en nee je hebt geen ervaring...

Paralax mapping is een 8 tal instructies, zelf mogelijk op een sm1.4 kaart (doch door de limitatie van FX16 is het beeld vol artefacten die zichtbaar worden eens je de camera beweegt). Op een sm2.0 kaart draait die parallax mapping even snel als op een sm3.0++++++++++ of sm4.0 kaart. Bij compexere effecten 200+ instructies of serieus multipass shading wordt het gebruik van sm3.0 interessant tegenover sm2.0. Het probleem dat zich dan stelt is dat de zwaarste geforce 6800 gt en beter dat misschien kan draaien aan een degelijke framerate (40-50 fps) maar een gewone GF6600 of GF6200 daar gewoon niet moet aan beginnen. Een hoger shader model wordt ontworpen om toekomstige performance problemen op te lossen & niet om de prestaties van een ouder shader model op te schroeven, hetgeen gewoon niet mogelijk is.
Nou dat de 5200 een voordeel had moet je niet te hard roepen, ik heb er helaas ook één gehad en het maakte me toen niet uit wat voor dx dat ding ondersteunde.
Simpelweg omdat hij ontsettend traag was, zo traag dat hij eyecandy van dx 7 min of meer aan kon, dx 8 was al te veel van het goeie op een normale resolutie als 1024/768.
Zelfs de mid en high end modellen als de 5600 ultra en de 5900 hadden door hun ontwerp slechte prestaties in dx9 maar dat boeit in dit geval niet.

Het is gewoon jammer dat kaarten zoals de 5200( vaak zelfs met 64 bits geheugen) de hemel in worden geprezen door dingen als dx9 ondersteuning etc terwijl ze niet in staat zijn hier gebruik van te maken en tegelijk een goeie performance te leveren.
Onwetende gebruikers zoals vele van mijn vrienden worden zo de mist in geleid.
Een gf4 mx 440 met zijn dx7 presteert gelijk of beter dan menig 5200( geheugen kan verschillen, 64 of 128 bits, ultra/ non ultra)

Wat je veel ziet is dat de low end kaartjes net zo traag blijven en voor hun kunnen allerlei onbruikbare snufjes aan bord krijgen.
En terwijl je steeds net zo veel betaald als voor een gf 4 mx 440 toen hij low end was.
@DJ_Squtshi,

Blijkbaar heb ik me niet duidelijk genoeg uitgedrukt.
Ik bedoelde juist te zeggen dat de DX9 support van de FX5200 helemaal zinloos was voor de koper.

Maar voor Nvidia zelf had het ding zeker wel een voordeel, aangezien heel veel mensen toch daarom zo'n ding prefereerden boven een ATI model.

In die zin is het dus ook marketingtechnisch gezien een voordeel als ATI nu ook bij de hele serie SM3 invoert.
Ook de budget-Geforce 6200 ondersteunt Shadermodel 3.0, maar die heeft simpelweg te weinig rekenkracht (77 miljoen transistoren op lage snelheid) om daar écht voordeel uit te halen.

Maar met de R520 zit het wel iets anders, het betreft hier volgens de geruchten (en de traditie van ATi om het aantal transistoren van een gloednieuwe chip te verdubbelen ten opzichte van de vorige generatie) een chip met 300-350 miljoen transistoren aan boord. ATi gaat alle prijssegmenten vullen door enkel te snijden in het geheugen (DDR1/2 ipv GDDR3), het aantal pixelpipelines (12/16/20 ipv 24), de snelheid van de cores, en héél misschien in de geheugenbus (128 bits ipv 256).

Dus zelfs een R520 met 12 pipelines, 128 bit 128MB geheugen op lagere snelheden (ik ga even uit van de meest budget-R520 die ATi zal kunnen aanbieden, deze configuratie maakt immers weinig kans bij de gemiddelde gamer), zal op zeker baat gaan hebben van de SM3.0-implementatie.
Als ze nu al aankondigingen voor deze nieuwe generatie maken, ben ik benieuwd wanneer deze uit komt.

Aan de ene kant maken fabrikanten graag lang van te voren een nieuwe generatie bekend, aan de andere kant zal dit nieuws een duidelijk remment effect hebben op verkoop van huidige 850's en 800's. Waarom nu 500 euro betalen voor een kaart die over een paar maanden verouderd is? Van de 520's wordt beweert dat ze 2~3 sneller zijn dan de 800 kaarten.

Wellich dat inderdaad er in mei al nieuwe 520's te koop zullen zijn.
Wat een vaag bericht zeg!
Ik zou hier helemaal geen waarde aanhechten,ze berichten iets,maar ze kunnen niet duidelijk maken wat of wie de bron is(wireles lan???).Ik zou zeggen wacht gerust de Cebit af,wat ze zelf ook nog eens zeggen bij de Inquirer,want zien is geloven.
Ja.. the Inquirer. Dat blad van niks ook he! En dan die journalist die dit artikel geschreven heeft.. ver-schrik-ke-lijk. Je weet wel, die journalist naar wie ATi de R520 core naar vernoemd heeft. Je weet wel, die R520 core waar dit artikel over gaat.

Waarom?
Omdat het een pruts journalist is..
Die voor een nieuws site werkt die nooit dit soort dingen als eerste weten..
Laat staan als het om een ATi product gaat.
Daarom he...
90% van alle nieuwsberichten over ati/nvidia hier op T.net komen wel van de inq. De inq is diegene die bijna alle belangrijke scoops weet te hebben doordat ze contacten in de industrie die blijkbaar niemand anders heeft. Dan doet die prutsjournalist toch goed zijn werk.
Kijk op http://www.theinquirer.net/?page=9 en haal de foute nieuwsberichten er maar eens uit. Ik denk dat je ze op 1 hand kan tellen.

Ik denk dat we de inq dankbaar mogen zijn, anders zou T.net maar een dooie boel zijn.
Er staan twee soorten berichten op de inq.

1) artikelen gebaseerd op persberichten.
2) geruchten beaseerd op drijfzand.

1) levert geen belangrijke scoops omdat iedereen die dingen krijgt en er over verteld. Maar ze zijn wel correct)
2) Elk vaag gerucht wordt bij hun gemeld, zodat voor een videokaart elke optie die maar mogelijk wel door hun is gemeld.
Als je van een videokaart voorspelt dat ie, misschien wel SM3 krijgt, maar misschien ook niet, dat ie misschien wel 512MB krijgt maar misschien ook niet, misschien wel in SLI kan werken, maar misschien ook niet, misschien dual gpu is, maar wellicht ook niet, misschien .9 is maar misschien ook wel .11 of .13, misschien 12, 16, 24 of 32 pipelines heeft, dan heb je altijd met een deel van je voorspellingen gelijk.

Een stilstaande klok geeft 2x op een dag de juiste tijd aan. En zo is het met the Inq. ook!!

Wat betreft die pagina. Foute nieuwsberichten zijn er nogal moeilijk uit te halen. Van geruchten kun je namelijk op dit moment zowiezo onmogelijk bepalen of ze wel of niet fout zijn. En persberichten zijn uiteraard niet fout.

Overigens zaten ze laatst weer eens compleet fout over die ATI videokaart bij driverheaven. Ze hadden de thread op driverheaven verkeerd gelezen.
Dat is dus onzin. Als we jou redenatie naast het archief van de Inquirer leggen, dan is de Inquirer een stilstaande klok die 22 keer per dag de goede tijd aangeeft.

De inq heeft het zeer constant bij het rechte eind. Als dingen maar zeer vage geruchten zijn, zetten ze dat er duidelijk bij. Als ze zelf speculeren (wat ook verdacht vaak blijkt te kloppen achteraf) staat het er ook bij. Hier gaat het dus duidelijk om iets wat de praktisch zeker weten (omdat ze het van een goede bron hebben).

Natuurlijk gaat het hier niet om iets revolutionairs. Ik noem maar wat, toen men 2 jaar voor de rest zei zeker te weten dat Intel aan 64 bit extenties voor x86 werkte (en de code naam Yamhill er even bij gaf) kreeg je dat ook weer dat gezeik dat ze maar wat aan het lullen waren etc. Immers.. hoe belachelijk, Intel had toch zeker de Itanium al, etc. Ook zeker een "toevalstreffer" volgens jou?

Met die kleine dingetjes zoals dit kun je de Inq al helemaal vertrouwen. Als jij op het punt staat een nieuw mobo te kopen en je twijfeld tussen PCI-Express en AGP dan kan dit artikel je daarbij helpen. Als je een high end nieuwe videokaart wil kopen, en je leest op de Inq. dat er binnenkort een 512MB versie komt, mag je daar ook dankbaar voor zijn.

Dat T.net daar vaak naar linkt is dus slim van ze. We zijn immer tweakers hier of niet?

Meestal mod ik dit soort commentaartjes als waar ik hier op reageerde gewoon op troll, maar in dit geval kon ik het niet laten. Al helemaal in de videokaarten industrie heeft de Inq. gewoon de allerbeste bronnen. Dat weten ze binnen de industrie zelf ook wel, en het grapje van ATi om hun core "Fudo" te noemen getuigd daarvan.

Dat gelul op tweakers dat je er maar geen waarde aan moet hechten, of dat ze hun bronnen maar eens moeten geven (ja dat is pas goede journalistiek), ik hoop dat iedereen die dit leest die het nog 1 keer ziet direct naar "troll" mod.

Ik zou zeggen, lees de archieven van de Inq. nog maar eens na, en met lezen bedoel ik niet naar de headline kijken, maar het a-r-t-i-k-e-l lezen. Dan weet je dat als je voor de rest wil weten wat er omgaat bij de videokaart boeren in deze wereld je met een gerust hart de Inq. kan lezen. Of je blijft gewoon T.net lezen waar alle belangrijke dingen 6-48 uur later ook staan met een (al dan niet directe) link naar de Inquirer.

Wil je een site waar de bron bijstaat, alles netjes bevestigd is door de bedrijven, en waar sommige woorden zelfs verschillen van de press release, dan beveel ik je van harte http://news.com.com aan (geen spellingsfout)
Kerel.. jou bericht dateerd uit 2003.

Tuesday 16 December 2003, 08:33

Weet je waar die "analist" het waarschijnlijk vandaan had? juist..

Oa:

http://www.theinquirer.net/?article=2348
Friday 25 January 2002, 08:18

http://www.theinquirer.net/?article=1915
Friday 14 December 2001, 09:02

Bijna 2 jaar eerder. Ooooops.

En (als) je (een beetje bij bent) weet je dat iedereen die gast gewoon Fudo noemt. "If you are called Fuad in my country, Bosnia and Herzegovina you will get nick name Fudo"

Als je alle artikelen nog eens wil na lezen:
http://www.theinquirer.net/?article=14040

edit:
treurig ook die link die je als laatste erbij geeft. Dat Intel een x86 emulator voor Itanium gemaakt heeft is notabene ook waar. Dat een C3 beter is als de native x86 emulatie van een Itanium is notabene een primeur van.... tweakers.net. Destijds netjes naartoe gelinkt door the Inq. trouwens.
Ik zei heel duidelijk 2 jaar voor de "rest" waar jij het over hebt (die analyst was dus inderdaad mooi 2 jaar na het oorspronkelijke bericht). Lees het maar eens na, het staat er echt hoor.

Zoals je ziet (als je mijn links ook daadwerkelijk gelezen hebt) is het orginele bericht op de Inq. niet meer in hun archief.

Ik begin hier een patroon te ontdekken, je leest niet goed, zelfs niet over dingen waar je hetzelf over hebt. Quote: " dus ze hebben ook verteld dat Intel x86 in de itanium zou bouwen" terwijl er duidelijk bijstaat dat het om een software emulator gaat. De analyse in dat artikel is wat mij betreft ook correct, het maken van een x86 emulator voor Itanium was een response op het gevaar van een 64 bit architectuur die in 64 bit mode x86 code op bijna volledige snelheid kan draaien. Pas later heeft Intel besloten om het 64bit extenties project ook daadwerkerlijk te gebruiken. Bedenk goed, dit is de tijd dat Otelli direct tegen de Inq. vertelde dat Intel absoluut niet bezig was met een x86 core met 64 bit extenties, dat zoiets niet bestond binnen Intel. Toch bleef de Inq. bij hun verhaal. Jij zult het destijds wel onzin gevonden hebben.

Je bent gewoon uitgeluld door te beweren dat de Inq. pas in 2003 over Yamhill berichtte. Het artikel waar we het nu over hebben laat ook niks aan duidelijkheid over, er komt een R520 AGP versie. Iedere kip kan dat lezen. Toch ga jij beweren dat het artikel onduidelijk is of suggeerd dat alles nog mogelijk is, alleen om het in lijn te brengen met jouw theorie dat de Inq zogenaamd alle opties zou berichten.

Kortom, het is wel duidelijk dat je je hier simpelweg niet in verdiept hebt. Je zag een site, je vond jezelf nogal slim en ging em daarom maar afkraken. Geconfronteerd met de feiten begin je er omheen te praten in plaats van erop te reageren.

Het "track record" van de Inq. spreekt voorzichzelf. Die van jou in de afgelopen 3 posts is al flink bedoezeld.
22x per dag de goede tijd?
Wat dacht je van 2x per jaar?

Die 22x per dag zijn de persberichten. Daarvan heb ik al gezegd dat ze kloppen.

De geruchten zijn voor 80% gewoon niet waar, maar die 20% komt dus gewoon omdat ze elk geruchtje dat op internet voorkomt vermelden. En dan heb je vanzelf ook de geruchten er bij die waar blijken te zijn. Waarom is dat zo moeilijk voor je om te begrijpen?

The Inq wordt door niemand (met kennis van zaken) serieus genomen, maar omdat liefhebbers graag speculeren over geruchten is de site wel populair. (Ook al weet je dat er maar 30% kans is, dat een gerucht waar is, dan is het best leuk om er over te discussieren)
Als je echter daadwerkelijk wilt weten wat er omgaat bij de videokaart boeren dan ga je bv op de forums van beyond3d kijken.
De mensen van beyond3d hebben namelijk meer inside info dan bij Inq. En bovendien zijn heel veel developers van hardware en software actief in de forums. En die geven vaak wel hints.

The Inq heeft 2 jaar geleden helemaal niet zelf gezegd dat Intel aan 64bit extensies voor x86 werkte. Een analyst heeft dat vermeld, en o.a. zij hebben vermeldt dat die analyst dat heeft gezegd:
http://www.theinquirer.net/?article=13198
Maar geheel in de traditie van the Inq houden ze alle opties open, dus ze hebben ook verteld dat Intel x86 in de itanium zou bouwen als tegengewicht voor de Athlon.
http://www.theinquirer.net/?article=9131

En zo zie je maar weer, als je alle opties noemt krijg je vanzelf wel gelijk bij één van de mogelijkheden.

En vervolgens zijn er vanzelf wel mensen die alleen onthouden dat je gelijk had, en allang al die andere opties vergeten waarbij je ongelijk had.

Wat betreft de naam Fudo.
De naam van die "journalist" is Fuad (zoals je ook op de website van de Inq kunt zien) en niet Fudo.
Als ATI de chip naar hem hadden vernoemd hadden ze wel zijn echte naam genomen, en niet de bijnaam die het in een andere taal wordt.
Er zijn nogal wat meer betekeningen voor Fudo.

Ik dus zou zeggen, lees jij zelf de archieven van de Inq. nou maar eens na.
Tuurlijk dateerd mijn bericht uit 2003.

JIJ had het immers over een melding van Inq van 2 jaar geleden. En 2005 - 2 = 2003.

Nu heb je het ineens over een artikel van 2 jaar daarvoor. Dus 4 jaar geleden.
Ben je door de brei aan verschillende voorspellingen van Inq zelf de weg een beetje kwijt?

En als je zelf al die artikel nog eens naleest dan zie je dat Inq alle mogelijke opties steeds heeft vermeld, en dan zie je ook dat het niet Inq was die als eerste voorspelde dat Intel ook 64bit in de P4 zou bouwen, maar dat een aantal andere sites dat gingen bedenken en dat Inq dat heeft overgenomen. (hebben ze overigens wel netjes vermeld)

Treurig dat je totaal niet de consequenties van die laatste link hebt begrepen. Als je die goed gelezen zou hebben, dan had je begrepen dat het niet om die emulator gaat, maar om de suggestie van Inq dat Intel zich druk ging maken om die emulator omdat die Itanium met x86 emulator tegenwicht zou moeten bieden tegen de AMD64 cpu's. En dat is dus in tegenspraak met andere beweringen dat een p4 versie dat zou moeten doen ipv itanium.

Maar het is overduidelijk dat je zo'n fan bent van the Inq dat je volslagen blind bent voor de realiteit.

Maar dat is je eigen keus. Als jij je hardware keuzes wilt laten afhangen van de betrouwbaarheid van the Inq dan moet je dat zelf weten.

Ik ga verder niet meer hierover verder met je discussieren wat het is ten eerste compleet zinloos en ten tweede hardstikke offtopic
Je bedoelt het als grapje. Maar als je jouw reactie serieus opvat, dan zit je dichter bij de waarheid :)
Er staat toch duidelijk "We don't know many details about it yet", wat zit je dan te klagen?
De eerste journalist die zijn bronnen altijd vrijgeeft moet ik nog tegenkomen.
Maar die regel tekst wordt ook verteld bij een verzonnen bericht, of een totaal belachelijk gerucht. Dus daar heb je dan niet veel aan.

De ervaring leert dat de 'bronnen' van the Inq over het algemeen ongefundeerde speculaties in fora zijn.

Als een journalist meldt dat ze wel meer details weten, maar dat ze die nog niet vrij kunnen geven omdat ze onder NDA staan, dan komt dat toch wel wat geloofwaardiger over. (Zoals bij Dave Baumann op beyond3D regelmatig het geval is)

Overigens is dit gerucht ook niet bepaald opzienbarend.
ATI heeft wat problemen gehad met die rialto chip, maar die zijn nu gefixed. Dat gekoppeld met het feit dat ze nu zelfs een native versie van de X850 hebben gemaakt, maakt het wel zeeeeeeer waarschijnlijk dat er ook een AGP versie van de R520 gaat komen.
weet iemand waar je techdemo's kan vinden van Shader Model 3.0, ik heb er nog helemaal niks van gezien en het lijkt me voor iedereen wel eens handig om eens wat te zien ipv de hele tijd alleen de naam te horen :z
Dat is juist het probleem.
Er zijn geen demo's om duidelijk te showen wat SM3 kan doen omdat de kwaliteit niet beter is dan SM2. Het kan hoogstens in de toekomst ooit een performance voordeel gaan opleveren. (wanneer dynamic branching in de praktijk haalbaar word)
o ik dacht dat het een soort vernieuwing was die mooiere schaduwen enzo tevoorschijn kan toveren, ik dacht dat die 'models' ook shader heette. Maargoed het is dus niets meer dan code-optimalisatie als ik het dus goed begrijp.
Die 'mooiere' schaduwen zoals je die in 3DMark ziet zitten niet in SM3, maar zijn een propiëtaire techniek van NVidia. (Die ik overigens in 3DMark helemaal niet mooi vind, want de alternatieve manier die 3DMark voor andere kaarten gebruikt ziet er veel beter uit)

Verder heb je het goed begrepen dat het inderdaad gewoon code optimalisatie is.
En die propiëtaire techniek heet dan ook UltraShadow II :).
Absoluut handig voor de intel gebruikers, die kunnen helemaal geen PCI-E gebruiken...
Dan ben jij de eerste die weet dat Intel de productie van z'n i915 en i925 Grantsdale en Alderwood chips heeft stopgezet, en dat tevens Intel z'n E7525 Turnwater chipset niet meer produceerd. Dat is namelijk alleen al Intel's eigen chipsets die allemaal PCI-E ondersteunen. En dan heb ik het nog niet over toekomstige chipsets zoals de nForce 4 Intel editie, en andere chipsets zoals SiS, Via en Ati die allemaal Intel based chipsets maken en PCI-E nu al of in de nabije toekomst introduceren. En dan laat ik Centrino er nog buiten, want zelfs die krijgt over niet al te lange tijd PCI-E. Intel kan dus zéker wel overweg met PCI-E op bijna elk platform.
ik vind dat ze nog best lang moeten doorgaan met AGP kaarten maken, want het is niet echt fijn om te horen in de winkel:
"ja maar meneer, het is veel beter om dit moederbord te kopen want over een maand zijn er geen videokaarten meer voor dat bord wat u wilt hebben..." ;(
snapje? :Z

ik zat toen der tijd nog niet in deze scene :P maar ging dat met de PCI --> AGP hetzelfde als nou AGP --> PCIe??

ik vind het aardig eng :( en vooral veel te snel voor mijn budget :+
ik wist nog wel wij hadden allang een mobo met een agp slot maar geen agp videokaart later kocht ik een videokaart (agp) en kon hem gelijk erinzetten

toen was het volgens mn pa wel raar dat je de andere videokaart eruit moest halen, want we waren de 3dfx gewend :*)
Dat is goed nieuws voor mij als AMD 64 + agp gebruiker :) hoef ik voorlopig nog niet naar pci - express te upgraden.
Wat is eigenlijk het grote voordeel van PCI? Als ik kijk naar de grote review met vele AGP en PCI kaarten kijk die Xbit labs heeft uitgebracht, dan zie ik dat AGP met games toch wel veel beter presteren dan PCI. Alleen met 3dmark enzo is PCI de betere? Wat bied PCI dan precies?
pcie biedt meer flexibiliteit tov agp (neem sli als voorbeeld) en bovendien kan een pci-e slot meer watts leveren dan een agp slot

Op dit item kan niet meer gereageerd worden.