Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties
Bron: iXBT-Labs

Bij iXBT Labs staan wat interessante nieuwe specificaties van de Voodoo5 6000 afkomstig uit een duits blad. Volgens dit blad zal het geheugen en de core van de Voodoo5 gaan lopen op 183MHz. Daarnaast weten ze te melden dat de Voodoo5 6000 ook ondersteuning gaat krijgen voor 8x FSAA:

  • Graphics core: 183MHz
  • Memory: 128MB 5.5ns SDR SDRAM working at 183MHz
  • 8x FSAA (Full-Scene Anti-Aliasing)
  • 8x FSAA zal niet echt een bijster interessante feature zijn: het verschil tussen 4x en 8x is zo klein dat het een halvering van de performance niet rechtvaardigt. De verhoging van de core en geheugensnelheid is echter wel interessant, zoals het er nu uitziet zal de Voodoo5 6000 langzamer zijn dan een GeForce2 Ultra, en de verhoging van de snelheid met 17MHz kan de rollen waarschijnlijk net omdraaien (en het is altijd leuk om te kunnen zeggen dat je naast de grootste en duurste kaart ook de snelste kaart hebt...).

    3dfx Voodoo5-6000 op ECTS
    Moderatie-faq Wijzig weergave

    Reacties (55)

    Geh, de opmerkingen zijn weer niet van de lucht!

    "Oei wat hebben die mensen van 3dfx gefaald. Een veeeel te grote kaart die veeeel teveel warmte produceert en veeel teveel stroom trekt, daarbij veeeeel te veel kost en uiteindelijk hmmja, niet bijzonder presteert. "

    of

    "3 maanden daarna komt de Geforce 3"

    of

    "Volgens mij is het principe gewoon brak. 4 processoren op een kaart.

    Ïk begin bij de laatste opmerking:
    "It's all about bandwidth, laddy" is een bekende uitspraak. 4 processoren op een kaart zorgt 4x zoveel bandbreedte, en dat betekent 4x zoveel snelheid. (luister goed, arcon). Dit betekent echter niet dat de framerate 4x zo hoog wordt, omdat de processor dan al maxed out is. Dit betekent wel, dat je in plaats van NOFSAA (1 chip) met 4xFSAA kan spelen (4 chips, 4x zoveel geheugen). De bandbreedte wordt namelijk verviervoudigd. Dit zorgt ervoor dat deze kaarten ook voor professionele doeleinden geschikt zijn, als je maar genoeg chips en geheugen erop zet. Dus, meneer arcon, jij wilt graag 128MB shared memory i.p.v. gedeelde mem.? dus jij hebt liever 2.6 GB/s bandwidth i.p.v. 10.8GB/s, met de mogelijkheid om wel 128MB aan textures op te slaan? (nutteloos!). Ennieway, het maakt de rest van je post er niet geloofwaardiger op.

    Het tweede voordeel van de bandwidthverhoging is het feit dat je niet hoeft te wachten op exotische memorysoorten voordat je je kaart uit kunt brengen (GF2 Ultra, anyone?).

    En als je nu nog protesteert:

    Waarom hebben alle grote chipfabrikanten, op nVidia na, al een multiprocessordesign in de planning? ATI met de Radeon MAXX, de G800 wordt hoogstwaarschijnlijk ook multiproc. volgens iedere post die ik gelezen heb, en de Rampage ook. Vraag je nu nog eens af wat waarschijnlijk de beste oplossing is.

    En geef eens toe, zouden 2 of 3 fps in 1600x1200 zoveel uitmaken? Wie speelt er in godsnaam op die res? De meeste monitoren kunnen het niet eens aan, de lettertjes in de menus worden onleesbaar en er is nog steeds shimmering en pixel-popping. Speel dan in 1024x768x32x4XFSAA. En je kunt zelfs in de meeste spellen je resolutie nog wel op 1280x960 zetten, als je dan toch perse een hoge resolutie wil. Kan de GF2U dit? NEE. Dus zo slecht is deze kaart nog niet.

    En voor de GF3, die zou dan toch HSR (Hidden Surface Removal) hebben, zodat de effectieve fillrate 4x zo groot wordt? Dit is pre onzin, echt weer van die PR-crap. HSR is helemaal niet zo effectief, en de praktijk heeft bewezen dat de performance-winst maar marginaal is. (Er is namelijk in het verleden al mee getest).

    Een optie die waarschijnlijk toch beter zal zijn is Tile-based rendering(dat van de Kyro!). Dit verhoogt de performance met op zijn minst 2x, en is vooral effectief wanneer het gebruikt wordt in combinatie met FSAA. (Ook bij HSR wordt bij deze combinatie al een stuk effectiever).

    De GF3 wordt dus single-chip.....en het enige wat 3dfx, Matrox en Ati dan maar hoeven te zeggen: We hebben nu al een board die scalable is, alle DX8 en sommige DX9 features support, dus we hoeven in principe alleen maar wat meer van deze processoren op een board te gooien, en we zijn alweer sneller. ATI: Radeon II, opgevolgd door de Radeon II MAXX, opgevolgd door de Radeon II Pro. nVidia zal echter moeten wachten tot de ene nieuwe memorysoort na de andere uitkomt...en is dus veel afhankelijker.

    Wie het uiteindelijk wint....dat weet alleen de Paus. Maar dit kan iemand al een hele andere kijk op de situatie geven. En dat is soms wel nodig....
    Zien jullie dat die gast de kaart met 2 hadnen vasthoud? Anders vliegt ie weg!

    Groot maar wel een TV out!
    Nee, da's geen TV-out, dat is de aansluiting voor de externe voeding :7
    Zie ik dat goed? Een Intel chip erop en twee batterijen? Overigens vind ik deze kaart wel heel erg overdreven: straks moet je krachtstroom hebben om je V7 te koelen.
    Zien jullie dat die gast de kaart met 2 hadnen vasthoud? Anders vliegt ie weg!
    Dus daarvoor hebben ze 4 propellors er op gezet! ;)
    Erg veel warmte zal hij niet produceren; ze zaten op het punt om net wel fans er op te doen of niet. Hebben ze voor de zekerheid maar gedaan. Wel zal zo'n enorme kaart slecht zijn voor de airflow in je totale kast als je ergens grote fans er in heb.
    8x FSAA lijkt me idd niet echt nuttig maar alle extra features die er op zitten zijn natuurlijjk mooi meegenomen, als je tenminste idioot genoeg ben om er een te kopen ;)
    tegen wat mag die kaart gaan kosten??

    mischien toch maar een zwart bivakmutsje opzetten in de hoop terrorist win...


    * 786562 RAG

    Thrax
    Tja, ik verschil nogal van mening met de meeste mensen hier. Ik vind het echt een schitterende kaart. Beetje zoals sommige Amerikaanse (en Australische) truckers zo'n gigantische vrachtwagen hebben met een glossy blauwe paintjob met een grote Indiaan of een mooie meid erop geschilderd. Of zo'n beest van een Harley Davidson.

    Stoer. Immens Stoer. :)
    maar maar maar maar hoe kan je nou een kaart mooi vinden die groter is dan alle andere kaarten die nu verkrijgbaar zijn (maar wel in je kast past), zijn brute kracht demonstreert door middel van 4 brute grafische processoren, 2x sneller per megaherz gaat lopen als je hem overclockt dan een V5-5500, die native ondersteuning heeft voor glide spellen, zodat spellen als Unreal wel bruuuut veel sneller lopen dan op een GeFarce (nVidia rules!!!), waarmee je op een LAN party een heel publiek om je kast heen kan aantrekken, met zo'n cool gedesignde box, de kaart zelf ontworpen door de mensen die de gehele 3d-revolutie bij PC's in gang hebben gezet,

    als je ook gewoon een GeForce 2 Ultra kan kopen die de helft van de wereld al heeft, van een bedrijf waar je heel veel sympathie hebt voor het PR-department, waarvan alle fans nVidia rulez, 3Dfx suxxorz!! roepen op alle fori, zodat je dat zelf niet meer hoeft te doen????

    ik snap sommige mensen gewoon niet...
    Ik ben het helemaal met je eens Barend. Daarnaast heb ik het zo gehad met die nVidia kaarten; iedereen schijnt er een te hebben voor hun QuakeIII, voor mij welhaast een reden om naar wat anders om te zien.

    dZeus: "GeFarce" vind ik een originele vondst.
    Dit is toch een lachertje mensen. Kom nu toch. Kijk nou eens naar het plaatje, het is toch gewoon je reinste humor.. Oei wat hebben die mensen van 3dfx gefaald. Een veeeel te grote kaart die veeeel teveel warmte produceert en veeel teveel stroom trekt, daarbij veeeeel te veel kost en uiteindelijk hmmja, niet bijzonder presteert.

    Hij presteert nèt meer of nèt minder dan een Geforce 2 Ultra, naja, doe mij die dan maar. Ze zijn allebei nog niet leverbaar, dus wat dat betreft heeft geen van beide een voorsprong.

    Volgens mij is het principe gewoon brak. 4 processoren op een kaart. En dan zeker voor elke proc eigen geheugen. En dat terwijl geheugen op dit moment *duur* is. Naah.. Foute grap guys, ik wacht lekker nog even tot de geforce 3 komt en een klein beetje betaalbaar is, en dan kan ik weer 2 jaar vooruit...
    Burat, een paar "kleine" foutjes in jouw verhaal:


    A: De geforce 2 Ultra word even duur zoniet duurder vanwege het extreem dure geheugen (ze gebruiken zo'n beetje het snelste wat er te vinden is, terwijl het bijna niet te vinden is).

    B: De geheugen prijzen zijn nu weer op het niveau van maart vorig jaar, erg goedkoop dus.

    C: Wat is er brak aan meerdere proccesoren? Mensen vinden het geweldig dat je binnenkort 2 durons op 1 mobo kan doen en diezelde mensen kraken 3DFX af om die reden.

    D: Je vergeet de reden waarom 3DFX iedere proc zijn eigen geheugen geeft. Namelijk dat je dan ook sneller geheugen krijgt. Dus 3DFX heeft zeerwaarschijnlijk weinig tot geen leverings problemen met het geheugen, wanneer ze eindelijk op de markt komen...

    In ieder geval een :Y) kaartje, alleen ;( dat ik geen geld ervoor heb.
    A: De geforce 2 Ultra word even duur zoniet duurder vanwege het extreem dure geheugen (ze gebruiken zo'n beetje het snelste wat er te vinden is, terwijl het bijna niet te vinden is).
    Are you sure? Naja, prima. Maar 3 maanden daarna komt de Geforce 3, en 3 maanden daarna de Geforce 3 Ultra. En 3 maanden daarna ... , etc.. Er zit vooruitgang in de lijn der nvidia's. Wacht even tot de Geforce 3 er is (duurt misschien nog wel een half jaar, maar het duurt ook nog wel ff voordat deze kaart er is.. duurt altijd heeeul lang bij 3dfx). Dan issie gegarandeerd een stuk sneller, koeler, kleiner en minder stroomvragend.
    B: De geheugen prijzen zijn nu weer op het niveau van maart vorig jaar, erg goedkoop dus.
    Inderdaad, geheugen is ongeveer even duur als maart vorig jaar. Maart 1999 dus. En ook Maart 2000 was het ongeveer even duur. En da hoort dus niet! Nee, want in maart 1999 was de PIII-500 nog 1599,- exclusief btw. En de TNT 1 was toen nog 300,-, de TNT2 was er nog niet eens. Moraal van 't verhaal: er dient vooruitgang te zijn! Geheugen had veel goedkoper moeten zijn. Men wil tegenwoordig graag meer geheugen dan dat men in maart 1999 wilde, net zoals men nu een snellere processor en een snellere videokaart wil dan toen.
    C: Wat is er brak aan meerdere proccesoren? Mensen vinden het geweldig dat je binnenkort 2 durons op 1 mobo kan doen en diezelde mensen kraken 3DFX af om die reden.
    Kromme vergelijking. Bij twee durons op een mobo wordt het geheugen gedeeld. Bij 4 3dfx gevallen op een grote groene plaat wordt het geheugen NIET gedeeld. Das het verschil. En ik heb geen zin om te dokken voor 128 mb waarbij in 96 mb van de 128 hetzelfde staat als in de resterende 32 meg.
    D: Je vergeet de reden waarom 3DFX iedere proc zijn eigen geheugen geeft. Namelijk dat je dan ook sneller geheugen krijgt. Dus 3DFX heeft zeerwaarschijnlijk weinig tot geen leverings problemen met het geheugen, wanneer ze eindelijk op de markt komen...
    Naja, het geheugen wordt er natuurlijk geen zak sneller van, alleen de processor kan 4 keer zoveel data in dezelfde tijd. Leuk hoor, alleen of het nou zo'n mooie oplossing is? Kiest u zelf. Zoals ik al heb laten merken: ik vind het brak.
    Kromme vergelijking. Bij twee durons op een mobo wordt het geheugen gedeeld. Bij 4 3dfx gevallen op een grote groene plaat wordt het geheugen NIET gedeeld. Das het verschil. En ik heb geen zin om te dokken voor 128 mb waarbij in 96 mb van de 128 hetzelfde staat als in de resterende 32 meg.
    Niet dat ik nou denk dat de Voodoo5 6k een leuke kaart gaat worden, maar wat hierboven staat mist wel iets: ten eerste heb je effectief meer dan 32 MB geheugen (ca. +40, afhankelijk van de resolutie. Ten tweede waarom wil je niet voor 4x zoveel geheugen betalen als het 4x zo snel is?
    Are you sure? Naja, prima. Maar 3 maanden daarna komt de Geforce 3, en 3 maanden daarna de Geforce 3 Ultra. En 3 maanden daarna ... , etc.. Er zit vooruitgang in de lijn der nvidia's. Wacht even tot de Geforce 3 er is (duurt misschien nog wel een half jaar, maar het duurt ook nog wel ff voordat deze kaart er is.. duurt altijd heeeul lang bij 3dfx). Dan issie gegarandeerd een stuk sneller, koeler, kleiner en minder stroomvragend.
    Slechte redenering: misschien is de geforce3 wel een bagger kaart, misschien is de rampage dan uit, misschien, missschien etc.

    Maar ja, ik 'vrees' dat je verder wel gelijk hebt...
    Hielko:
    >waarom wil je niet voor 4x zoveel geheugen >betalen als het 4x zo snel is?
    Ik vrees dat je je eigen vraag al beantwoord hebt, wie zegt dat hij 4* zo snel is, en zo 4* snel als wat? Geforce2? No way

    >Slechte redenering: misschien is de geforce3 wel een bagger kaart, misschien is de rampage dan uit, misschien, missschien etc.

    Idem hier, je moet de technologie daarvoor volgen, beeld u in, een geforce 2 met ENKEL de funcsie om overbodige picsels te verwijderen, en ik spreek over totaal geen andere extra's... Je kan zelf berkenen wat de winst zal zijn, door naar de resulataten van de andere kaarten met dezelfde technologie te kijken. Gewoon met 1 technologie kunnen ze al een nieuwe kaart uitbrengen die de V6000 zijn ass zou kicken. En dan spreek ik niet over een sneller clock, sneller geheugen(zelf een 0.5ns winst op de geforce2 geheugen geeft een mooie snelheidswinst), sneller t&l, betere fsaa etc... (en het feit dat men nu een chipset zit te maken voor de x-box, waardoor VEEL nieuwigheden al direct ondersteund worden nu in directx8, dat is ook altijd intressant).

    Je miste eigenlijk het punt dat hij(burat) maakte, hij(burat) doelde erop, tegen dat de vodoo 6000 EINDELIJK uit is(hou uw adem maar niet in) dat men de nv20(geforce3) ook al klaar zal hebben, waardoor je overdreven dure v6000 uit het water zal geknalt worden door een meer ontwikkelde chipset/gpu.

    update:
    Exirion was me voor en heeft het nog beter gezegt:
    >Maar deze 3dfx kaart heeft 4(!!) processoren
    >nodig om 1(!!) NVidia processor te evenaren of
    >een klein beetje te overtreffen.
    Jouw punt C slaat ook nergens op, want een Duron is al veel sneller en goedkoper dan een Celeron (190 gulden voor een 600MHz Duron vergeleken met een Celeron 600 die 300 piek kost) en als je er dan ook nog twee op een mobo kan zetten is dat inderdaad erg tof. Maar deze 3dfx kaart heeft 4(!!) processoren nodig om 1(!!) NVidia processor te evenaren of een klein beetje te overtreffen. Dus ik ben het er helemaal mee eens dat deze 3dfx kaart een zielige vertoning is 8-) Groter, stroomvretender, 4 keer zoveel processoren, heter, en niet eens veel sneller of zelfs langzamer ;)
    Een VSA-100 is ook veel goedkoper dan een GeForce 2 Ultra core, en kan met heel goedkoop geheugen af. Als er nou had gestaan dat de GeForce 2 Ultra met PC 800 RDRAM geleverd zou worden, klonken jullie er toch heel anders over, terwijl het geheugen wat nu gebruikt gaat worden zo schaars en dus duur is dat RDRAM wellicht nog goedkoper zou zijn.

    Het lijkt misschien een lompe oplossing, 4 cores op een kaart, maar het is niet zo dat ze er nu maar 4 op een kaart doen omdat de concurrentie niet bij te benen is, maar omdat dit altijd al de bedoeling is geweest van die chip.

    Tenslotte zijn 2 Athlon 500's nog altijd een stuk goedkoper dan 1 GHz Athlon, ook al moet je er apart geheugen bij doen voor iedere proc.
    en uiteindelijk hmmja, niet bijzonder presteert.
    En op welke benchmarks baseer jij dat dan ?
    Wat denk je nou schat? Denk je dat ik het hier over real-life FPS'en heb? Nee natuurlijk niet, want ik heb deze kaart niet liggen hiero.

    Het gaat erom dat de kaart of net iets sneller of net iets langzamer is (afh. van o.a. of dit waar is of niet) dan de Geforce 2 Ultra, die kleiner is, minder warmte produceert, minder stroom trekt en hoogstwaarschijnlijk goedkoper is.

    Als een kaart groter, heter, meer stroom, duurder, etc is dan een andere kaart, mag je verwachten dat ie ook beter presteert. Dat is niet zo. Daarom "niet bijzonder".
    Hmmm, ben het wel redelijk eens met Dr_Fripp.
    Zie alleen het verhaal van de bandbreedte niet zo... 10,8 GB/s is uiteraard leuk, maar neemt niet weg dat we met een AGP-Poort zitten die maar maximaal 1 GB/s doorlaat.
    Dit is overigens een probleem waar alle kaarten zo langzamerhand tegenaanlopen, en Intel heeft dan ook AGP x8 voorgesteld. Alleen lijkt me die 2 GB/s dan nog niet genoeg om dit soort krachtcentrales bij te houden !

    Voor de rest hoop ik natuurlijk dat deze kaart minstens gelijkwaardig aan de nvidia is, monopolie is uiteraard nooit goed voor de consument.
    Crashnet, de agp-port heeft niks te maken met de bandbreedte van het geheugen op de kaart zelf. Kijk maar naar benchmarks van een v5-5k5 pci en vergelijk die met een agp versie van de v5-5k5. Dan zie je dat er weinig verschil is.

    De agp-port dient alleen voor het "voeden" van informatie aan de kaart, voor de rest niks. Daarom heeft de agp-port ook zo weinig invloed op de snelheid van een kaart.
    De AGP-poort heeft hier niets mee te maken.

    De bandbreedte zegt (grofweg) iets over de snelheid waarmee data over de bus tussen de core (raster engine) en het geheugen (frame buffer) getransporteerd kan worden. Hoe meer dit is, hoe beter er van de maximale fillrate en geometry acceleration van de core gebruik gemaakt kan worden.

    AGP texturing wordt hoofdzakelijk gebruikt als de textures niet meer in het geheugen van de chip passen, maar dit wordt niet erg veel toegepast, overigens.
    Ik zou deze kaart wel eens met 4 GF2 Ultra's en 128 MB DDR willen zien. :9
    Ook al mocht GF2 SLI wel eens niet mogelijk zijn
    1500 ballen kost ie

    ik krijg m zeeer binnenkort, al 4 keer uitgesteld helaas. Als ik m heb zal ik m eens benchmarken
    Volgens mij hoeven die coolers er niet eens op. Er zit mi helemaal geen heatsink onder. En als ze er wel op _moesten_ (ter voorkoming van oververhitting), zou er dan niet beter fannetjes gebruikt kunnen worden met rpm monitoring? Dan weet je tenminste of er 1tje kapot is=>minder kans op kapotte kaart.

    Op dit item kan niet meer gereageerd worden.



    Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

    © 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True