Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 82, views: 18.717 •

Om de prijs van de GTX260 verder te drukken heeft Nvidia een goedkopere pcb ontworpen. Zo neemt het aantal pcb-lagen af van tien naar acht, worden er goedkopere dvi-uitgangen gebruikt en wordt de bios-capaciteit verkleind.

Aan het einde van 2008 voerde Nvidia al een pcb-verandering door voor de GTX260, waarbij het aantal pcb-lagen afnam van veertien naar tien en de Volterra-chip werd verwijderd. Om de productiekosten nog verder te drukken wordt de huidige pcb-versie P654 vervangen door pcb-versie P897. Het energiemanagement-systeem wordt vervangen door een 4+2-phase NVVDD-ontwerp waarbij de 'ADP4100 voltage regulator IC' wordt gebruikt. Dit houdt kortweg in dat het softwarematig reguleren van het voltage een stuk lastiger wordt dan bij de huidige videokaarten met de oude pcb-uitvoering. De manier waarop de mosfets verpakt zijn, wordt aangepast van het LFPAK-procedé naar de DPAK-methode, wat goedkoper is maar wel meer ruimte inneemt.

De lengte van de pcb is hetzelfde gebleven, maar de hoogte is afgenomen met 1,5 centimeter. De hoogte moet gezien worden als de breedte van de pcb, maar omdat een videokaart loodrecht op het moederbord geplaatst wordt, wordt veelal de term hoogte gebruikt. Verder neemt de capaciteit van het bios af van 1Mb naar 512Kb en worden er goedkopere dvi-connectors gebruikt. Al met al moeten deze veranderingen de productiekosten van de pcb drukken met tien tot vijftien dollar. De kaarten worden in de derde week van februari verwacht, melden bronnen aan expreview.

pcb gtx260 1pcb gtx260 3pcb gtx260 2

Reacties (82)

Reactiefilter:-182075+130+219+30
Tuurlijk wil je goedkoper zijn,.. Maar goedkopere DVI uitgangen... Is dit wel verstandig i.v.m. de beeldkwaliteit of maakt dit niets uit? :)
meestal merk je daar niet veel van, maar het is wel zo dat als je goedkopere connectors (dus niet gold-plated) gebruikt, het beeld eerder gaat storen door vervuiling van de connector.
Wat een broodje-aap verhaal dat Gold-Plated!

Digitaal is digitaal... De 1'tjes en 0'etjes komen OF aan OF NIET aan...

Oftwel, het werkt of het werkt niet...

Gold-Plated zou bij een grens geval (boven de 10/15 meter) misschien wat uit kunnen maken omdat er dan iets duidelijkere 1'tjes en 0'etjes doorkomen...

Maar beterkwaliteit is dikke bull-shit.

Analoog (scart, rca, vga,enz.) heeft daar en tegen WEL last van...
Ach, men krijgt zelfs gold plated optische kabels verkocht aan de mensen ...
Het verhaal gold plated is idd dubieus, maar een beter signaal heeft wel degelijk nut.

Bij hogere resoluties is de marge voor fouten veel kleiner en als je dus een behoorlijke resolutie over een lange afstand wil sturen wil je de beste signaal tot ruisverouding hebben. Dit is voor digitale signalen precies hetzelfde als voor analoge. Bij digitale zal je alleen zien dat het beeld helemaal niet meer aankomt als er te veel fouten optreden, waar je bij analoog een verschrikkelijk slecht beeld krijgt. Ook zit er waaschijnlijk bij het digitale dvi beeld wel een foutcorrectie overheen waardoor enkele kleine fouten herstelt kunnen worden zonder problemen. Dit zal bij analoge kabels al wel voor fouten zorgen. Je moet overigens wel een heel belabberde connector en kabel hebben wil je dat met dvi voor elkaar krijgen.

Hoewel mij gold-plated e.d. nogal overdreven lijkt zijn er genoeg (al dan niet duurdere) technieken om de connectoren van een betere kwaliteit te maken, en er dus voor te zorgen dat de problemen dus niet bij de connector maar bij de kabel oid liggen. Beetje zichzelf indekken dus.

-- edit: waarschijnlijk zal het wel alleen problemen geven bij hele hoge resoluties en niet bij lagere en is het dus volstrekt overbodig.

[Reactie gewijzigd door Sloerie op 8 februari 2009 11:00]

Er is geen signaal tot ruis verhouding bij digitaal. Hij doet het (zonder ruis), of hij doet het niet.
Wat een geblaat, alsof "digitaal" altijd maar netjes 1 en 0 zijn.

In theorie ja..
In de praktijk werk je altijd met ruis behepte signalen en vervormingen.
Dus geen nette blokgolven, maar iets wat er in de verte op lijkt.
Als de SNR dan nog hoog genoeg is, kan het digitale signaal netjes geconstrueerd worden.
Als de kwaliteit van de connectoren lager wordt neemt de SNR af en neemt de kans "dat hij het niet goed doet" toe.
Het blijft hoe dan ook een elektrisch signaal, storing/ruis heeft ook bij digitaal een effect.
Stel dat een 0 is gedefinieerd als alles van 0-1 Volt en een 1 als van 2-5 Volt.
De 0 wordt initieel verzonden als 0 Volt en de 1 als 5 Volt. Zowel de 0 als de 1 kunnen dan aardig wat storing hebben voordat het signaal onduidelijk wordt. Als de kabel slecht is dan kan het weldegelijk zijn dat de 1 afzwakt tot beneden de 1 Volt en daardoor als een 0 gezien wordt. Ook kan de 0 door interferentie/ruis boven de 1 Volt komen en daardoor in een grijs gebied komen.

Zuiver digitale elektronica bestaat niet, het fysieke transport gaat uiteindelijk toch via analoge elelktronica. Dit geldt ook voor optische signalen.
Uiteraard heb je ook ruis als je een digitaal signaal over de kabel gaat.

Maar het cruciale verschil is, dat wanneer de ruis te hoog wordt, dat geen subtiele verschillen kan opleveren, zoals bij een analoog signaal wel het geval is.

Je hebt bij digitaal twee situaties:
1. Het beeld is uitstekend.
2. Het beeld is onbruikbaar.

Iets anders is er niet.

Laat ik het wat verder uitleggen met behulp van muziek en achtergrond ruis.
In een analoog stukje muziek, zal ruis vooral van invloed zijn de zachte stukken muziek waar het nivo van de ruis in de buurt komt van de signaalsterkte van de muziek. Maar het meerendeel van de muziek zal nog prima klinken, want daar is het nivo ver genoeg boven de ruis. Een toename van de ruis zal dus maar invloed hebben op een klein gedeelte van de muziek.
Bij een digitaal stukje muziek geldt dat niet. De zachte stukken hebben daar dezelfde hoge signaalsterkte als de harde stukken.
Een klein beetje achtergrond ruis heeft dus geen effect op de zachte stukken.
Maar op het moment dat de ruis zodanig hoog wordt dat ie wel invloed heeft, is die invloed er op de hele muziek. Zowel de harde als de zachte stukken.

Met een tikkie betere kabel maak je niet genoeg verschil.
Op het moment dat de ruis te hoog wordt voor een digitaal signaal, moet je gewoon overstappen op een andere techniek, ipv een vergulde stekker.
1. Het beeld is uitstekend.
2. Het beeld is onbruikbaar.
Ehh... het beeld wordt opgebouwd en verwerkt, waar je soms toch wel degelijk lelijke zwart/wit blokjes ziet naast 'beeld'. Dat is dan niet geheel onbruikbaar, maar verminkt.
Zeg dan dat bijv. 1 pixel o.i.d. bruikbaar of onbruikbaar is bij geen ruis/wel ruis.

Of zie ik het verkeerd wat je bedoelt?
inderdaad, Virtox en erikdenv hebben gelijk..'
valt me sowieso tegen dat niemand over impedantie begint.

het DVI signaal is niet zomaar een digitaal signaal, het is een high-speed signaal.
1920*1080*(3*8bit)*72Hz=3.583.180.800, ofwel 3.6 Gigabit per seconde!!

Als je verbinding niet goed is, heb je kans op impedantie-mismatch, dus dat je signaal toch niet altijd goed overkomt. Zeker met langere draden, bijvoorbeeld een 10 meter kabel naar een beamer, kan problemen geven.

Ik vind het bullshit... kwaliteit verlagen om een kaart van 270 euro 10 euro goedkoper te maken.
10 dollar voor hen is niet het prijsverschil in de winkel!! Lees her artikel opnieuw, men spreekt van productiekosten. Voor hen is dat het verschil tussen 150 en 160 dollar bvb. Dat is procentueel al een pak meer
Ik vind het bullshit... kwaliteit verlagen om een kaart van 270 euro 10 euro goedkoper te maken.
Moet je er eens 1 miljoen van verkopen. Dan heb je het over 10 miljoen euro. Mensen zien vaak de wet van de grote getallen niet in dit verhaal Ik hoorde ook eens het verhaal van het 1kg lichter maken van een vliegtuig. Scheelde qua brandstof op de levensduur van het vliegtuig duizenden dollars. En dan heb je het nog maar over 1kg op een apparaat van een paar ton.
Idd,
Wel of topic maar ik heb eens in de Kijk gelezen dat er bij een bepaalde vliegtuig maatschappij in de eerste klas één van de twee olijven werd weggelaten van het eten dat geserveerd werd.
Dit scheelde uiteindelijk 40.000 Euro per jaar!!!
Dat verwacht je ook niet, maar grote aantallen vertellen idd een heleboel meer. ;)

Maar ik snap eigenlijk niet waarom ze een oude kaart ineens goedkoper willen maken.
Je kunt hem beter uitfaseren toch, en je richten op de nieuwere kaarten.
@ Virtox en erikdenv

Klopt.

Maar er is geen effect op de beeldkwaliteit. De monitor geeft beeld, of de monitor geeft geen beeld. En de kabellengte moet zelfs met een inferieure connectie al behoorlijk lang zijn wil ie geen beeld afgeven o.i.v. de connectie.

Daarbij is nergens gesteld dat de connectoren wat betreft gebruikte metalen van mindere kwaliteit zijn. Het enige wat zeker aangepast is, is de veel mindere EMI shielding van de nieuwe connectors.
nu zeg je dat ze gelijk hebben, en daarna dat ze dat niet hebben. beetje tegenstrijdig.

ze hebben overigens gelijk. 0'en en 1tjes vallen om in slechte kabels, ze veranderen of komen niet aan. dit kan best resulteren in een slecht beeld ipv helemaal geen beeld.


---
ik wordt sowieso erg moe van die kabeldiscussie. ik wou dat iedereen zich eerst inlas in de materie voor direct claims te maken.

[Reactie gewijzigd door powerflux op 8 februari 2009 13:07]

Nog nooit een eye diagram gezien van een digitaal signaal ?, hoe groter de ruis des te kleiner het eye en op een gegeven moment houdt het op met een goede detectie van het digitale signaal:
http://www.ee.ualberta.ca.../Eye_Diagram_Tutorial.pdf
Gold plated is ook voor digitale verbindingen geen onzin.

Het punt is de levensduur van de connector. Een tin plated connector is meestal versleten nadat deze 30-50 keer ingestoken is. Ik heb voorbeelden van connectorpinnen die na 100-200 keer steken een weerstand hadden van tientallen ohms. In een gunstig geval heeft het signaal hier geen last van, echter in sommige gevallen doet het er zeker toe.

Gold plated contacten slijten veel minder snel en daardoor is het mogelijk om dit soort connectoren veel vaker te steken. Dit gaat dan over 100-200 keer gespecificeerd maar in de praktijk kan dat nog veel hoger oplopen.

Conclusie is, als je de stekker maar een paar keer steekt maakt gold plated niet uit, echter als het over mobiele opstellingen gaat zal het op den duur wel uit gaan maken.
Ik heb juist begrepen dat gold plated connectoren veel sneller slijten als gevolg van mechanische mishandeling. Ze zijn natuurlijk veel minder gevoelig voor corrosie en hebben initieel een lagere weerstand, maar door het insteken/uittrekken komt het goudlaagje er vrij makkelijk af.
Het punt is de levensduur van de connector.
Dat is waar. Maar niet om de reden die je stelt.

Gold plated connectoren zijn juist gevoeliger voor frictionele slijtage. Als je ze vaak steekt slijt 't goud in verhouding meer. De levensduur van gold plated is hoger doordat goud niet corrosief is. Waardoor de verbinding dus niet na verloop van tijd als vanzelf achteruit gaat.

Daarbij is het niet eens gesteld dat de nieuwe connectoren geen gold plated contactpunten meer hebben. En al is dat wel zo dan is de levensduur van de connectoren nog steeds groter dan de werkelijke levensduur (gebruiksduur) van de videokaart.
Snap al die heisa niet 8)7

Dit is niet zo lang geleden uitvoerig getest in het lab en de bevindingen zijn uitgezonden bij Kassa. (Ga het niet uitleggen, wil je meer weten bekijk die uitzending eens; zou ik zeggen)

Conclusie:

Je hebt prima beeld of helemaal geen beeld. Dit is afhankelijk van de lengte van de kabel. De kwalteit van de kabel en zeker de connector op zich, doet er niet toe; het enige wat een dure kabel aan meerwaarde bied is duurzaamheid; hij gaat, zeker bij vaak in/uit steken langer mee.

Nu, laat mij dat kabeltje van een paar tientjes maar vervangen, als hij "op" is. Mag een ander die gold/platimum whatever plated kabel met ultra/atomic shielded kabel kopen voor 100 euro of meer :Y)

Dat Nvidia dit doet geeft trouwens wel aan dat ze moeite hebben de GTX260 competatief te houden; de relatief grote Dye doet ze geen goed prijstechnisch gezien. Wat dat aangaat heeft Ati dit goed voorzien.

[Reactie gewijzigd door Madrox op 8 februari 2009 13:44]

Gold plated is een farce, maar tja het verkoopt lekker. Zelfs bij audio helpt het niet, hoewel audiofielen het je anders vertellen. Maar bij meten (is weten) is er niks te zien. Zeker niet wanneer er schroef of klem contacten gebruikt wordt.

Enige wat je wel merkt is wanneer je een kabel neemt van koper en de uiteinden met koper last.
DVI is digitaal signaal. Ofwel signaal komt aan of niet. Bij D-sub merk je verschil met DVI zou dat niet moeten.
Ik moet eerlijk zeggen dat ik nog steeds geen verschil merk tussen DVI en D-sub bij een D-sub kabel van 1.5 meter met een resolutie van 1280x1024. Nix goldplated, gewoon meegeleverd. Laat staan tussen goedkope en dure DVI-uitgangen. Bij langere kabels gaat het winst opleveren om uberhaupt een DVI aansluiting te gebruiken. Als je daarnaast je PC 30 keer verhuist kan ik me voorstellen dat een duurdere DVI-aansluiting van nut is omdat ie niet naar z'n grootje gaat maar verder...
Bij zo'n (relatief lage) resolutie zie ik ook geen duidelijk verschil. Toch vind ik het prettiger om DVI te gebruiken, vooral omdat de pixels dan gewoon 1 op 1 worden weergegeven en je geen vervelend autoconfig meer hebt.
Op een monitor van 19inch of kleiner zie je dat ook amper; hoe groter de resolutie en/of het scherm; des te sneller/beter zie je de verschillen.

Zo had ik een vreemde, wazige gloed op mijn plasma; via HDDVD decoder aangesloten met een goede, shielded scart kabel. Het vreemde verschijnsel verdween als sneeuw voor de zon met een simpel, goedkoop HDMI kabeltje.
Digitaal != Digitaal

Vergeet niet dat DVI etc. LVDS is. D => Differentiaal

Ruis lost zichzelf op.

Maar om dit succesvol te doen is niet enkel de kwaliteit van de connector van belang, maar zeer sterk de kwaliteit van de twisted pair paren IN die kabel.


Neem een niet LVDS signaal : vb. I2C

Daar heft zichzelf niet op ..

Daarnaast :
De amplitude van een blokgolf is maar 1 van de belangrijke eigenschappen.
De 2de belangrijkste factor is altijd de risetime ! (tijd die het signaal nodig heeft om van laag naar hoog te gaan)
Deze is veel lastiger op te vangen te wijten aan de capaciteit van de drager, in combinatie met de weerstand. (R x C)

Mensen die dagdagelijks met I2C etc. designen weten maar al te goed wat ek bedoel ..
DVI is een digitaal signaal, en dus is er (haast) geen sprake van signaalverlies als je goedkopere connectors/kabels gebruikt...
DVI is een digitaal signaal, en dus is er (haast) geen sprake van signaalverlies als je goedkopere connectors/kabels gebruikt...
Je drukt je verkeerd uit (of je begrijpt het verkeerd). Je hebt wel degelijk signaalverlies als je slechte kabels gebruikt. Het punt is echter dat je daar tot op zekere hoogte niets van merkt omdat signaalverlies niet gelijk is aan kwaliteitsverlies (totdat de signalen dermate zwak zijn dat er teveel fouten optreden).
Is dit wel verstandig i.v.m. de beeldkwaliteit of maakt dit niets uit?
Nee dat maakt niets uit.

Deze connectors zijn vooral goedkoper omdat de EMI shielding veel minder is dan de originele. Verder is een DVI connector niets meer dan wat plastic met wat metaal en sockets om het digitaal beeldsignaal van de kaart door te geven aan je monitor. Wat dat betreft verschillen de nieuwe niet zo veel van de oude.

Blijkbaar vindt nVidia de EMI shielding van de oude connectors overbodig. In zekere zin kan dat waar zijn aangezien EMI afgevende componenten tegenwoordig zelf steeds beter shielded zijn.
In het beeld zelf (signaal naar de DVI connector) wordt voorzien door de NVIO2 processor. Deze is wel fysiek gescheiden en geïsoleerd van de GPU en de bijbehorende powerhungry onderdelen. Blijkbaar hebben ze daarmee het EMI issue opgelost voor de beeldoutput. (Al was die scheiding in eerste instantie bedoeld om de GPU die niet te groot te maken, niet ter voorkoming van EMI interferance.)

Plaatje van de oude versus de nieuwe PCB.

Het enige waar je vraagtekens bij zou kunnen stellen is het nieuwe voltage regulatie ontwerp. De ADP4100 voltage regulator IC die ze nu gaan gebruiken heeft geen I2C interface. Software voltage control wordt daarmee veel moeillijker of zelfs onmogelijk, waar het met het oude ontwerp heel makkelijk te doen was.

De verkleining van het EEPROM schijnt weinig uit te maken. De GTX260 maakte sowieso al geen gebruik van de extra ruimte. Die was dus toch al overbodig.

Wat het nieuwe PCB verder voor impact zal hebben is even afwachten totdat reviewsites de nieuwe kaarten kunnen testen. Overklokbaarheid (afgezien van 't gebrek aan I2C) en efficiency kunnen er door te lijden krijgen, maar dat kun je nog niet geheel zeker stellen.

[Edit.] typo's

[Reactie gewijzigd door houseparty op 8 februari 2009 11:49]

Wat ik hier nou niemand zie opmerken is dat DVI zowel analoog als digitaal is en menig gebruiker geen DVI-ingang op zijn monitor heeft en bijgevolg afhankelijk is van de DVI-A-mode.

Bij een analoog signaal, en zeker een hoogwaardig signaal als hetgeen dat naar een beeldscherm gaat, telt alles, inclusief de connector. Een goedkopere printplaat betekent doorgaans niet alleen slechtere connectoren, maar ook slechtere uitgangscomponenten.

Koop dit kaartje dus niet als je nog in volle glorie van je 21-inch beeldbuis wilt genieten.
Ik ken niemand die 200 euro aan een videokaart uitgeeft en dan nog op een lompe CRT zit te gamen die alleen sub-D heeft. Daarbij (niet gechecked) vraag ik me af of dit ding DVI-I doet op de DVI plug of alleen DVI-D.
Kwaliteit van de uitgangen zelf zal wel iets minder goed zijn, maar beeld kwaliteit zou niet 8eruit moeten gaan denk ik;)
Waarom zou je dan überhaubt duurdere connectors gebruiken als de beeldkwaliteit toch niet achteruit gaat? :?
Duurdere, vergulde connectoren kunnen niet oxideren. Uiteindelijk zullen de goedkoperen connectoren een laagje slecht geleidend koper oxide vormen. Waarschijnlijk is dan zelfs de signaal sterkte hoog genoeg om een goed beeld te geven.
Dat gebeurd meestal na een jaar of 6, dan ligt de zooi waar ik nu op aan het rammen ben allang bij de recycling-meneer.
Dat gebeurt meestal na vaak steken van de connector. Tijd speelt hier amper een rol, kijk maar in de datasheets van dit soort connectoren.

[Reactie gewijzigd door xppieter op 8 februari 2009 11:36]

Nee, oxideren vind ook plaats als 2 metalen met elkaar in contact komen. Dan zal het minst-edele metaal gaan oxideren. Dus in het geval van goud en aluminium dan blijft er na verloop van tijd niets meer van het aluminium over.

Dus als je besluit om Gold-Plated te gaan, dan moet je zorgen dat alle hele lijn (dus beide aansluitingen en stekkers van die kabel) Gold-Plated is. Anders kun je beter gewoon bij de normale verbinding blijven.

Het enige wat ik me altijd afvraag, dat goud-laagje maakt ook contact met de onderliggende geleider... hoe lang zal het duren voor dat wegroest ;)

Nee geef mij maar gewoon de ordinaire aansluitingen. Heb ik storingsvrij beeld? prima! Gaat het storen dan vervang ik die kabel wel. Voor de prijs van 1 gold-plated kabel kan ik tig keer mijn standaard-kabeltje vervangen.
Dat roest/oxydeert niet, want daarvoor heb je zuurstof nodig. En het goudlaagje schermt het keurig af.
omdat sommige mensen een DVI-DSUB verloopje gebruiken en er een DSUB scherm only aanhangen?
ik had gehoopt dat er nu ongeveer geen DSUB schermen meer verkocht werden, maar zeker in de goedkopere lcd's zijn ze nog massaal aanwezig
DVI-DSUB verloopje
Dan maakt de kwaliteit van de verbinding nog steeds enkel wat uit voor het analoge deel. Dus van verloop naar D-sub scherm. Voor het digitale deel, van kaart naar verloop, heeft het geen effect.
*zoemer geluidje* nee.
de kaart zelf heeft een systeem (de zogenaamde DAC, Digital to Analogue Converter) wat het digitale beeld omzet in analoog beeld, en dit analoge signaal komt dus al vanaf de kaart, via de dvi connector, via het verloopje..
in het verloopje zit geen electronica.. alleen wat draadjes van de ene naar een andere stekker..
je kan het voltage niet meer softwarematig verhogen?
lijkt me niet echt handig voor de overclockers ( die toch het grootste deel van de markt vormen bij zo een high end kaart )

ook denk ik dat de meeste mensen dat tientje goedkoper geen reet uitmaakt.
Voor nVidia en producenten wel.

Tientje keer 10.000 is wel een leuk verschil...
Vergeet niet dat het product ook in de winkel goedkoper wordt. Zo'n groot verschil zal het dus echt niet zijn voor Nvidia. Een paar euro misschien. En die paar euro keer 10.000 is echt niks voor een groot bedrijf als Nvidia hoor. Het enige voordeel dat het voor Nvidia heeft, is dat er misschien wat meer kaarten verkocht zullen worden. Maar aan de andere kant: deze kaarten zijn voor de High-end markt, en mensen die High-end producten kopen, kijken niet zo snel op een tientje.
Al met al moeten deze veranderingen de productiekosten van de pcb drukken met tien tot vijftien dollar.
Ze willen juist deze kaart als nieuw mid-segment kaart gaan gebruiken gok ik zo.

Tientje productie = 20 euro rebrander = 30 euro groothandelaar = 40 euro in de winkel goedkoper? Ze makken immers allemaal weer een percentage winst...
overklokkers kopen maar een GTX280 of hoger vanag nu (aldus nVidia)
je vergist je volgens mij, er zeer wel degelijk veel mensen die zo'n kaart kopen zonder dat ze die overklokken en die kijken uiteraard wel naar de prijs aangezien een Ati HD4870 ook interessant is
( die toch het grootste deel van de markt vormen bij zo een high end kaart )
Dat zal je nog verbazen dan.

Ook de meeste kopers van high end kaarten zijn helemaal niet geïnteresseerd in het overklokken er van. En als ze al een overgeklokte kaart willen kopen ze een kaart die stock al overgeklokt is.

De markt voor doe het zelf overklokkers is bijna verwaarloosbaar.
grootste gedeelte van de markt bij dit soort kaarten wordt gevormd door gamers en het is lang niet zo dat elke gamer een overclocker is!

Bij de nog duurder segment (gtx- 280, 295, 4870x2) heb je waarschijnlijk wel gelijk.

en dat tientje wordt waarschijnlijk helemaal niet aan de consument doorberekend. Het heeft alleen betrekking op het goedkoper kunnen produceren door Nvidia. Aangezien ze wel wat kaartjes laten produceren per jaar, zal het een flink verschil uitmaken.
Wat maakt de capaciteit van de BIOS uit?
Stoppen ze er minder features in, kan er minder worden gelogd, of..?
In ieder geval is de bios chip goedkoper.
Afgezien van de besparingen vind ik dit toch echt een zeer keurig opgebouwd pcb-ontwerp.
Ik denk dat vele mensen digitaal verwarren. Dat werkt als volgt. Stel nu dat de videokaart een rode punt moet verzenden. Dat zou dan bv 10000001 kunnen zijn. Nu verstuurt een videokaart geen nullen. Enkel 1tjes. Moest die 1tje nu beschadigd raken tijdens de rit en de helft ervan af is, dan weet de scherm dat die kapotte 1tje een volledige 1tje is en daardoor kan hij de goede kleur brengen. Bij analoge beeld word een signaal verzonden en als die signaal beschadigd raakt tijdens de rit dan geeft je scherm ruis of verkeerde kleuren. Bij een digitale signaal is het ofwel beeld ofwel niets. Die tweede komt wel zelden voor.
Als je in dit soort termen praat verstuurt een kaart echt ook nulletjes hoor. In feite wordt er een analoog (!) signaal verstuurt. En de ontvanger kijkt op bepaalde momenten wat de waarde van het signaal is. Is dit tussen 0 en 0,35 V, dan wordt het een logische 1, en is het tussen 0,65 en 1 V, dan is het een 0. (Waardes kunnen afwijken, maar even als voorbeeld).
Bij tussenliggende waardes moet er of "gegokt" worden, of teruggegrepen op een error-correctie (meetfout).

Het probleem met een slechte digitale verbinding is dat het signaal niet snel genoeg om kan slaan. Dat bij 11011 het signaal op het meetmoment nog niet ver genoeg omgeslagen is. De blokgolf is immers geen echte blok, maar meer een sinus-achtige.

En dat kan best veel voorkomen hoor. Voordeel van digitaal is dat het herkent kan worden (de meetwaarde ligt in het grijze gebied). Bij een tv krijg je dan blokken in beeld, of bevriest het beeld tijdelijk.

Ook bij dvi kan dit voorkomen. Tegenwoordig levert Dell dunne flexibele dvi kabels. en die zijn niet goed genoeg voor de 24" breedbeeld schermen. Dit scherm aansluiten via een oudere dikkere kabel loste het probleem op. (En voor een ander systeem met een kleinere 17" monitor was de nieuwe kabel goed genoeg).
Overclokkers kunnen nu beter deze kaart kopen 3 pcb's minder dus minder kans op doorfikken
Ook zal deze kaart een snelheids winst boeken door minders pcb's te gebruiken is
de af te legen weg voor de electroontjes naar diverse elecdeeltjes nu tenslotte een stuk korter ;)
Uhm het gaat om lagen he... Meerdere lagen betekend dat er meer beschikbare oppervlakte voor (kortere) routes, en dat meer signalen elkaar kunnen kruisen. Door het met minder lagen te doen moet je misschien wel meer omwegen maken en vaker van laag wisselen om andere signalen te kunnen kruisen.

Zie ook niet wat dit met doorfikken te maken heeft. Of is dit een hap?
Als de kwaliteit van het product hetzelfde blijft en de prijs wel lager wordt, ben ik tevreden :)
Maar over het algemeen heb ik liever ATI dan nVidia, maar dat heeft er misschien ook wel mee te maken dat ik al meer dan vijf ATI-videokaarten heb gehad en nog maar twee nVidia.

[Reactie gewijzigd door stephenophof op 8 februari 2009 10:59]

Mensen, het is geen Voltage, Amperage of Wattage maar spanning, stroomsterkte en vermogen.

Het begrip en de eenheid hebben in het SI-stelsel elk hun eigen naam en we gebruiken ook geen Meterage, Grammage, of Celsiage als we het over afstand, massa of temperatuur hebben.
Dat gebruik is wel correct.

Volgens de dikke van dale: vol·ta·ge de, het; v en o -s in volts uitgedrukte elektrische spanning.

Hetzelfde geldt voor amperage vs. stroomsterkte en wattage vs. vermogen.
Maar nvidia maakt geen kaarten dus is het uiteindelijk niet aan de fabrikant zoals asus om dit te doen?
NVIDIA maakt wel het reference design, en veel fabrikanten gebruiken dit ontwerp voor hun eigen kaarten. Dus het is wel degelijk aan henzelf om zo'n goedkoper pcb te maken.
nVidia maakt wel kaarten. nVidia levert reference pcb's en gefabriceerde kaarten af aan de verschillende merken. De meeste merken doen alleen wat rebranden (stickers) en op z'n hoogst de kaart voorzien van een ander koelertje.

Er zijn wel merken die zelf custom PCB's en gefabriceerde kaarten ontwikkelen en uitbrengen, maar dat is maar een heel klein deel.
er...
nvidia levert alleen de pcb *designs* en de chips, de kaaten zelf worden door de verschillende merken gemaakt..
en ja, dr zijn inderdaad merken die non-referrence-design kaarten maken, dat kan zowel positief als negatief uitpakken.

Op dit item kan niet meer gereageerd worden.