Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 82 reacties

Om de prijs van de GTX260 verder te drukken heeft Nvidia een goedkopere pcb ontworpen. Zo neemt het aantal pcb-lagen af van tien naar acht, worden er goedkopere dvi-uitgangen gebruikt en wordt de bios-capaciteit verkleind.

Aan het einde van 2008 voerde Nvidia al een pcb-verandering door voor de GTX260, waarbij het aantal pcb-lagen afnam van veertien naar tien en de Volterra-chip werd verwijderd. Om de productiekosten nog verder te drukken wordt de huidige pcb-versie P654 vervangen door pcb-versie P897. Het energiemanagement-systeem wordt vervangen door een 4+2-phase NVVDD-ontwerp waarbij de 'ADP4100 voltage regulator IC' wordt gebruikt. Dit houdt kortweg in dat het softwarematig reguleren van het voltage een stuk lastiger wordt dan bij de huidige videokaarten met de oude pcb-uitvoering. De manier waarop de mosfets verpakt zijn, wordt aangepast van het LFPAK-procedé naar de DPAK-methode, wat goedkoper is maar wel meer ruimte inneemt.

De lengte van de pcb is hetzelfde gebleven, maar de hoogte is afgenomen met 1,5 centimeter. De hoogte moet gezien worden als de breedte van de pcb, maar omdat een videokaart loodrecht op het moederbord geplaatst wordt, wordt veelal de term hoogte gebruikt. Verder neemt de capaciteit van het bios af van 1Mb naar 512Kb en worden er goedkopere dvi-connectors gebruikt. Al met al moeten deze veranderingen de productiekosten van de pcb drukken met tien tot vijftien dollar. De kaarten worden in de derde week van februari verwacht, melden bronnen aan expreview.

pcb gtx260 1pcb gtx260 3pcb gtx260 2

Reacties (82)

Reactiefilter:-182075+130+219+30
Moderatie-faq Wijzig weergave
Ik denk dat vele mensen digitaal verwarren. Dat werkt als volgt. Stel nu dat de videokaart een rode punt moet verzenden. Dat zou dan bv 10000001 kunnen zijn. Nu verstuurt een videokaart geen nullen. Enkel 1tjes. Moest die 1tje nu beschadigd raken tijdens de rit en de helft ervan af is, dan weet de scherm dat die kapotte 1tje een volledige 1tje is en daardoor kan hij de goede kleur brengen. Bij analoge beeld word een signaal verzonden en als die signaal beschadigd raakt tijdens de rit dan geeft je scherm ruis of verkeerde kleuren. Bij een digitale signaal is het ofwel beeld ofwel niets. Die tweede komt wel zelden voor.
Als je in dit soort termen praat verstuurt een kaart echt ook nulletjes hoor. In feite wordt er een analoog (!) signaal verstuurt. En de ontvanger kijkt op bepaalde momenten wat de waarde van het signaal is. Is dit tussen 0 en 0,35 V, dan wordt het een logische 1, en is het tussen 0,65 en 1 V, dan is het een 0. (Waardes kunnen afwijken, maar even als voorbeeld).
Bij tussenliggende waardes moet er of "gegokt" worden, of teruggegrepen op een error-correctie (meetfout).

Het probleem met een slechte digitale verbinding is dat het signaal niet snel genoeg om kan slaan. Dat bij 11011 het signaal op het meetmoment nog niet ver genoeg omgeslagen is. De blokgolf is immers geen echte blok, maar meer een sinus-achtige.

En dat kan best veel voorkomen hoor. Voordeel van digitaal is dat het herkent kan worden (de meetwaarde ligt in het grijze gebied). Bij een tv krijg je dan blokken in beeld, of bevriest het beeld tijdelijk.

Ook bij dvi kan dit voorkomen. Tegenwoordig levert Dell dunne flexibele dvi kabels. en die zijn niet goed genoeg voor de 24" breedbeeld schermen. Dit scherm aansluiten via een oudere dikkere kabel loste het probleem op. (En voor een ander systeem met een kleinere 17" monitor was de nieuwe kabel goed genoeg).
een voordeel zijn de dpak's die zijn makkelijker te koelen, dus minder geneuzel met oververhitte VRM/uitvallende kaarten
een nadeel is dat er nu *weer* verschillende versies onder dezelfde kaartnaam zijn, wat heel irritant is voor mensen die aftermarket cooling willen aanschaffen, die dan weer niet blijkt te passen.
Tuurlijk wil je goedkoper zijn,.. Maar goedkopere DVI uitgangen... Is dit wel verstandig i.v.m. de beeldkwaliteit of maakt dit niets uit? :)
Is dit wel verstandig i.v.m. de beeldkwaliteit of maakt dit niets uit?
Nee dat maakt niets uit.

Deze connectors zijn vooral goedkoper omdat de EMI shielding veel minder is dan de originele. Verder is een DVI connector niets meer dan wat plastic met wat metaal en sockets om het digitaal beeldsignaal van de kaart door te geven aan je monitor. Wat dat betreft verschillen de nieuwe niet zo veel van de oude.

Blijkbaar vindt nVidia de EMI shielding van de oude connectors overbodig. In zekere zin kan dat waar zijn aangezien EMI afgevende componenten tegenwoordig zelf steeds beter shielded zijn.
In het beeld zelf (signaal naar de DVI connector) wordt voorzien door de NVIO2 processor. Deze is wel fysiek gescheiden en ge´soleerd van de GPU en de bijbehorende powerhungry onderdelen. Blijkbaar hebben ze daarmee het EMI issue opgelost voor de beeldoutput. (Al was die scheiding in eerste instantie bedoeld om de GPU die niet te groot te maken, niet ter voorkoming van EMI interferance.)

Plaatje van de oude versus de nieuwe PCB.

Het enige waar je vraagtekens bij zou kunnen stellen is het nieuwe voltage regulatie ontwerp. De ADP4100 voltage regulator IC die ze nu gaan gebruiken heeft geen I2C interface. Software voltage control wordt daarmee veel moeillijker of zelfs onmogelijk, waar het met het oude ontwerp heel makkelijk te doen was.

De verkleining van het EEPROM schijnt weinig uit te maken. De GTX260 maakte sowieso al geen gebruik van de extra ruimte. Die was dus toch al overbodig.

Wat het nieuwe PCB verder voor impact zal hebben is even afwachten totdat reviewsites de nieuwe kaarten kunnen testen. Overklokbaarheid (afgezien van 't gebrek aan I2C) en efficiency kunnen er door te lijden krijgen, maar dat kun je nog niet geheel zeker stellen.

[Edit.] typo's

[Reactie gewijzigd door houseparty op 8 februari 2009 11:49]

meestal merk je daar niet veel van, maar het is wel zo dat als je goedkopere connectors (dus niet gold-plated) gebruikt, het beeld eerder gaat storen door vervuiling van de connector.
Wat een broodje-aap verhaal dat Gold-Plated!

Digitaal is digitaal... De 1'tjes en 0'etjes komen OF aan OF NIET aan...

Oftwel, het werkt of het werkt niet...

Gold-Plated zou bij een grens geval (boven de 10/15 meter) misschien wat uit kunnen maken omdat er dan iets duidelijkere 1'tjes en 0'etjes doorkomen...

Maar beterkwaliteit is dikke bull-shit.

Analoog (scart, rca, vga,enz.) heeft daar en tegen WEL last van...
Gold plated is ook voor digitale verbindingen geen onzin.

Het punt is de levensduur van de connector. Een tin plated connector is meestal versleten nadat deze 30-50 keer ingestoken is. Ik heb voorbeelden van connectorpinnen die na 100-200 keer steken een weerstand hadden van tientallen ohms. In een gunstig geval heeft het signaal hier geen last van, echter in sommige gevallen doet het er zeker toe.

Gold plated contacten slijten veel minder snel en daardoor is het mogelijk om dit soort connectoren veel vaker te steken. Dit gaat dan over 100-200 keer gespecificeerd maar in de praktijk kan dat nog veel hoger oplopen.

Conclusie is, als je de stekker maar een paar keer steekt maakt gold plated niet uit, echter als het over mobiele opstellingen gaat zal het op den duur wel uit gaan maken.
Het punt is de levensduur van de connector.
Dat is waar. Maar niet om de reden die je stelt.

Gold plated connectoren zijn juist gevoeliger voor frictionele slijtage. Als je ze vaak steekt slijt 't goud in verhouding meer. De levensduur van gold plated is hoger doordat goud niet corrosief is. Waardoor de verbinding dus niet na verloop van tijd als vanzelf achteruit gaat.

Daarbij is het niet eens gesteld dat de nieuwe connectoren geen gold plated contactpunten meer hebben. En al is dat wel zo dan is de levensduur van de connectoren nog steeds groter dan de werkelijke levensduur (gebruiksduur) van de videokaart.
Snap al die heisa niet 8)7

Dit is niet zo lang geleden uitvoerig getest in het lab en de bevindingen zijn uitgezonden bij Kassa. (Ga het niet uitleggen, wil je meer weten bekijk die uitzending eens; zou ik zeggen)

Conclusie:

Je hebt prima beeld of helemaal geen beeld. Dit is afhankelijk van de lengte van de kabel. De kwalteit van de kabel en zeker de connector op zich, doet er niet toe; het enige wat een dure kabel aan meerwaarde bied is duurzaamheid; hij gaat, zeker bij vaak in/uit steken langer mee.

Nu, laat mij dat kabeltje van een paar tientjes maar vervangen, als hij "op" is. Mag een ander die gold/platimum whatever plated kabel met ultra/atomic shielded kabel kopen voor 100 euro of meer :Y)

Dat Nvidia dit doet geeft trouwens wel aan dat ze moeite hebben de GTX260 competatief te houden; de relatief grote Dye doet ze geen goed prijstechnisch gezien. Wat dat aangaat heeft Ati dit goed voorzien.

[Reactie gewijzigd door Madrox op 8 februari 2009 13:44]

Ik heb juist begrepen dat gold plated connectoren veel sneller slijten als gevolg van mechanische mishandeling. Ze zijn natuurlijk veel minder gevoelig voor corrosie en hebben initieel een lagere weerstand, maar door het insteken/uittrekken komt het goudlaagje er vrij makkelijk af.
Het verhaal gold plated is idd dubieus, maar een beter signaal heeft wel degelijk nut.

Bij hogere resoluties is de marge voor fouten veel kleiner en als je dus een behoorlijke resolutie over een lange afstand wil sturen wil je de beste signaal tot ruisverouding hebben. Dit is voor digitale signalen precies hetzelfde als voor analoge. Bij digitale zal je alleen zien dat het beeld helemaal niet meer aankomt als er te veel fouten optreden, waar je bij analoog een verschrikkelijk slecht beeld krijgt. Ook zit er waaschijnlijk bij het digitale dvi beeld wel een foutcorrectie overheen waardoor enkele kleine fouten herstelt kunnen worden zonder problemen. Dit zal bij analoge kabels al wel voor fouten zorgen. Je moet overigens wel een heel belabberde connector en kabel hebben wil je dat met dvi voor elkaar krijgen.

Hoewel mij gold-plated e.d. nogal overdreven lijkt zijn er genoeg (al dan niet duurdere) technieken om de connectoren van een betere kwaliteit te maken, en er dus voor te zorgen dat de problemen dus niet bij de connector maar bij de kabel oid liggen. Beetje zichzelf indekken dus.

-- edit: waarschijnlijk zal het wel alleen problemen geven bij hele hoge resoluties en niet bij lagere en is het dus volstrekt overbodig.

[Reactie gewijzigd door Sloerie op 8 februari 2009 11:00]

Er is geen signaal tot ruis verhouding bij digitaal. Hij doet het (zonder ruis), of hij doet het niet.
Het blijft hoe dan ook een elektrisch signaal, storing/ruis heeft ook bij digitaal een effect.
Stel dat een 0 is gedefinieerd als alles van 0-1 Volt en een 1 als van 2-5 Volt.
De 0 wordt initieel verzonden als 0 Volt en de 1 als 5 Volt. Zowel de 0 als de 1 kunnen dan aardig wat storing hebben voordat het signaal onduidelijk wordt. Als de kabel slecht is dan kan het weldegelijk zijn dat de 1 afzwakt tot beneden de 1 Volt en daardoor als een 0 gezien wordt. Ook kan de 0 door interferentie/ruis boven de 1 Volt komen en daardoor in een grijs gebied komen.

Zuiver digitale elektronica bestaat niet, het fysieke transport gaat uiteindelijk toch via analoge elelktronica. Dit geldt ook voor optische signalen.
Uiteraard heb je ook ruis als je een digitaal signaal over de kabel gaat.

Maar het cruciale verschil is, dat wanneer de ruis te hoog wordt, dat geen subtiele verschillen kan opleveren, zoals bij een analoog signaal wel het geval is.

Je hebt bij digitaal twee situaties:
1. Het beeld is uitstekend.
2. Het beeld is onbruikbaar.

Iets anders is er niet.

Laat ik het wat verder uitleggen met behulp van muziek en achtergrond ruis.
In een analoog stukje muziek, zal ruis vooral van invloed zijn de zachte stukken muziek waar het nivo van de ruis in de buurt komt van de signaalsterkte van de muziek. Maar het meerendeel van de muziek zal nog prima klinken, want daar is het nivo ver genoeg boven de ruis. Een toename van de ruis zal dus maar invloed hebben op een klein gedeelte van de muziek.
Bij een digitaal stukje muziek geldt dat niet. De zachte stukken hebben daar dezelfde hoge signaalsterkte als de harde stukken.
Een klein beetje achtergrond ruis heeft dus geen effect op de zachte stukken.
Maar op het moment dat de ruis zodanig hoog wordt dat ie wel invloed heeft, is die invloed er op de hele muziek. Zowel de harde als de zachte stukken.

Met een tikkie betere kabel maak je niet genoeg verschil.
Op het moment dat de ruis te hoog wordt voor een digitaal signaal, moet je gewoon overstappen op een andere techniek, ipv een vergulde stekker.
1. Het beeld is uitstekend.
2. Het beeld is onbruikbaar.
Ehh... het beeld wordt opgebouwd en verwerkt, waar je soms toch wel degelijk lelijke zwart/wit blokjes ziet naast 'beeld'. Dat is dan niet geheel onbruikbaar, maar verminkt.
Zeg dan dat bijv. 1 pixel o.i.d. bruikbaar of onbruikbaar is bij geen ruis/wel ruis.

Of zie ik het verkeerd wat je bedoelt?
inderdaad, Virtox en erikdenv hebben gelijk..'
valt me sowieso tegen dat niemand over impedantie begint.

het DVI signaal is niet zomaar een digitaal signaal, het is een high-speed signaal.
1920*1080*(3*8bit)*72Hz=3.583.180.800, ofwel 3.6 Gigabit per seconde!!

Als je verbinding niet goed is, heb je kans op impedantie-mismatch, dus dat je signaal toch niet altijd goed overkomt. Zeker met langere draden, bijvoorbeeld een 10 meter kabel naar een beamer, kan problemen geven.

Ik vind het bullshit... kwaliteit verlagen om een kaart van 270 euro 10 euro goedkoper te maken.
10 dollar voor hen is niet het prijsverschil in de winkel!! Lees her artikel opnieuw, men spreekt van productiekosten. Voor hen is dat het verschil tussen 150 en 160 dollar bvb. Dat is procentueel al een pak meer
Ik vind het bullshit... kwaliteit verlagen om een kaart van 270 euro 10 euro goedkoper te maken.
Moet je er eens 1 miljoen van verkopen. Dan heb je het over 10 miljoen euro. Mensen zien vaak de wet van de grote getallen niet in dit verhaal Ik hoorde ook eens het verhaal van het 1kg lichter maken van een vliegtuig. Scheelde qua brandstof op de levensduur van het vliegtuig duizenden dollars. En dan heb je het nog maar over 1kg op een apparaat van een paar ton.
Idd,
Wel of topic maar ik heb eens in de Kijk gelezen dat er bij een bepaalde vliegtuig maatschappij in de eerste klas ÚÚn van de twee olijven werd weggelaten van het eten dat geserveerd werd.
Dit scheelde uiteindelijk 40.000 Euro per jaar!!!
Dat verwacht je ook niet, maar grote aantallen vertellen idd een heleboel meer. ;)

Maar ik snap eigenlijk niet waarom ze een oude kaart ineens goedkoper willen maken.
Je kunt hem beter uitfaseren toch, en je richten op de nieuwere kaarten.
Wat een geblaat, alsof "digitaal" altijd maar netjes 1 en 0 zijn.

In theorie ja..
In de praktijk werk je altijd met ruis behepte signalen en vervormingen.
Dus geen nette blokgolven, maar iets wat er in de verte op lijkt.
Als de SNR dan nog hoog genoeg is, kan het digitale signaal netjes geconstrueerd worden.
Als de kwaliteit van de connectoren lager wordt neemt de SNR af en neemt de kans "dat hij het niet goed doet" toe.
Nog nooit een eye diagram gezien van een digitaal signaal ?, hoe groter de ruis des te kleiner het eye en op een gegeven moment houdt het op met een goede detectie van het digitale signaal:
http://www.ee.ualberta.ca.../Eye_Diagram_Tutorial.pdf
@ Virtox en erikdenv

Klopt.

Maar er is geen effect op de beeldkwaliteit. De monitor geeft beeld, of de monitor geeft geen beeld. En de kabellengte moet zelfs met een inferieure connectie al behoorlijk lang zijn wil ie geen beeld afgeven o.i.v. de connectie.

Daarbij is nergens gesteld dat de connectoren wat betreft gebruikte metalen van mindere kwaliteit zijn. Het enige wat zeker aangepast is, is de veel mindere EMI shielding van de nieuwe connectors.
nu zeg je dat ze gelijk hebben, en daarna dat ze dat niet hebben. beetje tegenstrijdig.

ze hebben overigens gelijk. 0'en en 1tjes vallen om in slechte kabels, ze veranderen of komen niet aan. dit kan best resulteren in een slecht beeld ipv helemaal geen beeld.


---
ik wordt sowieso erg moe van die kabeldiscussie. ik wou dat iedereen zich eerst inlas in de materie voor direct claims te maken.

[Reactie gewijzigd door powerflux op 8 februari 2009 13:07]

Ach, men krijgt zelfs gold plated optische kabels verkocht aan de mensen ...
Gold plated is een farce, maar tja het verkoopt lekker. Zelfs bij audio helpt het niet, hoewel audiofielen het je anders vertellen. Maar bij meten (is weten) is er niks te zien. Zeker niet wanneer er schroef of klem contacten gebruikt wordt.

Enige wat je wel merkt is wanneer je een kabel neemt van koper en de uiteinden met koper last.
DVI is digitaal signaal. Ofwel signaal komt aan of niet. Bij D-sub merk je verschil met DVI zou dat niet moeten.
Digitaal != Digitaal

Vergeet niet dat DVI etc. LVDS is. D => Differentiaal

Ruis lost zichzelf op.

Maar om dit succesvol te doen is niet enkel de kwaliteit van de connector van belang, maar zeer sterk de kwaliteit van de twisted pair paren IN die kabel.


Neem een niet LVDS signaal : vb. I2C

Daar heft zichzelf niet op ..

Daarnaast :
De amplitude van een blokgolf is maar 1 van de belangrijke eigenschappen.
De 2de belangrijkste factor is altijd de risetime ! (tijd die het signaal nodig heeft om van laag naar hoog te gaan)
Deze is veel lastiger op te vangen te wijten aan de capaciteit van de drager, in combinatie met de weerstand. (R x C)

Mensen die dagdagelijks met I2C etc. designen weten maar al te goed wat ek bedoel ..
Ik moet eerlijk zeggen dat ik nog steeds geen verschil merk tussen DVI en D-sub bij een D-sub kabel van 1.5 meter met een resolutie van 1280x1024. Nix goldplated, gewoon meegeleverd. Laat staan tussen goedkope en dure DVI-uitgangen. Bij langere kabels gaat het winst opleveren om uberhaupt een DVI aansluiting te gebruiken. Als je daarnaast je PC 30 keer verhuist kan ik me voorstellen dat een duurdere DVI-aansluiting van nut is omdat ie niet naar z'n grootje gaat maar verder...
Op een monitor van 19inch of kleiner zie je dat ook amper; hoe groter de resolutie en/of het scherm; des te sneller/beter zie je de verschillen.

Zo had ik een vreemde, wazige gloed op mijn plasma; via HDDVD decoder aangesloten met een goede, shielded scart kabel. Het vreemde verschijnsel verdween als sneeuw voor de zon met een simpel, goedkoop HDMI kabeltje.
Bij zo'n (relatief lage) resolutie zie ik ook geen duidelijk verschil. Toch vind ik het prettiger om DVI te gebruiken, vooral omdat de pixels dan gewoon 1 op 1 worden weergegeven en je geen vervelend autoconfig meer hebt.
Wat ik hier nou niemand zie opmerken is dat DVI zowel analoog als digitaal is en menig gebruiker geen DVI-ingang op zijn monitor heeft en bijgevolg afhankelijk is van de DVI-A-mode.

Bij een analoog signaal, en zeker een hoogwaardig signaal als hetgeen dat naar een beeldscherm gaat, telt alles, inclusief de connector. Een goedkopere printplaat betekent doorgaans niet alleen slechtere connectoren, maar ook slechtere uitgangscomponenten.

Koop dit kaartje dus niet als je nog in volle glorie van je 21-inch beeldbuis wilt genieten.
Ik ken niemand die 200 euro aan een videokaart uitgeeft en dan nog op een lompe CRT zit te gamen die alleen sub-D heeft. Daarbij (niet gechecked) vraag ik me af of dit ding DVI-I doet op de DVI plug of alleen DVI-D.
DVI is een digitaal signaal, en dus is er (haast) geen sprake van signaalverlies als je goedkopere connectors/kabels gebruikt...
DVI is een digitaal signaal, en dus is er (haast) geen sprake van signaalverlies als je goedkopere connectors/kabels gebruikt...
Je drukt je verkeerd uit (of je begrijpt het verkeerd). Je hebt wel degelijk signaalverlies als je slechte kabels gebruikt. Het punt is echter dat je daar tot op zekere hoogte niets van merkt omdat signaalverlies niet gelijk is aan kwaliteitsverlies (totdat de signalen dermate zwak zijn dat er teveel fouten optreden).
Maar nvidia maakt geen kaarten dus is het uiteindelijk niet aan de fabrikant zoals asus om dit te doen?
nVidia maakt wel kaarten. nVidia levert reference pcb's en gefabriceerde kaarten af aan de verschillende merken. De meeste merken doen alleen wat rebranden (stickers) en op z'n hoogst de kaart voorzien van een ander koelertje.

Er zijn wel merken die zelf custom PCB's en gefabriceerde kaarten ontwikkelen en uitbrengen, maar dat is maar een heel klein deel.
er...
nvidia levert alleen de pcb *designs* en de chips, de kaaten zelf worden door de verschillende merken gemaakt..
en ja, dr zijn inderdaad merken die non-referrence-design kaarten maken, dat kan zowel positief als negatief uitpakken.
NVIDIA maakt wel het reference design, en veel fabrikanten gebruiken dit ontwerp voor hun eigen kaarten. Dus het is wel degelijk aan henzelf om zo'n goedkoper pcb te maken.
Er zijn dus drie soorten slijtage.

-Wrijving van metaal op metaal
-corrosie door zuurstof.
- skin effect , slijtage van kabel bij wisselstroom

Contactpunten worden vaak vertind, verguld of verzilverd. koper heeft veel last van corrosie en zal dus een behandeling krijgen om dit tegen te gaan. De extra weerstand die xppieter meet is de oorzaak van een slechter raakvlak, maar daar gaat die gouden toplaag niets of niets aan veranderen.

De behandeling onder het goud is nog belangrijker. Die laag (vaak Nikkel) is een belangrijke ondersteunende laag die de prestaties van een kabel in verhouding harder be´nvloeden.

Maar er zijn ook nadelen, goud is een betere geleider dan koper en ik meen dat men hiermee problemen heeft op bepaalde frequenties en dat ze daarom selectief moeten omspringen met die goudlaag. Omdat de elektriciteit het goud ziet als een betere geleider gaat die gouden toplaag sneller afslijten. Dit is ook van toepassing bij puur koper in combinatie met een AC-stroom. Ze noemen dat het Skin effect.

En bij componenten met micro-elektronica hebben ze met gold plated bekabeling en connectors ook last van "draden" die kortsluiting en storing veroorzaken. Het is heel kleine verbindingen die door de jaren heen tot stand kopen. Vooral edelmetalen hebben er last van. De draden kunnen zich afhankelijk van de frequentie zich gaan gedragen als een antenne en velden creŰren. Er zijn zelfs al satellieten gesneuveld op deze manier. (foto van dat fenomeen : http://www.aciusa.org/images/pbfree-verdi2.gif ) (zoekterm : Metal whiskering )
Het skin effect betekend dat maar een deel van de geleider (de buitenkant) effectief gebruikt wordt door de elektrische stroom. Heeft weinig of niets met slijtage te maken.

Een micometertje goud beschermt heel goed tegen corosie en kost zeer weinig extra.
De weerstand wordt wel groter na verloop van tijd en dusdanig valt dit onder de noemer slijtage. Ik heb al iets opgevangen dat die gouden eindpunten hier ook mee af te rekenen krijgen.
Ben ik nou de enige die zich verbaast over het feit dat de 65nm staat afgebeeld ipv de 55nm, terwijl er op kosten bespaard moet worden?
De GTX260 is al sinds eind vorig jaar overgeschakeld op 55nm (het was zelfs de eerste 55nm kaart ;)).
Ik zie trouwens ook nergens 65nm afgebeeld staan...
Zelfs als het er zou staan, de kans is dan groot dat het om een foutje gaat: terugschakelen naar een groter procedÚ is gewoon not-done en er wordt niets over vermeld in het artikel.

[Reactie gewijzigd door Malantur op 8 februari 2009 12:15]

Volgens mij komen er nog maar mondjesmaat 55nm kaarten in omloop en is er nog veel 65nm spul. Zijn er Řberhaupt non-216 55nm kaarten?

De gpu op de foto is iig de 65nm. Dit is de 55nm:
nieuws: Eerste foto van Nvidia's 55nm G200-gpu duikt op
Volgens mijn zijn er geen 192SP 55 nm kaarten in omloop. NV is namelijk eerst van 192SP 65nm naar 216SP 65nm overgestapt. En later nog eens van 216SP 65m naar 216SP 55nm.

Ik vind het geheel een beetje verwarrend. De aanpak die ze bij de GTX 280 hebben gedaan vind ik dat dat goed is.

Dus 55nm versie van de GTX 280, aka GTX 285, een nieuwe naam meegeven en iets verhoogde frequenties.

Dus dat er een GTX 265 onstaat met iets verhoogde kloksnelheden. Zo kan je deze versie ook een meerprijs meegeven en die oude modellen een lagere prijs. Zo komen ze ook waarschijnlijk eerder af van die GTX 260's.

Het verschil tussen een 65nm GTX 260 en een 55nm is nu maar gering. Als fabrikanten er dan ook nog eens bijzetten wat welke is (en ook de Shader Processors) dan is de keuze voor de tweakers onder ons snel gemaakt. De prijs is echter in veel gevallen de factor die het zwaarste meetelt en deze is maar klein tussen nieuwe en oude modellen. Vind je het gek dat ze er niet vanaf komen...

Al die naamveraderingen van de andere kaarten is dan ook nog eens poppycock. Een kaart tot 3 keer toe hernoemen zonder echt merkbare verschillen vind ik een beetje vreemd. Ook nagaande dat NV de namen juist simpeler wil maken... Ik vind die nu met de GT 2xx e.d. veel moeilijker te begrijpen. Laat staan dat iemand die zich nauwelijks inleest in de wereld van videokaarten er wat van begrijpt.

[Reactie gewijzigd door Bolletje op 8 februari 2009 13:28]

Kwaliteit van de uitgangen zelf zal wel iets minder goed zijn, maar beeld kwaliteit zou niet 8eruit moeten gaan denk ik;)
Waarom zou je dan Řberhaubt duurdere connectors gebruiken als de beeldkwaliteit toch niet achteruit gaat? :?
Duurdere, vergulde connectoren kunnen niet oxideren. Uiteindelijk zullen de goedkoperen connectoren een laagje slecht geleidend koper oxide vormen. Waarschijnlijk is dan zelfs de signaal sterkte hoog genoeg om een goed beeld te geven.
Dat gebeurt meestal na vaak steken van de connector. Tijd speelt hier amper een rol, kijk maar in de datasheets van dit soort connectoren.

[Reactie gewijzigd door xppieter op 8 februari 2009 11:36]

Nee, oxideren vind ook plaats als 2 metalen met elkaar in contact komen. Dan zal het minst-edele metaal gaan oxideren. Dus in het geval van goud en aluminium dan blijft er na verloop van tijd niets meer van het aluminium over.

Dus als je besluit om Gold-Plated te gaan, dan moet je zorgen dat alle hele lijn (dus beide aansluitingen en stekkers van die kabel) Gold-Plated is. Anders kun je beter gewoon bij de normale verbinding blijven.

Het enige wat ik me altijd afvraag, dat goud-laagje maakt ook contact met de onderliggende geleider... hoe lang zal het duren voor dat wegroest ;)

Nee geef mij maar gewoon de ordinaire aansluitingen. Heb ik storingsvrij beeld? prima! Gaat het storen dan vervang ik die kabel wel. Voor de prijs van 1 gold-plated kabel kan ik tig keer mijn standaard-kabeltje vervangen.
Dat roest/oxydeert niet, want daarvoor heb je zuurstof nodig. En het goudlaagje schermt het keurig af.
Dat gebeurd meestal na een jaar of 6, dan ligt de zooi waar ik nu op aan het rammen ben allang bij de recycling-meneer.
omdat sommige mensen een DVI-DSUB verloopje gebruiken en er een DSUB scherm only aanhangen?
ik had gehoopt dat er nu ongeveer geen DSUB schermen meer verkocht werden, maar zeker in de goedkopere lcd's zijn ze nog massaal aanwezig
DVI-DSUB verloopje
Dan maakt de kwaliteit van de verbinding nog steeds enkel wat uit voor het analoge deel. Dus van verloop naar D-sub scherm. Voor het digitale deel, van kaart naar verloop, heeft het geen effect.
*zoemer geluidje* nee.
de kaart zelf heeft een systeem (de zogenaamde DAC, Digital to Analogue Converter) wat het digitale beeld omzet in analoog beeld, en dit analoge signaal komt dus al vanaf de kaart, via de dvi connector, via het verloopje..
in het verloopje zit geen electronica.. alleen wat draadjes van de ene naar een andere stekker..
Wat maakt de capaciteit van de BIOS uit?
Stoppen ze er minder features in, kan er minder worden gelogd, of..?
In ieder geval is de bios chip goedkoper.
Afgezien van de besparingen vind ik dit toch echt een zeer keurig opgebouwd pcb-ontwerp.
Overclokkers kunnen nu beter deze kaart kopen 3 pcb's minder dus minder kans op doorfikken
Ook zal deze kaart een snelheids winst boeken door minders pcb's te gebruiken is
de af te legen weg voor de electroontjes naar diverse elecdeeltjes nu tenslotte een stuk korter ;)
Uhm het gaat om lagen he... Meerdere lagen betekend dat er meer beschikbare oppervlakte voor (kortere) routes, en dat meer signalen elkaar kunnen kruisen. Door het met minder lagen te doen moet je misschien wel meer omwegen maken en vaker van laag wisselen om andere signalen te kunnen kruisen.

Zie ook niet wat dit met doorfikken te maken heeft. Of is dit een hap?

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True