Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 48 reacties
Bron: The Inquirer

Bij The Inquirer is een uitgebreid artikel verschenen waarin wordt ingegaan op de geruchten omtrent ATi-videokaarten en het niet voldoen aan PCI Express-standaard. Op het moment is slechts ťťn videokaart van ATi aanwezig op de officiŽle lijst van gecertificeerde PCI Express-producten terwijl er ruim twintig videokaarten van nVidia aanwezig zijn op de lijst. Onderstaande illustratie laat duidelijk zien wat de reden hiervan is. De blauwe lijnen zijn de signalen die de ATi X300-chip produceert en de rode ruit is het gebied waarin het signaal niet mag komen om te voldoen aan de PCI Express-standaard. Overduidelijk komen de signalen ook in het verboden verbied waardoor de chip niet voldoet aan de PCI Express-standaard.

ATi X300 PCI Express signalen

Hoewel de meeste ATi-kaarten niet voldoen aan de officiŽle PCI Express-standaard is dit op het moment geen probleem. De huidige PCI Express-moederborden hebben voldoende ruimte om overweg te kunnen met de ruwe kantjes van de ATi-videokaarten. ATi heeft immers volgens eigen zeggen al ruim een miljoen PCI Express-videokaarten geleverd en indien er problemen zouden zijn zouden deze al aan het licht gekomen zijn. Het is echter goed mogelijk dat toekomstige moederborden wel problemen zullen vertonen.

Nu wordt er wellicht rekening gehouden met het feit dat de ATi-kaarten niet helemaal aan de standaard voldoen, maar het is niet zeker dat het over een jaar nog steeds gebeurt. De oplossing is een iets lossere PCI Express-standaard. De PCI Express-standaard versie 1.1 is ten opzichte van versie 1.0a iets soepeler waardoor ATi-kaarten waarschijnlijk wel zullen voldoen aan de standaard. De oplossing van het probleem komt hiermee dus op het bordje van de chipsetfabrikanten te liggen.

Moderatie-faq Wijzig weergave

Reacties (48)

Kan iemand misschien uitleggen wat er nu precies te zien is op het plaatje.
Zoek eens op "oog patroon" of "Eye pattern."

Een oogpatroon zegt veel over de kwaliteit van een digitaal elektrisch signaal:
Men zet een bitstroom op een draad (bij meer draden = een bus) --> Bij het ontvangstpunt gaat men meten. Wanneer het oogpatroon teveel naar het midden van het oog valt, kunnen er problemen ontstaan bij het inklokken van bitjes.

Hier staat een PDF voorbeeld van scoopfabrikant LeCroy.
nou ik wou dat de pci express pas in mei volgend jaar was gereleased want daardoor produceren ze te weinig AGP en daarom heb IK nu nog steeds mijn ASUS X800XT AGP niet :( :( :( :( :( :( :( :( :( :( :( :( :(

en ik weet ook waaarom want nu hopen ze gewoon dat we met zn allen een pcie moederbord en een nieuwe procesor gaan kopen nou mooi niet en trouwens dat haat ik ook aan de socket 775 dat mn waterkoelblok er niet meer op past ze moeten verdomme ook elke keer wat veranderen he? |:( |:(


en by the way wat boeien de standaarden nou als het maar goed werkt en snel
Hoogst waarschijnlijk een van de (of meerdere) seriŽle data stromen over de PCIe bus. de blauwe lijnen stellen de dataovergangen van de ati kaart voor, de het rode vlak zijn die minimale specs waar de data overgang buiten moet vallen om een goede dataoverdracht te garanderen.

Je ziet idd duidelijk dat het rode vlak boven en onder in de punt overschreden worden door de blauwe lijn, dit zou eigenlijk niet mogen en hierbij zouden dus problemen kunnen ontstaan waardoor bijvoorbeeld een 1 als een nulletje gezien word of andersom. Maar hoogstwaarschijnlijk triggeren de meeste chipsets al bij +0.16 en -0.16 volt (hoewel ik dat natuurlijk niet met zekerheid kan zeggen).

Verder is het soepeler maken van de specs niet zo verstandig, want dan zijn er GPU of kaart fabrikanten die een beetje budgetten en er weer vlak onder komen, en zo maar verder en verder...
Dat is gewoon 'n digitaal signaal met signaal verlies plus flank steilheid van elke bit overelkaar heen gezet wordt.
Omdat al gauw in 16bit 1 & 0 beide waarden tegelijk voorkomen krijg je ene kussentje.
Kan zijn dat dit het begin van ene data blok is en het einde, bits die van
1 -> 1 gaan boven lijn
1 -> 0 lijn naar onder
0 -> 1 lijn naar boven
0 -> 0 onderlijn

Begin is van off naar 0 of 1

lijkt mij zo
dat vraag ik me ook af :?

ati kan niet binnen de lijntjes kleuren en nvidia wel?
ehh buiten de lijntjes in dit geval :+ :+ :+
je ziet dat rode vierkant? en die blauwe lijnen? Die blauwe lijnen mogen het rode vierkant niet raken, laat staan doorkruisen, anders voldoet de kaart niet meer aan de standaard... }:O
ja lol!! maar waarom mogen ze daar niet binnen komen.. wat zit daar dan? :S
Horizontaal staat de spanning van het signaal dat overgedragen wordt. De hoogte van deze spanning geeft de bitjes weer (enen en nullen). De hoogste waarde en laagste waarde moet binnen een bepaalde range vallen: het signaal mag niet hoger worden dan 0.6 V, niet lager dan -0.6 en moet minimaal boven het rode blokje uitkomen. Bij deze ATI kaarten is het signaal dus te ZWAK (het verschil in spanning tussen hoog en laag is te klein). Dit zou kunnen leiden tot storingen (bitjes die niet goed doorkomen) omdat een PC-Express moederbord het signaal pas als een 1 hoort te zien als het boven het rode blokje uitkomt.

Bij de nVidea-kaarten valt het signaal netjes tussen de bovenste en onderste rode lijnen en buiten het blokje met ruime marges, zie de bron.
Ik denk (ik heb die standaard ook niet ontworpen) dat het iets met storing/interferentie te maken heeft...
Dat zie je toch? Van links naar rechts de tijd, van onder naar boven de enen en nullen die voorbijkomen. 0,3 is 1 -0,3 is 0
De oplossing van het probleem komt hiermee dus op de op bordje van de chipsetfabrikanten te liggen.
Oei oei ATI, dit is natuurlijk een gevaarlijk iets. Aangezien nVidia nu met nieuwe PCI-Express chips uitkomt (nForce) voor het AMD platform kunnen ze meteen even hun grootste concurrent ATI flink dwarszitten door zich gewoon volledig aan de standaard te houden. ATI kan hier tenslotte helemaal niks tegen doen, want het is hun eigen schuld. ATI zal hun GPU's dan moeten aanpassen wat een duur geintje zal zijn.
op http://theinquirer.net/?article=18758 stond het volgende over he plaatje:
For the oscilloscope impaired pic, a little explanation is needed. When you see a wave on an oscilloscope, several things need to be considered. First is the wavelength. This is the horizontal size of a wave, measured from peak to peak. The more important measure is the amplitude, or the height of the wave. Both of these properties define the blue bands, how high and wide they are.

The red diamond in the middle is the area that defines compliance. If you can keep your signal from touching the red part, you are complaint. Since wavelength is tunable fairly easily, you rarely see the left and right corner being overrun. The top and bottom are the problem areas.

In this case, they are overrun fairly badly, pretty much ruling out compliance with the SIG. If you can increase your transmission power, you push the waves above and below the relevant keep out areas, and you get compliance. The further out you go, the more robust your solution is.
Je vergeet de meest opmerkelijke quote:
But are the boards ATI shipped PCIe compliant? They are all called PCIe, but a quick check with the PCI SIG told me that to get the name PCIe on a product, all the company that makes it needs to do is to be a SIG member. If ATI came out with a brand of Yo-Yos, and NVidia a new type of avocado chocolate gum, they both could be called PCIe Yo-Yos and avocado chocolate gum. If you plug them into your new i915 or i925 based computer, it won't do very much, but it will be PCIe. As they say, membership has its privileges.
Lekker, zo`n standaard... |:(
Die standaarden zijn er niet voor niets...het zou mij niet meer dan logisch lijken om je dna ook eraan te houden?

En waarom kan nVidia het wel en ATi niet (no flame intended hoor, heb zelf een ATi AGP kaart ;))

Dat noemen ze zeker bezuiniging... :z
Die standaarden zijn er niet voor niets...het zou mij niet meer dan logisch lijken om je dna ook eraan te houden?
Zo zijn er ook spellings regels en lijkt het ook niet zo moelijk om je daar aan te houden. Toch maak je hier een tiep fout. Ik kan het nog steeds lezen en begrijp wat je bedoeld, voor mij dus geen enkel probleem. Er zijn er hier alleen ook mensen die zich daar aan ergeren en je post daarom afkeuren.
Misschien als je hem 400$ voor zijn post gegeven had, dat ie dan geen spellingsfouten gemaakt had.
Die standaarden zijn er niet voor niets...het zou mij niet meer dan logisch lijken om je dna ook eraan te houden?
Als dat (zo) makkelijk was, had ATI het vast wel gedaan. Zij wijken ook niet voor de lol af van een standaard.
Als we dat nu eens omdraaien:
ATI PCI-E kaarten voldoen nu al aan de volgende PCI-Express versie. :)
tja; dat de moederbord fabrikanten het nu op mogen lossen is wel dom; het is immers een probleem van ATI maargoed.

Overigens als de videokaarten in zo'n grote aantallen nog geen noemenswaardige problemen opleveren wat maakt het dan uit of ze wel of niet binnen de standaard vallen? Als ze goed werken dan maakt dat toch niet zo veel meer uit? Ik weet ook wel dat een standaard er niet voor niets is en waarschijnlijk als dit in de media was gekomen voordat er ook maar 1 pci-express ati kaart was verkocht dan hadden ze het WEL aan moeten passen (je kunt de consument geen product verkopen waar je niet "zeker" van weet of het wel goed werkt)
Nou ik denk dat ATI gewoon al eerder was met PCI-E implementatie nog voordat de standaard er door was nvidia was wat later zodat die wel conform de standaard is.
ATI had al snel een prototype beschikbaar
tweede optie.
'n HiS chip is snel aan te passen aTI moet de GPU lijn modificeren.
HIS chip is dus veel flexibler.

Om dan nVidia nu de hemel in te prijzen alles heeft voor en nadelen.

Dit is dus de nadeel van native on die PCI-E controler
Dit is dus de nadeel van native on die PCI-E controler
Natuurlijk niet. Een On die controller zou echt wel volgens de specs te maken zijn. Nee, dit is meer iets van afwijken van de specs omdat het lastiger/duurder is om je wel aan de specs te houden. En aangezien het toch wel werkt vond ATI het blijkbaar wel prima.

De vraag is dan ook in hoeverre dit in werkelijkheid problemen zal gaan opleveren. De huidige borden hebben tot nu toe nog geen last maar er zijn ook weinig mensen die hun bord volledig volgestopt hebben met PCI-E kaartjes en dus tegen de limiet aanzitten.

Als blijkt dat dit een puur theoretisch probleem is, dan heeft ATI een mooie manier gevonden om geld te besparen.
ja en zo werkt het dus ook met IE-html, werkt toch? tot dat je een browser gaat gebruiken die de standaard wel aanhoud.
inderdaad maar bij een html pagina is het makkelijker om het even te repareren dan bij een serie videokaarten die bij de mensen thuis in de pc zitten. Daar komt ook nog eens bij dat je voor de meeste websites niets betaald om ze te bezoeken (behalve de spyware dan :r) en dat je voor een videokaart wel degelijk een hele kwak geld neertelt om hem in je bezit te krijgen. Ook is het bij html verder uit de hand gelopen; er zijn nog erg weinig websites die echt aan de W3C standaard voldoen.

Een beetje een vage vergelijking maargoed :)
Als een web-pagina niet compatible is met je browser (of andersom), rendert ie misschien niet of niet helemaal goed.
Als je toevallig een maandagocthend PCIe-chipset op je moederbord hebt (nog net binnen spec), kan je met zo'n net-niet-compliant ATI videokaart op willekeurige momenten je PC volledig laten vastlopen.
Dat krijg je als je toch relatief gezien een bijna-monopoliepositie hebt :+

edit: -1 Troll??? Wat is hier nou weer een troll aan? Ik dacht toch echt dat ATi een groot deel van de markt beheerst en zich in zekere zin niet geheel conform de standaarden meent te hoeven gedragen (met IE wertk het net zo toch ;))
De oplossing van het probleem komt hiermee dus op de op bordje van de chipsetfabrikanten te liggen.
dat denk ik eerlijk gezegd niet, want:
De huidige PCI Express-moederborden hebben voldoende ruimte om overweg te kunnen met de ruwe kantjes van de ATi-videokaarten. ATi heeft immers volgens eigen zeggen al ruim een miljoen PCI Express-videokaarten geleverd en indien er problemen zouden zijn zouden deze al aan het licht gekomen zijn.
Dat geeft nl al aan dat de chipset-fabrikanten zich ook niet aan de standaard houden. Als de standaard dan verruimd wordt, zullen er weinig tot geen aanpassing nodig zijn. Denk ik tenminste.....
Dat geeft nl al aan dat de chipset-fabrikanten zich ook niet aan de standaard houden.
Jawel, ze houden zich wel aan de standaard. Ze doen alleen wat extra's, hun product is zegmaar beter dan de standaard voorschrijft. Het feit dat Intel nu dan al kan voldoen aan de PCI Express 1.1 standaard wil niet zeggen dat fabrikanten zoals VIA, ALi, SiS etc dat ook al kunnen. Natuurlijk goed mogelijk dat dergelijke fabrikanten het een stuk moeilijker zullen hebben om hun producten op te waarderen van PCI Express 1.0a naar 1.1.
Dat het 'niet meteen' problemen oplevert wil niet zeggen dat de standaard moet verlaagd worden. Die electronica verslijt langzaam maar zeker, en dan treden er wel fouten op. De wetten van de statistiek zijn ook niet mild voor het overtreden van de marges opgesteld voor de standaard. Het zou me niet verwonderen dat je na een maandje spelen op een ATI kaart plots een 'onverklaarbare' bluescreen krijgt. Sorry, maar ik wil een PC die aan de standaard voldoet en nooit crasht.
Sorry, maar ik wil een PC die aan de standaard voldoet en nooit crasht.
Hmmz...dualboot Windows & Linux denk ik.
:*) neem aan dat je het over de 64 bit versie van linux heb 8-)
Kijk ook even in het artikel hoe fantastish mooi het oog-patroon is voor de GeForce 6600. Het is zelfs voor een leek duidelijk dat dit bijna -twee maal- zo goed is.
Kennelijk is het niet zo moeilijk om aan die standaard te voldoen. Ik snap dan ook niet dat ATi het er niet zo nauw mee neemt. Voor grote afnemers als Dell of HP kan het een probleem vormen, als de moederborden er niet lekker mee samenwerken, en de moederbord fabrikant kan uitleggen dat het niet hun probleem is.

Overigens speelt ditzelfde signaal verhaal ook bij DVI signalen van de kaarten van nVidia en ATi.
als er geen problemen zijn zal t wel goe zijn he :), maar anderzijds, n standaard wordt niet zomaar voor de lol gemaakt, dat heeft dan ook zo z'n redenen, en vindt dat men zich daaraan moet houden :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True