Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia vanaf volgende maand op 80nm

Anonieme bronnen uit de videochipmarkt hebben de mannen van HKEPC laten weten dat de eerste 80nm-chips van Nvidia in september verwacht kunnen worden. De G73-B1, zoals de codenaam van de chips luidt, zal gefabriceerd worden door Taiwan Semiconductor Manufacturing Company en is bedoeld als tegenhanger van Ati's X1650-familie. Nvidia's nieuwe chip kent twee versies: G73-N-B1 en G73-H-B1. Op enkele verbeteringen in het productieproces na is de G73-N-B1 vrijwel gelijk aan zijn 90nm-broer. Videokaartfabrikanten zouden daarom relatief eenvoudig de overstap moeten kunnen maken naar de productie van op G73-N-B1-gebaseerde kaarten. De G73-H-B1 daarentegen is wel voorzien van nieuwe features, namelijk geďntegreerde chips voor HDMI en HDCP, en is bedoeld voor gebruik in home theater-pc's. Beide chips zullen in ieder geval geleverd worden aan de OEM-markt, onduidelijk is nog of de G73-B1-producten ook op de retailmarkt beschikbaar komen. G73-B1-producten zullen lid worden van de Geforce 7650-familie.

Nvidia's G73-B1

Door

Freelance nieuwsposter

28 Linkedin Google+

Bron: HKEPC

Reacties (28)

Wijzig sortering
Waarom geen dual DVI eigenlijk? Is dat nou zoveel duurder?
Ik denk omdat er bij een DVI uitgang altijd nog een DVI naar een D-SUB connector bij geleverd wordt.

Wellicht ook omdat dat het nieuwste is en nieuwst is altijd duurder.

Oh HDMI is nieuwst ... klopt eigenlijk ... nog duurder
Dual dvi kost niets extra om te maken maar de kaart is simpelweg te goedkoop om dual dvi toe te passen.

Een slimme truck waardoor veel mensen toch weer uitwijken naar duurdere kaarten. Je bent dus verplicht een dure kaart te kopen(dus waar veel aan wordt verdient) als je dual dvi wil.

Marketing and out
Het wordt volgens mij mode om nou ook nog eens xx50 versies van kaarten uit te brengen, of niet? (dus 1650XT, 7950GX) Vind het er allemaal niet duidelijker op worden moet ik zeggen.
Het is allemaal heel logisch hoor

eerste getal is bij nvidia de serie (4/5/6/7), het volgende getal geeft aan om welke chip in die serie het gaat (6/8/9), het derde getal is de (revisie?)(0/5), de laatste nul is gewoon om er een duizendtal van te maken (verkoopt beter) en dan met de naam erachter geven ze aan wat er allemaal aan of uit staat. en eventueel ok verschillend geheugen

:Y)
Nou opzich is het duidelijker dat beide bedrijven XX50 gebruiken dan de een dit en de ander weer wat anders.

Aangezien de consument ook geilt op namen en cijfertjes is het ook redelijk logisch.

Je kan het (XX50) ook zien als 1/2 op de weg naar de volgende generatie :)
Is toch zeer logisch, hoe hoger hoe beter ..
@Dutch_Razor

Hoe hoger hoe beter

Doet me denken aan megahertzen in CPU's. }>

Waar de 80 nm bij de GPU's van Nvidea vast toe zal leiden op de lange termein.

Wat ik nou mis bij deze kaart is een lekkere stevige lawaaierige ventilator. (Nou ja die plakken we er dan zellef wel op.
Dan kan je hem tenminste ver overclocken zeker als je de 80 nm versie neemt. 8-)
opzich wel fijn, maar is het niet mogelijk om de overstap 90 naar 65nm te maken.
Zoals Intel en Amd op dit moment doen ?
Of is dat technisch niet mogelijk omdat cpu's en gpu's zoveel in design verschillen ?
want lagere nm productie = minder energie+snellere chips lijkt mij in1x beter om te doen ipv
130->110->90->80
opzich wel fijn, maar is het niet mogelijk om de overstap 90 naar 65nm te maken.
Zoals Intel en Amd op dit moment doen ?
intel is al op 65nm overgestapt (core processoren), amd moet dat nog doen.

nvidia is fabless dwz zij levert design (IP) aan chipbakkers ('foundries' in het engels) aan. TSMC is zo'n foundry. deze foundries werken met standaard technologie. er gaat dus wat efficiency verloren bij het mappen van nvidia IP op zon commodity chipbakker. voordeel is dat de foundry meerdere IP designers van dienst kan zijn (bijvoorbeeld ATI vroeger, netwerk chip fabrikanten, sound chippies, broadcom e.d. enfin je kent het vast wel).

vergelijk het maar met het draaien van standaard C code op een willekeurige processor en het handmatig programmeren van assembly op die willekeurige processor. de C-code is portable naar een willekeurige processor, maar je levert wat efficiency in. assembly kan supergeoptimaliseerd worden naar een processor maar is niet overdraagbaar naar andere. (analogie: code = IP, processor = process)

commodity foundries lopen altijd wat achter op intel/amd omdat zij hun process generiek moeten maken voor hun IP klanten. een bedrijf als intel hoeft voor dr process alleen rekening te houden met eigen IP. en kan dus veel meer fine tuning doen van dr process naar eigen behoefte.

intel heeft het allemaal in 1 hand, -en- IP van processordesign -en- een eigen process (wat een van de meest geavanceerde processen is in de industry). intel kan dus het process en IP over en weer op elkaar afstemmen en dus sneller doorschalen naar kleinere nodes (kleinere nodes is bijvoorbeeld 130nm -> 90 nm -> 65nm --> 45nm). amd voert een hybride model; state of the art processoren worden door eigen fabs gemaakt, oudere modellen gaan naar de foundries.
Ligt het aan mij of proberen ze nog even snel de laatste DX9 kaarten erdoorheen te drukken / dit geld ook voor ATI

Mensen blijven spul kopen, weer kleiner weer sneller.
Een computer is na 3 jaar afgeschreven, een videokaart low-end en midrange elke half jaar lijkt wel.
Dus ik zie hier het nut niet van in...
Als je kijkt is het nog best lang tot Vista met directx X komt. In die tussentijd moet er natuurlijk nog geld binnenkomen. Dus komen ze met een zuiniger chipje. Als je kijkt gaat dit ook om de 7650 de midrange kaart uit de 7*** serie.

Als ik het me goed herriner zijn ze bij de 6*** serie eigenlijk nooit met 6*50 gekomen. Nu doen ze dat om het gat tussen dx 10 op te vullen anders waren ze nu wel met een nieuwe architectuur gekomen.
sinds wanneer kan jan-met-de-pet het verbruik schelen? ze kijken toch alleen naar de prijs en wat de verkoper (indien van toepassing ;) ) ze wijsmaakt.
geen moer, geluid(sstilte) lijkt wel een steeds vaker terug te komen
zuiniger => minder RPM nodig op dezelfde fan => minder lawaai makende fan :>
Dit komt bij elke post over Videokaarten weer terug, maar kan je de firmwire van die kaarten niet gewoon upgraden, zodat ze DX10 aankunnen :?
nee want het gaat juist om hardwarematige ondersteuning.
bij deze serie GPU's zit DX 9 zeg maar ingebakken in de core
Nee DX10 heeft onder andere andere shader models (unified shader) en dat zal deze kaart dus niet ondersteunen. Waardoor hij dus niet DX10 compatible is. Vergelijk het met de GF4***Ti dat was de laaste DX8 kaart. Hij had wel pixel shaders maar dat was shader model 1.3 en DX9.0c heeft shader model 2.0 minstens nodig. Het komt er uiteindelijk op neer dat deze kaarten nieuwe games niet meer kunnen renderen. Ze kunnen het qua brute force misschien nog wel maar ze zullen de shaders die gebruikt wordt niet ondersteunen. En dus zal het spel niet werken. Een beetje wat met BF2 en de geforce 4 is gebeurt. Door een patch (gemaakt door users) was het uiteindelijk wel mogelijk te spelen. Ze hadden de shader 2.0 instructie vertaalt naar 1.3
Ik ben benieuwd

De X1650 XT zou 8 Robs krijgen met 24 Shader units. Een erg sterkte tegenhanger. De X1600 had 4 Robs en 12 Shader units. Dus die X1650 XT is een stuk sneller geworden.

Dus ik gok dat de X1650 XT het van de Geforce 7650 gaat winnen als alleen de core speed iets hoger geworden is.
Ze heten ROPs. :) Een afkorting van, kies er maar eentje uit, Render OutPut Unit, Render Output Pipeline, Render OPerators, Render Output Processors, Raster Operator Unit en ga zo maar door.
de X1650Pro (er is geen XT) krijgt evenveel ppl's en vpl's als de x1600XT, het enige verschil is een hogere kloksnelheid en een lagere introductieprijs om Nvidia af te troeven.
Nooit. Ik las op internet dat hij ook gewoon 12 pixelpipelines heeft. Met 24 zou hij veel te snel worden voor 100 dollar, dan wil niemand een X1900 meer, alleen om de naam want het verschil zou te klein zijn in prestaties, maar dan is de X1650 een mooie oplossing tot DX10 voor de meesten.
Kan iemand mij vertellen wat die kleine insnede met dat insteekstukje is aan de bovenkant van deze kaart?
Het lijkt op Pci-e 1x, maar dat is het niet...
Aan de bovenkant is de aansluiting voor de SLI brug.
sli?


Hmm door al die cijfers snap ik er bijna niets meer van.

Wie heeft nou eigenlijk de laatste/nieuwste/beste kaart?


hier lees is dat NVidia een nieuwe kaart ofzo maakt als tegenhanger voor Ati's X1650-familie

en hier nieuws: ATi brengt vijftal nieuwe Radeon-videokaarten uit staat dat Radeon X1950-familie vandaag officieel heeft gelanceerd.

Enne allemaal leuk en aardig, de kaarten zijn snel genoeg denk ik (Vergeleke met de andere hardware van nu)

Wat ik wel eens graag zou zien bij videokaarten is.

1. PCI-X x veel hoger dan nu standaart is, maja moeden de moederborden ook worden aangepast.

2. iederen zecht dat het onmogelijk is, maar als het goed word ontwerpt is het best mogelijk, een SLi kaart die je later op nieuwere kaarten kunt aansluiten. Dus koop vandaag kaart 1900 en volgend jaar 2000 (Om maar lekker zoals zei dat doen met verwarrende cijfers te werken) en dan SLI linkje ertussen, 2000 word master en 1900 owrd slave en krijgt wat taken van de 2000 aangewezen om te bewerken. zo bespaar jij je geld en de fabrikant verkoopt meer kaarten, tenslotte zijn er niet veel mensen die 2 kaarten meteen kopen en eene nieuwe kaart zal je neit snel kopen als je oude duure kaart die ook nog wel voldoet dan weg word gegooit (Onbruikbaar word)
Dat moeten ze dus maar eens snel ontwikkelen

3 en als laatste, laat die koste nou eens omlaag gaan!!!! Vind videokaarten maar reteduur zeker als je ziet dat het een van de eerste dingen zijn die je moet vervangen/versnellen.

1. Ram
2. Videokaarten
3. processor
4 Geluidskaart
5 moederbord

Zo ongeveer.
Twee dingen. PCI-X is way trager dan PCI-express en word normaal alleen in servers toegepast. Met PCI-e zie ik ze daar ook snel verdwijnen hoor. Het andere is dit: alleen gamers kopen een zware kaart die ze regelmatig vervangen, alle anderen zijn kantoorgebruikers en mensen die een beetje MSN'en en een filmpje branden. Die kunnen met een ouwe kaart ook nog vooruit...

En nog es iets, ATi laat het wel toe om tussen twee verschillende kaarten crossfire te draaien maar in de praktijk is dat nutteloos omdat de ketting zo snel is als de zwakste schakel. De snelle kaart past zich aan aan de tragere waardoor je er geen moer mee opschiet...
Zo te zien een ideal stukje hardware voor de htpc. Alleen heb ik op een andere site gelezen (ik dacht bit-tech) dat deze kaart alleen naar oem systeem bouwers zou gaan. Wat dus erg jammer zou zijn voor htpc tweakers...


|:( me stupid.. lees er gewoon overheen in de post, plaatjes maken blind blijkt wel weer.
(Antwoord op Kopieermachine)

ATI en Nvidia hebben geen eigen fabs en hangen dus af van TSMC/UMC/Chartered/IBM (maak je keuze) om hun chips te produceren. Die hebben op dit moment wel al een 65nm process, maar dat is nog niet op punt gesteld voor massaproductie. In het begin is de prijs van een kleiner process ook zoveel hoger dan dat van de generatie ervoor dat het duurder is om de kleinere chip te produceren, zelfs al is hij een stuk kleiner.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*