Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 89 reacties

Nvidia heeft stilletjes zijn nieuwe GeForce 300M-serie mobiele gpu's geïntroduceerd. Gezien de specificaties lijkt het te gaan om een omnummering van eerdere modellen. De 300M-serie bestaat uit in totaal zeven modellen.

De snelste versies van de nieuwe serie, die overigens nog niet gebaseerd is op Nvidia's nieuwe 'Fermi'-architectuur, zijn de GeForce GTS 360M en de GTS350M. Deze hebben beide 96 cuda-shaders en kunnen het geheugen, met een maximale kloksnelheid van 2GHz, aanspreken via een 128bit-bus. Nvidia heeft niet bekendgemaakt wat voor type geheugen dit betreft. De twee nieuwe mobiele gpu's zijn tevens voorzien van hardwarematige versnelling van PhysX-instructies.

De gepubliceerde specificaties wijzen erop dat de GTS 360M en de GTS 350M eigenlijk hernoemde GTS 260M- en GTS 250M-gpu's zijn. Alleen is de opgegeven rekenkracht van de GTS 360M iets hoger dan bij de GTS 260M, waarschijnlijk ingegeven door een hogere kloksnelheid.

Ook twee van de drie nieuwe modellen in het 'Performance'-segment daaronder lijken afgeleiden van GeForce 200M-modellen. Zo beschikken de GT 330M en de GT 325M, net als de GT 240M en de GT 230M, over 48 shaders. Ook wordt het ddr3- of gddr3-geheugen bij alle vier de modellen via een 128bit-bus aangesproken. Voor de nieuwe modellen wordt een gpu-klok aangegeven van 1,2GHz.

Geheel nieuw is de GT 335M. Deze mobiele gpu bevat 72 shaders en kan overweg met dezelfde geheugenconfiguratie als de GT 330M en de GT 325M. Ook de GT335M draait op een kloksnelheid van 1,2GHz. Waarschijnlijk heeft Nvidia de nieuwe loot aan het Performance-segment toegevoegd voor meer spreiding. Voorheen werd het segment ingevuld door de twee GT 240M en de GT 230M.

De laatste twee 'nieuwkomers' zijn de 310M en de 305M. Deze hebben net als de G210M 16 shaders en hebben een kloksnelheid van 1,5GHz. Alle bovengenoemde modellen bieden ondersteuning voor DirectX 10.1.

ModelShadersGigaflopsGeheugensnelheidGeheugenbus
GTS 360M 96 413 2GHz 128bit
GTS 260M 96 396 2GHz 128bit
GTS 350M 96 360 2GHz 128bit
GTS 250M 96 360 2GHz 128bit
GT 335M 72 233 1066MHz (ddr3)/800MHz (gddr3) 128bit
GT 330M 48 182 1066MHz (ddr3)/800MHz (gddr3) 128bit
GT 240M 48 174 1066MHz (ddr3)/800MHz (gddr3) 128bit
GT 325M 48 142 1066MHz (ddr3)/800MHz (gddr3) 128bit
GT 230M 48 158 1066MHz (ddr3)/800MHz (gddr3) 128bit
310M 16 73 800MHz (ddr3)/800MHz (gddr3) 64bit
305M 16 55 700MHz (ddr3)/700MHz (gddr3) 64bit
G210M 16 72 500MHz (ddr2)/800MHz (ddr3/gddr3) 64bit

Nvidia heeft nog geen nieuwe mobiele gpu's voor het 'Enthousiast'-segment aangekondigd. De GTX 280M en GTX 260M blijven dus met respectievelijk 128 en 112 shaders en een 256bit-geheugenbus de snelste modellen in Nvidia's lineup van mobiele gpu's. Het is mogelijk dat Nvidia dit hoogste prestatiesegment invult met modellen gebaseerd op Nvidia's nieuwe Fermi-gpu-architectuur.

Nvidia GeForce 300M mobiele gpu

Reacties (89)

Reactiefilter:-189089+164+23+30
Moderatie-faq Wijzig weergave
Waarom valt de Tweakers community toch zo massaal over de (al 8 jaar bestaande) hernummer-praktijken van Nvidia? Het is gewoon een marketing-strategie om zo veel mogelijk uniformiteit te creëren in de naamgeving van hun line-up. Het heeft totaal niets te maken met het willens en wetens misleiden van de consument, dan zouden ze het écht niet zo transparant en opzichtig aanpakken.

Ze gaan binnenkort (althans, dat is de bedoeling) hun nieuwe Fermi introduceren en die gaan GTX360 enzovoorts heten. Omdat de mobiele lijn pas later aan de beurt komt, hernoemen ze een aantal mobiele GPU's vast zodat straks alle verkrijgbare NVIDIA-chips een xx3xx zijn.

Prima toch? De enigen die er over vallen namelijk, zijn jullie, de 'tweakers', mensen die er verstand van hebben. En daarmee ook degenen die überhaupt inzicht hebben, kennis van zaken en aankopen doen op basis van technische specificaties. De gemiddelde consument zal het een worst zijn of die dingen GT320, GT210 of XMZ512 heten. Als ze maar presteren.

[Reactie gewijzigd door musje83 op 2 januari 2010 00:44]

Ook de gewone consument zal er last van ondervinden, omdat het gewoon allemaal heel ondoorzichtig wordt. Met name doordat bijvoorbeeld de gehele GT3xx serie niet dezelfde features zal ondersteunen zoals b.v. Directx11 (Nvidia ondersteund nog maar net Directx 10.1), wat voor de gewone consument ook zeker interessant zal zijn.

Daarnaast komt dit rebanden gewoon voort uit het feit dat Nvidia op dit moment de concurrentie niet weet bij te houden en ook nog eens de laatste twee jaar ondeugdelijke produkten op de markt heeft gezet. Produktie fouten in complete series GPU's. Geen verantwoording daarvoor nemend, hiermee consument en oem partner in de koude laten staan. Terwijl reeds eind 2007 zij hiervan al op de hoogte waren gebracht door een oem partner (HP), maar tot Juni/Juli 2008 het probleem keihard ontkent hebben. HP heeft toen besloten hele series laptops te herzien en te voorzien van AMD/ATi vergelijkbare GPU's.

Nee, als Nvidia geen groot markt aandelen wil gaan verliezen dan zullen ze eens goed moeten reorganiseren en hun koppige arrogantie overboord moeten zetten en hun verantwoording nemen in plaats van de consument zo te bedonderen.

Gelukkig zijn er nog Tweakers zoals wij, die weten waar we het over hebben, waar veelal de mensen die geen kennis hebben van de materie bij ons komen vragen wat te kopen, zodat wij hun kunnen behoeden voor foute aankopen. Persoonlijk zal ik voorlopig geen Nvidia GPU's aan kennisen, vrienden of zakelijke relaties aanraden, tenzij het strikt noodzakelijk is (gelukkig bied AMD/ATi een zeer goed alternatief op practice alle fronten).

[Reactie gewijzigd door _Dune_ op 2 januari 2010 17:28]

De 'gewone' consument stapt de winkel in en vraagt om een kaart waar hij bepaalde spellen goed mee kan spelen. Welke technologie er achter zit boeit hem/haar niet eens,omdat ze zich daar helemaal niet in willen verdiepen en daar de tijd misschien niet eens voor hebben.

Je kunt er niet vanuit gaan dat iedereen die een pc bezit daar ook alles van weet. Veel mensen hebben wel zo'n ding(net als bv een auto) + een beetje basiskennis,maar voor de rest moet ie het gewoon doen.

Pas op het moment dat een apparaat niet meer voldoet aan de verwachtingen stappen ze naar iemand met meer kennis van zaken en laten ze zich vertellen wat ze zouden moeten veranderen. :)
Begrijp ik het nou goed dat ze sinds the 8000 serie (desktop en mobiel) niet met iets echt nieuws zijn gekomen. De 8800 GTS werd een beetje hoger geklokt en is dan een 9800, waarna het hernoemd wordt naar GT240 of GT250 als ik het me goed kan herinneren.

Nu doen ze met de mobiele chipsets precies hetzelfde. Op deze manier brengen ze het er wel makkelijk vanaf.

Uiteraard werkt het, want zodra je een nieuw cijfertje ziet, denk je "he, nieuw, dus beter" en dan blijkt het nog wel iets beter te zijn, maar wie goed kijkt heeft door dat er nog niet veel gebeurt...

Ik hoop dat ze dan ook eindelijk eens vorderingen maken met hun nieuwe technieken, anders kopen ze ver achter te liggen op de concurrentie en, ondanks dat ze het zo wel even uit kunnen houden, zal deze technologie op den duur hopeloos verouderd en achterhaald zijn.
Eerst was er de G80 chip, die op de markt kwam in de 8800GTX en 8800GTS (320 en 640). Dit was een 90nm chip.
Vervolgens kwam er de G92 chip op 65nm. G92 is qua architectuur grotendeels gelijk aan G80, maar dan op een kleiner procedee en wat kleine veranderingen. Deze kaart werd de 8800GT en de 8800GTS (512). Op het moment dat deze kaarten uitkwamen waren ze enorm populair en NVIDIA werd nog de hemel in geprezen. 8800GT was niet aan te slepen.
G92 werd later hernoemd en iets hoger geclockt als 9800GT en 9800GTX. Dit was het eerste geval van NVIDIA's hernoemingstrategie.
Vervolgens kwam NVIDIA met de G200 chip, die in tegenstelling tot G92 wel daadwerkelijk een flinke vernieuwing was ten opzichte van G80/G92. Het probleem was wel dat G200 te laat kwam en niet de gewenste clocksnelheden wist te halen. Combineer dit met de eerste echt goede AMD/ATI chip in jaren (RV770/HD4870), en rollen in de GPU wereld waren plots compleet omgedraaid. Daarnaast had NVIDIA problemen met mid-range chips gebaseerd op G200, waardoor G92 dienst moest blijven doen.
Vanaf dit moment ging het echt bergafwaarts. Er kwamen wel de G200b en G92b chips uit, die op 55nm ipv 65nm werden gebakken, maar behalve iets hogere clocks weer geen nieuws. Wel kwam er eerst een 9800GTX+, en werd deze later hernoemd naar GTS250. Verder is Fermi/G300/NV60/GF100/whatever (lastig om de codenamen uit elkaar te houden bij NVIDIA) nu al een aantal keer verder uitgesteld en blijft NVIDIA daar (mogelijk mede dankzij TSMC's 40nm problemen) problemen mee hebben.
Is er helemaal geen licht aan de horizon? Gelukkig wel, in de vorm van de G215, G216 en G218 chips van NVIDIA die afgelopen najaar op de markt kwamen. Deze 40nm chips worden gevonden in de GT210, GT220 en GT240 kaarten en zijn in tegenstelling tot alle andere kaarten van de laatste tijd eindelijk qua prijs en performance vergelijkbaar met wat AMD biedt. Er is dus sinds deze herfst zeker wel wat innovatie en nieuws te vinden bij NVIDIA, maar daarvoor is het een tijdje bijzonder magertjes geweest. Laten we hopen dat NVIDIA deze stijgende lijn doorzet, want we kunnen volgens mij goed wat meer competitie gebruiken. :)

[Reactie gewijzigd door Snoitkever op 1 januari 2010 19:32]

Deze laatste kaarten (GPU's) die jij noemt zijn deze nu eindelijk op een degelijke manier gefabirceerd en niet zoals de G84, G86 en G92 (zowel mobile als desktop) die door een produktiefout bij bosjes uitvallen?

Nvidia moet niet alleen eens met hun nieuwe produkten op de markt komen in plaats van oude technologie rebrandend, maar ook zich weer gaan bewijzen op het gebied van degelijkheid en vertrouwen opbouwen. Het is niet voor niets dat veel oem's met name Nvidia GPU hebben vervangen voor AMD/ATi GPU's.

[Reactie gewijzigd door _Dune_ op 2 januari 2010 11:57]

nVidia zal ophouden chipsets te maken (willen voor AMD geen maken en mogen het niet voor Intel), dus daar zal het ook we wat mee te maken hebben als ze geen nV-IGP meer gebruiken. Trouwens zijn de nVidia-chipsets vrij duur en waarschijnlijk niet dermate (of überhaupt?) beter dat zich dat loont.
Dat Nvidia ophoud met chipsets maken hebben ze vrijrecent aangekondigd, waar ik het over heb is reeds al anderhalf tot twee jaar gaande vanwege produktiefouten in de G84, G86 en G92 serie welke niet door Nvidia worden of zijn opgelost. Hiermee consumten en oem partners in de koude laten staan, met name de oem partners voor hoge vervangingskosten laten opdraaien, zonder dat Nvidia zijn verantwoording neemt, dit zijn de oem's nu wel zat.

Het is gewoon een feit dat Nvidia de laatste twee jaar er een puinhoop van maakt en gewoon geen interessante en bovendoen degelijke GPU op de markt heeft weten te zetten en daar worden ze nu voor gestraft.

[Reactie gewijzigd door _Dune_ op 2 januari 2010 11:53]

@Dune: Die productiefout was toch alleen bij mobiele GPUs? Op het einde van je reactie praat je over IGPs. Of zijn chipset en GPU bij de mobiele variant samen op 1 printplaat? Hoe dan ook, mijn zijn geen problemen met de IGPs bekend.
Inderdaad mijn fout het zijn voornamelijk de mobile GPU's i.p.v. IGPs (gecorrigeerd), maar ook de desktop varianten uit de 8800 serie blijken hetzelfde probleem te ondervinden, getuigen topics hier op het forum en commetaar van HP die reeds in 2008 al gegeven was.

[Reactie gewijzigd door _Dune_ op 2 januari 2010 12:24]

Het met bosjes valt best mee in de praktijk. Sowieso treedt het probleem vrijwel niet op in desktop kaarten vanwege een ander gebruikspatroon. Aan laptopkant is het wel een ander verhaal, en daar zijn door NVIDIA flinke fouten gemaakt. Het officiele verhaal is echter dat NVIDIA sinds augustus 2008 ander materiaal is gaan gebruiken. Of het waar is weet ik niet, maar het lijkt me toch sterk dat ze nu nog materialen gebruiken waarvan ze weten dat het problemen geeft, lijkt je niet?
Ik heb mij behoorlijk verdiept in deze materie, maar heb nergens een bevestiging kunnen krijgen dat Nvidia anderematerialen is gaan gebruiken, als dit wel het geval zou zijn dan blijven met name de mobile varianten niet keer op keer dood gaan (na vervanging). Het enige is dat Nvidia oem fabrikanten heeft geholpen met het aanpassen van BIOSen, zodat fan's eerder, meer en sneller gaan draaien om de tempereatuur constaner te houden. Dit brengt met zich mee dat fan's eerder slijten, meer geluid produceren en acculifecycle's worden verkrot, dir voor laptops.

Wat betreft de desktop varianten, dit topic spreekt boekdelen lijkt mij: Het doodgaan van G80GTX/Ultra kaarten Daarnaast had HP in 2008 ookal melding gemaakt van defecte 8800 serie kaarten door hetzelfde probleem als de mobile varianten.

[Reactie gewijzigd door _Dune_ op 2 januari 2010 02:08]

Ah, de bekende nVidia omnummerpraktijk.
Daar maken ze geen vrienden mee bij de tweakerscommunities
Denk niet dat nVidia daar echt wakker van ligt. Ze doen dit al jaren... Geforce 2mx --> 4 mx, Geforce 3 --> Ti200/TI500... en ondanks al het commentaar van tweakers blijven ze hun kaartjes goed verkopen.

Die omnummering is miss nog niet eens zo slecht zolang nVidia geen nieuwe modellen uitbrengt en deze chips op de markt blijft zetten, mits de naamgeving maar consequent is. Dit is voor de consument overzichtelijker dan dat je 9xxx, 1xx, 2xx en 3xx modellen tegelijkertijd op de markt hebt, waarbij je als consument (die geen benchmarks bekijkt) geen idee hebt hoe een oudere serie presteert tov een nieuwe.

Ik blijf me wel verbazen over het grote aantal varianten dat (zowel ATI als nVidia) tegenwoordig uit weten te brengen...Voorheen had je een goede kaart, een hele goede kaart en een iets minder goede kaart... nu wordt je helemaal gek van het aantal varianten. Moet je deze lijst nu eens zien van alleen nog maar mobiele varianten, welke bij voorbaat al stuk minder presteren dan desktop kaarten...
De consument die pc's koopt en dan heb ik het niet over tweakers heeft geen flauw benul van wat nou een goeie videokaart is en waar je op moet letten, laat staat dat ze nog maar iets snappen van de naamgeving. Vaak kijken ze naar het geheugen op de videokaart en denken ze hoe meer hoe beter.

Dus mij maakt het niet zo veel uit dat ze omnummeren, zo lang ik en de rest van de tweakers het maar kunnen volgen ;)
Het gaat er niet om wat de consument vind, die koopt iets met een GT2xx ook nog wel. Het gaat erom of de OEMs het pikken aangezien de consumenten zo wel een beetje voor de gek worden gehouden.
Denk je niet dat de consument liever een "1024 MB DX11" dan een "1024 MB DX 10.1" kaart wil hebben? Hoeveel nieuwe nummer nV zich ook in laat vallen, het DX11-probleem lossen ze daarmee niet op.

Ik denk trouwens wel dat veel consumenten op een gegeven moment wel hiervan lucht krijgen; velen kennen toch iemand die er iets meer van weet, en diegene leest sind een jaar (of nog langer) alleen maar van nieuwe nV-kaarten die helemaal niet nieuw zijn. En ook zo'n blamabele verhalen als een nVidia-chef die met een printplaat met koeler loopt te zwaaien en liegt dat hij de nieuwe kaart al heeft, zullen kwaad bloed zetten.
die weten niet dat DX 11 cool is
OEM's staan wat dat betreft toch aan de kant van NVidia? Die willen ook wel de consument voor de gek houden als dat verkoopt. Kunnen ze weer vermelden "met 1000GB geheugen en de nieuwste GT3xx-videokaart!" en dan denkt jan met de pet dat hij een nieuwe pc met een nieuwe videokaart koopt.
De Geforce 4mx was overigens net geen Geforce 2mx hoor. Er zat nog een dik verschil tussen gebruik SD-Ram en DDR geheugen in, en nieuwe techniek in de GF4 MX, soort gestripte Geforce 3 dus.
Dit is voor de consument overzichtelijker dan dat je 9xxx, 1xx, 2xx en 3xx modellen tegelijkertijd op de markt hebt, waarbij je als consument (die geen benchmarks bekijkt) geen idee hebt hoe een oudere serie presteert tov een nieuwe.
Daar heb je verkopers/kennisen/internet voor.
Als ik een nieuwe auto ga kopen zoek ik toch ook eerst een beetje rond hoe hij presteerd tegenover een andere? Ik vind dat "de consument is dom" zo een lulverhaal. Dat is wat Nvidia je inderdaad wilt laten geloven. Wat de echte reden is is dat ze geen goede yields krijgen op de nieuwe architectuur en dat ze daarom oude kaarten rebranden om niet uit de markt gedrukt te worden.
en andere communities ook niet.
OEM zal het ook wel zat zijn inmiddels

eerst de kapotte mobiele gpu's nu steeds rebrands.. en uitstellen van fermi...
gaat lekker daar

zowieso
had dan de gts 260m en 250m meteen als 3 serie gegeven
(dat is dus niet de g92 chip maar 40nm dx 10.1)

al blijft kaarten zonder dx11 in de 3 serie lijn.
een erg domme zet in mijn mening.
dat begon al met de gt 340? of 320 voor de desktop serie.


als de 3 serie dx11 was (net als de 8 serie dx 10)
was het tenminste duidelijk.

ongelofelijk stom irritant en verwarrend :S

[Reactie gewijzigd door freaq op 1 januari 2010 12:21]

Hetgeen ik nog het meest irritant vind, is dat een GT 240M sneller is dan een GT 325M. Dat is voor mijn gevoel niet logisch. Het is altijd vervelend als in een nieuwere serie hogere nummers worden gebruikt voor kaarten die trager zijn dan oudere kaarten met lagere nummers.

Het lijkt er bijna op dat het een <generatie><snelheid> aanduiding is:

240M vs. 325M zou betekenen dat het een kaart uit "generatie 2" met "snelheid 40" is tegenover een kaart uit "generatie 3" met "snelheid 25"; de eerste is ouder, maar wel nog steeds sneller. Het lijkt er echter op dat dit niet consequent zo is. Als dat wel zo was, dan had de 330M namelijk trager moeten zijn dan de 240M, en dat is niet zo.

[Reactie gewijzigd door Katsunami op 1 januari 2010 21:13]

Het halo effect treed in werking.

Zodra de Fermi/G300 uitkomt, en inderdaad kan waarmaken waar hij op papier toe in staat is, zal deze de kopposities op alle benchmarken veroveren. Er zal gigantisch veel nieuws uitkomen dat de GTX375 (380/385/395 zullen later komen) de snelste kaart is.

Op dat moment is de gemiddelde consument overtuigt dat ze die kaart willen, maar komt er dan achter dat hij buiten hun portemonnee bereik ligt. Geen probleem denken ze dan, die GTS350M heeft dezelfde 300 nummering, dus zal vast net zo snel zijn.

En weer is er een consument ingetrapt.
Tja gaan ze weer bij nvidia. Zakkenvullerij door oude gpu's (die zelfs nog gebaseerd zijn om de 8X00-serie) weer om te nummeren.

Laat ze maar eens opschieten met de Fermi.

Ati heeft tenminste het lef om met een "oude" architectuur te komen, maar de performance is wel veel beter. De 5x00-serie is voortborduren op de 4x00-serie.
Met dat verschil dat de 5x00 serie in performance een vooruitgang is.

Laat nVidia dat maar eens na gaan doen.
Ati heeft tenminste het lef om met een "oude" architectuur te komen, maar de performance is wel veel beter. De 5x00-serie is voortborduren op de 4x00-serie.
Met dat verschil dat de 5x00 serie in performance een vooruitgang is.
Niet te vergeten, de 5x00 zijn ook nog eens super zuinig in idle.
En de 5000 serie dx11 ipv 10.1 doet, ook geen klein detail.
De 5xxx serie is wel nieuw ontwikkeld. Het design baseert op de laatste serie, maar dat doet iedereen (Core i7 stamt van de Pentium Pro af, alle 3dfx.chips van de oorspronkelijke Voodoo 1).

Support voor DX11, verbeterde anisotropische filters (hoekonafhankelijk), 40 nm-productie en veel meer hardware-eenheden vind ik een flinke sloot vernieuwingen in iets meer dan een jaar tijd.
Jammer, de nieuwe Sony Vaio FWs met i3/5/7 cpu's worden dus op het vlak van de gpu met verouderde technologie voorzien :O (o.a. de GT 330M wordt gebruikt)..

[Reactie gewijzigd door FezzFest op 1 januari 2010 11:59]

Dikke vette pech voor Sony als ze nu met Nvidea gaan lopen stoeien. Nieuwe CPU's met stok oude GPU's .

Mijn VAIO FW 41M maakt gebuikt van de ATI 4650. De reden was voor mijn aanschaf van een Sony was vooral om die mooie ATI. Lekker snel voor een laptop. DX11 compatibele, dus ik kan nog even vooruit met mijn ATI/SONY combinatie.
hohoho de gts 260m is nog niet erg oud. (niet gtx dat is de g92)
en is weldegelijk sneller dan de meeste van ati
dus stokoud zijn ze zeker niet, en ze performen ook best goed.

alleen idioot dat ze weer gaan rebranden...
en geen dx11 hebben terwijl ati dat over 6 dagen wel heeft.
(mobiele 5650 bijvoorbeeld)

echter de dx11 kaart van ati is niet veel sneller dan de gts 260m
dus stokoud nee. stom ja.
Maar dat die 128bit geheugenbus was wist ik ook niet en dat is toch wel een killer voor de performance als je er ddr3 op plakt. Met de lagere modellen is het helemaal erg, 1066mhz op zo'n kaart is gewoon beschamend.
De verwachting is dat Sony gewoon weer een ATI neemt. Dat hebben veel notebooks op dit moment. Daarbij kunnen ze kosten besparen, want de Mobility Radeon HD 5000-serie is pin-compatible met de huidige serie.
De ATi HD4650 is niet DX11 compatible. Dat zijn alleen de kaarten uit de HD5xxx-series.

On-topic: De strategie die NVIDIA hanteert is gewoon winstgevend. Het maakt een bedrijf geen bal uit of ze mensen aan het lijntje houden of niet; een bedrijf bestaat om geld te verdienen.
Ik persoonlijk vind het een stijlloos begin van 2010, dat nVidia gewoon weer gaat omnummeren. Je zou toch wel mogen verwachten dat ze hun lesje ooit eens leren?

En dat de high-end mobile variant op de Fermi-architectuur gebaseerd wordt, wil ik nog wel eens zien gebeuren ;) Kan best zijn dat ze daar een andere naam aan geven, en dat ze de 260M en de 280M gewoon weer omnummeren tot 360M en 380M.
Mischien wordt Fermi wel gewoon 410, GT430, GT440, GTS450, GTS460, GTX4.. enzovoorts.
Maar, Slecht Nieuws: NVIDIA Fermi nog steeds problemen hebben volgens meerdere bronnen:

http://translate.googleus...msLJWZVBE5r7ZO_-hk6WIREWA

Kijk maar. Jammer...... :/
Dus vandaar die omnummering: Als ze niet echt nieuwe producten kunnen brengen, dan maar de illusie scheppen dat er nieuwe producten zijn.

Het is waarlijk wonderbaarlijk dat nvidia nog zo'n groot marktaandeel heeft.

[Reactie gewijzigd door Thomas M op 1 januari 2010 12:57]

Veel oude kaarten waarschijnlijk. Niet iedereen koopt een nieuwe videokaart "omdat er een betere is", vermoed ik.
poeh die vertaling is nog moeilijker lezen dan de engelse variant
maar thanks voor de link
daar dacht ik ook meteen aan toen ik dit artikel las, ze hebben de 300 serie al weer bijna helemaal vol gemaakt....

ze mogen van mij wel opschieten met fermie, mn 8800 is echt aan vervanging toe...
dan neem je toch gewoon een 5870 ?
lol, dan NOEM je je kaart toch ff anders... is volgens NVIDIA meteen wat beters/nieuwer/anders ......
Dat omnummeren is niet eens handig. Eerst was aan te nemen dat elke GT300 een Fermi-core werd die DirectX11 ging ondersteunen, maar nu Nvidia ook nog andere chips gaat toevoegen die 'nog maar' DirectX10.1 ondersteunen (jep, die ene die ze uit Assassin's Creed gesloopt hebben), kan je dat regeltje ook wel vergeten. :(

Wat is sowieso het nut van dat hernamen? :(
Dit zijn andere kaarten. Nu er betere batches gehaald worden kunnen ze hoger klokken, dus deze kaarten zijn sneller dan de oude varianten. Had je liever gewild dat er 2 kaarten met dezelfde naam op de markt kwamen maar met een verschillende kloksnelheid? Dát zou pas niet handig zijn.
gts 255m
gts 265m

?

net als de gtx 280 en 285

of bedoel je zoals de gtx 260
toen de iets snellere 55nm
en toen de versie met 216 cores..
dus...

dit is in iedergeval ook geen goede oplossing.
ps de sneheidsboost is minimaal om het te kunnen justificeren.
anders waren ze gewoon even snel en met een lager verbruikt.

[Reactie gewijzigd door freaq op 1 januari 2010 13:24]

Nou had de GTX285 ook een vernieuwde core t.o.v. de GTX280 dus dat voorbeeld klopt dan weer niet :P

Maar je hebt inderdaad gelijk dat het veranderen van de kloksnelheden echt niet genoeg zou moeten zijn om het een nieuwe kaart te noemen. Kloksnelheden omhoog schroeven komt weinig R&D bij kijken, dat kan ik in drie seconden ook... even een instellinkje omhoog klikken en daar is je nieuwe kaart :S Ik zou voor 'iets nieuws' toch op zijn minst een optimalisatie verwachten, bijvoorbeeld een die-shrink of verbeterde core.
Doordat Nvidia een totaal ander GPU ontwerp heeft gemaakt hebben ze veel meer dan normaal te maken met " kinderziektes". Eer ze door de 1e fase van problemsolving heen zijn hebben ze nog meer achterstand op ATI en verliezen ze steeds meer marktaandeel aan ATI dat nu (zij het mondjesmaat) de 5000 reeks op de wereld kan los laten en de oem bouwers een performances kaart hebben om te bouwen zien de investeringsmaatschappijen (aandeelhouders) er minder brood in om geld in Nvidia te pompen..

Dit kan ze wel eens een enorme hoop geld kosten. Geld dat ze broodnodig hebben voor R & D..

Ik zit te wachten dat Intel Nvdia opvreet.. Als dat gebuert krijgt Intel een enorme hoeveelheid technologie in handen. En dan kan het voor AMD/ATI erg heet onder de voeten worden....

Alleen is het niet goed voor de consument. Er komen steeds minder technologiebedrijven op de markt die kunnen concurreren met de groot machten...Ik wacht met spanning af.

Je koopt nu wel voor een leuk bedrag een top kaart.. Pas een GTX 275 XXX van XFX gekocht voor 175 euro. ;)
Vergeet niet dat AMD/ATi met de eerst HD reeks de HD2000 serie, de gehele GPU structuur/ontworp al overhoop gegooid heeft. De HD2000 serie had ook een trage start, maar AMD/ATi heeft niet de vreemde handelswijze aangenomen die Nvidia er nu op nahoud, rebranden van oude technologie en hardware problemen oplossen in de bestaande GPU's.

[Reactie gewijzigd door _Dune_ op 2 januari 2010 11:57]

De HD2000 serie had ook een trage start, maar AMD/ATi heeft niet de vreemde handelswijze aangenomen die Nvidia er nu op nahoud, rebranden van oude technologie en hardware problemen oplossen in de bestaande GPU's/IGP's.
Probleem van NVIDIA is dat ze weinig opties hebben. G92 was al een noodoplossing, G200 was een flinke tegenvaller, G200 gebaseerde mid-range chips ondervonden keer op keer problemen (we hebben pas G21X chips sinds dit najaar), en G300 laat nu (door onder andere de TSMC problemen) op zich laten wachten. Nu wil ik niet de rebranding strategie goedpraten, maar er zijn ook weinig alternatieven aanwezig.
Ze kiezen dus voor een alternatief waarmee ze de consumenten bedonderen, want meer is het niet. :/

[Reactie gewijzigd door _Dune_ op 2 januari 2010 02:04]

Zwanezang .... of overlevings strategie ?

In deze wereld waar je minstents om de 3 maanden met een nieuwe serie chips moet uitkomen om nog serieus genomen te worden.door je aandeel houders en de consument.

Je kan zeggen dat nVidia de boel flest, wij tweakers en de meeste techies trappen daar niet in. Maar bedenk je dat het gros van de consumenten dat gewoon weg niet zien, voor hen is een nieuwe nVidia chip ook echt een ontwikkeling want nieuwe type aanduiding dan moet weer beter zijn dan de voorgaande serie.

Dat klopt ook natuurlijk wel enigszins, ja de kloksnelheid en de prestatie gaat iets omhoog.
Een echt nieuw revolutionair product heeft nVidia sinds de GTX280 niet meer op de wereld gezet. En daarbij heeft de concurentie bepaald niet stilgezeten. Dus we moeten maar zien hoe het nVidia vergaat dit jaar.

Een beetje van beide zou ik zeggen, om te overleven tussen de GTX280 en Fermi alles omnummeren en opkrikken maar ook zwanezang omdat deze strategie slechts pleister is op een gapende wonde.
Als je het over de gwone consument heeft, dan weet die niet eens dat er Nvidia en ATI bestaan, ze weten alleen dat een pc een monitor heeft en dat daar beeld op verschijnt.
Het hele omnummeren e.d. daar hebben ze dus al helemaal geen weet van.
Nou zeg, nu onderschat je de medemens wel heel erg, alsof het allemaal holbewoners zijn.
De gemiddelde computergebruik weet absoluut niks van computers. Let maar eens op.
idd, als ik eens een keer langskom bij een vriend die bij de MM werkt geloof ik soms mijn oren niet bij de vragen die mensen stellen (de slimste vond ik nog wel een jochie van 12 over een spel: "meneer waar kan ik deze downloaden?") 8)7 ik bedoel hoe fucking moeilijk kan het nou zijn. Als ik wil gaan surfen in de zee dan verdiep ik me toch ook in de verschillende soorten surfplanken en golven. Of als ik naar een film ga wil ik toch ook eerst weten wat voor genre het is voordat ik een keuze maak.

[Reactie gewijzigd door tehsojiro op 2 januari 2010 01:11]

Misschien kan iemand een linkje geven naar een nvidia 'was wordt' lijst? Ik zelf ben de draad weer helemaal kwijt. Je moet als goede computersamensteller er elke drie jaar weer opnieuw induiken.

Gelukkig is een dvd brander gewoon een bluray geworden en verder geen fratsen. Maar kijk maar naar de nieuwe namen van de intel kernen. Je moet voor je aankopen weer bergen benchmarks door. zucht... Of oh nee ik ben een tweaker en smul ervan. Dat doen we toch allemaal!

En de luie mens volgt gewoon de best buy guide. Bedankt T.net! En Nvidia:whats in a name..
als je zo'n lijstje wilt omdat je een nieuwe pc gaat samenstellen, zou ik zeggen; geen nVidia nemen. Op dit moment is daar gewoon geen enkele reden toe.

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True