Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties
Submitter: altaria1993

BFG Technologies stopt met de verkoop van videokaarten, zo heeft het bedrijf meegedeeld. Het bedrijf stapte acht jaar geleden in deze markt, maar volgens BFG is de verkoop van grafische kaarten inmiddels niet rendabel meer.

BFG is een Amerikaans bedrijf dat vooral bekendstaat om de verkoop van Nvidia-kaarten. Hiermee stopt het nu echter, zo laat BFG bij monde van voorzitter John Slevin weten. Na acht jaar zou het bedrijf geen winst meer kunnen maken met grafische kaarten. Eerder verschenen berichten dat diverse Nvidia-partners in moeilijkheden waren beland door de late komst van de GTX 470 en GTX 480, en de beperkte beschikbaarheid van de high-end GeForce-kaarten van de generatie daarvoor. Onduidelijk is in hoeverre deze ontwikkeling aan het besluit van BFG heeft bijgedragen.

De Amerikaanse onderneming blijft nog wel psu's verkopen en zal zich ook op de levering van Deimos-gaming-notebooks en Phobos-gamesystemen blijven richten. Bovendien blijft het bedrijf ondersteuning bieden voor bezitters van BFG-kaarten die daarvoor in aanmerking komen.

Moderatie-faq Wijzig weergave

Reacties (49)

Krijg veelal de indruk dat nVidia het de laatste tijd moeilijk heeft iets fatsoenlijks te maken?

Vergeleken met ATI in testen, eten de nVidia's meer stroom per performance, zijn behoorlijk duurder en presteren ook vaak nog maar net aan.

Iemand hier meer zicht in ?
Voor de laatste generatie heeft nVidia eigenlijk gewoon te veel hooi op de vork genomen.

Biljoenen transistors (dus een gigantische chip, dus al gauw yield problemen), allerlei GPGPU snufjes en ook DX11 met nieuwe tesselator... En dat alles op een nieuw en wankel proces. TSMC's 40 nm bleek inderdaad vrij slecht, zo slecht dat ze hun initiele specs niet konden halen. Vervolgens moesten er een paar extra revisies worden gemaakt voordat al de specs en yields acceptabel waren waardoor de chip laat werd uitgebracht.

Het ging dus allemaal niet zoals ze hoopten, de risico's bleken te groot. Ze hadden net als ATI voor de "sweet spot" tactiek kunnen gaan en dus niet zo'n lompe chip maken, maar het kan zijn dat ze al aan een grote chip vastzaten voordat ze doorhadden dat de tactiek werkt, aangezien het ontwerp proces wel een aantal jaar duurt. ATI had ook net alle zeilen bij moeten stellen - de HD5xxx was eerst ook als monsterchip bedoeld.

Maar goed, het nare is dus dat ze hiermee niet alleen zichzelf, maar ook hun partners hebben. Met andere woorden - zij bepalen hoe risicovol de situatie van hun partners wordt. Daar hadden ze best wat oog voor kunnen hebben, het resultaat staat in het artikel... Ik vraag me wel af waarom BFG niet ook gewoon voor ATI was gegaan, die deden al die tijd goede zaken.

nVidia zelf komt er overigens wel weer boven op. Doordat ze er extra tijd in hebben gestoken is de GTX4xx serie uiteindelijk lang zo slecht niet geworden, en heeft zeker z'n goede kanten, zoals tesselation. Daarnaast hebben ze nog genoeg andere inkomstenbronnen.

En daarnaast, zoals je wel vaker merkt leren bedrijven enorm van hun fouten. Sommigen zeggen zelfs dat de beslissingen rond Fermi er zijn doordat ze een eerdere fout niet herhaald wilden zien (NV30) - dat ze dus een beetje waren doorgeschoten in het "leren". Ik neem aan dat nVidia in de toekomst ietwat voorzichtiger gaat zijn, zeker bij nieuwe processen, en misschien ook net als ATI (met de HD4770) nieuwe processen gaat uitproberen voordat ze een hele nieuwe serie ermee laten fabriceren.

[Reactie gewijzigd door E.Ross op 19 mei 2010 14:28]

Zeer interessant artikel als je meer informatie wilt over de aanpak van Ati en Nvidia omtrent hun laatste generatie van grafische kaarten. Op een gemakkelijke manier uitgelegd (Vooral van AMD-Ati kant.):
http://www.anandtech.com/show/2937/1

Staan ook interessante weetjes in over de functies die het niet gehaald hebben in de HD5xxx reeks en dergelijke.
Er is nog een probleem dat meespeelt op de GPU markt. Wanneer is de performance genoeg?

Kijk naar Intel. De CPU's zijn tegenwoordig zodanig overkill, dat je gerust met een 2 Core CPU 95% van de taken, kan uitvoeren binnen de second bij wijze van spreken.

Hetzelfde probleem zit je bij de GPU markt. Ik heb een "oude" GTX260. Niet echt recent meer te noemen. Maar dat ding draait alles wat je ertegen smijt, tegen 1900*1200, met zowat alles op full details.

Zoiets heeft ook een enorme invloed op de PC GPU markt. De noodzaak tegenover vroeger, om de upgraden is veel minder. Het zwaarste game is Crysis deze dagen. Wat moet men nog op de markt brengen, dat de GPU op zijn knien krijgt, en mensen dwingt te upgraden beyond een GTX260? ( Ed: Ik spreek wel niet over slecht geprogrammeerde games, welke een GPU op de knien krijgen. ).

Je merkt dat Nvidia met de "tesselator", een andere richting wilt opgaan met de markt. Maar iedere gamer dat de laatste 10 jaar of meer, de evolutie meegemaakt heeft, weet dat je nooit eerste generatie nieuwe hardware mag kopen. Men komt uit met DX10 kaarten? Je wacht tot ze aan DX11 zitten. Want dan zijn er games op de markt, dat tenminste de DX10 features gebruiken.

Nvidia begint met de "tesselator", awel, je wacht tot de volgende generatie, want dan pas ga je games zien dat die feature gebruiken.

En je moet je ook de vraag stellen, hoeveel dragen die features bij. Soms is het verschil tussen de "speciaaltjes" zoals physics dat invloed heeft op iets, weinig nut tot puur window dressing.

Het probleem dat Nvidia meemaakt, is men wilt de grote vernieuwer zijn, maar de features dat ze nu in hun monster GPU zetten, zullen pas invloed hebben binnen x aantal jaar, als de games uitkomen. En tegen dan ben je 1 of 2 refresh releases, en 1 major gpu release verder.

Persoonlijk vind ik de aanpak van ATI ook veel beter. Het is minder radicaal, maar kwa snelheid ligt de kaart niet ver weg van de Nvidia monster Gpu, met veel lagere warmte ontwikkeling, goede idle stroom verbruik, enz...

De tijden dat je monster kaarten in je PC stopt, dat energie blijven zuipen, terwijl men je kamer opwarmt zijn ook gedaan. En volgens mij heeft Nvidia dat niet door. Men denkt nog te veel aan "we moeten de snelste hebben". En dat het een monster is, dat energie zuipt, warmte produceert om een ei op te bakken, en enorm slecht te produceren is wegens de grote met lage yields to gevolg... Mja... Bijzaak. De markt is veranderd, maar Nvidia is niet veranderd op hun GPU gebied.

Wat best wel grappig is, zeker aangezien hun andere divisie, wel in staat is om te focussen op performance / power ( Tegra, Tegra 2, Ion, Ion2 ).

Ik vrees dat men vast zat met het design dat een paar jaar geleden begonnen was ( te veel geld & tijd ingestopt ), en dat men liever door pusht, dan nog zaken te veranderen. En vandaag zijn de gevolgen er.

Tja... Iedere firma maakt wel eens fouten. We zullen zien hoe de geschiedenis deze GPU zal beoordelen.
Er is nog een probleem dat meespeelt op de GPU markt. Wanneer is de performance genoeg?
Nooit
Kijk naar Intel. De CPU's zijn tegenwoordig zodanig overkill, dat je gerust met een 2 Core CPU 95% van de taken, kan uitvoeren binnen de second bij wijze van spreken.
Daarom ontwikkelt men steeds verder door op het schrijven van multi-threaded applicaties. Meerdere games zijn al multithreaded en die houden van elke extra core die ze kunnen gebruiken. Voorbeelden zijn Crysis, GTA IV
Hetzelfde probleem zit je bij de GPU markt. Ik heb een "oude" GTX260. Niet echt recent meer te noemen. Maar dat ding draait alles wat je ertegen smijt, tegen 1900*1200, met zowat alles op full details.
Dat betwijfel ik en dat ligt er ook maar net aan wat je speelt. Zoals je zelf al aanhaalt draait een "oude" Core 2 Duo ook nog alles perfect, en dat ding is ook maar 1 generatie oud. Waarom zou dit voor GPU's niet gelden?
Zoiets heeft ook een enorme invloed op de PC GPU markt. De noodzaak tegenover vroeger, om de upgraden is veel minder. Het zwaarste game is Crysis deze dagen. Wat moet men nog op de markt brengen, dat de GPU op zijn knien krijgt, en mensen dwingt te upgraden beyond een GTX260? ( Ed: Ik spreek wel niet over slecht geprogrammeerde games, welke een GPU op de knien krijgen. ).
Crysis (1, Warhead, 2), Stalker: Clear Sky, Metro 2033 (al draait die heel wat gemakkelijker zonder DX11 enabled opties, maar daar speel je het eigenlijk wel voor.) en verder valt het wel mee. Niemand die jou dwingt van je GTX260 af te stappen.
Je merkt dat Nvidia met de "tesselator", een andere richting wilt opgaan met de markt. Maar iedere gamer dat de laatste 10 jaar of meer, de evolutie meegemaakt heeft, weet dat je nooit eerste generatie nieuwe hardware mag kopen. Men komt uit met DX10 kaarten? Je wacht tot ze aan DX11 zitten. Want dan zijn er games op de markt, dat tenminste de DX10 features gebruiken.
ATI beschikt al over de tesselation techniek sinds de RV6xx die in de HD3xxx serie te vinden was. Dat de vraag naar de technologie er nog niet was zorgde ervoor dat ATI de ontwikkelingen op een lager pitje zetten, maar het was voor hun wel makkelijker om dit te implementeren in hun RV8xx die we terugvinden in de HD5xxx serie. AMD heeft meer tesselation units, en ze willen deze in gaan schakelen mbv een firmware update wanneer de vraag ernaar toeneemt, kort samengevat. Voor nVidia was de technologie nieuw en dus moeilijker om te verwerken.
Nvidia begint met de "tesselator", awel, je wacht tot de volgende generatie, want dan pas ga je games zien dat die feature gebruiken.

En je moet je ook de vraag stellen, hoeveel dragen die features bij. Soms is het verschil tussen de "speciaaltjes" zoals physics dat invloed heeft op iets, weinig nut tot puur window dressing.
En je bepaalt dus zelf of je het de extra's waard vind.
Het probleem dat Nvidia meemaakt, is men wilt de grote vernieuwer zijn, maar de features dat ze nu in hun monster GPU zetten, zullen pas invloed hebben binnen x aantal jaar, als de games uitkomen. En tegen dan ben je 1 of 2 refresh releases, en 1 major gpu release verder.
Dus dat zouden ze met opzet doen om te zorgen dat ze in de problemen komen? ATI / AMD had al een DX11 serie uitgebracht en nVidia wil haar marktaandeel natuurlijk niet verliezen, waardoor ze wel met dit monster moesten komen. En daarnaast, nVidia is de afgelopen jaren na de GF8800 niet echt een grote vernieuwer gebleken imo.
Persoonlijk vind ik de aanpak van ATI ook veel beter. Het is minder radicaal, maar kwa snelheid ligt de kaart niet ver weg van de Nvidia monster Gpu, met veel lagere warmte ontwikkeling, goede idle stroom verbruik, enz...
Klopt ;)
De tijden dat je monster kaarten in je PC stopt, dat energie blijven zuipen, terwijl men je kamer opwarmt zijn ook gedaan. En volgens mij heeft Nvidia dat niet door. Men denkt nog te veel aan "we moeten de snelste hebben". En dat het een monster is, dat energie zuipt, warmte produceert om een ei op te bakken, en enorm slecht te produceren is wegens de grote met lage yields to gevolg... Mja... Bijzaak. De markt is veranderd, maar Nvidia is niet veranderd op hun GPU gebied.
Personal opinion of heb je hiervoor nog enige ondebouwing? De monster kaarten zullen altijd blijven en zullen ook altijd rond eenzelfde TDP blijven zitten, dat zien we al jaren. En pas als de ontwikkeling van grafeen in transistors goed door gaat komen, zullen we een verlaging van energieconsumptie gaan zien die er ook echt toe doet.
Wat best wel grappig is, zeker aangezien hun andere divisie, wel in staat is om te focussen op performance / power ( Tegra, Tegra 2, Ion, Ion2 ).

Ik vrees dat men vast zat met het design dat een paar jaar geleden begonnen was ( te veel geld & tijd ingestopt ), en dat men liever door pusht, dan nog zaken te veranderen. En vandaag zijn de gevolgen er.

Tja... Iedere firma maakt wel eens fouten. We zullen zien hoe de geschiedenis deze GPU zal beoordelen.

[Reactie gewijzigd door Fid3lity op 19 mei 2010 15:58]

Iedereen heef thet altijd over GTA IV en dat die het beter doet op quads, terwijl ik dat bijv. best vind tegenvallen. Mijn E8400@4Ghz draaide naar mijn smaak GTA IV perfect op 1920x1200 met alles redelijk high en viewdistance op 100 , ja dat kan ook met 1Gb kaartjes
, twee maal een HD4850. Wel had ik een "performance" tweak toegepast die ik ergens gevonden heb; die de performance idd verbeterde en waar ik visueel geen verschil meee zag. iig, de FPS zat met de E8400 met die benchmark zo rond de 44/45 dacht ik en toen ik het spulletje omgebouwd had naar core i7 920@3.6Ghz bleef de teller rond de 48FPS steken. Het enige waar ik in beide gevallen echt "last" van had, is dat er, doordat ik meer geheugen gebruikte dan er op mijn kaartjes zat (1.3**) er soms "geen textures" in beeld waren, of maar half. Spel draaide gewoon door, die "blackouts" waren gelukkig kortstondig dus ik kwam ermee weg. 2GB videoram is voor GTA IV wel nodig, als je alles hoog zet.
Dus nee, ik vind niet dat GTA IV perse een quad nodig heeft, of dat die daardoor zoveel beter presteert. Het voelde niks beter als met mijn ouwe trouwe E8400.

Wat de videokaarten markt aangaat. Volgens mij krimpt die markt zowiezo, hoor steeds van meer mensen dat ze liever gaan gamen, of al gamen op een console. Geen gedoe, spel erin, draaien maar. Daar maakt de pc-markt ook denk ik een fout, door maar te denken dat het het goed is dat er constant nieuwere, snellere produkten op de markt worden gezet. Driver updates, maandelijks als je wil of misschien wel meer, ja, sommigen vinden dat niet erg maar de "casual gamer" die niet veel met pc's heeft, zal het een worst wezen. Die wil gewoon spelen. Tja, loop je dan regelmatig tegen teleurstelligen en problemen aan, haak je vanzelf af.

Wat ook meespeelt is dat steeds meer spellen , eerst op de console uitkomen. Wie dus weinig geduld heeft, stapt al snel over naar de console en gaat niet op een eventuele port zitten wachten.

En zo zijn er nog wel een x-aantal faktoren, die ik zo snel niet ff kan bedenken.
Crysis is echt niet de zwaarste game. Althans niet in mijn ervaring. Waar ik Crysis kan maxen op mijn E8400/HD4870512 met 30fps, is Battlefield: Bad Company 2 nauwelijks beter dan een diavoorstelling.
Crysis is, hoewel het af en toe irritant traag is, nog speelbaar bij mij, maar BFBC2 is dat zelfs niet.
Huh? Sinds wanneer is BFBC2 een zwaar spel?

Ik heb me juist al een paar keer redelijk negatief uitgelaten over de grafische kwaliteit van het spel: Niet zo heel erg mooi eigenlijk. Of anders, het geheel schreeuwd "port". Leuk beeld voor consoles, maar ik heb t idee dat m'n PC wel wat beter kon gaan laten zien. De performance is dus net als het hier eerder genoemde GTA4 gewoonweg zwaar door redelijk matige code.

Wel wat kwalijk dat een / twee generatie oude hardware iets niet meer gemaxed kan weergeven aan de andere kant ook weer niet zo heel erg, als je kijk naar wat de leeftijd is: Een E8400 met 4870 komt ook alweer uit 2008...

Nvidia's 2008 spul was daarnaast nog best goed, maar dat was vooral door doordat ze een klapper maakte G80 / G92's. Hadden ze maar eerder aan de opvolger moeten sleutelen, ipv eerst nog eens shrinken en her-releasen onder een andere naam.
Daar ben ik uit de boot gestapt. Anders had ik best een 5870 van BFG willen kopen, maar een GTX470, neeh, bedankt.
En daar schuilt ook ene probleem. Juist door de drang van sommigen dat het allemaal steeds mooier, strakker, gedetailleerder en op nog hogere res moet komen, doet veel andere mensen juist weer afhaken. Die willen helemaal geen onzekerheid, dat ze dat spel wat binnenkort komt, misschien niet kunnnen draaien om dat hun grafische kaart voor hun gevoel "alweer" te traag is. Die hebben we pas 1 1/2 jr, 1 jr geleden gekocht.

Die mensen haken af, zitten helemaal niet te wachten op 2 a 3 jr een dikke upgrade.; met steeds weer grotee stroomvreters in huis, die meer herrie maken of waar je flink in miet investeren om het stil te krijgen. Wij vinden het prachtig , maar ik denk ook dat een veel grotere groep is die er niets mee heeft.

Voor ons zou het wellicht een ramp zijn, maar ik denk echt dat voor het grote publiek aantrekkelijker word om een pc als spelletjesmachine te gebruiken, als ze weten dat ze er minimaal zo'n drie jaar tegenaan kunnen, zonder verrassingen zoals "cri(y)sis".
Uniformiteit, weg met "Nvidia code paths en ati code paths", weg met spellen die alleen op dat ene merk goed draaien. Wat dat aangaat, is een port, een goede port dan, misschien zo slecht nog niet. Alleen jammer dat je er als pc-gebruiker vaak langer op mag wachten.

Maarja, ik besef ook wel dat ik me hier in "het hol van de leeuw" bevind :o
BFG stopt er waarschijnlijk ook mee omdat nVidia gedurende een lange tijd bijna niet verkocht werd (GTX285, etc.) en het veel te lang duurde voordat ze weer met een nieuwe serie kwamen. Dit is niet goed voor de winstgevendheid van BFG.

Ook denk ik dat de moordende concurrentie van een groot aantal merken de cijfers drukte.
Dat laat natuurlijk zien hoe dom het voor een dergelijk bedrijf is om op n paard te wedden.

Wanneer ze k AMD verkocht hadden, dan was het niet zo'n probleem geweest dat nVidia de afgelopen tijd nogal mager presteert... Want al die consumenten die geen nVidia kochten, kochten wl AMD.
Zolang iedereen referentieborden gebruikt en de GPU iets overklokt is het verschil tussen de verschillende "bouwers" nihil.
waar bfg zich door onderscheidde was doet hun een de garantie erg goed hadden geregeld, en de producten vaak in mooie verpakking met kleine extra's kwamen ( niet zoals bijvoorbeeld een sapphire waar je alleen de videokaart krijgt met een drivercd'tje en wat kleine prulkabeltjes )

n keer een 8800 gts van BFG gehad en was daar zeer tevreden over, jammer dat steeds meer bedrijven stoppen met de verkoop van nvidia producten. geeft toch wel aan dat er iets niet goed gaat binnen de deuren van nvidia....
( niet zoals bijvoorbeeld een sapphire waar je alleen de videokaart krijgt met een drivercd'tje en wat kleine prulkabeltjes)
En dat zie je dan meteen terug in de prijs.
Sapphire biedt vaak hetzelfde product voor een lagere prijs door het niet mee verstrekken van (soms nutteloze) kleine extra's en het leveren in een goede standaard verpakking.

Je denkt toch niet dat bedrijven die extra dingetjes gratis weggeven?
Of ze zijn gesponsert door de maker van de kleine extra's, of ze worden gewoon doorberekend aan de klant.
jammer dat steeds meer bedrijven stoppen met de verkoop van nvidia producten. geeft toch wel aan dat er iets niet goed gaat binnen de deuren van nvidia....
Ze doen het financieel juist erg goed, alleen de technologische ontwikkeling heeft een vertraging opgelopen.
Ik moet zeggen dat Sapphire zich de laatste jaren juist enorm aan het onderscheiden is geweest. Neem alleen al de Vapor-X and Toxic versies die ze uitbrengen. Daarnaast verschijnt na verloop van tijd ook een standaard versie met een alternatieve koeler die veel weg heeft van de Vapor-X variant, maar dan zonder "vapor chamber", desondanks is deze nog steeds vele malen koeler en stiller.

Maar goed, je redenering ben ik het verder wel mee eens.
Ik heb ook een 9800GTX+ van BFG Tech en toen ik hem 2 minutjes in m'n pc had viel de sticker er al van :p Maar de kaart zelf werkt perfect en idd in een mooie doos met mooie extratjes :D
Idd, waneer kmt iemand met iets origineel zoals een kaart die in spiegelbeeld is gemaakt en geen sloten onbruikbaar maakt.
Wanneer er koelers zijn ontworpen die de warmte goed af kunnen voeren door 1 slot? Wat wil je nou precies berijken met een kaart in spiegelbeeld? Zoals ik het me voorstel raak je dan echt nog wel sloten kwijt, alleen dan aan de andere kant? :? Waar in het geval van bovenste slot geen ruimte voor is ivm backpanel / IO-paneel, en de bruikbare ruimte onder het onderste slot raakt onbenut. Imo zou je dan het complete moederbord ontwerp om moeten draaien en dan is nog maar de vraag wat je eraan hebt... ATX is een mooie standaard, en daar blijft het ook bij. Een kaart in spiegelbeeld kost ook sloten, in verhouding dus zelfs meer.
Dat is wel handig als je er twee wil gebruiken hoor, kun je ze rug rug opstellen naast elkaar.
Misschien kan je zoiets modden. Ik weet niet of de hele kaart koeling nodig heeft aan de kant waard e GPU zit, maar volgens mij kan je gewoon een stelletje heatpipes op de GPU en misschien de geheugenchips en/of andere chips zetten, en die naar de achterkant van de kaart leiden.

Dan gebruikt de voorkant nog steeds wat ruimte, maar een paar heatpipes hoeven lang niet zoveel ruimte te kosten als een gigantisch motorblok.
Ik denk dat Blue-Tiger bedoelt dat als je de koelfan aan de bovenkant heb zitten en de kaart in het bovenste slot, de lucht tegen de kast aan blaast (dus nergens naartoe blaast aanngezien de lucht niet weg kan) ipv naar buiten.
Dan heb je er dus nog net niks aan. Tenzij je al gaten in je kast wil gaan boren, idd met het mogelijke probleem dat je bij het I/O paneel zit.
Idd, waneer kmt iemand met iets origineel zoals een kaart die in spiegelbeeld is gemaakt en geen sloten onbruikbaar maakt
Nooit...

Ik ga er vanuit dat je bedoeld dat een kaart 'op de kop' zou zitten, dus met de koeler naar boven. Qua kast en warmte productie zou dat inderdaad soms wel prettig zijn. Maar er zijn natuurlijk wel normen en specificaties waaraan een PCI-e kaart aan moet voldoen. Je kunt niet zomaar even veel spul aan de andere kant van de kaart bouwen.
Simpelweg omdat er dan niet meer gegarandeert is dat het past wat betreft de onderdelen op je moederbord zoals geheugen en koelribben.
Klopt, maar BFG is tegelijkertijd een van de weinige producenten die zich onderscheidde met onder andere waterkoeling standaard op de kaarten.

Helaas is dat wel een niche-product natuurlijk.
Eigenlijk is het dan een idee voor BFG naar ati te stappen, zoals XFX ook heeft gedaan.
Maar moeilijkheden is ook altijd wel lastig.
Ze kunnen uiteraard nog wel de lagere series verkopen.
Will BFG remain an NVDIA-only company or will they expand to other video card brands?

Absolutely BFG will remain an NVIDIA-only company. I personally believe, as an executive at BFG and also as a gamer and PC enthusiast that NVIDIA's hardware and software leads the industry. NVIDIA's engineering and software development teams are the best that I've ever worked with. We have a long-standing, excellent relationship with key employees at NVIDIA and this relationship continues to serve us extremely well.
De CEO is volledig NVIDIA minded maar zal wellicht dit nu wel gaan overdenken.

Meende trouwens ooit eens gehoord te hebben van een BFG Tech Techneut (3 jaar geleden ong.) dat BFG een volle dochteronderneming was van NVIDIA. Kan dit nergens via Google nergens vinden. Volgens Wikipedia is BFG privately held met een stel investeerders erachter. Wie dat zijn kan ik niet vinden.

Bron: Wikipedia
Als het waar is wat je schetst dan is het niet echt een goed teken voor liefhebbers van Nvidia.

als nvidia hun dochter bedrijven niet eens meer hun kaarten laat verkopen omdat er niks aan te verdienen valt.

_/-\o_ HD 5870 ondanks 2d problemen _/-\o_
@hierboven
Als je kaarten niet voldoende worden verkocht, worden de kaarten per stuk duurder.
Dit zal samen met de ontwikkelingskosten zorgen, dat de winst weg is of zelfs met verlies moeten worden verkocht om te zorgen dat je je marktaandeel niet verliest.
Als ik tegenwoordig naar een GPU kijk, dan is het simpel... welke is de goedkoopste. Er is geen enkele reden om te kiezen voor een duurdere als de specificaties identiek zijn.

Zet een producent er een betere koeler erop, waterkoeling of meer geheugen, dan ja, is dat wel het bekijken waard.

Maar puur op de vanilla GPU... ze zijn allemaal identiek, dus waarom meer uitgeven dan nodig?

Vroeger... en dat is toch al best heel wat jaartjes terug weer, toen was het enkel de GPU-chip die werd gebruikt, en maakten de fabrikanten nog een eigen PCB en layout. Dat was het bekijken en vergelijken wel waard.

Maar ik denk dat nVidia/ATI geen garantie meer geven of willen geven als een kaartenproducent zijn eigen layout wil toepassen. Dan houdt het wel snel weer op met onderscheidend zijn.

Het zijn net paperclips, allemaal gelijk. Er zijn paperclips met een kleurrijke coating erop, die zijn onderscheidend inderdaad.
Weet niet welk bedrijf tegenwoordig bekend staat als goeie kaartenbouwer, maar vroeger kon je bijvoorbeeld het best Sapphire halen als je voor Ati ging. Het verschil met bijvoorbeeld Club3D was naast prijs vaak ook kwaliteit.

Of is dat tegenwoordig allemaal eenheidsworst?
Zullen ze nu voor externe kaarten moeten gaan kijken
Wel mooi strak doosje met buiten proportinele mogelijke prijzen
http://www.bfgsystems.com/
Als ik de reacties lees dan lees ik veel dat men niet snapt waarom ze niet op ati zijn overgestapt.

Ik denk zo maar dat de ati markt verzadigd raakt?
Alle kaarten zijn eenheidsworst en dan kun je minder winst maken als er veel conccurenten zijn. De consument weet dat het allemaal het zelfde is en gaat dus voor de goedkoopste.
Of ga jij soms voor de kaart met de mooiste sticker?

Gevolg: Prijzen dalen en bepaalde "merken" worden weggeconcurreerd. Zoals nu dus ook is gebeurd. Maar dan onder Nvidia.

M.a.w, het maakt dus geen zak uit of je bij Nvidia of bij ATI zit. Alleen de goedkoopste overleefd. (en degene met de beste cooler/overclock)
Nou kan overclock ook relatief zijn. Mijn 75MHz standaard overclock doet ook niet veel. Toevallig was het destijds een van de goedkoopsten, en wild eik meer onderdelen kopen, en dat alles bij n webshop.
Klinkt logisch, nVidia loopt een klein beetje achter de feiten aan, de kaartverkoop daalt, BFG heeft iets duurdere kaartjes dan andere verstrekkers van nVidia kaarten en merkt dat te goed. Resultaat: geen winst, dus eruit

Ze hebben gelukkig nog andere producten dus dat zit wel snor ;)
Deimos, Phobos, BFG? Ze hebben blijkbaar de mosterd gehaald bij DooM...

Ik had eigenlijk nog nooit van hen gehoord.
BFG is toch lange tijd bekend geweest. Ook om hun physx kaartjes
Ik had er n keer van gehoord, en dacht dat het toeval was. Nu ik lees dat ze een hele serie hebben met Doom-referenties... ze doen het er om :P

Best wel cool moet ik eerlijk toegeven. Alleen jammer dat de Cyberdemon van lvl Ec0n0m1 een hele fully heeft geraakt.
Dat zijn anders de namen van de 2 manen van de planeet Mars. Welke weer een referentie zijn naar de Griekse mythologie. Mars, de god van de oorlog, heet in de Griekse mythologie Ares en zijn 2 zonen heten Deimos (paniek) en Phobos (angst, denk aan fobie). Maar dat terzijde
Ik vraag me af hoe er geen winst meer gemaakt zou kunnen worden met videokaarten.

@Jantje.vlaam, een slechte first post die niks met het topic te maken heeft :S

Videokaarten gaan nog steeds voor flinke prijskaartjes de deur uit. en de prijs betaal je zelf. zouden de productiekosten nu echt zo hoog liggen dat de winst nihil wordt? ik betwijfel het.
De totale kost is meer dan de productiekost alleen he. ontwikkeling van het machine park, aanleg van distributiekanalen (zowel aanvoer als afvoer).
Dat ze er geen winst aan maken kan ik echt wel begrijpen, kijk naar PS3, het feit dat zij pas net en enauwelijks beginnen winst te maken is omdat ze gigantische ontwikkelingskosten hebben gehad. die moet je uiteindelijk ook afbetalen.
Maar Sony maakte wel weer vooral winst op PS3 games.
Ik zie deze mensen geen winst maken op speciale beeldscherm adapters die allen op hun kaarten werken.
Zie hier boven. Dit is het nadeel van aan n chipfabrikant blijven hangen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True