Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties
Bron: nV News

Het Finse PC blad Micro PC maakt melding van het feit dat de mannen va BitBoys eindelijk zijn begonnen met het bakken van de eerste videochips. Natuurlijk moet dit met een korreltje zout genomen worden aangezien BitBoys al jaren lang fantastische verhalen vertelt terwijl er nog nooit een chip geproduceerd is. Maar wie weet komt daar nu eindelijk verandering in: Juha Taipale, general manager, heeft verklaard dat het chips design af is en geproduceerd wordt. Een stuk uit de (brakke) vertaling:

Petri Nordlunds - BitBoys Chief Graphics Architect Limits of the modern silicon process are being tested in gfx chip development. Noormarkku based Bitboys was plannig to introduce PC-display adapters based on companys own graphics technology a year ago in Comdex. Instead they gave up the whole silicon implementation of chip, called Glaze3D at the time. A new, further developed design is in the silicon process at the moment. Also a follower to this chip is being designed. Chip under manufacturing has increased embedded memory, leading to the total size of 12 MB. Also the internal bus has been doubled to the width of 1024 bits. "I know we have been shallow in our comments, but I can reveal that chip design is complete and chip is being manufactured", says Juha Taipale, general manager.

One aspect making the chip design harder was difference between embedded ram and logic. Embedded ram benefits from large capasitance (sp?) of the chips silicon, when on the other hand, it's vice versa with the logic. Large capacitance allows the use of small size memory cells, but same time increases the size chips area used for logic operations.

"In a sense, our graphics process is as hard to manufacture as state of art main cpu's.", comments ASIC-designer Harri Syrjä.
Moderatie-faq Wijzig weergave

Reacties (43)

Mensen vergeten er bij stil te staan waarom prijzen van videokaarten de laatste jaren zo omhoog geschoten zijn. Daar zijn namelijk verschillende redenen voor.

1. Het steeds groter en complexer worden van de "GPU"
2. Het geheugen wordt steeds meer de bottleneck, dus steeds DUURDER geheugen.

Ik weet niet of iemand nog weet wat Voodoo2's in het begin kostten maar dat was ook geen feest. Die 12MB supersnel 40ns EDODRAM was toen echt reteduur. Aangezien ze bij 3Dfx ook wel wisten dat snel geheugen heel belangrijk is, en de echte gekken de kaarten toch wel zouden kopen hebben ze toen die beslissing gemaakt.
Wat je nu ziet bij de snelste kaarten is dat ze uiterst zeldzaam extreem snel DDR-geheugen gebruiken, en ook nog eens 64MB van die dure ongein. DAT IS DE REDEN dat ze zo DUUR zijn. Niet omdat ze opeens meer marge zijn gaan pakken ofzo.

Nu de kaart van de BitBoys. Deze gebruikt 12MB eDRAM die met een 1024bits bus met de chip communiceert. Deze 12MB is genoeg om een tile (want voor wie het nog niet weet het is een tile-renderer) in te renderen. Dit houdt in dat de stress op de geheugenbus waarschijnlijk VEEL LAGER is, waardoor ze GOEDKOPER geheugen kunnen gebruiken. Dus ook al is de chip duurder, het geheugen is waarschijnlijk een stuk goedkopen en op die manier kunnen ze dan tegen een redelijke prijs deze kaart op de markt brengen.
1. Het steeds groter en complexer worden van de "GPU"
2. Het geheugen wordt steeds meer de bottleneck, dus steeds DUURDER geheugen.
Maaarrrr:

3. Het productieproces is heel veel verbeterd => minder uitval, beter yields.
4. Nieuwe chiptechnieken waardoor je vanzelf hogere snelheden krijgt.
5. Betere CAD/CAM programma's, waardoor je sneller betere designs kunt maken.

Allemaal weer dingen waardoor de chips juist goedkoper zouden worden.

Ook dat punt over het geheugen is onzin, er zit iets van 6.5ns DDR ram op de snelste videokaarten, dat is net zo snel als op je dimmetjes zit hoor, en het is gewoon standaard DDR geheugen. De prijs daarvan is al lang niet meer hoog, de prijs van videokaarten is echter niet mee omlaag gegaan.

Wat wel ook nog de prijs omhoog stuwt: patenten. nVidia heeft patenten op zijn crossbar-technologie, en kan vragen wat ze willen als een andere videochipbakker dat ook wil gebruiken. Die andere videochipbakker moet dus kiezen om of nVidia veel geld te betalen of zelf met iets te komen wat vergelijkbaar is, maar geen patenten breekt. Dat is waarom de ATI Radeon zo lang heeft geduurd.

In de tussentijd is nVidia marktleider en kunnen ze voor hun videokaarten vragen wat ze willen. De prijs zal in dat geval altijd zo hoog mogelijk zijn, terwijl als ze hard moeten concurreren de prijs juist zo laag mogelijk zal zijn.
Ik weet niet waar jij je info vandaan hebt, maar er klopt niet veel van:

-je zegt dat de sneldte videokaarten 6.5 ns geheugen hebben en dat dat ook gewoon op je dimmetjes zit, ik weet niet maar mijn Radeon 8500 heeft 3.6 ns geheugen en dat kom je toch echt niet tegen op je dimmetjes

-je zegt dat ATi er lang over heeft gedaan om de radeon uit te brengen omdat nVidia patenten heeft op crossbar technieken. Mag ik er even op wijzen dat ATi al in de Radeon 1 HyperZ had, wat btw een stuk efficienter is dan de crossbar techniek van nVidia, dus die clame dat ATi daarom lagner bezig is geweest is onzin, ze hebben features naar voren gehaald, dus in de R200 gedaan ipv de R300, dit om meer te bieden dan de GF3.
Nu de kaart van de BitBoys. Deze gebruikt 12MB eDRAM die met een 1024bits bus met de chip communiceert.
Volgens mij zit die 12 MB memory waar jij het over hebt niet op de kaart maar in de GPU!!!
eDRAM als in EMBEDDED RAM!!!
TUURLIJK ZIT DIE ON CHIP?!@?%??%^
Dat is nu net de hele grap!
Iemand van de Beyond3d-crew (Dave), die van (het verkochte) 3dfx naar Bitboys is gegaan, doelde hier al een paar maanden geleden op.
Hij gaf al aan dat het niet bij twee grote spelers zou blijven (nVidia en ATi) en dat dit binnenkort uitgebreid zou worden...
Ik bedoel een goeie video kaart van b.v. Matrox of ATI is niet zo heel duur, dus de
investeringen die die BitBoys hebben moeten doen zien ze voolopig nog niet terug.
Volgens mij zijn gpu's zo ongeveer de enige producten binnen de PC markt waar nog vette winsten op worden gehaald. De grafische kaarten zijn in tegenstelling tot andere componenten in een PC (moederborden uitgezonderd misschien) alleen maar duurder geworden afgelopen paar jaar. Vroeger kocht je voor F250,- een top kaart. Nu betaal je er al snel F600,- voor. Als ze een chip weten te maken die sneller is dan de NVidia GFx chip die op dat moment op de markt is kunnen ze daar nog best wat winst gaan pakken, ook al zullen ze vanwege naamsbekendheidsproblemen die chip voor een lagere prijs dan een GFx chip moeten verkopen.

Ik dacht laatst iets gelezen te hebben dat de BitBoys met Matrox gingen samenwerken. Zou dat weer van de baan zijn of was dat slechts een loos gerucht?
de vorige kaart van de bitboys de Pyramid 3D zie hier was zijn tijd ook ver vooruit, maarja er waren er maar 250 van dus.

als deze kaart ook zo revolutionaar is maakt ie volgens mij toch wel een kans, alleen wat voor mij belangrijker is dan de specs opzich is de support hoe zit het met de drivers ? ik bedoel zelfs een bedrijf als Ati heeft zijn drivers niet goed geregeld kan een bedrijfje als bitboys dat dan wel ?

en verder natuurlijk de prijs maar die zal wel in verhouding staan met de performance/support denk ik :)
Sommige mensen moeten het hebben van de service die ze verlenen, als ze qua prijs niet op kunnen tegen Nvidia of ATI, zullen ze dus moeten servicen door bijvoorbeeld drivers voor alle gangbare systemen te maken...
Flame:

Zou dat nou veel van het budget van bitboys hebben opgeslokt, zo'n A1 vel vol met kleurtjes ?

Anyway, eerst zien, dan geloven....
Voor het geval je het niet wist, een dergelijk A1 velletje is een layout voor een processor. Al ga ik ervan uit dat je dit wel wist en dat het gewoon een flauwe opmerking was, maar ik dacht ik vermeld het toch maar eventjes, anders is het ook interessant voor mensen die niet weten wat het is.
zou je dan op de volgende (domme?) vraag ook een andwoord kunnen geven? Wat is er zo speciaal aan een grafische chip, en wat is het verschil met een GPU of grafische kaart (wat is de plaats in een pc)

Goed gezien, ik weet er niet veel van af.
Een grafische chip of GPU (graphics processing unit, oorspronkelijk een marketingterm van nvidia) zit op de grafische kaart, waar ook nog geheugenchips, spanningsdelers, in- en uitgangen en ondersteunende componentjes zitten. Dit geheel zorgt voor de grafische uitwerking van de informatie die de processor stuurt. (draadmodel aanpassen (t+l), texturen erop).

Dat is het zo'n beetje in het kort (erg kort)
Nou.. Met een goede reclame campagne, met wat hulp van investeerders komen ze misschien een heel eind! :)
Het lijkt me dat ze beter bij een chipbakker aan kunnen kloppen en hun ideeeen verkopen dan zelf gaan bakken. Het is wel heel erg ambitieus en ik denk op korte termijn zeker niet winstgevend te krijgen.....
Aan de ene kant heb je wel gelijk, als BitBoys een echt goede chip hebben maar failliet gaan.
Dan weet ik nu al wie ze gaat overnemen....

Aan de andere kant, als ze idd een goede chip hebben en ook nog in staat zijn om 'm voor een goede prijs op de markt te brengen. Dan hebben we er weer wat concurrentie bij! :*)

- oeps, ik zie dat iemand mij al is voor geweest met dit idee :+ -
Een chipbakker, het woord zeg het al, bakt enkel chips, die lui doen niet aan ontwerpen (tenzij je het hebt over een bedrijf met eigen ontwerpafdeling en eigen fabricage-faciliteiten, zoals AMD, Intel, IBM, maar dat zijn er niet zo veel). BitBoys zou hun ontwerp kunnen verkopen aan een bedrijf als NVidia (als die er interesse in zouden hebben), maar dan hebben ze natuurlijk niks meer. Dan kunnen ze net zo goed gelijk ophouden.
Hmm.. inderdaad.. NVIDIA kan wel wat hulp van buitenaf gebruiken ;)

ATI wordt steeds beter.. (all-round kaart, ik heb 't niet over de 3D performance alleen! :))
Lijkt me een bijna onmogelijke opgave om nu als nieuwe gpu bakker tussen de gevestigde rangorder aan de bak gaan.

Ik bedoel een goeie video kaart van b.v. Matrox of ATI is niet zo heel duur, dus de investeringen die die BitBoys hebben moeten doen zien ze voolopig nog niet terug.

En om maar niet te spreken van het tempo waarmee b.v. nVidia vernieuwde gpu's op de markt zet, dat hou je toch niet bij als new-bee ..... ?
Op zich met je eens, maar kijk naar de geschiedenis- ergens rond 1996/7 begonnen de twee kleine bedrijfles 3DFx en nVidia tussen monsters als S3, Matrox, Trident, Tseng en ATi (de enige die nog steeds een grote speler is) met iets nieuws. Niemand gaf ze een kans, en kijk eens waar we 5 jaar verder zijn.
Persoonlijk blijf ik sceptisch over de BitBoys- hun vaporware/hardware verhouding zit schever dan welke andere designbureau. Maar er blijft ruimte voor de kleine visjes...
Ganymedus:
Ik denk dat de bitboys weten wat ze doen.
Ze zullen blijkbaar zo'n goeie chip ontworpen hebben (dat zullen ze iig denken :) ) dat ze het de moeite waard vinden om daar nu de markt mee op te gaan.
Ik mag aannemen dat ze goede adviseurs in huis hebben die hun het juiste moment zullen vertellen om de markt te betreden...maar goed, dat denk ik :P
tipje: Je kunt reageren op iemands post door op het hoofdje voor zijn post te klikken... Is wel zo duidelijk :)
thnx :)
zit op de gathering, bijna nooit hier...
EINDELIJK.

Khep nu al zo vaak berichten over Bitboys gelezen hier op Tweakers en iedere keer maakten ze ons lekker met het bruutste van het bruutste, maar nooit maakten ze het eens waar. Hele artikelen over de Glaze3D en hoe alle Voodoos (toen waren die er nog) zouden verbleken en hoe geniaal het id wel niet wat, maar het leek bijna wel een hoax aangezien ze nooit iets uitbrachten.

Et zal nu ook wel enkele Q's duren voor we hier iets van zien, maar het begin is er (of dit is ook weet zo'n semi-hoax).

Probleem blijft denk ik dat mocht er ooit zo'n kaartje van de productieband afrollen dat die zich eerst nog moet bewijzen. En dan krijgen we ook nog eens het drivergelazer. Qua drivers kan er gewoon niemand (nee echt niemand) tippen aan Nvidia, en nu mag Bitboys helemaal van scratch beginnen. Ik ben benieuwd.
Nou, de eerst GF3 drivers waren ook belabberd :'( Nog steeds is er driver gelazer bij nVidia (zie de ellende met BIOS fixes, etc), hoewel de snelheid er wel goed in zit (itt enkele concurrenten vroeger, say no names...). nVidia heilig verklaren is niet echt reeel, al doen ze het niet slecht. Veel meer kan je niet verwachten bij net nieuwe producten. M.i. valt een videokaart pas een half jaartje na introductie pas goed te beoordelen (sowieso moet je eigenlijk geen kaart met een gloednieuwe GPU kopen, maar ja als tweaker kan je je vaak maar moeilijk inhouden :9~). Maar inderdaad, als Bit Boys het zaakje zo goed doet als nVidia, Matrox of ATi tegenwoordig ben ik al tevreden :)
Ik ben bang dat er niet al teveel terecht komt van deze productie en dat die al snel blijkt niet te kunnen.

Met de huidige .13 micron techniek en de eisen van de chip, krijg je hele grote oppervlaktes.
Alleen al de 12 MB embedded RAM kost 100 miljoen transistors.
De GF3 heeft er 50 miljoen.
Dus met een beetje goede core komt er al snel 30-40 miljoen transistors bij.

Dan zitten de BitBoys op een chip met 130-140 miljoen transistors. Oftewel bijna 3x zo groot als de GF3.
Dat wordt extreem hoge kosten per chip (ook op 300mm wafers en .13 micron) en een hoge uitval.

Ik zou graag zien dat ze met een moordende chip op de markt komen, maar vermoed dat dit weer (een van de vele) hoaxen is. Technisch is de chip gewoon heel moeilijk te realiseren...
Je vergeet dat het aantal transistors niet direct gerelateerd is aan de oppervlakte in mm2 van een chip. Die 12MB eDRAM zijn idd veel transistors, echter ze zitten enorm dicht op elkaar gepakt, in tegenstelling tot bijv. normale logica.

Er valt trouwens veel te zeggen voor het ontwerp van de BitBoys aangezien zowel Sony (in de PS2, 4 MByte) en Nintendo (ArtX nu ATI, met hun 1T-SRAM, zie www.anandtech.com) ook voor een variant van on chip memory hebben gekozen.

Zoals ik eerder al heb uitgelegd, de chip mag duurder zijn als ze maar kunnen bezuinigen op het geheugen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True