Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 52 reacties
Submitter: Jack

De geruchtenmolen over Intel is flink aangezwengeld op de Computex, momenteel gehouden in het Taiwanese Taipei. Zo zou Intel plannen hebben om volgend jaar met een losse videokaart op de markt te komen.

Intel is op de igp-markt verantwoordelijk voor meer dan vijftig procent van alle chips. Als de losse videokaarten meegerekend worden, komt Intel op een marktaandeel van 38,7 procent - nVidia en AMD bedienen respectievelijk op 28,5 en 21,9 procent van de markt. Het lijkt er echter op dat Intel daar geen genoegen mee neemt, want er gaan meerdere geruchten dat Intel zelf ook met losse videokaarten op de markt wil gaan komen in 2008. De geruchten lijken elkaar echter meer dan eens tegen te spreken. Zo weet DigiTimes te melden dat Intel zich op de midrange gpu-markt wil gaan storten en dat meerdere videokaartmakers bevestigd hebben dat Intel inderdaad de strijd aan wil gaan met AMD en nVidia. Daartegenover staat ComputerPartner, dat beweert dat Intel juist voor de high-end markt zal gaan - het is echter wel mogelijk dat hiermee gewoonweg gpu's worden bedoeld die niet onboard zijn - maar ook dat er bij grote namen in de gpu-wereld, zoals Asus en MSI, nog helemaal niks bekend is over deze mogelijke plannen van Intel.

Het gerucht is waarschijnlijk de wereld in geholpen toen Intel enige tijd geleden op zoek is gegaan naar meer graphics chip engineers, mogelijk om een toekomstig antwoord te hebben op het opgekocht worden van ATi door AMD. Waar geen twijfel over mogelijk is, is de in ontwikkeling zijnde Larrabee-videochip van Intel, aldus Grace Wang, marketing manager bij Intel. Met deze chip combineert Intel de mogelijkheden van cpu's en gpu's en stopt die op een enkele die, vergelijkbaar met AMD's Fusion-processor. Op de Larrabee-chip kunnen meerdere microprocessors - van 4 tot 24 stuks - samengevoegd worden, om zo redelijk tot zeer goed presterende processors te creeŽren. Door gebruik van een x86-instructieset zal de Larrabee geschikt zijn voor meer dan alleen grafische berekeningen.

Intel-logo voor gebouw
Moderatie-faq Wijzig weergave

Reacties (52)

Zou het prima vinden als Intel de video-chip-markt (her)betreed. Voor zover ik weet is Intel de enige die de specificaties voor de chips open heeft liggen ... wat het mogelijk maakt voor OSS om normale drivers te kunnen bouwen. Dit in tegenstelling tot het zielige NVidia en ATI .. dat meent hun eigendom te beschermen door geen informatie vrij te geven.
Weer een i740 avontuur?

Einde i740 en i754.

Ik hoop voor Intel dat het dit keer beter uitwerkt. Als het gerucht waar is.

[Reactie gewijzigd door worldcitizen op 8 juni 2007 15:36]

hehe, precies, ik dacht ook al van : "moet het niet een re-entree ipv van entree voor intel zijn ?"
Ach destijds deed die dikke 8MB krachtpatser het niet eens zo slecht op de pentium platform :P 3DFX was sneller maar de intel was weer 2d/3d gecombineerde kaart en aangezien destijds de Banshee (3DFX 2d/3d oplossing) zwaar onder de maat pretseerde was het zeker een goede alternatief...

maar jah,
in de tussentijd hebben ati en nvidia jaren ervaring opgedaan dus om het nu ff snel inhalen zal ook niet makkelijk zijn voor Intel.. en naar alle waarschijnlijkheid zullen ze toch alleen kaarten voor de best-verkopende markt-segmenten ontwikkelen/verkopen... dus zal wel een mainstream kaart worden ofzow...
De i740 presteerde anders ook zwaar ondermaats, de graphics zagen er mooier uit dan de voodoo 2, maar presteerde veel slechter, zelfs slechter als de Banshee. Laat staan de G200 die tegelijkertijd uitkwam...
Een Intel 740 AGP kaart met 2x Voodoo2 SLI 12Mb, dat was echt je van het...
Dat had ik dus :) A2 Racer 1 FTW, met 3D aansturing ;)
De tekst zou inderdaad rentree moeten zijn.

Kennelijk zijn er tegenwoordig wat jonge tweakers redacteurs die die periode niet bewust hebben meegemaakt 8-)
Ik vond de i740 destijds niet zo'n slechte kaart, mede door de prijs-kwaliteitverhouding. Voor een paar tientjes had je een kaart waarmee je voor zover ik me herinner alle actuele spellen kon spelen.

Ok, het was geen voodoo maar die waren ook flink duurder.
Het kon eigenlijk niet uitblijven... wat mij betreft hoeft Intel niet zozeer een brute chip te maken, maar het zou wel fijn zijn als ze een high-end chip met een laag energieverbruik kunnen produceren. Na de 'revolutie' op cpu-gebied is dat hard nodig in het land van de videokaarten!
wat mij betreft hoeft Intel niet zozeer een brute chip te maken
Maar dat zijn ze volgens mij wel van plan:
nieuws: Intel belooft binnen paar jaar 16x snellere videochip
Ach 16x sneller, als ze dat indammen tot 2x sneller, kunnen ze de rest aan hitte-/stroombesparing besteden
Mja als je ziet dat GPU's met elke generatie dubbel zo snel zijn, dan is die 16x sneller op een "paar" jaar vrij normaal...
Schitterend, I'm all for it!

Intel is de enige fabrikant dat zijn grafische drivers (ook 3D) volledig in Open Source heeft gezet, als dat hiermee ook gebeurd, dan hebben ze aan mij alvast een klant.
Volgens mij is deze stap niet zozeer gericht tegen nVidia, maar tegen AMD. Want was het niet AMD die met zijn "Fusion" GPU en CPU wilde integreren? Ja, ze zijn niet gek bij Intel. Mooi even snel instappen in die markt, ruim voordat AMD zich er mee zou kunnen herstellen, met video kaarten die ook CPU-achtige dingen kunnen doen.

Ze zullen er bij AMD niet blijer van worden. Want ATI was natuurlijk opgekocht (behalve voor diversificatie) juist precies om zo'n nieuw combo markt segment te gaan exploiteren.

Ja AMD, when it rains, it pours.
Als je een high end kaart koopt van 500 euro of meer, wat kan jou die paar tientjes per jaar aan stroom dan nog schelen? En dan niet met zoon slap antwoord komen aub.
1. Een high-end kaart heb je meestal voor een euro of 300/350, tenzij je hem vlak na de launch koopt. Meestal gebruik je zo'n kaart dan twee jaar, maar een jaar zou ook kunnen. Tel daar §20 of §40 aan energie-kosten bij op, en je hebt al een punt.

2. Denken we ook nog aan moedertje natuur, het broeikas effect, etc? Eťn kaart maakt niet zo uit, 300 tegelijk op een LAN wel.

3. Je moet weer een nieuwe voeding kopen, nog weer §100 - §40 (verkoop oude) = §60

4. Koeling, je hebt weer een hetere kast, met een enorm vette koeler in de kaart. De kaart zal niet korter dan een 8800GTX worden, laat staan dunner, zeker 2 PCI sloten dus al.

5. Overklokken zal ook lekker gaan, met zo'n ding dat energie slurpt :X

--- Alles wordt zuiniger, waarom GPU's niet?
Je spreekt jezelf een beetje tegen.
Eerst een beetje schelden dat het energie verbruik stijgt en een een regeltje later maak j e een geintje over de slechte overclockbaarheid.
Overclocken gebruikt extra energie/koeling/etc
Waarom denk je dat LN2 en PhCh veel vaker gebruikt worden bij extreem overclocken, terwijl een aantal jaar geleden het gebruik van een TEC + waterkoeling al extreem was? Juist, omdat het energieverbruik zo is gestegen. Een chip die van zichzelf al veel warmte uitstoot heeft veel meer koeling nodig om goed overgeclockt te kunnen worden dan een chip die heel zuinig is.
Lager energieverbruik heeft dus voordeel voor zowel de casual gebruiker (minder koeling/energie/herrie/hitte) als voor de overclocker (minder extreme koeling = geld) voordelen :)
Niet iedereen heeft dezelfde prioriteiten. Daarbij komt, dat een serie die x Watt verbruikt, en overklokt (wat 10% vd gebruikers doet x+25 Watt verbruikt, altijd minder is dan een videokaart die STANDAARD als x+35 Watt verbruikt ;)
Sowieso kan overklokken ook gewoon op 'kleine' schaal hoor, met de standaard koeler, en een licht overklokje zonder vcore/vmem mods, dit scheelt maar weinig energie.

@Cubefanatic: Misschien het feit dat er een zwaardere aggregaat moet komen, welke minder efficiŽnt is, etc.? Daarbij gaat het gewoon om het feit dat 1 vs honderden/duizenden kaarten een wereld van verschil is. Dat deel van het argument blijft tellen.

[Reactie gewijzigd door bnbaz op 8 juni 2007 17:26]

@ punt 2

En jij wou zeggen dat die thuis niet gebruikt worden? Imo maakt het geen ene drol uit waar je op deze planeet je videokaart gebruikt. Al was het in een onderzeeŽr bij Atlantis. Waarom zouden 300 op een lan ineens meer gebruiken? Je zet ze dan toch alleen maar bij mekaar?
Het gaat niet om de rekening, maar het feit dat je ziekere koelinstallaties nodig hebt. Dat kost ůůk weer geld, neemt ruimte in je kast in, zorgt voor meer lawaai, en maakt je kamer benauwd. Ja, ik zit met dit weer al te stikken met een C2D met IGP op mijn kamer. Het is gewoon onpraktisch, en niemand wordt er slechter van als het wat zuiniger gaat!
Idd, vind het nogal een domme opmerking 'die paar tientjes aan stroom'.
Zuinigere computers worden we allemaal beter van: beter voor het milieu, minder warme computers, minder lawaai, etc.
Ik ben het met je eens maar het is niet de mening van veel andere tweakers mensen.
Iedereen spreekt met respect over het mileu maar zodat een zuinig chippie $10 extra kost, minder overklokbaar is, of 1fps in quake minder doet kiest 'iedereeen' plotseling voor de energieslurper.
Hoeveel procent van de desktop CPUs is een mobile type?

Het ligt een beetje aan je upgrade snelheid maar een snellere energie sluper is niet per defenitie slechter voor het mileu.
Als die iets snellere chip iets langer meegaat schaf je in je leven ook minder GPU/sCPUs aan en daardoor energie bespaard van transport en productie van de chip en verpakkingsmaterialen.
het antwoord op die vraag zal ook niet op economisch vlak liggen. Al kost het je ook nog eens een nieuwe voeding, betere koeling met meer storingsgevoelige onderdelen, levensduur van de kaart zelf.

Die snelle kaarten maken de programmeurs ook nog eens lui. Waarom je code goed schrijven en optimaliseren zodat het spel soepel loopt als je het met die SLI-warmtegeneratoren toch wel werkt?

Verder vind ik dat een kaart in 2D gewoon zuinig en stil hoort te zijn. Ik heb net een kaart teruggestuurd omdat ie gewoon mijn voeding leeg trok bij het opstarten van windows. Kijk, dat dat gebeurt als je een 3D applicatie start, alla. Maar als je m een tijdje aan laat staan om te d/l hoort een ding dat uit staat niet >30W+ stroom te verbruiken.
Intel te groot om groot te worden in de videokaart markt? Dan zet je er toch gewoon een kleinere aparte afdeling op?

[Reactie gewijzigd door MaZeS op 8 juni 2007 15:50]

Voor goede videokaarten heb je 2 dingen nodig.
Geld en expertise.

Op het gebied van geld loopt Intel voor op de concurrentie.
Het gebied van expertise is een twijfelgeval.
Laten we eerlijk zijn Intel weet best wel hoe ze videokaartjes moeten maken.
En ze spieken ook bij de concurentie.
Tot nu toe is het niet hun keus geweest echt in te zetten op de videomarkt.
Inhuren van expertise en licenties nemen kan ze in een korte tijd ver brengen.
Zeker als de marketing machine op gang komt.

Mijn puur persoonlijke inschatting is dat ATi en nVidia vooral door snelheid de markt proberen te pakken. en daardoor de winst.
Intel lijkt mij het bedrijf dat vooral voor winstmaximalisatie gaat.
Dat kan dus betekenen dat ze een goed kaart op de markt zetten met een gunstige prijs. Niet het beste maar ook niet het duurste.
Dan nog in het achterhoofd houden dat die chippies misschien ook op het moederboard gaan en ze hebben plotseling een grote afzetmarkt.
Intel "bouwt" ook moederborden, dat lijkt toch al wat meer op videokaarten. Overigens maakt intel voornamelijk het ontwerp, de printplaat wordt door Foxconn geassembleerd. Zal bij de videokaarten ook wel gebeuren.
In het verleden heb ik wel vaker geroepen dat er best ruimte is voor een derde speler op de high-end grafische kaart markt. Matrox komt al een tijdje niet meer mee met Ati en Nvidia en richt zich op een andere markt. Xgi met zijn Volari doet niet meer mee, PowerVR die de Kyro 1 en 2 kaarten maakte heeft geen nieuwe kaart meer uitgebracht....
Nee, nu denk ik eerder dat er iemand uit de markt word gedrukt als Intel erin slaagt wat fatsoenlijks uit te brengen met goede drivers (dit was vaak de doodsteek voor toch veel redelijke goede grafische kaarten).
Dit is zeer goed nieuws voor de consument en was al eerder te verwachten naar voorgaande berichten op tweakers. Ik begrijp trouwens niet waarom er nooit een onderzoek is geweest naar prijs afspraken tussen ATI en NVIDIA aangezien naar mijn gevoel de prijzen te lang en kunstmatig hoog bleven.

Pas na de overname van ATI door AMD is er wat veranderd. Ik hoop dat ze de markt om kunnen gooien zoals ze nu op processor gebied bezig zijn.

nieuws: Intel belooft binnen paar jaar 16x snellere videochip

nieuws: Intel investeert bijna 10 miljoen dollar in PowerVR

nieuws: Geruchten over highend videochip van Intel

[Reactie gewijzigd door LURHESCH op 8 juni 2007 16:37]

Waarom? Wanneer Intel SLI-chips zou maken, zou dat de 'concurrent' alleen maar voordeel bieden; meer mensen komen immers in aanmerking voor het plaatsen van meer grafische kaarten. Bovendien speelt dit al langer: nieuws: Intels 'Larrabee' gaat topmodellen ATi en nVidia te lijf

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True