Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel wil 'leren van community' bij maken eigen videokaarten

Intel is onder de naam The Odyssey gestart met een promotiecampagne voor zijn komende videokaart. Het bedrijf gaat evenementen organiseren en zegt te willen leren van de community. Intel brengt in 2020 een videokaart uit. Mogelijk verwijst Odyssey naar de naam.

Via Twitter roept Intel mensen op op zich aan te melden voor The Odyssey. Daarbij verwijst de fabrikant naar een gamingonderdeel op zijn website, waar een formulier staat om in te schrijven voor een nieuwsbrief en evenementen die in verschillende steden wereldwijd georganiseerd zullen worden.

Concrete informatie geeft Intel niet, maar in een andere tweet verduidelijkt het bedrijf dat het via de campagne informatie wil delen. Ook staat er in het bericht dat mensen 'toegang krijgen tot Intel', zodat het bedrijf kan horen en leren van de community tijdens het ontwikkelen van producten.

Met The Odyssey doelt Intel nu op de reis naar de totstandkoming van het product, maar mogelijk is de naam meer dan dat. Het zou kunnen dat Intel de Odyssey-aanduiding wil gebruiken voor zijn komende videokaarten.

Vorig jaar maakte Intel bekend dat het in 2020 een high-end videokaart gaat uitbrengen. Daarover is nog vrijwel niets bekend, naar verluidt is de codenaam Arctic Sound. Eind 2017 nam Intel Raja Koduri in dienst, die dat jaar vertrok bij AMD. De oud-topman van de Radeon-afdeling heeft bij nu bij Intel de leiding over de gpu-divisie.

Door Julian Huijbregts

Nieuwsredacteur

21-02-2019 • 09:27

77 Linkedin Google+

Reacties (77)

Wijzig sortering
Aan de ene kant begrijpelijk dat ze dit roepen, ze willen heel ''open source'' overkomen.
Maar dit roept ook wel dat ze in feite amateurs zijn wat betreft dGPU ontwikkeling.

Tijd zal het leren. Ik sluit me er dan ook bij aan dat Intel zich (eerst) moet richten op de mid-range. Als ze dit segment veroveren kunnen ze verder kijken dan de mid-range, of juist hier concureren met AMD. AMD heeft ook concurentie nodig uiteindelijk. ;)

Edit: Ik ben er van bewust dat nVidia ook mid-range kaarten uitbrengt, maar prijzen... |:(

[Reactie gewijzigd door D.Demirel op 21 februari 2019 09:46]

Als je de juiste mid-range kaarten uitbrengt dan concurreer je automatisch met nVidia, AMD mist de boot steeds nèt, en valt in het lowend-midrange segment, en dat is zonde. als Intel dat beter kan, dan worden we er m.i. allemaal beter van.
AMD zit gewoon in het mid-range en midrang-highend. Ze hebben alleen geen extreme high end.
Aan de ene kant begrijpelijk dat ze dit roepen, ze willen heel ''open source'' overkomen.
Maar dit roept ook wel dat ze in feite amateurs zijn wat betreft dGPU ontwikkeling.
Je slaat de spijker op zijn kop! Vragen is leuk, maar laat ook zien dat je het zelf niet helemaal weet.

Feedback is overigens leuk, en ik zou ze zeggen "Denk eens aan G-Sync/Freesync, DSLL, raytracing, etc." Maar moeten ze dat echt van mij horen?! Of liever gezegd, weten ze dit zelf al niet gewoon dan?! En eigenlijk willen mensen maar 1 ding: "Een snelle kaart, met stabiele drivers; en het moet liefst niet een fortuin kosten."
Of je hebt het totaal mis.

Mensen mee te laten doen, is een slimme taktiek. Je maakt connectie met de mensen, goodwill. Als je mensen wilt afpakken van de concurrent, moet je ze zo snel mogelijk naar je toe trekken. Je zorgt alvasr voor dat je mensen hebt die heel waarschijnlijk je kaart kopen. Die mensen die er aan mee doen zijn namelijk eerder geneigd het product te kopen, omdat ze tijd geïnvesteerd hebben.
dat, plus stabiele framerates als het kan (middels een driver framerate stabilizer) haperingen merkt menig mens op en irriteerd.
Wat intel hier doet is eigenlijk best slim bedacht. kijk eens naar wat ze allemaal kunnen doen met die input. Je zou zeggen amateurs, maar wel goed door dachte amateurs. :)
Horen van de community?

Wat verwachten ze? Dat iedereen een luide, energiezuipende, onderpresterende kaart wil?

Wat moet je van de community weten behalve dan dat ze veel fps voor weinig geld willen, en als het kan een beetje zuinig en stil.
Denk ook aan features in de drivers. Zoals wat AMD bied. zaken als relive/shadow (nVidia versie) play, AMD Link zodat je GPU info in een app kan zien tijdens het gamen. Zalen als Radeon Overlay, free sync en Chill. Game profielen overclock en monitoring tools (Wattman).

En zo noem ik wat dingen op. Ik noem inderdaad veel AMD zaken omdat zij veel features hebben die nVidia niet heeft. De een vind het onzin de ander vind het nuttig. Een aantal zaken zoals Wattman en AMD link gebruik ik zelf wel. Whattman zelfs heel erg veel.

Dus op die manier kan je zeker input aan de community vragen. Maar ik denk dat de focus in de eerste instantie moet liggen op: Stabiliteit, Prestaties en de prijs prestatie verhouding. Daar na ook zeker zaken zoals geluid productie en energie verbruik en dan pas extra features in de software.
Ga je bijvoorbeeld nog 1-2GB ram ontwerpen uberhaupt overwegen (lowcost, voor budget segment) of gewoon standaard >4gb? Boeit <insert aansluiting> nog, of ga je slechts voor 1/2 soorten (hdmi/displayport..)? Doe je er van beide dan 1, of worden dat dan 2 verschillende kaarten? Ga je voor multi-monitor support, en zo ja is dat standaard of een andere kaart? Welke OS ga je wel/niet ondersteunen, en wat wel/niet met grafische software als directx? Etc etc.

Ook dat zijn community vragen op zich. Gaat het om prijs, performance, stabiliteit werkt immers door in dat soort detail vragen. Minder ingewikkeld ontwerp betekend vanzelf dat die alle 3 verbeteren.
Als je als 'nieuweling' begint, en de eigen architectuur ontwerpt, kun je nog op dat niveau keuzes maken die je de komende 5-10 jaar kunt achtervolgen. Je zit niet vast in een oud ontwerp waarop je verder werkt, met legacy meuk waar je (tijdsdruk, of backward compatability of whatever de reden) noodgedwongen omheen werkt.

Vooral omdat elk van die zaken in de basis een ontwerp/software nodig heeft waarbij je met dergelijke keuzes en flexibiliteit kunt omgaan, wat natuurlijk wel weer resources kost aan R&D - die je dus niet ergens anders aan kunt spenderen.

Dus er zijn veel basis zaken die je op zich best aan een community kunt polsen, om te zien waar de must-haves en nice-to-haves zitten, zonder gelijk in geavanceerde features te denken.

[Reactie gewijzigd door Xanaroth op 21 februari 2019 11:47]

Dat zijn idd ook goede voorbeelden. Sommige mensen willen perse DVI hebben. Terwijl een convertor prima werkt brengt dat wel extra kosten met zich mee om die te kopen.
Features zijn geinig, maar support is cruciaal. Als game-devs niet optimaliseren voor je kaart, kun je inpakken. Als je drivers ooit beroerd waren (zeg 5 jaar geleden) en je geen tonnen kunt spenderen aan die optimalisaties, ben je ook klaar. Als je alleen maar theoretische features toevoegt aan een theoretische kaart die er nooit is, ben je ook klaar.

Dit klinkt als de Raja methode: veel hype, weinig wol. I skip, tot ze daadwerkelijk een kaart hebben. Gaan we daarna verbeteren.
Maar dat geef ik in mijn post toch ook aan? eerst moet je alle andere zaken op orden hebben wil je met features bezig gaan:
Dus op die manier kan je zeker input aan de community vragen. Maar ik denk dat de focus in de eerste instantie moet liggen op: Stabiliteit, Prestaties en de prijs prestatie verhouding. Daar na ook zeker zaken zoals geluid productie en energie verbruik en dan pas extra features in de software.
Hahaha dat is dus wat ik ook dacht.

De community wilt een beest van een kaart welke ene jaar zijn tijd vooruit is -> a la "But can it run Crysis?"
- Max prijs 600-800 euro
- Alle features hebben die nu al beschikbaar zijn. (HDMI 2.1, 4K/8K, .xx TFLOPS, etc...)
- Max prijs 600-800 euro
Dit alleen geeft al aan hoe we ons door nVidia hebben laten manipuleren.

Een paar jaar geleden had iedereen (zelfs de meest fanatieke gamers) dit een absurde prijs gevonden.
Inderdaad in de tijd van de 9700 Pro betaalde je iets van +-450 euro voor het topmodel.
Dat vind ik nog steeds best wat geld voor een videokaart. 800 euro ga ik niet meer uitgeven voor een nieuwe videokaart. Ik vind 400-500 al meer dan genoeg.
Nvidia / Apple zitten in hetzelfde schuitje -> Prijs maar opdrijven tot de Consument het vertikt om nog te betalen.
Eindstand winstwaarschuwing afgeven omdat de omzet is gedaald. Ra ra hoe kan dat.

Achteraf rare fratsen uithalen:
Geen cijfers meer geven over hoeveel er van een product nou verkocht is maar alleen totalen opgeven qua omzet.
Achteraf moeten toegeven dat uitstel van de nieuwe serie was om de voorraden weg te werken.

Aandeelhouders uitleggen hoe verder.

Cocky af
Erm dat zou dus wel een interessante vraag vanuit ontwerper:


Ik wil geen "beest van een kaart welke ene jaar zijn tijd vooruit is -> a la "But can it run Crysis?"
- Max prijs 600-800 euro"

600Euro kaarten ga ik gewoon niet willen betalen, hoe geweldig die ook is.
Ik wil niet meer uitgeven dan 200-300 euro. En die hoeft ook echt geen 100fps op 8k met raytracing uit te voeren.... (zou wel leuk zijn) Als ik hedendaagse spellen maar fatsoenlijk kan spelen op mijn 1080p 60hz monitor.

Dus het lijkt me best wel interessant om als producent te weten of ik nou de 10% of de 90% ben die er zo over denkt.
Kaarten tussen de 200-300 euro die hedendaagse games op 1080p60 fatsoenlijk afspelen hebben AMD en Nvidia ook. Waarom zou je overstappen naar een merk wat nog niet de support vanuit game developers enzo heeft?
Je moet hetzelfde doen voor veel minder geld, dus ultra settings 1080p60 voor 100 euro ofzo en ultra settings 4kp60 voor 350 euro ofzo wil je mensen over de streep trekken om een kaart te kiezen waar games mogelijk nooit voor geoptimaliseerd zullen worden als niet genoeg mensen die kaarten kopen...
En Navi gaat misschien al wel ultra settings 4kp60 halen voor 350 euro, dus zal je nóg goedkoper moeten zijn of voor hetzelfde geld 120 fps moeten halen ofzo.
We bedoelen hetzelfde, maar mijn punt was misschien wat onduidelijk.

Mijn bericht was puur een reactie op crzyhiphopazn die zegt dat de communitie een kaart van 6-800 euro wil. Ik vind het echt het totaal niet interessant wat een kaart van 600E wel of niet kan.

Dus als intel dadelijk komt met een 2080 concurrent die verder hetzelfde is, maar wel 100E goedkoper en 5% sneller is dan de 2080.
Dan is dat volgend crzyhiphopazn een perfect geslaagde kaart , en volgens mij nog steeds totaal niet interessant (want te duur). Dus de vraag is hoeveel van de "community" er zo over denkt.

Voor mij is het inderdaad of lever veel meer(of mooiere)frames voor die 250E . Of breng een goedkopere kaart van 150e uit die inderdaad 1080p prima kan spelen
1080P 60Hz is inmiddels niet meer de hoogste lat.
Technologie moet ook vooruitstrevend zijn om te innoveren.

Stabiele frame rates op 4K60Hz is de minimale lat en als ze het goed willen doen dan gaat de focus richting 4K 144Hz komend jaar.

De monitoren zijn al op CES aangekondigd en Devs moeten er rekening meehouden dat de technologie al in ontwikkeling is.

Ik zelf heb voor 600 eurro in Augustus de LG 43UD79-B monitor gehaald welke 4K 60Hz is.
Houd mijn ogen open om maybe eind dit jaar een kaart te kopen die makkelijk games op Ultra settings 4K 60Hz stabiele frame rates kan produceren voor een schappelijke prijs.
En waarom is dat voor mij interessant ?
" Stabiele frame rates op 4K60Hz is de minimale lat"
De minimale lat voor JOUW wensen.

Ik heb en ga geen 600E uitgeven voor een nieuwe monitor. Dus tegen de tijd dat die monitoren voor 200E op de markt zijn en de mijne versleten is. ga ik wel weer eens in die richting kijken.

Ik game al sinds 1990 op pc's. en alle kaarten die ik ooit gehad heb (en dat zijn er een stuk of 10) kosten rond de 100-250E.

Ik zie vooruitgang als breng mij de meeste bang voor dat bedrag. Niet als in 5% meer frames voor 20% meer euro' s.
Ik heb het niet over mijn of jouw wensen.

Eerst lag de algemene lat op 1080P 60Hz stabiele frame rates te produceren.
Daarna ging het naar 1080P 60+ frame rates 144 tot aan 240

Nu is 4K betaalbaar als monitor en is de lat op 4K 60Hz gelegd.
Wilt niet zegen dat het voor iedereen de lat is, maar is wel de algemene lat.
"Ik heb het niet over mijn of jouw wensen."
En Ik dus wel :)
De vraag van intel is : wat wil de community.
En dat is dus wat wil jij en ik.

En ik vind 600E voor een monitor niet de de "betaalbaar" categorie vallen.
Maar dat is dus net de vraag. Wat wil de meeste games uitgeven, voor welke performance..
Ik zeg ook niet dat 600 euro betaalbaar is.
Er zijn zat monitoren voor 300 vindbaar.

Maar jouw wensen is op dit moment niet de hoogst haalbare lat.
Stilstaan in de technologie is je doodvonnis tekenen want andere fabrikanten zijn welwillend om te innoveren en geld te investeren in nieuwe technologie dat is de boodschap die ik wilde overbrengen.

Iedereen moet voor zichzelf uitmaken wat zijn of haar budget is om iets te kunnen/willen kopen.
Dit betekent niet dat de technologie niet welkom is.

Kip/ei verhaal.
Er zijn meer toepassingen voor videokaarten dan alleen gaming he. De gpu kan voor allerhande berekeningen dienen. Denk aan machine learning, rendering etc
Ze verwijzen hierbij specifiek naar gaming. Dus natuurlijk, je kan er meer mee doen, maar daar gaat het hier niet over. En sowieso kent uiteraard Intel die toepassingen ook wel. Dus ik ben het geheel eens met @Jeroenneman, wat verwachten ze nu precies voor een feedback die je niet zelf kan bedenken als gemiddelde Intel medewerker? Dat sommige hem ook nog in verschillende kleuren beschikbaar willen zodat hij past bij hun kast? Ik weet ook niet of Intel op dezelfde manier gaat werken als AMD/NVidia, met third party partners die kaarten uitbrengen, of dat ze alles zelf willen gaan doen.
dan nog zijn er wel meerdere details bij te bedenken. En het kan ook gewoon een goede manier zijn om empathie en betrokkenheid te creëren, dan heb je gelijk een goede groep ambassadeurs. Zie het als pure marketing
Eens dat het gewoon een marketing stunt is. Maar daarom heeft @Jeroenneman gelijk, en vraag ik me af waarom hij in hemelsnaam weggemod wordt. Natuurlijk, het is geen +3 reactie, maar -1 slaat ook nergens op.
... wat verwachten ze nu precies voor een feedback die je niet zelf kan bedenken als gemiddelde Intel medewerker? Dat sommige hem ook nog in verschillende kleuren beschikbaar willen zodat hij past bij hun kast?
Je zou wellicht kunnen denken aan 'wel of geen display-port', Zoiets. Maar ik blijf dat vaag vinden (te meer daar 'gewoon' marketingonderzoek doorgaans veel beter antwoord kan geven op zo'n vraag).

Lijkt me idd dat Intel met zijn 'leren van de community' gewoon alleen maar op een goekope manier sympathie voor zichzelf wil kweken. Zegt immers niet iedere politicus hetzelfde? ("Wij luisteren naar het volk!")
Ik interpreteerde community hier eigenlijk meer de developers. Dus wat zouden zei in een kaart willen wat voor hun het developen makkelijker/beter zou maken. Als je dan een kaart produceert waar makkelijk op te developen is en dus mooie resultaten haalt voor een normale prijs dan volgt de massa wel.
En lage frame times!

Wat minder populair maar; GEEN RGB ledjes overal op plakken!!
Intel is een chipmaker. Die zouden heel graag LEDjes op hun chips kunnen plakken, maar dan om er glasvezel op aan te sluiten. Die RGB ledjes waar jij aan denkt komen op de kaart, niet de chip, en dus moet je meer naar Asus etc kijken.
Wat doen die RGB LEDjes je? Vind je ze niet leuk, zet je ze uit, wil je geen circus, kies je een kleur die je leuk vind en gelijk is door je hele kast. Wil je wel circus dan kan dat ook.

Moet je ze natuurlijk wel echt uit kunnen zetten en niet dat ze soms na een reboot ineens weer aan zijn. Looking at you Asus.
dat zijn de board partners die de keuze maken. de reference-kaarten hebben helemaal geen RGB.
Horen van de community?

Wat verwachten ze? Dat iedereen een luide, energiezuipende, onderpresterende kaart wil?
Dat kon nog wel eens meevallen. Intel maakt natuurlijk ook hele generaties chipsets voor moederborden. Dat geeft ze, qua mogelijke afstemming van GPU en moedebord chipset functies, wellicht toch een behoorlijke edge (beetje te vergelijken met hoe veel soepeler IE, van Microsoft zelf, integreerde in Windows, vergeleken met, zeg, een third-party browser als Firefox). Onderschat Intel niet.
Hey, vergeet de RGB lichtjes niet ...
“If I had asked people what they wanted, they would have said faster horses.”
― Henry Ford
Ja en nee...
Intel is niet van plan een nieuwe oplossing te verzinnen voor de video kaart. Dat heeft men eerder gepoogd en dat faalde jammerlijk. Intel is van plan een zelfde ding (paard) te maken al NVidia en AMD. Het is dus helemaal niet zo'n slecht idee dat ze aan de community vragen wat zij belangrijk vinden als je zo'n ding beter maakt dan de concurrenten.

Het zou bijvoorbeeld hele goed kunnen zijn dat Intel ray-tracing als minder belangrijk heeft ingeschat tijdens de ontwikkeling maar dat de community in middels graag meer een focus daar op ziet. Of dat Intel zwaar heeft ingezet op 4k waar de community liever had gezien dat Intel gelijk de stap naar 8k had gemaakt.
Het is niet meer zo dat de meerderheid van de mensen die echt interesse hebben in een technologie er weinig tot niets van weten. Ik heb meerdere bedrijven gezien die tijdens een presentatie voor een totaal ongerelateerde groep mensen in aanraking kwam met een aantal mensen die hun product veel verder konden helpen dan wel met voorstellen kwamen waar het bedrijf nog helemaal niet aan gedacht had maar wat uiteindelijk toch echt een hele erg goed plan bleek te zijn.

Als je kijkt naar de tijd dat Henry Ford leefde, en kijkt naar nu dan hebben de meeste mensen extreem veel meer kennis van nieuwe technologien toegang tot enorme hoeveelheden aan informatie en veel al ook erg veel tijd om zich te verdiepen in dingen in verhouding tot de gemiddelde persoon toen Mr. Ford zij auto's maakte.
Dit veranderd de situatie flink, zeker als alles dat je wil maken een zelfde product is als wat een concurrent al maakt. In dat geval is markt onderzoek zeker niet slecht om te doen. Ook is het een erg goede manier om mensen warm te laten lopen voor een release volgend jaar. Een heel jaar mensen laten zien wat het product kan, hoe innoverend het is en ze het gevoel geven dat zij invloed hebben op het product (dat maakt het veel meer waarschijnlijk dat mensen het product ook zullen kopen als het ook een beetje van hen is.
En mocht je dan toevallig wel tegen een goed idee aan lopen waar jij nog helemaal niet aan gedacht had (hoe onwaarschijnlijk dat ook moge zijn). Of iemand tegenkomen die echt weet waar ze het over hebben en die openstaat voor een baan binnen jouw bedrijf dan is dat alleen maar mooi meegenomen natuurlijk.
Intel is niet van plan hetzelfde "paard" te maken als nVidia of AMD, want dan zouden ze wel met nVidia en AMD praten. Die twee bedrijven zijn marktleiders en zijn bezig met de mogelijkheden in toekomst en de nieuwe technologie die daarbij hoort. O.a. risico's nemen met ray-tracing of AI. Dat is nou juist wat Intel niet lijkt te willen.

Ik ben het met andere eens dat dit nogal populistisch overkomt. In mijn ogen een beetje de (oude?) D66 tactiek: "D66 staat waar jij voor staat" ;)

Jan Consument heeft geen idee wat hij over 5-10 jaar wil (want het kost vele jaren om een grafisch device te ontwikkelen). Kijk nog even naar dit filmpje over hoe mensen in 1998 over mobiele telefoons dachten. Moet je 15 jaar later eens kijken.
niets is minder waar.

een goede ontwerper weet de juiste vragen te stellen.

(overigens bedoel ik niet te zeggen dat Intel de goede ontwerper is.... :P , goede ontwerpers zijn schaars)
Deze quote is heerlijk, maar er zit wel een nuancering achter. Er zit een verschil tussen klakkeloos overnemen wat de menigte roept (snelle paarden), of doorvragen wat de behoefte precies is (snel van A -> B ) en daar met je eigen expertise een slimme oplossing voor zoeken (auto's!).

[Reactie gewijzigd door TwistedMindNL op 21 februari 2019 10:26]

Dat is zeker waar, maar toen ik de kop las moest ik meteen hier aan denken..

Uiteindelijk is het belangrijk om behoeftes van je community in het ontwerp en de techniek mee te nemen in het proces maar volg vooral ook je eigen gevoel want anders loop je achter de rest aan ;-)
Heerlijke quote, helaas heeft de goede man dit nooit gezegd.

Hij dacht ongetwijfeld wel zo getuige zijn "Any color as long as it is black" mentaliteit.

Echter het niet luisteren naar zijn klanten heeft hem later in de problemen gebracht: Op een gegeven moment waren 2/3 van de auto's in Amerika van Ford, 10 jaar later nog maar 1/3. Dit was het gevolg van het feit dat inmiddels iedereen wel "betere auto's" wilde, maar hij niet luisterde en de concurrentie wel.

Het is dus maar net in welke fase van de life-cycle van een technologie je zit: In den beginne moet je misschien gewoon eigenwijs zijn, maar zodra iets een commoditiy is geworden moet je wel degelijk je (potentiële) klanten betrekken in het (verder) ontwikkelen van je product.
2020 kan dus een interessant jaar worden qua videokaarten.
En een 3de speler erbij voor de broodnodige concurrentie kan ik alleen maar toe juichen want wat Nvidia nu voor woeker prijzen rekent voor de 2080ti is tegen mijn principes van max 800€ voor echt high_end.
Denk je dat intel geen woeker prijzen vraagt als de markt dat gewoon toelaat? Ik denk het wel. Ik denk zelfs dat Intel een paar jaar geleden weer serieus aan GPU's is gaan werken omdat de marges groot zijn en er veel geld uit onze zakken te kloppen is.
Of het zou ook zo maar kunnen dat het werkelijk veel meer kost om die kaarten te maken.
Ja, dat is zeker ook een factor.
Als ze een fatsoenlijke midrange kaart uitbrengen dan heeft Intel waarschijnlijk mijn voorkeur. Zelfs als de prestaties iets minder zouden zijn... de Linux drivers van Intel zijn doorgaans (veel) beter als NVidia en AMD (hoewel AMD goed aan de weg timmert momenteel).
Niks mis met een derde concurrent :) hoop dat het veel verschil gaat maken op prijs vlak.
Als Intel serieus wilde concurreren met nVidia of AMD, dan hadden ze daar al lang op ingezet. Nu lopen ze tientallen jaren achter op die twee.
De manier waarom ze het nu lijken te benaderen lijkt ook niet aan te geven dat ze hoge ogen willen gooien.
Ik denk dat het een illusie is om te denken dat er een 3e concurrent bij komt, waardoor prijzen zouden dalen. Hoogstens dat de APUs of integrated graphics iets beter gericht zullen zijn op games.
Als Intel al een superzuinige kaart met goede drivers op de markt brengt met een uniek uiterlijk kunnen ze al een deel van de markt aanspreken. Intel integrated graphics zijn bruikbaar voor desktopdoeleinden, maar een 3D game degelijk afdraaien blijft nog een beetje ambitieus.
Want het uiterlijk van de kaart is ook zo belangrijk als die in een afgesloten doos zit...............
Een groot deel van builds heeft een window en/of RGB/verlichting. Er is een reden dat er zoveel gaming apparatuur op de markt is. Ik neem aan dat je voor jezelf spreekt wanneer de looks van een videokaart er niet toe doen.

[Reactie gewijzigd door Neallord op 21 februari 2019 16:14]

Nouja, niet alleen ik hoor, meeste mensen die ik ken geven geen zak om hoe dat ding er uit ziet, als die maar snel en stil is en goed werkt. Zijn maar weinig mensen die ik ken die aan die onzin van window en vooral led/rgb verlichting, daar zit bij mij juist zelfs tape overheen want die 1ne led op mijn fractaldesign kast was veel te fel.
Maargoed ieder zo zijn ding, zolang ik er maar niet extra voor hoef te betalen.
Zolang je kaarten maakt die beter presteren dat je concurrentie voor minder geld in de markt zet en minder energie gebruiken zit je goed, daarvoor hoef je geen tijd en energie te steken in leren.

Liever niet koop elk jaar top kaarten van concurrent en kom met iets beters.
Het zou vooral mooi zijn als Intel bij introductie ook zijn ondersteuning (met name drivers) langer gaat maken. Intel heeft voor mijn idee altijd relatief veel "planned obsoletion" doordat apparatuur gewoon niet goed/lekker werkt na een aantal jaar. Dat heeft bijvoorbeeld NVidia veel beter op orde!
Prijzen omlaag!

Kijken of ze luisteren.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True