Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel doet overname voor expertise losse gpu's

Intel heeft een deel van Ineda Systems overgenomen. Het in het Indiase Hyderabad gevestigde bedrijf ontwikkelt technologie voor autonoom rijden, maar de overname zou vooral gericht zijn op de gpu-gerelateerde vaardigheden van zo'n honderd technici.

Dasaradha Gude, de oprichter van Ineda Systems, bevestigt de overname aan de Times of India, maar hij wilde verder geen details geven. Een woordvoerder van Intel zegt tegen de krant dat zijn bedrijf de engineering resources van Ineda Systems heeft overgenomen, waarmee Intel een 'ervaren team op het gebied van socs krijgt om te helpen een bedrijfsonderdeel voor losse gpu's op te bouwen'.

De Times of India meldt dat bronnen hebben aangegeven dat het om ongeveer honderd technici gaat met gpu-gerelateerde vaardigheden. Intel heeft in Hyderabad al enkele honderden medewerkers in dienst die voornamelijk software ontwikkelen.

Ineda Systems is zo'n acht jaar geleden opgericht door Dasaradha Gude en het bedrijf is werkzaam in de sectoren autonoom rijden, kunstmatige intelligentie en iot. Voor de oprichting van dit bedrijf was hij een directeur bij AMD in India. Het bedrijf haalde enkele jaren geleden tientallen miljoenen dollars op bij onder meer Samsung en Qualcomm, nadat het relatief zuinige chips voor wearables had ontwikkeld. Later ging het bedrijf zich meer op autonome technologie richten.

Door Joris Jansen

Nieuwsredacteur

18-02-2019 • 15:09

34 Linkedin Google+

Reacties (34)

Wijzig sortering
Dan wordt het duet van NVidia en AMD misschien wel doorbroken, alhoewel het volgens mij best een tijd kan duren van het inhuren van technici tot het demonstreren van een werkend extern GPU, zeker gezien er bij een overname ook wel een deel van de mensen weg zullen lopen.

[Reactie gewijzigd door hooibergje op 18 februari 2019 15:20]

- S3 kon niet meekomen en kapte er voor de retailmarkt mee na de mislukte savage2000..
- PowerVR had met hun Kyro chips een vreemde interessante eend in de bijt, met veel belovende resultaten maar geen T&L, waardoor ze zich maar terugtrokken
- Matrox was voor geen meter inzetbaar voor spelletjes
- Tseng, OAK en Realtek waren al een tijdje van de markt.

De laatste partij die de aanval inzette was XGI(fusie van voormalige budget-graphicboeren SIS en Trident), met hun Volari... Die werden echter(mogelijk gehint door de concurrenten) zwaar onderuit gehaald met "fake drivers" waardoor via frameskips hogere resultaten werden behaald in benchmarks. Waren ook snel van de markt af.

En waar ik nog een Savage2000 heb geprobeerd(en geluk had dat ik hem terug kon brengen omdat ik bij de winkel in kwestie werkte, ingram heeft herhaaldelijk geprobeerd met palletdumps alsnog van die dingen af te komen.), en de Kyro lang heb gebruikt, besloot ik na 10 minuten met de Volari te stoeien het ding niet eens meer de kans te geven.

Stijd zal de komende jaren echt wel tussen AMD en Nvidia blijven gaan.
De Matrox G400 Max was een tijd de snelste kaart. Daarvoor was er de G200, die ook prima presteerde. Het grote probleem van Matrox was de afwezigheid van goede/snelle OpenGL drivers voor m.n. Quake.

De Parhelia van Matrox was een flop. Te laat, te traag, met buggy hardware.
De Matrox G400 is van dezelfde generatie als de nVidia TNT2, Voodoo 3000, S3 Savage2000 en Ati Rage Fury.
nVidia was dat moment niet eens de snelste, maar verraste iedereen door kort daarna de Geforce te lanceren en iedereen het nakijken te geven.
Ati is de enige die de Geforce overleefd heeft. De andere konden het blijkbaar niet aan om een dergelijk complexe chip te bouwen.
Naja, ATI heeft het ook niet overleeft. Die is geabsorbeerd door AMD. Alleen hadden ze nooit tegenover dat budget van Nvidia stand kunnen houden.
Catfish doelde natuurlijk op de originele GeForce 256 launch in 1999. Die kaart was het begin van het einde voor alle andere chipbakkers, met uitzondering van ATI.

De overname door AMD gebeurt pas 7 jaar later, en in de tussentijd hebben ze een flinke strijd geleverd.

In die tijd liepen ze lang niet altijd achter de feiten aan. De Radeon 9800 maakte gehakt van de toenmalige GeForce FX series, en zelfs toen NVIDIA de prestatiekroon terugwon bleef ATI een lange tijd superieur in het middensegment.
ATI had meer kunnen doen als ze onafhankelijk waren. Want dan hoeft ATI niet de verliezen van CPU afdeling te dekken en was hun R&D potje onafhankelijk.
En dan had ATI ook zeker lekker mee kunnen draaien op het succes van de integratie in de moderne consoles? Door de overname is er juist een breder budget gekomen voor R&D alleen breder als enkel voor gaming. Ik denk niet dat je de "achterstand" van de huidige AMD/ATI kaartjes kunt schuiven op een tekort in R&D budget. Volgens mij droeg de graphics tak niet direct de CPU tak maar wat het eerder de console tak die de CPU en graphics tak droeg. En als je het over de "bubble" had die crypto mining hete dan is dat een jaar tot max twee jaar geweest.
Het grote probleem was dat ze wel GL driver beloofden maar er nooit mee afkwamen. Hoop mensen waaronder ik kochten de G200 vanwege de goede 2d kwaliteit met later 3d alleen kwam de laatste nooit.
Behoorlijk van gehaald en al snel naar GeForce overgestapt denk een TNT kaart uit m'n hoofd
De drivers zijn uiteindelijk wel goedgekomen hoor, ook voor de G200. Vraag maar aan mijn vele slachtoffers in Unreal Tournament, wier hoofden in kleurig true-color spektakel van hun romp werden gescheiden ;) Overigens was de G400 de enige die onder Windows 2000 verschillende resoluties voor multi-monitor ondersteunde. Het was niet alleen kommer en kwel.

nVidia had er een handje aan om wat "optimalisaties" te gebruiken tgv de performance. Zo ondersteunde de TNT-chip geen volledige trilinear filtering, waar wel mee geadverteerd werd. Het bleek imo tekenend te zijn van hoe de modus operandi van nvidia is. Die van Intel is overigens niet bepaald beter. Gelukkig is Intel dan wel sinds heugenis goed bezig met open source drivers, itt nvidia.

[Reactie gewijzigd door Fuzzillogic op 18 februari 2019 20:36]

Ik heb de Parhelia met plezier gebruikt. Ik had toen nog een analoge monitor met vrij hoge resolutie, en het superieure analoge signaal van Matrox gaf een kraakhelder beeld. Op een nVidia of ATi kaartje was het altijd janken met ghosting, overspraak, en onscherpte.

Hij had niet de 3D paardenkrachten van de concurrentie, maar overtrefde ze wel in kwaliteit.
Die videokaarten toen waren ook al flink aan de prijs.Maar nvidia spant de kroon met zijn 2080 ti.
Ik had toen een Pentium 3 op 450 mhz en had de onboard videokaart doorgelust met een voodoo 2 12 mb en een s3 trio op het ibm moederbord.Ik had toen een heuse 16 mb videokaart die voor sommige spellen al overkil was.windows xp was toen net uit.

[Reactie gewijzigd door rjmno1 op 19 februari 2019 13:39]

Powervr leeft voort in een hoop mobiele socs. Herriner me de myro nog wel, tile based rendering en was verassend vlot vs een gelijk geprijsde geforce 2 mx maar de driver ondersteuning was brak. Helemaal in winxp waarbij de geforce drivers net wat sneller gingen. Toch een moooe efficiente technologie.
Precies dat TBR techniek gaf de kaart een gigantische voorsprong in veel 3D games, vooral onder windows98SE(Kaart was van midden 2000, en ten tijde van XP's introductie waren ze al lang van de markt, hooguit restanten werden op de markt gedumpt door o.a. Powercolor.

Het nadeel van de kaart was dat hij in een AMD K6 zo'n beetje gelijkwaardig presteerde als dat diezelfde kaart in een Pentium 3 op 1Ghz gepropt werd.. Leuk voor de eigenaar van de K6, maar degene met een performance systeem kon beter een Geforce2 kopen.
Houd in het achterhoofd dat Intel meer plannen heeft dan "alleen" een discrete GPU, ik vermoed dat Intel het zeer zuur vindt om vega chips af te nemen van AMD. Heb toch zo het idee dat discrete GPU zo op zijn beloop is voor de consumenten markt en dat de apu toch de toekomst is. De ontwikkeling van zuinige maar toch krachtige apu door AMD blijkt mijn inziens de toekomst voor de grafische kant van computers. Intel realiseert dit en wil dit dus ook gaan doen maar heeft meer kennis van discrete gpu nodig (waar larrabee gefaald heeft of ook weer niet?) Moeten ze iets doen. Een samenwerking met Nvidia was nog onwaarschijnlijker dan AMD blijkbaar voor APU.

Om andere voor te zijn met Ray tracing en DLSS, moet men zich afvragen: waarom opeens?
Hmm en dan te bedenken dat de PowerVR technologie nog steeds door een telefoon maker gebruikt wordt in haar eigen SOC's, S3 was zeker niet slecht tot het op een bepaald moment simpel weg niet meer wilde en de video tak aan VIa Technologies verkocht (later ging dit over naar HTC)
Matrox ondanks dat ze eens toch echt wel mee deden kon NVidia en AMD niet bijhouden en heeft zich gespecialiseerd in andere toepassingen en de markt verlaten.
Tseng, OAK en Realtek waren nooit echt spelers op de markt.

Wat betreft de aankoop, Intel heeft jaren geleden geprobeerd NVidia over te nemen toen ze zagen dat AMD ATI over wilde nemen. Dat ging goed tot de twee hoge heren met elkaar overhoop kwamen te liggen en de verkoop 100% zeker weten nooit zal gebeuren zo lang een van de twee nog in het zadel zit (en nu waarschijnlijk hoe dan ook niet meer gaat gebeuren)
Als reactie hier op heeft Intel veel geld gestoken in de ontwikkeling van eigen GPU's de geintegreerde chips zijn voor wat het is zeker geen slechte GPU's maar omdat ze in de zelfde package zitten als de CPU en dus met wat vermogen platformen, afmetingen en prijs beperkingen te maken hebben kunnen ze niet heel veel beter zijn dan wat ze zijn. Intel heeft hier voor een eigen GPU gebouwd en dat werd een flop, om welke reden dan ook is dat project nooit verder gekomen dan testen in het lab (politiek was een onderdeel van de beperkingen, even als de gemaakte technologie keuzes)
Recent heeft Intel een flinke hoeveelheid R&D budget beschikbaar gemaakt voor het opzetten van een nieuw team dat GPU's bouwt ze hebben belangrijke mensen bij AMD en NVidia weg geplukt en flink wat meer mensen aangenomen. Deze overname ligt dan ook geheel in lijn met de doelstelling van Intel om tot een eigen high performance GPU te komen die echt kan concurreren met de AMD en NVidia GPU's.

Of het Intels doel is om bijvoorbeeld een for gamers GPU te maken is de grote vraag zij zien NVidia met hun Tesla kaarten een steeds groter markt aandeel pakken op de super computer markt waar de CPU's van Intel veel al samen met de Tesla kaarten gebruikt worden en de Tesla kaarten de reden zijn dat de huidige super computers zo veel meer berekeningen kunnen uitvoeren dan de voorgaande modellen. Het is steeds belangrijker om te vertellen hoeveel GPU's er in een super computer zitten waar de CPU's steeds meer een manier zijn om de GPU's te voeden met voldoende data en de communicatie af te handelen. De Tesla technieken zijn voor een goed deel toepasbaar voor de thuisgebruiker GPU en dus is de R&D hier in de moeite waard omdat je er dubbel aan kan verdienen.
Intel heeft daarnaast een flink achterstand op AMD als het op de APU aan komt en dat is waar de markt naartoe gaat...

AMD is wat prestaties erg dicht bij Intel en omdat Intel zelf ook wel inziet dat de toekomst echt niet in nog hogere snelheden ligt en ook nog meer vermogen door zo'n chip pompen niet echt haalbaar is is er maar een echte oplossing en dat is concurreren met die andere hele belangrijke chip in de computer. Intel moet wel de winst met consumenten chips word steeds minder AMD heeft de console markt stevig in handen en zal ook voor de volgende generatie de hofleverancier zijn.
Zonder een goede GPU zal Intel het uiteindelijk verliezen van AMD in de thuis computer markt en van NVidia in de supercomputer markt. De server markt (de grootste cashcow) is op dit moment alleen van Intel maar ARM is hard bezig met een opmars en het zou me niets verbazen als binnen een paar jaar ook hier Intel het wat moeilijker zal krijgen omdat hun chips simpel weg te veel vermogen verstoken en het steeds meer draait om hoeveel dingen een rack kan doen vs. hoeveel vermogen je in dat rack moet pompen. Intel vs. ARM is in dat geval een simpele win voor ARM, natuurlijk is Intel op het moment wat ruwe rekenkracht nog steeds sterker maar als ik 10 tot 50x meer systemen in een rack kan plaatsen dan is dat single tread verschil in zeer vele gevallen niet zo heel erg belangrijk meer.
Dit is zelfs niet eens zo gek als je denkt, er was een tijd dat intel er bijna 1 had.

Linus had er een tijdje geleden een video over:
https://www.youtube.com/watch?v=um-1fAVU1OQ

Ik hoop dat ze losse gpu's gaan maken, want de onboard GPU's zijn de laatste tijd nog niet eens zo gek.
Bijna? Intel heeft in het verleden al een GPU uitgebracht, de i740.
Alleen de I740 was niet bepaald indrukwekkend qua performance(Nidia Riva128 was ouder en sneller), maar goed genoeg voor "gewoon desktopgebruik", het was ook niet bedoeld als gamecard.
De i740 was (iets?) sneller dan de Riva128, maar destijds veel goedkoper. Menig budget PC was ermee uitgerust.
Riva TNT echter, maakte er gehakt van.
Ja, wat meer concurrentie is altijd goed. Alleen zou ik liever een ander bedrijf zien dat Intel. Die hebben al macht genoeg op de CPU/SoC markt. Als die een significant aandeel krijgen voor losse GPU's blijft er straks helemaal geen concurrentie voor Intel meer over...
Maar Intel zal ook wel moeten. Ze hebben nog eventjes totaal geen antwoord op AMD op CPU vlak, laat staan de combo's. In een markt waar je toch steeds meer richting d SoCs gaat ipv dedicated stukjes hardware. (een mobo is al niets anders, zie wat er nu op zit VS die eerste IBM mobos)

Nvidia zit nu de GPU boot nog uit, maar ook die laat de CPU markt niet links liggen.
Intel heeft al AMD chipontwerper Jim Keller en AMD GPU topman Raja Koduri in dienst genomen. Nu ze een deel van Ineda Systems overnemen voor GPU expertise lijkt het erop dat Intel wakker is geworden en zich voor aan het bereiden om de GPU-markt te betreden. Lijkt me interessant. Weer iets nieuws en meer keuze voor de consument, maar we zullen moeten afwachten en het nieuws voor nu met een korrel zout nemen. Ik ben benieuwd!
Jim Killer is niet zo zeer AMD chipontwerper, als wel een freelance chip ontwerpen for hire. intel heeft hem bij tesla weggekaapt.

En als we echte keuze op de markt willen dan moet intel nog een paar jaar langer falen, tot we een meer 50/50 marktverhouding hebben. intel heeft nog te veel geld in kas en is te gehaaid in smerige (en waarschijnlijk illegal) trucs om een eerlijke markt te verwachten als ze wel snel al iets fatsoenlijks komen tegen een fatsoenlijke prijs.
lijkt het erop dat Intel wakker is geworden
Het lijkt er eerder op dat jij net wakker bent geworden :)
Het is al enige tijd bekent dat Intel bezig is met een nieuwe dedicated GPU
nieuws: Intel werkt aan 'Arctic Sound'- en 'Jupiter Sound'-gpu's
Dat artikel gaat over high-end GPU's van Intel, dus dat kunnen nog steeds onchip GPU's worden. Deze overname lijkt betrekking te hebben op plannen voor een discrete GPU.

Dus ik weet niet wat jij bedoelt met "dedicated" (in mijn hoofd is iedere GPU dedicated aan z'n taak ;)) maar het zijn in elk geval twee verschillende artikelen.
nieuws: Intels komende losse grafische high-end chip verschijnt in 2020
nieuws: Gerucht: Intel maakt in december meer bekend over zijn Arctic Sound-g...

Als je Intel een beetje volgt, en de diverse berichten over Artic Sound leest wordt al snel duidelijk dat het om een discrete GPU gaat.
Intel heeft een deel van de India gevestigde start-up Ineda Systems overgenomen.
[...]
Ineda Systems is zo'n acht jaar geleden opgericht door Dasaradha Gude en het bedrijf is werkzaam in de sector van autonoom rijden, kunstmatige intelligentie en iot.
[...]
Het bedrijf haalde enkele jaren geleden tientallen miljoenen dollars op bij onder meer Samsung en Qualcomm, nadat het relatief zuinige chips voor wearables had ontwikkeld. Later ging het bedrijf zich meer op autonome technologie richten.
Sorry, maar om nou nog over een 'start-up' te spreken... Het bedrijf bestaat 8 jaar, heeft ongeveer 100 mensen in dienst en heeft al tientallen miljoenen dollars binnengehaald.
Tsja, het gaat om de status. Als je een bepaald product voor ogen hebt en al 8 jaar bezig bent om dat te ontwikkelen, steeds met nieuwe financieringsrondes een stapje verder komt, dan ben je nog steeds bezig met je startup-fase.

Goede voorbeelden hiervan zijn bv. Tesla en Rivian. Rivian is al jaren bezig met hun EV-truck, hebben nog geen concreet product op de markt maar al wel +/- 280 mensen in dienst.

Tesla heeft ook pas in 2008 hun Roadster gebouwd, maar bestaan al sinds 2003.
goed nieuws! meer concurrentie.
Normaal gesproken wel, maar ik weet niet of intel de beste partij is voor meer concurrentie. Ze staan beter bekend om fraude en omkopingspraktijken waar de consument niet veel beter van wordt.
spreken ze de zelfde taal als nvidia
Is het doel voor Intel massieve parallelle computing of videokaartjes maken? Ik bedoel, de Radeon VII heeft een gpu/cpu die niet met gaming in het achterhoofd bedacht is en zoiets speelde volgens mij ook bij Nvidia met RTX. Dit vooral omdat dit soort datacenter producten nu wel hip zijn.

[Reactie gewijzigd door oef! op 18 februari 2019 22:43]

Als ik het goed begrepen heb waren de laaste geintegreerde gpu's helemaal zo slecht nog niet. Kun je zoiets niet opschalen naar het formaat desktop gpu om enigzins mee te komen in de toekomst? Misschien wat naief?

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True