Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties
Bron: Ars Technica

Hoe vreemd het ook mag lijken, nVidia-ceo Jen-Hsun Huang is in zijn nopjes met het feit dat ATi is overgenomen door AMD. Volgens Huang geeft ATi hiermee namelijk impliciet toe dat het alleen niet verder meer kon, zodat nVidia als enige zelfstandige producent van grafische chipsets en de bijbehorende videokaarten overblijft. Of dat ook voordelen biedt, is echter de vraag. Het is inderdaad goed om te weten dat nVidia er gezond genoeg voorstaat dat het geen externe hulp nodig heeft, maar die situatie is geen garantie voor de toekomst. Er zal namelijk ook door nVidia geïnnoveerd en geconcurreerd moeten worden. De competitie tussen de twee bedrijven zou echter wel eens een stuk krachtiger kunnen worden gezien het feit dat ATi door de fusie toegang krijgt tot AMD's patentportfolio en intellectueel eigendom. Ook kan ATi door de fusie voortaan profiteren van financiële investeringen die gedaan worden in AMD en zo de strijd met nVidia met hernieuwde krachten aangaan.

AMD heeft de benodigde 5,4 miljard dollar voor de fusie niet in kas, zodat het bedrijf 2,5 miljard dollar zal moeten lenen om de fusie te financieren. De afgelopen twee jaar heeft AMD al 1 miljard dollar aan leningen terugbetaald, iets wat door de toename van de omzet en de afzet niet al te moeilijk was. Voor de toekomst worden dan ook geen terugbetaalproblemen verwacht, temeer daar men dan ook voordeel kan hebben van het integreren van producten van de fuserende bedrijven. Al met al lijkt het er dan ook op dat nVidia met name op de korte termijn voordeel zal hebben van de fusie. Voor AMD en ATi is het daarom des te belangrijker dat het samengaan geen langdurig proces wordt. De fusie biedt ook uitdagingen voor nVidia. Voorheen werd namelijk veel samengewerkt met AMD en nu zal de relatie met Intel meer uitgediept moeten worden. AMD heeft overigens aangegeven dat concurrentie van nVidia met ATi op prijs gesteld wordt en dat nVidia met AMD mag blijven samenwerken.

Moderatie-faq Wijzig weergave

Reacties (55)

Is de kennis CPU's en GPU's een beetje te combineren zodat beide beter kunnen worden, of zijn de 2 daar te verschillend voor ?
Dan krijgen we dingen als de Geodes waarin alles integrated is, dat is al eerder gedaan, alleen was het vroeger niet altijd even haalbaar.
de kennis is zeker te combineren.
zowel op ontwerp gebied als op productie processen denk ik dat er voor zowel ATI als AMD veel voordelen te halen zijn bij elkaners kennis en patenten.
over 5 jaar is de gpu onderdeel van de cpu, intel is bezig met een cpu met 32 cores

als de gpu geintegreerd is in de cpu heb je maar een kwart van de raw power nodig van een losse gpu:

http://www.theinquirer.net/default.aspx?article=33219

http://www.dailytech.com/article.aspx?newsid=3218
Ik denk dat het niet zo zeer een combinatie CPU-GPU wordt maar een heel nieuw platform voor de pc. AMD die derde partijen de mogelijkheid geeft om gebruik te maken van Hypertransport, de omzwaai naar meerdere cores ipv Ghz.
Ik zie het nog gebeuren dat er dadelijk moederborden komen met alleen maar een paar sockets voor CPU, GPU, en andere PU's voor specifieke taken en alle I/O loopt via Hypertransport. AMD zou bij ATI en nVidia gepolst kunnen hebben welke interesse heeft om hieraan mee te werken en alleen ATI heeft daar positief op gereageerd.
Is de kennis CPU's en GPU's een beetje te combineren zodat beide beter kunnen worden, of zijn de 2 daar te verschillend voor ?
Oh man, persoonlijk hoop ik dat er een videokaart komt met Cool 'n Quiet. AMD heeft de patenten en de technologie, ATI kan prima snelle kaarten maken.

De processors worden tegenwordig steeds zuiniger, kijk naar de Core2, die een prima prestatie kan combineren met uitzonderlijk laag gebruik. De videokaarten daarintegen worden steeds warmer, en zijn ondertussen de meest energie-vretende componenten van een systeem geworden. Als ATI nu een kaart kan ontwikkelen die terug kan klokken, net zoals de notebook kaarten doen, dan zou een combinatie ATI/AMD wel heel erg interresant worden. Zeker voor de mensen die waarde hechten aan een stil en koel systeem.
In de hele berichtgeving over de overname van ATi door AMD wordt te pas en te onpas de term 'overname' met 'fusie' verwisseld. Zo ook weer in bovenstaand stukje. Voor de duidelijkheid: dit is NIET hetzelfde.
Op de sites van ATi en AMD wordt gerept over een 'merger'. Dat is dus een fusie. Als ik echter de berichten over die vermeende 5,4 miljard die AMD moet betalen mag geloven, heeft het weer meer weg van een overname.
Een beetje duidelijkheid hierover zou ik -en met mij vast velen- zeer waarderen. Of het een fusie of een overname is kan namelijk best veel zeggen over de richting die ATi-AMD op zal gaan.
Ati en AMD werkten in het verleden al goed samen. Om dit nu definitiever vorm te geven willen ze graag samen gaan.

AMD is echter groter en om alles makkelijk te laten verlopen is ervoor gekozen om Ati gewoon op te kopen (over te nemen dus). Ati wordt op die manier onderdeel van AMD en dus kan alles wat makkelijker geregeld worden. (Ati kan gewoon langzaam verdwijnen in de AMD soep).

Het is dus een fusie in de vorm van een overname.

Als het geen fusie geweest zou zijn dan was het of een hostile takeover (gewoon uitkopen) of Ati zou verdwijnen en de productlijn opnieuw uitgebracht worden onder de AMD vlag (we zien dit regelmatig bij Microsoft).

Hoewel het hier in Nederland wellicht niet hetzelfde is wordt er in de US vaak deze manier van samengaan gebruikt waarbij de ene partij groter is als de andere partij.
Ati en AMD werkten in het verleden al goed samen. Om dit nu definitiever vorm te geven willen ze graag samen gaan.
Wat een onzin, AMD werkte vooral samen met nvidia, helemaal niet met ATI. ATi chipsets voor AMD zijn relatief nieuw en moeten nog alles bewijzen. De reden waarom AMD zo populair is bij enthousiasts is net door de goede chipsets van nvidia.
Het is geen fusie, het is een overname. AMD heeft ATI nodig om te kunnen concurreren met intel. Niet andersom. Het is ook de naam AMD die gaat behouden blijven, het is AMD die geld moet lenen.
Maar, geforce kaarten werken Wel beter op ATi chipsets dan die van nvidia zelf. Nog een bijkomend voordeel is dat AMD zo ook zn eigen chipbakker heeft en zo weer in het geheim kan werken tegen Intel zonder dat het de weide wereld ingaat. Ook heb ik ook ooit gehoort, dat AMD ging samenwerken met VIA, maar daar liep alles demist in, omdat zij hun bek niet konden houden. wel weet ik niet of dit 100% waar is.
Denk dat de uitwisseling van aandelen door deels aandelen van Ati over te nemen door inruil van AMD aandelen goed zijn voor de andere 2,9 miljard die AMD naast de lening moet ophoesten. Dit gezamelijk zorgt dan voor een fusie.
Vaak wordt een overname een fusie genoemd om de overgenomen partij niet voor het hoofd te stoten. Een fusie klinkt alsof ze gelijkwaardig zijn.
Ik denk dat Intel door deze fusie de gebeten hond is als het om chipsets aankomt met een grafische kaart.

AMD/ATi kan nu een chipset op de markt brengen die een zeer krachtige GPU in zich heeft en de vloer aanveegt met de belachelijk presterende grafische prestaties van de Intel chipsets met VGA.

Intel zal noodgedwongen een zeer grote sprong vooruit moeten maken met de prestaties van zijn grafische chips of een samenwerkingsverband met NVidia moeten gaan doen of overname van NVidia moeten doen. Anders worden de Intel CPU's minder verkocht, Intel chipsets minder verkocht en dus zal het Intel een stuk minder vergaan dan voorgaande jaren. Ik wens ze succes, maar het zal een harde dobber voor ze worden op dat vlak.
Als Intel een degelijke GPU in zijn chipsets wel dan zal het zelf ook wel de knowhow hebben om dit te doen. De vraag is eerder : hoeveel mensen zitten er te wachten op een krachtige GPU on board? Het ding vreet strom word enorm warm, kan niet geupgrade worden en zit hoofdzakelijk in computers voor office gebruik.
Intel heeft al een chipset die perfect voldoet aan alle eisen van Vista.
Wel geweldig zou zijn, een ATi X1650 onboard Mèt CrossFire master! Ideaal voor budget gamer en/of Dan kan men nog 2 X1950XTX bij pluggen zonder CF mastercard en dan heb je een gemakkelijke 2+1 opstelling. Of een gewone X1650 bijpluggen om een dual X1650 te krijgen. ATi had trouwens ook belooft om CrossFire uit te brengen zonder mastercard. Misschien is dit de goede tijd :*)
En binnen afzienbare tijd brengen ze een CPU met ingebouwde GPU, ingebouwde co-processoren en ingebouwd (z-ram) geheugen. Intel staat machteloos tegenover dit alles, ze stonden erbij en keken ernaar...

Ik snap echt niet hoe het mogelijk is dat een bedrijf als Intel dit niet heeft zien aankomen. Het kan niet anders dan dat Intel werd gestuurd door economen die blijkbaar weinig kaas gegeten hadden van de technische aspecten, en geen toekomstvisie hadden.

Dit verklaart ook waarom AMD niets lijkt te vrezen van Conroe; Conroe is gewoon geen bedreiging voor AMD. Conroe is een doodlopend straatje, waarvan het einde al in zicht is.
AMD heeft de benodigde 5,4 miljard dollar voor de fusie niet in kas, zodat het bedrijf 2,5 miljard dollar zal moeten lenen om de fusie te financieren. De afgelopen twee jaar heeft AMD al 1 miljard dollar aan leningen terugbetaald, iets wat door de toename van de omzet en de afzet niet al te moeilijk was.
De poster van dit nieuws moet eens het verschil leren tussen omzet en winst. Je kan een enorme omzet hebben maar dat betekent niet automatisch dat je winst hebt. De omzet is de combinatie van inkomsten en uitgaven. Als die uitgaven groter zijn dan die inkomsten draai je nog altijd verlies en kan je die lening niet afbetalen.
Er zijn genoeg voorbeelden te noemen van IT-bedrijven die ook een lening kunnen terugbetalen zonder ook maar 1 cent winst te maken maar desondanks drijven op the bubble van hun technologie en waarbij de banken dus uitgaan van de "virtuele" marktwaarde van het bedrijf zonder naar de liquide middelen te kijken.

Omzet of winst; het lenen of afbetalen kan bij veel bedrijven zonder deze twee termen.
De poster van dit nieuws moet eens het verschil leren tussen omzet en winst. Je kan een enorme omzet hebben maar dat betekent niet automatisch dat je winst hebt.De omzet is de combinatie van inkomsten en uitgaven. Als die uitgaven groter zijn dan die inkomsten draai je nog altijd verlies en kan je die lening niet afbetalen.
De schrijver van deze post moet eens het verschil leren tussen inkomsten en uitgaven en kosten en opbrengsten.
Je kan een enorme omzet hebben maar dat betekent niet automatisch dat je winst hebt.
Tot zover klopt het nog.
De omzet is de combinatie van inkomsten en uitgaven.
Dit is klinkklare onzin en behoeft naar ik aanneem geen verdere uitleg.
Als die uitgaven groter zijn dan die inkomsten draai je nog altijd verlies...
En dit is een veelgemaakte fout

Uitgaven ≠ kosten. Als ik ¤ 1M aflos op een lening, dan is dat wel een uitgave, maar zijn het geen kosten.
Inkomsten ≠ omzet. Als ik mijn bedrijfspand verkoop aan een vastgoedfonds, dan zijn het wel inkomsten, maar geen kosten.

Winst = omzet -/- kosten
Kasstroom = inkomsten -/- uitgaven

Ik kan dus gewoon winst maken, ook al zijn mijn uitgaven in een bepaald jaar hoger dan mijn inkomsten!
draai je nog altijd verlies en kan je die lening niet afbetalen.
Als ik ¤ 1M verlies maak, maar er zitten ¤ 3M afschrijvingskosten in, dan heb ik toch ¤ 2M over om een lening af te lossen. Die ¤ 3M zijn immers wel kosten maar geen uitgaven (de investering die wordt afgeschreven is al eerder gedaan).

Kasstroom (vóór o.m. investeringen en aflossingen) zegt dan ook meer over de aflossingscapaciteit dan winst.

Conclusie:
De schrijver van het artikel valt niets te verwijten. Een hogere kasstroom creeër je vooral door een hogere omzet. En dus kun je dankzij die hogere omzet meer aflossen.
nvidia kan overal tussenin gaan zitten.
Dat levert heel veel kansen op, maar kan ook problemen opleveren. Als Nvidia het goed doet, dan kan het juist groeien omdat ze de enige grote speler overblijven naast Intel en AMD. Zolang ze zich maar blijven richten op beiden markten (dus die van AMD en die van Intel)
Precies... en nVidia is een krachtig tech-bedrijf met een sterke R&D in huis. Weten we nog hoe verbaasd we waren toen ze min of meer uit het niets kwamen met hardstikke goede chipsets? (ik had het iig niet echt verwacht)

Aangezien de klanten die nVidia nu voornamelijk bedient (graphics-georienteerde mensen dus) vaak meer hebben aan een dikke GPU dan aan een dikke CPU, zitten ze voorlopig nog wel even goed.

In de tussentijd kunnen ze -wie weet- nog wel eens voor een verassing zorgen. Stel (dik speculeren is dit :)) dat ze VIA kopen? Dan hebben ze ineens x86 kennis in huis. Kost nog wel wat oppoetsen voordat dat ergens over gaat, maar ze zijn groot genoeg om dat te doen...

Dan zouden we straks drie bedrijven hebben die allemaal geintegreerde GPU+(x86 CPU)-oplossingen aanbieden... het kan...
Nou ja ineens :) Ze hebben dat ding natuurlijk al grotendeels ontwikkeld voor de Xbox !
Precies... en nVidia is een krachtig tech-bedrijf met een sterke R&D in huis. Weten we nog hoe verbaasd we waren toen ze min of meer uit het niets kwamen met hardstikke goede chipsets? (ik had het iig niet echt verwacht)
nou, in eens...
de eerste chipset (nForce1) van Nvidia was anders niet zo'n groot succes, vanaf de tweede (nForce2) weer wel, en werd ook massaal gekocht idd.
Ik moet eerlijk zeggen dat ik liever had gezien dat nvidia overgenomen was door AMD, want ATI Sux beyond believe... Ik heb zoveel gezeik (driver zuk en hitte problemen) met mijn huidige ATI kaart (9800Pro) (en de kaart voor mijn vorige) dat ik de volgende keer (wat waarschijnlijk zelfs al volgende week helaas moet zijn) geen ATI meer koop..
umm... garantie & productondersteuning?
ja, want omdat jij problemen hebt met je kaart, wil natuurlijk wel zeggen dat ATI slecht is :r

ik heb hier ook een 9800pro en nooit problemen mee gehad. Hieruit ga ik echter niet concluderen dat ATI super goed is/beter is dan nvidia. Beetje objectiviteit is hier dus wel gewenst! ;)
Ik heb ook al wat generaties ATi en nergens last van gehad ook niet de ATi 7000, ok drivers zijn niet altijd even goed/snel geweest maar verders niks mis mee.

ONTOPIC:
Ik snap dat de CEO van nVidia blij is, als het slecht gaat met ATi gaat het ook slechter met AMD en kan nVidia nog steeds lekker zijn chip(sets) verkopen aan Intel (gebruikers)
@seinnews

je kun het beter andersom stellen. Als het slecht gaat met AMD, zal dit ook impact hebben op ATI.

Hier pakt Nvida dan voordeel omdat het onafhankelijk is.

Echter zitten er 2 zijdes aan de munt, want als het dus erg goed gaat met AMD zal Ati dus meer investeringsruimte krijgen en daar voordeel mee kunnen doen in de concurrentie strijd met Nvidia.

dus als het slecht gaat met Ati en dit zijn doorwerking heeft op AMD, is geen extra voordeel voor nvidia.

het slecht gaan met AMD wat doorwerkt op Ati dus wel.
ben benieuwd wat dit voor de consument gaat betekenen. dat AMD en ATI nu patenten van elkaar kunnen gebruiken is leuk maar hoe zal het plaatje zijn als b.v. ATI de performance kroon weer terug pakt en intel zijn performance kroon behoudt ?

ik sluit niet uit dat er door bepaalde trucs geregeld wordt dat een ATI altijd beter presteerd met een AMD cpu dan met een intel en anderom...
Lijkt me niet erg slim aangezien 80% van de CPUs Intels zijn...
Ati heeft zn antwoord ook al klaar:
http://www.dailytech.com/article.aspx?newsid=3524

Begint te lijken op een bitchfight, wel grappig :D
AMD heeft overigens aangegeven dat concurrentie van nVidia met ATi op prijs gesteld wordt en dat nVidia met AMD mag blijven samenwerken.

Ik als nvidia zou er toch minimaal 2 keer overnadenken om met amd samen te werken.
Ondanks alle eventuele afspraken blijft ati een concurrent...
De echte concurrent van AMD blijft Intel, dus ze gaan heus niet nVidia wegduwen.

Een goede nVidia chipset voor het AMD platform betekent toch dat een AMD CPU verkocht zal worden. Chipsets zijn vaak maar enkele dollars winst t.o.v. de grote winst die met de snelle CPUs worden gemaakt.

Voor de goedkope HTPC markt is het nog steeds de combinatie van nVidia chipset + AMD CPU die de toon zet, echter nu nVidia met de 570/590 "Intel Edition" chipsets uitkomt, kan dat snel veranderen.

Er is geen één moederbord te verkrijgen voor het Intel platform welke onboard S-Video+Y/Pb/Pr TV-uit heeft in combinatie met coax of optische geluidsuitgang, terwijl er ongeveer 8 van dit soort types zijn voor AMD. De meeste van die bordjes zitten tevens onder de $100, dus ideaal voor een goedkoop HTPC systeempje.

De bordjes die wij gebruiken zijn de:

Socket 939 - Gigabyte GA-K8N51PVMT-9 = $88
Socket AM2 - ASUS M2NPV-VM = $92

De duurdere HTPC systemen, waarbij onboard vervangen wordt door aparte videokaart hebben dit probleem niet en daar komt bij ons dan ook vaker een Intel CPU in (veelal de D805).

Het had bijna slimmer geweest van AMD om nVidia op te kopen, omdat ze dan op die manier de aankomende 570/590 "Intel Edition" een halt hadden kunnen toeroepen.

Het is dus aan AMD gelegen om nVidia als vriend te behouden, totdat er een soortgelijke ATi variant is, wat als ik hun huidige aanbod bekijk nog wel 1 of 2 jaar kan duren.

@dns666, de D915 wordt op dit moment ook vaker gebruikt, omdat hij in prijs verlaagt is, 65nm is, 2x 2MB cache heeft en 0.2Ghz sneller is (totdat de Conroe uit is). Echter wij gebruiken Zalman CNPS7700-CU 120mm koelers in combinatie met Artic Silver 5, in een Antec HiFi case met 2x 120mm case fans. Het koel houden van een D805, zonder lawaai, is nooit een probleem geweest.
Ik vind het persoonlijk een beetje raar dat als je al een intel cpu in een HTPC kast wegmoffeld dat het dan een D805 is.
Deze verbruikt dusdanig veel energie en word ook dusdanig warm dat hij bijna niet stil te krijgen is.
Toch wel heel erg nuttig voor een HTPC.
So? Om chipsets te bouwen voor AMD chips heeft nVidia info van AMD nodig. Ze hoeft daarvoor geen noemenswaardige info aan AMD te verstrekken, dus kleven er voor nVidia weinig risico's aan het feit dat het AMD-ATI bedrijf zelf ook chipsets maakt. En voor grafische kaarten speelt dit probleem al helemaal niet.
Ik zie eigenlijk alleen maar voordelen voor AMD want nu kunnen ze gebruik maken van de faciliteiten en kennis van AMD wat zeker zal leiden tot betere en goedkopere videokaarten.

Tot nu toe maakte AMD en nVidia beide gebruik van VDL met silicium synthesizers om hun producten te ontwerpen. Allemaal leuk en aardig maar, lekker snel en goedkoop maar hoe sneller de processoren worden hoe groter de problemen. Dingen als energieverbuik en warmte ontwikkelingen hadden ze namelijk niet in handen.

Daar zal nu verandering in komen als ATi AMD's kennis een productie capaciteit gaat gebruiken.
Ik denk dat AMD met zijn K8 ontwerp het warmteprobleem wel degelijk in de hand had. Hij draaide een stuk koeler dan een PIV en kwam met betere methodes om snelheid te verminderen (vergelijk C'n'Q maar eens met EIST)
En de volgende K8 revisies zullen nog veel efficiënter zijn. HT3 met link power management, dwz dat niet enkel de processor zal teruggeklokt worden, maar ook de HT link(s) met oa de chipset (en dus ook de chipset zelf). En dat zal leiden tot een merkelijk lager verbruik. Ook zullen de cores individueel lager geklokt kunnen worden als ze niet op volle kracht draaien. Ik verwacht dan ook dat AMD de performance/Watt kroon zal terugnemen met de komst van 65 nm.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True