Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 132 reacties

Volgens de geruchtenmachine van The Inquirer heeft Intel de licentie van ATi om zijn chipsetbus te gebruiken ingetrokken of niet langer verlengd. Deze buslicentie is nodig om de FSB-technologie en het bijbehorende protocol van Intel te mogen gebruiken. Effectief zou dit betekenen dat ATi niet meer in staat zal zijn om legaal een chipset te verkopen die bedoeld is voor Pentium- of Core-processors. AMD had bij de aankondiging van de overname al laten weten er vanuit te gaan dat Intels afname van ATi-chips een flinke knauw te verduren zou krijgen. Niettemin hoopte het Texaanse bedrijf dat als er maar voldoende vraag zou komen naar Intel-moederborden met ATi-chipsets, de chipgigant overstag zou gaan en eieren voor zijn geld zou kiezen. Dat laatste scenario zou in het geval van een ingetrokken licentie niet meer mogelijk zijn, tenzij Intel hierop terugkomt en een nieuwe afspraak aangaat met ATi.

Naast de geruchten over de buslicentie zijn er ook nog enkele voor de hand liggende gevolgen van de overname die de samenwerking tussen Intel en ATi niet ten goede komen. Zo zal de kans dat ATi zijn handen weten te leggen op roadmaps en samples van Intel flink afnemen. Een mogelijk gevolg hiervan zou zijn dat ATi zijn grafische kaarten via de Radeon-drivers minder goed en snel zal kunnen optimaliseren voor processors en moederborden van Intel dan altijd het geval was. Of AMD daar überhaupt op zit te wachten is een tweede, aangezien geoptimaliseerde ATi-videokaarten mogelijk als verkoopargument kunnen fungeren voor de processors uit eigen stal.

Ondanks de mogelijke daling van interesse uit het Intel-kamp lijken AMD en ATi niet bij de pakken neer te zitten. Een slide uit de overnamepresentatie laat zien dat er in 2008 al producten ten tonele zouden moeten verschijnen waarbij beide bedrijven zich van hun beste kant laten zien. Het zou daarbij gaan om een schaalbare platformstrategie, waarbij AMD de processors en ATi de chipsets en gpu's levert. Deze aanpak toont overeenkomsten met de eerder aangekondigde Torrenza-plannen van de cpu-fabrikant, waarin externe partijen de rekenkracht van de Opteron kunnen aanvullen met extra processors voor specifieke functies.

AMD en ATi-fusiepresentatie: plannen voor schaalbaar platform
Moderatie-faq Wijzig weergave

Reacties (132)

Gaat dit gelijk al gevolgen hebben voor de aankomende RD600 chipset voor de Conroe?
Zou wel heel erg jammer zijn :'(

Uiteindelijk zie ik alleen maar winst voor Intel en Nvidia door de overname van Ati door AMD
Verschrikkelijk laag bij de grond dit. Maar goed Intel gooit hiermee zijn eigen ruiten in. Veel gamers zullen nu dus bij AMD blijven. Ik hoop ook van harte dat ATI Intel's crossfire licentie in gaat trekken.
Verschrikkelijk laag bij de grond dit. Maar goed Intel gooit hiermee zijn eigen ruiten in. Veel gamers zullen nu dus bij AMD blijven. Ik hoop ook van harte dat ATI Intel's crossfire licentie in gaat trekken.
Ik denk dat veel gamers naar AMD zijn gegaan om 2 redenen:
1) Het was goedkoop
2) Het presteerde goed

Om diezelfde redenen zullen veel gamers nu weer naar Intel gaan... En om die reden zal AMD/ATi er waarschijnlijk ook niet aan denken om hun videokaarten slechter te laten presteren op een Intel-systeem, laat staan dat het niet werkt. Anders geven ze een heel groot deel van de markt zomaar op, en heeft nVidia vrij spel... dan kan de video-afdeling van ATi meteen de deuren sluiten, en dat was nou juist de meest winstgevende tak. Chipsets waren maar bijzaak.
Gelukkig bestaat er nog zo iets van PCI-e sloten die werken met alle kaarten.......
En optimalisaties voor een bepaalde processor is hooguit "gefrommel in de marge". Met de komst van physics zal deze invloed nog minder worden aangezien de CPU procentueel nog minder bijdraagt aan het geheel.

Ik vind dat over het algemeen (en vooral bij tweakers) de bijdrage van de CPU met betrekking tot spellen (dus in combinatie met High-end grafics) word overschat. De CPU zorgt in alleen maar voor de bovengrens van de framerate en de grafische kaart voor de ondergrens. wanneer de bovengrens hoger is dan de ondergrens is de CPU al voldoende en zal deze niks meer bijdragen aan de gameplay en beeldkwaliteit.
Met de komst van physics zal de "langzame X86 CPU" nog minder belangrijk worden.
Als ik kijk naar de verschillen in de meeste benchmarks tussen een 7900GTX en een X1900XT, dan is het verschil meeste zo klein dat het ook wel te herleiden is tot 'gefrommel in de marge'.
Verschrikkelijk laag bij de grond dit.
Uhm... een van jouw leveranciers wordt overgenomen door jouw grootste concurrent. Moet jij hem dan nog steeds informatie leveren over jouw producten?

Vanuit het oogpunt van iNtel is dit gewoon goede bedrijfsvoering hoor. Sterker nog: als ze Ati straks wel weer een licentie geven, zal dat tegen een véél hogere prijs zijn.

Maar voor de consument (jij en ik dus) is dit wel zwaar kl*te van de bok: er dreigt nu een tweedeling AMD-ATI versus iNtel-nVidia te ontstaan. Daar wordt niemand wijzer van, zeker niet op langere termijn :(
Euh....is het niet zo dat een intel socket stabieler draait op een intel north/south bridge combi? En geldt niet hetzelfde voor een AMD socket icm Nvidia....

Mijns inziens zal voor al Nvidia hierbij gemoeid zijn. (En niet te vergeten de andere (onafhankelijke) chipsetbakkers....) :Y)

Wordt ATI btw compleet inburgerd en gaat die naam dus verdwijnen? Wanneer dit gebeurd dan zullen de onafhankelijke chipsetbakkers het nog moeilijk gaan krijgen.Tijd voor Nvidia voor een "kleine" overname?
Dat ATI met AMD samen gaat werken benk ik met je eens, maar waarom zou nVidia stoppen met chipsets voor AMD? of waarom zou AMD opeens geen chipsets van nVidia meer toestaan?
Volgens mij zal het bij AMD + Ati vs Intel blijven.
Dat ATI met AMD samen gaat werken benk ik met je eens, maar waarom zou nVidia stoppen met chipsets voor AMD? of waarom zou AMD opeens geen chipsets van nVidia meer toestaan?
Inderdaad, voor zover ik weet is nVidia met afstand marktleider, en zijn hun chipsets sneller en beter dan die van ATi.
nVidia zal dus lekker verdienen aan het AMD-platform, en AMD heeft iig voorlopig nog het voordeel dat nVidia hun processors zo goed en betrouwbaar laat presteren.
Beide partijen zullen dus voorlopig nog graag samenwerken, lijkt me. Natuurlijk zal AMD wel proberen om zelf uiteindelijk met betere chipsets te komen, maar daar hebben ze op de korte termijn niet zoveel aan.
Samenwerken is iets anders als een overname, een licentie voor ATi betekent een licentie voor AMD na de overname en ik kan mij zo voorstellen dat Intel daar niet echt op zit te wachten.

De merknaam ATi blijft dan wel bestaan, het bedrijf in kwestie zal echter niet meer bestaan.
Intel heeft zijn markt altijd beschermd. De enige reden dat ATi destijds die licentie gekregen heeft is omdat Intel niet genoeg productiecapaciteit had voor zijn eigen chipsets en er een tekort was, nu dat dit tekort verdwenen is hebben ze ATi niet meer nodig. Een tijdje terug had Intel trouwens al aangegeven zelf geen chipsets meer af te nemen bij ATi.
Als ik een Intel processor neem, neem ik er toch echt een moederbord bij met Intel chipset, geen ATi chipset
Hmm wat dacht je van een nforce chipset? ;)
crossfire nou zelfs als de chipset het niet ondersteund het gewoon moeten doen met een crossfire mastercard. De onboard crossfire controller is voor de midrange/lowrange ati kaart bijv. de X1600PRO. Deze kaarten kunnen namelijk zonder crossfire mastercard wel in crossfire draaien.

Maar als je bijv. 2x X1900XTX in crossfire wil gaan draaien, zal dit niet lukken omdat de soutbridge de datastroom die deze kaarten doorgeven niet aan. Daarom heb je een Crossfire masterd card nodig voor de highend segment ATI kaarten en daarom moet je ook de crossfire mastercard en de normale kaart met elkaat linken omdat de meeste datastroom via de mastercard gaan.
Kan je een AMD cpu downloaden dan? :+
bij microsoft kan je anders wel hardware downloaden.
zie url:
http://www.microsoft.com/hardware/downloads/default.mspx
Niet direct. De meeste gemers kiezen voor AMD omdat het goedkoper is (en sommige vinden het beter). Zij zullen dan automatisch (al dan niet gedwongen worden) om voor ATI te kiezen als AMD beter zal werken met een ATI GPU.
Ik denk eerder dat AMD er wel mee zal zijn maar dat ATI zal moeten inleveren.

Edit:
@ MarcusKara: je zal altijd wel een nVidia kunnen gebruiken maar er zullen natuurlijk wel GPU's van ATI zijn dat beter werken met een AMD cpu. Iets wat natuurlijk aantrekkelijk is voor de Tweaker.
(en sommige vinden het beter).
umm AMD is al 3 jaar lang onbetwist beter op game gebied.
Is de Conroe er al dan? :P
AMD was een paar jaar beter, maar dat is nu wel afgelopen. AMD heeft ook geen antwoord meer op nieuwe chips van Intel omdat ze de laatste jaren hebben zitten relaxen. De AM2 socket is een miskleun, en hierdoor zullen ze nu zwaar achter de feiten aanlopen in de toekomst.
err ... e6300 oc beat een FX-62... dus kleine verandering:

AMD is al 3 jaar lang onbetwist beter op game gebied
naar...
AMD is 3 jaar lang beter geweest op game gebied
Hoezo je kunt altijd nog een nVidia GPU nemen. Dat zal niet anders werken dan nu het geval is...
ik had het toch al gezegd vorige keer tijdens de geruchten. Of AMD zorgt er wel voor of Intel. Deze fusie zal een veel grotere invloed hebben dan iedereen voor mogelijk had gehouden.
Toch lijkt me dit vrij logisch, we kunnen wel gaan zeuren dat Intel moeilijk doet en flauw loopt te doen. Maar effectief is het dus zo dat voor goede integratie het nodig is om pre-productie al informatie te krijgen over nieuwe processoren e.d. Aangezien AMD volledig eigenaar is dan kan er donder op gezegt worden, ook al maak je daar afspraken over, dat wanneer ATI cpu's van Intel krijgt. Deze ook wel even door AMD ingenieurs doorgelicht worden.

Elke zichzelf respecterende producent zal niet zijn grootste concurrent op voorhand van informatie voorzien over welke kant zij willen op gaan.
Beetje naief te denken dat dit nu niet gebeurd. Zo was AMD eerste met shared L3 cache en is dit idee "opgepikt" door Intel en zullen die er binnenkort ook mee komen.

Hoewel het niet mag, kun je er van uitgaan dat beide partijen reverse enginering gebruiken.
Volgens mij heeft AMD een licentie op x86 techniek, en daarvoor staat een x bedrag uit plus dat intel alle doorontwikkelingen van AMD mag gebruiken.

wikipedia:
Aanvankelijk werden x86-processoren alleen door Intel gefabriceerd, hoewel NEC wel de V20 en V30 processoren met "8088" compatibele instructieset leverde. In de tijd van de 80386-processor besloot Intel zijn ontwerp aan andere fabrikanten in licentie te geven. Deze fabrikanten, AMD en Cyrix, konden vervolgens zelfstandig hun eigen x86-processoren op de markt brengen.
@ Moooo
Volgens mij is het zo dat zowel Intel als AMD een licentie op x86 techniek hebben, als ik mij niet vergis is deze techniek namelijk van IBM.

Edit:
Dus toch vergist...Thx Moooo!
in de tijd van de 286 en 386 mochten AMD en enkele andere chipbakkers exacte kopieën maken van de intelprocs. Met de komt van de pentium was dat feestje afgelopen en moest AMD maar even de K6 in elkaar knutselen. Andere fabrikanten zoals Cyrix hebben het niet gehaald...
x86 was volgens mij wel van IBM maar voor de MMX extensies heeft AMD dik voor moeten betalen. *correct me if I'm wrong*
Nee hoor, de x86 is toch echt van Intel (zoek maar op Wikipedia). x86-64 is van AMD. En door allerlei cross-licenties mogen ze gebruikmaken van elkaar technieken. Waarbij x86-64 overigens gratis door AMD wordt aangeboden, het mag wel duidelijk zijn waarom ;)

IBM heeft alleen recht op de orginele BIOS van de PC. Maar vandaag de dag heeft IBM ook daar al niks meer over te vertellen. Dus waar die urban myth vandaan komt (stond vorige week ook al in een andere post) is mij een raadsel.

Oh, en volgens berichtgevingen was 80% van ATi's chipset voor Intel. Ze zeggen $100 miljoen per kwartaal mis te lopen door dat Intel de buslicentie heeft ingetrokken cq niet verlengd.
Intel had de aankoop van ATi chipsets al stopgezet omdat ze zelf terug voldoende productiecapaciteit hadden.

En ik denk dat AMD wel een korting is bekomen op de X86 licentie sinds dat Intel gebruik maakt van x86-64.
Nee hoor, de x86 is toch echt van Intel (zoek maar op Wikipedia).
Sterker nog, Intel is de uitvinder van de microprocessor (de 4004, de x86 is daar in feite een verre doorontwikkeling van): http://inventors.about.com/library/weekly/aa092998.htm
Dus in zekere zin maakt iedereen gebruik van de technologie van Intel.
Maar AMD maakt klonen, en na een rechtzaak en ander geneuzel is men het erover eens dat er een licentie-overeenkomst moet zijn om klonen te bouwen. Dat betekent dus dat AMD meteen alles wat ze op de x86 schroeven, aan Intel mag overhandigen. Eigenlijk kan AMD dus nooit winnen.
uiteraard gebeurt dit nu ook al, echter waarschijnlijk niet zo vroeg als dat er mogelijk zou zijn wanneer Intel pre-launch cpu's of specs aan ATI doorspeelt. Zoals nu ongetwijfeld wel gebeurde, anders kon ATI nooit op tijd komen met goed samenwerkende chipsets (of in ieder geval een poging daartoe doen).

Verder mag reverse engineering wel...alleen het daarna regelrecht kopieren mag niet..
Zal voor een deel wel ingecalculeerd zijn door beiden bedrijven (AMD en ATI), maar waarschijnlijk hadden ze het niet gelijk verwacht. Ik begrijp keuze van Intel wel, Ati is directe concurrent geworden en er moet zo weinig mogelijk informatie naar toe.

Op zich zijn de toekomstplannen mooi te noemen, maar toch kan ik niet een gerust gevoel hebben/krijgen bij zulke verhalen. Ik ben bang dat het 2 kampen verhaal er aankomt, waardoor het nog lastig wordt voor een normale consument om uberhaupt een pc samen te stellen/kopen.

Time will tell of course
ik vind dat een scherpe opmerking: voor AMD en Ati is het binnenkort erg interessant om hun producten gebundeld te verkopen aan grote OEMs, en is het NIET meer interessant om Ati goed te laten draaien op Intel platformen en NVidia op AMD platformen.
de echte tweakers krijgen het natuurlijk altijd aan de praat, maar ik ben benieuwd hoe dit zich zal ontwikkelen!
Ik sta er nog steeds van te kijken dat het Ati is dat met AMD in het huwelijksbootje gestapt is. nVidia is niet zo lang geleden AMD-only begonnen in de chipsetmarkt met zeker niet onaardige chipsets. Zal nVidia als reactie hierop zich meer gaan richten op de nForce 5 Intel editions?
Ik vind het heel vies klinken maar is het nu niet gewoon een kwestie van tijd tot Intel nVidia overneemt? Intel levert stabiele chippies maar heeft geen overtuigende onboard VGA.
Om van de stilte uit het SiS & VIA kamp nog maar te zwijgen...
de 5 serie chipset van nvidia komt ook voor intel

ik snap trouwens niet wat een heleboel mensen over kaarten minder presteren bij de concurrents processors

voor nvidia zou het niet gunstig zijn omdat zij aan geen van beide kampen gebonden zijn, omdat ati en AMD samengaan betekend het nog niet dat mensen bij een AMD alleen nog maar ati kaarten nemen

verder zou het voor ati ook nutteloos zijn om slechter op intels te werken want afzet is afzet en intel verdiend er niet meer geld aan als er een ati kaart met een intel processor gaan samenwerken
Ik zie niet wat nVidia ermee opschiet als ze hun grafische kaarten slechter laten draaien als nu het geval is.
Was te verwachten. Intel zal er alles aan doen om AMD te stoppen, en schuwt hierbij dergelijke praktijken niet. Het 2 kampen verhaal komt er zeker aan, maar dit zal vermoedelijk slechts van korte duur zijn.
In 2008 kan je dus tot 4 GPU's in je Torrenza systeem steken, en Intel heeft hierbij het nakijken. De FSB is te zwak voor dergelijke throughputs.
In 2008 kan je dus tot 4 GPU's in je Torrenza systeem steken, en Intel heeft hierbij het nakijken. De FSB is te zwak voor dergelijke throughputs.
In mijn optiek is de trend de laatste jaren juist om de communicatie tussen CPU en GPU tot een minimum te beperken. Zie de evolutie naar T&L, vertex shaders, pixelshaders, geometry shaders, en binnenkort het aangepaste drivermodel van Vista/DX10, om de overhead te minimaliseren en legacy eruit te gooien.
Het lijkt mij dus dat de behoefte aan bandbreedte tussen CPU en GPU alleen maar verder afneemt, dit terwijl met PCI-e de bandbreedte juist is toegenomen (en we zien dat dit niet of nauwelijks winst oplevert tov AGP8x, omdat die bandbreedte eigenlijk niet meer nodig is, vanwege de ontwikkelingen).
Ik schrijf zelf mijn Direct3D-code ook altijd om zoveel mogelijk op de GPU te doen, en de CPU alleen maar wat droge commando's en parameters te laten pompen. Dat is de toekomst, dat is waar hardware-acceleratie om draait. Die acceleratie-hardware moet het werk doen, niet de CPU.
Nu nog wel 2 kampen, maar ja binnen kort zit je op 4 gezien er eentje vanuit india en eentje vanuit china op komst zijn en die kan je beter niet onderschatten....
ben ik de enige die denkt dat AMD juist ATI heeft overgenomen omdat juist het hele verhaal van chipsets gaat verdwijnen? en dat ATI dat door heeft gehad en samen gegaan is met AMD...

AMD heeft al een geheugen controler in zijn CPU... wat is het volgende? een northbridge en een southbridge? wat denk je hiervan? een pc on chip... ATI heeft alles in huis om die randvoorwaarden te voldoen. AMD heeft alles in huis om een cpu te ontwerpen en meer dan dat. alles wordt steeds kleiner. 130nm wordt 90nm wordt 65nm wordt 40nm? dus je chip kan klein blijven en op weinig sap werken... zo krijgen we eindelijk fatsoenlijke draagbare pc's...

ik heb steeds dit in mijn achterhoofd gehad waarom ati naar amd is getrokken... dat hele verhaal over chipsets maken voor intel is erg leuk maar ik denk dat niet ATI daar wakker over ligt... of amd...

just shoot me...
Systems on a chip bestaan al zeer lange tijd. Ik zie het echter niet in dat het binnenkort op de desktop markt zal gebeuren. Waarom niet? Omdat voor normale snelheden de warmteontwikkeling etc ontzettend moeilijk is. Meestal zijn dit ook IC's met verschillende lagen silicium. Wat het ook weer duurder maakt (denk ik).

Verkleiningen zijn normaal en hebben altijd al voorgedaan. Maar het wordt steeds moeilijker om kleiner te gaan dus dat zal nu ook veel moeilijker gaan.

ATi was net in de chipset markt, ze hebben bijna geen marktaandeel en niemand ligt er wakker om.

AMD kan chipsets ontwerpen en ATi ook. Dus er komen nu weer chipsets met een GPU ingebouwd. ATi zal heus wel nog losse GPU's maken. AMD is niet zo stom om dat weg te doen. AMD wilt gewoon een platform hebben. En AMD wil meer doen in de mobiele markt, nu kunnen ze dus platforms leveren voor mobiele markt, dat is belangrijk. Zie het succes van centrino

Dat de markt kleiner wordt. Dat zal reuze meevallen, alleen wat er niet is, is een ATi chipset voor Intel. (Die waren toch niet zo gewilt na alle problemen met sata / usb)
Systems on a chip bestaan al zeer lange tijd. Ik zie het echter niet in dat het binnenkort op de desktop markt zal gebeuren. Waarom niet? Omdat voor normale snelheden de warmteontwikkeling etc ontzettend moeilijk is.
Ik begrijp je onderbouwing niet. Zowat alle latencies in de huidige systemen zijn te wijten aan off-chip communicatie. Off-chip communicatie vraagt ook veel power; je moet immers je signalen over socket/slot metaal-metaal contacten gaan sturen, welke de signaalsnelheid bemoeilijken. Het vermogen zal dus enkel afnemen bij toenemende integratie (bij gelijkblijvende snelheid), en de prestaties zullen merkbaar toenemen.
Meestal zijn dit ook IC's met verschillende lagen silicium. Wat het ook weer duurder maakt (denk ik).
? Jij bedoelt gestackte dies?
Alles in de pc wereld draait om prijs, prijs prijs.

Waarom zou je een north en southbridge in een cpu meenemen. Een cpu workt gemaakt in een duur procede. Dit er bij inbakken betekend dat het oppervlak van je cpu groter wordt = minder stuks per waffer.

Het is goedkoper om de north en southbridge apart te bakken zodat je de cpu (het duurste gedeelte) zo klein mogenlijk qua oppervlak kan maken = meer cpu per waffer.

Let wel bij onderdelen van maiborad gaat het om centenwerk vaak en een cpu maken is nu éénmaal duurder als apart een north en southbridge. Bovendien moet je je oude machines ook nog bezighouden.
Het is wafer (zeg waafer) niet waffer (hond??).

Verder zie ik wel degelijk voordelen om dit te doen.

Het zal de snelheid zeker goed doen, alles kan direct met elkaar communiceren.
Zie ook de on-die mem. controller.

En ook zal het de zuinigheid voor de computer in het geheel goed kunnen doen.

Ik denk ook dat het uiteindelijk goedkoper kan zijn, dan alles los bakken.
Het bakken van een N en S bridge kost ook geld.
Uiteindelijk zou het moederbord dan een stuk goedkoper kunnen worden.
indeed, waar halen gasten dat 'waffer' ala houd je waffel vandaan? Het is een Wafer dus, uitspraak = wever
Wafer is namelijk een engels woord. Ik zie het al voor me, iemand die 'Waffer of Wafer' zo op z'n nederlands uitspreekt, dan lig ik echt krom van het lachen :D
Maar ach, kan je ze ook niet kwalijk nemen heh, engels is moeilijk ;)

Hebben ze nu in elk geval weer wat geleerd :Y)
Packaging kost ook geld, en wordt waarschijnlijk een belangrijkere kost in de toekomst. De northbridge zit trouwens al in de cpu in het geval van AMD (de geheugencontroller), en het heeft hun geen windeieren gelegd.
voorlopig heeft het dus geen gevolgen en al helemaal niet voor de huidige producten.
De RD600 is de laatste Ati chipset voor Intel, dus het heeft zeker wel gevolgen (over een paar maanden al)
Tja, dat probleem krijg je als grote chipfabrikanten ook chipsets maken die bij hun grafische chips passen.
Daar gaat de keuze van de consument en de kwaliteit van de losse producten en interoperabiliteit.

Voor mij een extra goede reden om geen intel meer te kopen.
Wat gaat er dan met de Macbook gebeuren?
Met de MacBook helemaal niets, want die heeft een Intel GMA950 aan boord, en geen ATI of nVidia.

Maar het is wel een valide vraag of het voor Apple gevolgen gaat hebben. Die hebben op dit moment naast de Intel GMA sets enkel ATI chips in hun iMac en MacBook Pro zitten. Zal daar verandering in komen?

Voor de Mac Pro die waarschijnlijk met twee weken wordt aangekondigd zal vermoedelijk een ATI videokaart in het PCI-Express slot hebben zitten, maar als er alternatieven van nVidia zijn kunnen ze daar, mits er goede drivers voor zijn, natuurlijk naar uitwijken.
Daar begint het gesodemieter al, de markt wordt steeds kleiner.

Hier was ik al bang voor, er gaan nieuwe wetten gelden en crosscompatibilty wordt een probleem, bye bye RD600..
De 965 chipset kan niet voor niks niet met crossfire overweg...
Inderdaad wij lachen altijd wel en "laat ze elkaar maar beconcurreren" wij worden er beter van als consument.

Maar uiteindelijk trekken wij toch altijd aan het kortste eind.

Of het nu gaat om de verschillende smaken die je hebt of de prijs.

Twee vechten om een been..... en dan blijft er maar een....
Nope, dat zal nooit gebeuren. Zowel Intel als AMD zijn here to stay. Wat wel kan gebeuren is dat Intel eveneens HT gaat aanwenden, waardoor je een uniform platform krijgt waarin je zowat elke processor/co-processor/GPU kan inpluggen. Dit is niet de definitie van een monopolie, en het open-source aspect zal tot heel wat interessante ontwikkelingen leiden.

Dit zou dan betekenen dat je moederbord een veel langere levenscyclus krijgt, en upgrades zich beperken tot add-in cards en processoren. Beter voor het milieu, beter voor de prestaties, beter aangepaste systemen aan de wensen van de gebruikers... Ik zie alleen maar voordelen.
kan het ook een voordeel voor amd zijn, doordat zij in de toekomst wel kaarten van ATI en Nvidia kunnen aansturen? of is dit te positief gezien
Dit komt echt de consument niet ten goede. Die heeft vanaf heden eigenlijk geen keus meer tussen nVidia/intel - ATI/Intel maar alleen nVidia/Intel of ATI/AMD. Mogelijk is dit de klassiek misrekening 1+1=2 In dit soort gevallen is 1+1 vcaak 1,5
Nog steeds keus genoeg hoor. Dit gaat niet over videokaarten, maar over chipsets. En daarin waren Intel en nVidia toch beter. ATI-videokaarten zullen gewoon nog evengoed werken op Intel-moederborden.

Qua chipsets blijft er nog steeds genoeg keuze. NVidia, SiS, ULi, VIA etc. zijn er ook nog.
Nou ik weet niet of voor intel nforce wel zo aantrekkelijk is op dit moment. Erg veel negatieve berichten over het aankomende chipset, het schijnt warm, en moeilijk overklokbaar te zijn, zoals we gewend waren bij het p4 SLI chipset.

Ati daarintegen gaat heel wat nieuws bieden met RD600, uit berichten is te halen dat ze zowiezo een stap boven intel 975x willen gaan. Ook willen ze nu een eigen southbridge gaan introduceren (ipv. ali), met een berg aan nieuwe storage mogelijkheden. Dat kan bijna niet slechter zijn als dat van Nforce, want daar hebben we wel genoeg ellende van gezien (maxtor / verkeert drivertje = data corruptie).

We zijn bij ATI met AMD gewend dat ati een stuk cooler en stroombesparender is als Nforce, Geheugencontroller moet nog op het board maakt de nforce core 2 duo boarden wel erg warm, als ati dezelfde trend doorzet zijn de ATI chipsets voor intel aardig cool.

Ik denk dat RD600 weldegelijk komt, zou erg duur zijn om dat te skippen want de samples liggen er al, en een heel mooi chipset gaat worden.
Als Intel de licentie met onmiddelijke ingang intrekt dan zal de RD600 nooit in productie komen.
als nvidia en intel samengaan,

dan zien we niet veel meer van sis en uli...

via however.. dies toch wel redelijk aanwezig.. zal waarschijnlijk ook wel ergens geintegreerd worden :)
Hoezo monopolisten gedrag van Intel.

Meteen aanklagen die hap.
Bescherming van de eigen producten. Als chipsetmaker heeft ATi meer informatie over toekomstige Intel CPUs dan AMD heeft. Nu dat die twee samengaan kan Intel het zich niet veroorloven om deze informatie aan een directe concurent te geven en zonder deze informatie zou ATi met zijn chipsets toch maar achter de feiten aanlopen.
Waar slaat dat nu weer op?

Zodra Ati in handen komt van AMD, is het toch logisch dat Intel dit doet...

Zou jij dan wel gunstige omstandigheden creëren voor je grootste concurrent???

Trouwens... sinds wanneer is Intel een monopolist...
Sinds zij de enige zijn die x86 in licentie heeft (of eerder de enige die die licentie uit kan geven.).
Sinds zij de enige zijn die x86 in licentie heeft (of eerder de enige die die licentie uit kan geven.).
Uhh, is toch logisch? Intel heeft de x86 ontwikkeld. Ieder bedrijf dat zelf technologie ontwikkelt, bezit deze intellectual property, en is dus de enige die aan anderen een licentie kan verlenen voor deze intellectual property.
Maakt dat al die bedrijven monopolist?

AMD heeft er zelf voor gekozen om x86-klonen te gaan maken, in plaats van hun eigen architectuur te ontwikkelen. Daar zitten deze gevolgen aan, dat wisten ze al toen ze eraan begonnen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True