Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 69 reacties
Bron: AMD

Misschien kom je net terug uit de bioscoop en vroeg je je af hoe men het toch voor elkaar heeft gekregen die leuke Scooby Doo zo mooi op het witte doek te toveren. AMD geeft je al te graag het antwoord: maar liefst 42 dual Athlon MP-systemen waren ervoor nodig om onze favoriete speurhond digitaal te visualiseren. Rhythm & Hues heet het bedrijf dat bij AMD kwam aankloppen voor de nodige hardware-ondersteuning, en volgens dit persbericht zijn ze erg tevreden gesteld door de chipgigant. Trouwens, ook al die mooie kloontjes uit Star Wars: Episode II hebben we deels te danken aan AMD:

JAK Films used AMD Athlon MP processor-based workstations in its labs to advance the art of cinema storyboarding through digital pre-visualization. ILM used a high-performance cluster of AMD Athlon MP processor-based servers designed and manufactured by RackSaver.

Our goal was to paint an accurate picture of what Star Wars: Episode II Attack of the Clones would look like long before filming was even started," said Dan Gregoire, director of the pre-visualization lab, JAK Films. "Our AMD Athlon MP processor-based systems are ideal for running the powerful software we rely upon.

"Given the challenge of producing top quality visual imagery in a compressed time frame, we really appreciate the performance boost we got with our AMD Athlon MP processor-based systems," said Michael Kiernan, Manager of Systems R&D at ILM.

Scooby Doo

tbm69 speurde naar de tip.

Moderatie-faq Wijzig weergave

Reacties (69)

Misschien dat het aan mij ligt, maar liggen de credits over de kwaliteit van het renderen niet voornamelijk bij de gebruikte software (en de animators). Natuurlijk is het prettig als je dit doet op snelle hardware, maar in principe had deze klus op elk platform gedaan kunnen worden, wat de afgelopen jaren dus ook is gedaan. Varierend van Sun/Solaris, Silicon Graphics/Irix, Linux op Intel en nu AMD. Waar het in deze discussie namelijk om gaat is het feit dat het AMD platform een redelijk goedkope oplossing is, zeker als je een heel rederfarm nodig hebt. Hoewel de kosten hiervan natuurlijk peanuts zijn tov de totale kosten om de animatie te maken.
Het is dat je een relatief groot stuk software nodig hebt en flink wat geheugen, maar anders zou het misschien een leuk idee zijn om voor een toekomstige film het renderen te laten plaatsvinden via gedistribueerde CPU kracht op het internet. Een soort DPC renderfarm. Lijkt me wel leuk om mee te doen, kan je altijd zeggen dat je hebt meegewerkt aan een film. :P
Op zich heb je gelijk, maar dat geldt pas als je de hele film rendert.
Als je een klein stukje wilt renderen om even te bekijken, is het toch handig als dat op je eigen bak ff snel gaat, om de regisseur te kunnen laten zien hoe het eruit komt te zien in de eindkwaliteit.
Dan wil je geen uren moeten wachten.

Overigens, zoals je geloof ik al impliceert, het renderen gebeurde op Linux systemen.

Link:http://www.linuxjournal.com/article.php?sid=6148

quote:
"Our desktops are all dual-processor rackmounts, split 50-50 between P3s and Athlon MP 1800+", said Brown.

The renderfarm, where the individual motion picture frames are computed, has 150 dual Pentium 1Ghz and 60 dual Athlon MP 1800+ machines. "AMD chips scream for our applications", says Brown. "I can't tell you how impressed I am. An Athlon MP 1800+ gives about the same performance as a 2.2G Pentium Xeon but at a third of the price, if that."

Even voor de mensen die denken dat geld niet uitmaakt dus....
Misschien dat het aan mij ligt, maar liggen de credits over de kwaliteit van het renderen niet voornamelijk bij de gebruikte software (en de animators).
Dat lijkt me zeker waar ja.
Waar het in deze discussie namelijk om gaat is het feit dat het AMD platform een redelijk goedkope oplossing is, zeker als je een heel rederfarm nodig hebt.
Dat blijft altijd het standaard argument, "AMD is goedkoper". Maar zou het misschien zo kunnen zijn dat ze voor AMD hebben gekozen vanwege kwaliteit?
want je zegt het zelf al:
Hoewel de kosten hiervan natuurlijk peanuts zijn tov de totale kosten om de animatie te maken.
ik heb stukken van de film gezien maar ik moet zeggen dat ik de scooby doo er erg nep uit vind zien

dacht dat ze met de huidige computertechniek toch wel zo ver waren dat hij er iets realistischer uit zou zien

misschien ben ik wel verwend maar ik vond em er erg gemaakt en misschien wel afgeraffeld uitzien

hhhmmm, beetje film gebruiken ze render boxen voor, en inderdaad de hond ziet er niet overtuigend uit, dit had veel beter gekunt, kijk maar naar final fantasie bijv
Net als eerder al gezegd is, het is de bedoeling geweest om scooby-doo er cartoony uit te laten zien, je hebt alles te danken aan de (art)-director. Final Fantasy is wat dat betreft een slecht voorbeeld, hoewel het 'realiteits-gehalte' allicht hoger was, was ook hier sprake van een tussenvorm (cartoon/niet-van-echt-te-onderscheiden). Overigens is FF geflopt, dus realiteit moet niet vanzelfsprekend het uitgangspunt zijn.
Maar het klopt verder wel dat je kunt zien wanneer iets met de computer gemaakt is.
Dit was ook in blade 2 het geval (gevecht tussen blade en de vrouwelijke vampier).
Wat mij opvalt als je computer animatie's ziet is dat ze zo'n rare glimmende gloed over zich heen hebben.
En als het om bewegende beelden gaat (zoals in blade 2) maken de computer animatie's zo'n rare krommende beweging als ze landen op de grond. Dit was ook te zien in starwars episode I waar dark morth (hoe schrijf je dat?) van zijn vliegende motor thingie afspring en land voor die ene jedi en gaat vechten.
Hetzelfde geldt voor Blade 2, ook gebasseerd op een cartoon. In Blade 2 zijn de characters met opzet 'cartoony' geanimeerd.
Geloof me, 50% van de tijd kun je niet eens zien dat er gebruik gemaakt is van CG effecten, er valt namelijk weinig eer te behalen aan camera's wegpoetsen, en muurtjes opnieuw 'stuken'
Als iets er CGI uitziet, terwijl het er realistisch uit hoor te zien (glimmen bijv.) geef dan de texture-artist/belichter/compositor de schuld.
weet iemand of men nu ook al nieuwe technieken zoals global illemunation / final gathering etc over de 3d modellen gepleurd?! of ziet het er nog steeds zo cartoonie achtig uit (like monster inc etc (pixar))..
global illumination is veel te reken intensief voor feature films, er is domweg geen tijd/geld voor, je kunt ook leren zelf te belichten. het gebruik van GI is nog zeer beperkt.
De kwaliteit van het eindproduct hangt af van de software waar het mee gecreeert wordt
De kwaliteit hangt in beperkte mate af van de software, het zijn de modellers/animators/text.painters/compositors/belichters/etc. die de film maken.
Iedereen kan knoppen drukken.
nee, dat hebben we te danken aan 3dStudioMax met een paar van die mooie plugins waarmee je 1 object kunt vermenigvuldigen en onafhankelijk van elkaar kunt aansturen (voor't eerst toegepast in Jurassic Park
Dat hebben we dus niet te danken aan 3DSMax, laat staan in Jurassic Park, dat was vooral Softimage.
In EPII is veel gebruik gemaakt van 2D compositing, vooral met die clones, en dan is er nog die custom-software die ze bij ILM schrijven.

Het gebruik van 3DSmax in film is minimaal.
Dat 3ds max misschien niet zoveel in films gebruikt wordt als Softimage en Maya da's 1 ding.
Maar om het nou 'minimaal' te noemen ?

Toch 's hier kijken :
http://www.groundzerofx.com/maxinfilm

En dat zijn ze zeker niet allemaal.
3ds max heeft een imago probleem dat Discreet maar stilletjes onderkent. Het wordt gezien als 'game' creatie pakket - een groep waarin 3ds max inderdaad een overweldigende hand in heeft - en dus zijn mensen niet zo snel om te zeggen "Ja, we hebben 3ds max gebruikt"; het is alsof je dan iets vies zegt.

Aan de andere kant heb je bijv. Maya. Die is enorm over-hyped. Er zijn studio's (en laat ik 's de quote vinden
-------------------------
Only problem is that most of my client want me to use maya and a shy back of the cost and effect of switching a whole studio..you know.
-- Highend3D Render Tech discussion list --

) waarbij de client (niet eens de studio zelf) zegt : Ik wil dat jullie Maya gebruiken.
Niet omdat die studio Maya gebruikt, of omdat ze het niet kunnen doen in een ander pakket - maar gewoon omdat Mijnheer de Client gehoord heeft dat die veel in films gebruikt wordt.
Ja, wat wil je dan nog dat Maya veel gebruikt wordt - de klant is toch koning ?

Dan nog 1 ding... ja, GI is beperkt gebruikt in film (of eigenlijk de meeste producties afgezien van architectuur visualizaties) - maar er wordt wel veelvuldig gebruik van gemaakt in de eerste rondes.
Het opzetten van een scène, met belichting, even een GI render ervan, en vervolgens dat gebruiken als een voorbeeld van hoe je handmatige belichting eruit zou moeten zien.
In de toekomst zal GI wel meer gebruikt worden, zeker met de huidige babyboom van GI-renderers die ook daadwerkelijk op de markt zijn (Brazil r/s, Entropy, Mental Ray 3, Jig, PRman etc.), i.p.v. dat ze bijhoorlijk proprietary worden gehouden (Lightflow, Arnold) - en door videokaarten (bij gebrek aan gespecialiseerde kaarten zoals die van ART) die wel degelijk dit soort renderen kunnen versnellen; NVidia zal waarschijnlijk op Siggraph nog een mededeling doen daaromtrent.
Je hebt zeker gelijk, het wordt redelijk vaak gebruikt, maar kijk eens voor wat voor zaken; nou niet bepaald de zaken waar de meeste eer in valt te behalen(helaas).
Het imago probleem is zeker iets wat Max vaak opbreekt, hoewel ik soms wel kan begrijpen waarom, de stabiliteit laat af en toe echt te wensen over.
Over Maya kun je ook kort zijn, heel veel opties die zeer handig zijn, en makkelijk, maar ook veel 'speeltjes'.
Bovendien heb ik een hekel aan de workflow.
Zo heeft elk pakket zn voor en nadelen.
ik heb stukken van de film gezien maar ik moet zeggen dat ik de scooby doo er erg nep uit vind zien

dacht dat ze met de huidige computertechniek toch wel zo ver waren dat hij er iets realistischer uit zou zien

misschien ben ik wel verwend maar ik vond em er erg gemaakt en misschien wel afgeraffeld uitzien
Heb je er misschien aan gedacht dat dat ook de bedoeling moest zijn? Scooby doo = tekenfilm figuur.
En moet dus niet te echt lijken he (kijk maar eens naar die snuit, dat lijkt toch voor geen kant op een hond)
Scooby doo in de film is een beetje van beide werelden, maar hoofdzakelijk cartoonlike en moet dus ook niet realistisch lijken.

Maar het klopt verder wel dat je kunt zien wanneer iets met de computer gemaakt is.

Dit was ook in blade 2 het geval (gevecht tussen blade en de vrouwelijke vampier).

Wat mij opvalt als je computer animatie's ziet is dat ze zo'n rare glimmende gloed over zich heen hebben.

En als het om bewegende beelden gaat (zoals in blade 2) maken de computer animatie's zo'n rare krommende beweging als ze landen op de grond. Dit was ook te zien in starwars episode I waar dark morth (hoe schrijf je dat?) van zijn vliegende motor thingie afspring en land voor die ene jedi en gaat vechten.
In Blade II zijn ze inderdaad erg nep , maar persoonlijk vond ik bij Spider-Man de animaties en de overvloeingen tussen het webslingeren en het echte acteren erg goed verdoezeld . Ik had er vaak problemen mee te zien of het nu geanimeerd was of niet . Dus met de huidige technieken kan het inderdaad wel
vertel eens hoe in hemelsnaam heb jij Spiderman gezien? ;)
je moet tekenfilmfiguren inderdaad niet TE echt laten lijken.
Die probleem hadden ze ook met die prinses in Shrek, die hadden ze op een gegeven moment ZO echt gemaakt dat ze maar een stapje terug hebben gedaan..
Anders kreeg je te veel het Roger Rabbit effect...
\[Total_offtopic_mode]

Dat zal Darth Maul zijn, die je bedoeld.

Ik weet dat het offtopic is, maar als fan kon ik het niet laten (8>

\[/Total_offtopic_mode]
In blade II zijn je juist wel stoer nep. Van die MK like moves maken het wel appart.
Ik vond dat over muren lopen er heel realistisch uit zien in Blade II hoor! :? :P
Ik vond het er juist veel te echt uit zien. In de tekenfilm was het spook juist altijd een vent met een laken over z'n kop die Boooo roept. Hier waren het supermooie echte monsters en dat hoort niet in Scooby Doo.
Er staan ook al een aantal Athlon MP supercomputers (sommige zelfgebouwd) in de top500. ( http://www1.top500.org/list/2002/06/ ) De hoogst genoteerde op plaats 47.

Dit zijn allemaal Beowulf Clusters draaiend op Linux, voornamelijk gebouwd/aangeschaft door Universiteiten vanwege de relatief lage kosten.

En tja, wat maakt het eigenlijk uit waar je het op rendered? In princiepe kan iedere computer Scooby Doo renderen, de een alleen iets sneller dan de ander.
das de grap ook, dit soort animaties worden dus nu gedraaid door machines die de consument gewoon kan kopen. Vroegere animaties werden altijd op onbetaalbare machines gerenderd (Silicon Graphics).

Vergelijk : mijn oude 486 deed twee dagen om een filmpje van 600 frames op 768x540 te renderen (nog niet eens raytracing, raytracing van 1 frame deed er al een dikke dag over!!), ik hem 'm laatste weer 's uit de kast gehaald, gerenderd op mijn AMD700MHz, deed er anderhalf uur over! En die bak van mij is eigenlijk al weer oud.
Maar zou het misschien zo kunnen zijn dat ze voor AMD hebben gekozen vanwege kwaliteit?
Nee, geen van de processors is beter. Ze zijn anders. De kwaliteit van het eindproduct hangt af van de software waar het mee gecreeert wordt. De CPU in dit geval zal hooguit de snelheid bepalen.

Het enige wat beter kan zijn is de prijs/prestatie verhouding.
kwaliteit lijkt me in het geval van een processor toch echt een combinatie van preformance/stabiliteit, en volgens het artikel presteerde de AMD's boven verwachtingen. Neem daarbij het voordeel van prijsverschil, en je hebt toch de betere processor (tenminste voor hun toepassingen, in hun ogen)

* 786562 Atmosphere
Volgens mij vergeten er hier wat dat het ontwerpen & modellen zélf gewoon door de mensen van dat bedrijfje is gedaan :) Of het nou een amd is of een intel, opmerkingen als 'ik vond het er nep uitzien' dat is niet de schuld van de processors he :+
Tja, tuurlijk is het niet wereldnieuws en tuurlijk is het niet AMD wat de klok slaat...

Maar het is toch leuk om te zien dat voor een redelijk groot project men toch voor AMD kiest. Dat wil gewoon zeggen dat ook dat soort bedrijven in beginnen te zien dat AMD wel zeker degelijke producten maakt.

Dat het toch veelal intel is kan volgens mij ook komen doordat AMD pas relatief kort echt meespeelt. En renderfarms vervang je niet ieder jaar ofzo (lijkt mij tenminste). Gevolg is dat dus veel renderfarms uit Intels bestaan omdat op het moment van samenstellen AMD nog niet zoveel voorstelde. Wie weet hoe de situatie over een jaar of 5 is... DAT lijkt me pas interessant om te weten.

AMD is toch wel degelijk een belangrijke speler op de markt geworden en wanneer er nu nieuwe renderfarms samengesteld gaan worden zal AMD zeker een serieuze optie zijn.
Laten we met z'n allen blij zijn dat AMD de concurentiestrijd aangaat met intel en vooral blijven kopen, dus elk positief nieuws posten zou ik zeggen.

Als het enkel van intel afhing waren we nu hooguit met cpu's bezig van hooguit 1000 megahertz tegen torenhoge prijzen, dat we nu op het huidige peil staan hebben we in feite enkel aan AMD te danken, en aan digene die deze kopen
*zucht*
Nu er 2 keer gebruik is gemaakt van een AMD, voor een semi-groot project meteen hoog van de toren blazen? Je moet niet vergeten dat (bijna ) alle middelgrote servers nog steeds Intel zijn. Opzich is dit nieuws wel een leuke publiciteitsstunt voor amd, maar heeft verder geen echte waarde, hoewel het wel aangeeft dat ze in de goede richting gaan wat betreft server systemen :)
Eindelijk extra concurrentie voor intel, want Sun gaat nu ook al Intel gebruiken, wat minder concurrentie van UltraSparcs betekent :'(
Hoezo *zucht*. Klinkt wel als een Intel-zealot....

Toch leuk om te zien dat het niet alleen Intel = wat de klok slaat bij grote bedrijven. Dat is iets wat volgens nerds (willen alleen het "beste") nooit een AMD zou kunnen. Nee, je kocht Intel als je betrouwbaar, stabiel , stroombesparend produkt wou. AMD werd sarcastisch om gelachen. Denk dat die kennis nu wel iets minder lacht, al zal die tot zijn graf Intel zweren ;)

Let wel, ben zelf echt geen Merk-fanaat. Ga pers. altijd voor de beste prijs/prestatie-verhouding. Voorlopig is dat AMD, maar dat kan altijd omslaan.

Deze post geeft ook aan dat die MP-planken/chips lekker werken. Da's ook leuk om te horen.

Verder heeft het niet zoveel waarde nee, dat er nog een meerderheid (ruime) van de brdrijven/web-servers met Intel draait weten we ook wel. Heb ik en waarschijnlijk de meeste van ons ook geen probleem mee. Iedereen draait wat ie plesiert, nietwaar ?
FF ter informatie, AMD presteert in Dual processor mode in de grafische wereld beter dan Intel ea. Het is zo dat AMD processoren de volle 200% workload van het systeem gebruiken, terwijl Intel nog altijd achterloopt.... Dus is het redelijk envoudig dat men bij ILM zegt: "we really appreciate the performance boost we got with our AMD Athlon MP processor-based systems".

Je kan die zelfde cluster met Intel doen maar dan gaat het gewoon trager... ;)
Je kan die zelfde cluster met Intel doen maar dan gaat het gewoon trager...
Dat is niet waar, want die intel 8weg 2.4 ghz xeon configuraties met 2mb cache zijn vast wel sneller, maar die zijn gewoon niet te betalen.
Dat vind ik dan ook het sterke punt van Amd, voor in gebruik van clusters, zoals hier: Het is per processor waarschijnlijk niet het snelste, maar wel per gul...Euro!
En er is voor de 3d animatie afdeling vast een bepaald budget afgesproken, dus zullen ze voor Amd gaan, als ze zich niet laten leiden door Intel's superieure marketingafdeling. Want ze krijgen dan de meeste power
En nu mijn reactie op alex4u:
Dat is iets wat volgens nerds (willen alleen het "beste") nooit een AMD zou kunnen. Nee, je kocht Intel als je betrouwbaar, stabiel , stroombesparend produkt wou.
Ik ben het met je eens dat de processoren van Amd goed, betrouwbaar snel, stabiel etc zijn, MAAR ik ben nog steeds niet dol op Via mobo's.
De Amd proccie mag dan wel goed zijn, maar daar heb je niet altijd evenveel aan als die overheat protection via het mobo geactiveerd moet worden en dat mobo dat vertikt. Dan brand de Amd gewoon door, omdat dat mobo gewoon dom is. Daarnaast zijn de Via chips niet superstabiel ( ik heb een 1ghz duron en een p4 ), die duron loopt af en toe ( om de paar dagen ) vast en mijn Intel om de maand ongeveer. Gelukkig maakt Amd nu zijn eigen complete chipsets ( de eerdere ondersteunden geen goede agp etc, daarom werd via de standaard ), dus dat probleem is uit de weg :D en nu zijn er idd niet zoveel redenen om Intel te kiezen.
Wat me echter wel opvalt is dat Amd, hoewel de prijs/prestatie nog steeds beter is dan die van Intel steeds duurder wordt. Toen ik mijn pc kocht was een p4 1.6 evenduur als een Xp1600 en hoewel die Xp1600 sneller is ging ik toch voor de Intel, omdat je dan ZEKER weet dat het betrouwbaar is. Dat is ook Amd's probleem, bedrijven weten van Intel tenminste zeker dat het min of meer goed is en ze kennen Ams nog niet zo goed uit de praktijk. B.t.w
* 786562 jojo2k1
Alex4you heeft deels gelijk, om AMD als chipgigant af te stempelen in het nieuwsitem is een redelijke vorm van AMD-zeolotisme, want qua grootte telt AMD echt niet mee in het rijtje chipgiganten, daar passen Intel en IBM meer in thuis.

Feit is gewoon dat Intel en IBM nog steeds veel meer gebruikt worden en daar hoor je niets over, wat natuurlijk logisch is aangezien die al veel langer meedraaien.

Dat AMD toevallig aan twee films heeft meegeholpen is leuk, maar in vergelijking met andere chipfabrikanten is het nogal magertjes, en niet echt nieuwswaardig.

AMD zal pas een serieuze rol gaan spelen met de Hammer, die zal pas echt deuren voor AMD openen, vooral in de markten zoals in dit nieuwsitem zijn beschreven, dus de high-end moddeling markten.
Alex4you heeft deels gelijk, om AMD als chipgigant af te stempelen in het nieuwsitem is een redelijke vorm van AMD-zeolotisme, want qua grootte telt AMD echt niet mee in het rijtje chipgiganten, daar passen Intel en IBM meer in thuis.
Beetje overdreven. AMD heeft weliswaar een kleiner marktaandeel dan Intel, maar maakt wel netjes 27 miljoen processors per jaar en is daarmee de op één na grootste fabrikant van microprocessors. Dan behoor je wel tot de giganten.
Dat AMD toevallig aan twee films heeft meegeholpen is leuk, maar in vergelijking met andere chipfabrikanten is het nogal magertjes, en niet echt nieuwswaardig.
De nieuwswaarde is dat twee grote digital effects studio's gebruik zijn gaan maken van AMD Athlon MP processors, terwijl AMD pas een jaar geleden intrede heeft gemaakt in de server/workstation markt. Het gaat hier dus om een verandering in de markt. Om dezelfde reden was het interessant om te melden dat Weta is overgestapt van SGI naar Intel machines ( http://www.tweakers.net/nieuws/22015 ).
Misschien heb je wel gelijk dat Intel en IBM groter zijn dan AMD, maar aan de andere kant moet je AMD zeker niet onderschatten. Het mag toch wel als bekend worden verondersteld dat AMD meer doet dan alleen procjes uit de fabriek toveren. Qua processors zijn ze misschien relatief niet eens zo'n grote speler, maar in erg veel apparaten die gebruik maken van chips zitten technologie en produkten verwerkt van AMD. Van een chipgigant is IMHO dus wel sprake

BTW: Misschien dat t artikel een beetje als AMD reclamemateriaal uit de bus komt, maar voor de volledigheid gaat het meer om een weetje. Er zijn vast ook een hoop films tot stand gekomen met behulp van Intel & IBM-systemen ;)
Precies ;)

Geeft misschien aan dat de grote firma's ook op de "kleintjes" gaan letten (lees:geld) :+

Wat zouden bijv. 42 dual-Intel P4 Northwood systeempjes kosten ?
Wat dat kost doet er niet toe. Wil je op het geld letten dan render je op AMD onder Linux.
(Onder Linux is ook al gebeurd met Titanic.)
het maakt toch geen moer uit welke processor er in de server zit maar om de software die rendert
Toch wel, niet in de zin van het renderen, maar als bewijs dat deze serieuze/commerciele bedrijven blijkbaar voor AMD systemen kiezen, dus zijn die systemen ook betrouwbaar.

Overigens: in beide gevallen: SW AotC en Scoobydoobydoo is gebruik gemaakt van linux.
Dat vond ik persoonlijk interessanter om te weten, en jammer dat dat hierboven niet vermeld is.
MAC?
Je heb de workstations dat zou eventueel kunnen.
en dan de renderfarms hier geld de prijs en performance.
Ze ver ik weet zijn MAc duur vergeleken met iNtel laat staan AMD.
Zo ver ik hoor zijn ze ook niet snel, aangetoond in testen, terwijl mac freak dat steeds blijven beweren
Maar hoe het zit met de FPU performance tussen MAc/iNtel/AMD weet ik niet

Op dit vlak speeld FPU performance 'n rol niet hoe snel Photoshop is.
Omdat de FPU performance bepaald hoe snel de job geklaard is vooral met 'n strakke deadline.

Tja aangezien intel veel Oem leveranciers heeft die intel only zijn door 'n overeenkomst/contract of vriende korting en die doen ook in servers dan kan het zijn dat sommige IT automatisering bedrijfen alleen intel als oplossing aanbieden.

ALs vele domweg alleen intel aanbieden heeft AMDzowieso minder kans.iNtel is d egevestigde Orde en AMD timmerd niet zo lang op de server weg en heeft nog een hele rewis te gaan.

Zoals luitjes die Dell gebruiken voor IT oplossingen zit je vast aan intel.
De vrijere bedrijven die kunnen zelf kiezen ook die zelf servers assembleren.

iNtel heeft dus door die OEM'ers van hun een gegarandeerde markt aandeel niet omdat de produkten super zijn maar meer hun positie in de markt en hun klanten bindingen met grote OEM leveranciers.

Mocht de HAmmer 'n Sucses worden zullen er toch bedrijven zijn die alleen intel blijven leveren.
In mijn volgende systeem kom zoals het er nu uitziet een Clawhammer-achtige (liefst natuurlijk een opteron met zijn IPC hoger dan 2) waarschijnlijk alleen maar vanwege prijs/persatie verhouding. Inderdaad het kan altijd sneller, maar zelfs de 2,4GHZ Xeon in dual opstelling zal in een (behoorlijk) aantal dingen langzamer zijn dan die Dual Athlon MP's (dat geld natuurlijk ook anders om). Als je gaat DB'en neem je een P4 Xeon, en als je gaat rekenen neem je een Athlon MP. En natuurlijk is het budget het belangerijkste ..

SG
Hehe .. Nou ik ben geen MAC fan, maar die G4 is behoorlijk snel hoor. Alle Spec-benches die ik gezien heb tonen wel degelijk een betere preformance. Echter groot probleem is meer de programmering van die apparaten + dat er veel meer AT-klonen zijn.
Het is dat ik het nu niet kan vinden, maar die G4 is in staat om rondjes rond de P4 / XP te rennen mits goed geprogrammeerd (moet je maar ffies van mij aannemen) Mooie voorbeelden zijn server preformance onder linux, en grafische (FPU gevoelige) bewerkingen.
Hehe, bedoel je dat Sun AMD's gaat gebruiken,.. want dat gaan ze wel doen. Intel-procs worden door sun namelijk al wat langeretijd ingezet voor hun 'low-end' servers en workstations.
42 Dual MP's!! :o
Jeepers!
ja? Ik?
<font color=#786562>* ]eep is er maar 1 hoor
</font>
en heeft geen 84 athlons om een hond te renderen...
mijn hond heeft ook geen 84 AMD's nodig...... moet 'm alleen uitlaten, .....

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True