Sapphire introduceert passief gekoelde Radeon RX 5700XT-videokaart voor servers

Sapphire introduceert zijn GPRO X070-videokaart. Deze kaart gebruikt een AMD Radeon RX 5700XT-gpu en is volledig passief gekoeld. De gpu wordt getoond in een rackserver en is volgens Sapphire bedoeld voor compute-workloads, zoals het renderen van 3d-beelden.

De Sapphire GPRO X070 heeft een koelblok met vier heatpipes. De kloksnelheid bedraagt 1605MHz met een gameclock 1755MHz en een boostclock van 1905MHz in zijn standaardmodus. De fabrikant voorziet zijn X070 ook van een meer 'efficiënte' bios, die deze snelheden verlaagt naar respectievelijk 1500MHz, 1700MHz en 1750MHz. De gpu is verder voorzien van 8GB aan GDDR6-geheugen op 14Gbit/s, met een geheugenbus van 256bit. Dat is goed voor een bandbreedte van 448GB/s.

De videokaart is volgens Sapphire bedoeld voor professionele workloads, waarbij het bedrijf 3d-renderen en 3d-visualisaties als mogelijke gebruiksscenario's noemt. De kaart zou daarbij volgens Sapphire ontworpen zijn voor gebruik in compute-systemen, hoewel het ook een samenwerking aangaat met softwareontwikkelaar Cudo om servers voor cryptomining met deze gpu's te verkopen.

De fabrikant toont op zijn website bijvoorbeeld een rackserver met tien GPRO X070-videokaarten. Dergelijke serverbehuizingen zorgen doorgaans voor voldoende airflow, wat de passieve koeling mogelijk maakt. De GPRO X070 is verder voorzien van een HDMI-connector en drie DisplayPort-aansluitingen. Het is nog niet duidelijk wanneer de Sapphire GPRO X070 beschikbaar komt. Ook over adviesprijzen wordt nog niet gerept.

Sapphire GPRO X070 met passief gekoelde RX 5700XTSapphire GPRO X070 met passief gekoelde RX 5700XTSapphire GPRO X070 met passief gekoelde RX 5700XTSapphire GPRO X070 met passief gekoelde RX 5700XT

Sapphire GPRO X070 met passief gekoelde RX 5700XT

Sapphire GPRO X070
Videokaart AMD Radeon RX 5700 XT
Gpu Navi 10 XT, 7nm (TSMC)
Compute units 40
Stream processors 2560
Kloksnelheid (standaard bios) Base: 1605MHz
Game clock: 1755MHz
Boost clock: 1905MHz
Kloksnelheid ('efficiency' bios) Base: 1500MHz
Game clock: 1700MHz
Boost clock: 1750MHz
Geheugen 8GB GDDR6, 14Gbit/s
Geheugenbus 256bit
Geheugenbandbreedte 448GB/s
Aansluitingen 1x HDMI
3x DisplayPort
Stroomconnectors 1x 8-pins
1x 6-pins
Tgp <180W volgens Sapphire
Adviesprijs nnb

Door Daan van Monsjou

Nieuwsredacteur

17-01-2021 • 17:26

93

Reacties (93)

93
91
51
3
0
27
Wijzig sortering
Kun je dit wel passief noemen, daar een externe ventilator is voorgeschreven (en keiharde noodzaak)?
Dergelijke serverbehuizingen zorgen doorgaans voor voldoende airflow, wat de passieve koeling mogelijk maakt.
Formeel heb je gelijk, maar eigenlijk heb je in bijna iedere case wel een ventilator nodig om de warmte weg te krijgen, los van hoe je precies de warmte uit je CPU of GPU weghaalt. Anders moet je hele case een heatsink zijn. Die dingen zijn wel ontworpen, maar vooral voor dingen als een Intel NUC of andere barebone.
Passief gekoeld is koeling zonder bewegende onderdelen. MacBook Air is passief gekoeld, alle telefoons en bijna alle camera’s ook.

Een kaart met een koelblok die een externe ventilator nodig heeft die lucht op hoge snelheid door dat blok heen blaast is per definitie niet passief gekoeld.
Het geheel niet, maar de kaart zelf heeft geen actieve koeling. Zo bestaan er meer passief gekoelde videokaarten voor consumenten. Dat zijn kaarten met een grote heatsink die voldoende warmte moet afstaan aan de reeds aanwezige fans in de pc-kast.
Tja maar dan kan je bijna alles passief noemen in de server business.
Dat kan je ook, want je hebt ook individuele koeling, en die kan prima actief of passief zijn. Je hebt ook actief gekoelde server GPUs en hoe ga je anders het verschil aanduiden ;-)
het is toch altijd zo koud in een serverruimte dus ja gekoeld wordt er zeker wel. Dan kan je wel zeggen de hardware zelf wordt door externe dingen verder gekoeld die ook voor andere hardware in je racks bedoeld is.
Koud? De ideale temperatuur is ergens tussen de 35-37 graden... dus heel koud hoef je zo een ruimte niet te houden.

Nou is een graadje of 20/21 wel zo fijn als je er aan het werk moet, maar kouder is echt niet nodig.

[Reactie gewijzigd door mjl op 24 juli 2024 19:17]

hangen niet voor niets airco's in server ruimtes :)
Ja maar je hoeft ze echt niet heel koud te zetten, Google heeft eens gekeken naar levensduur en maximale temperatuur, daar kwam iets van 37 graden uit als ik het me goed herinner. Dus hoe kouder hoe meer verspilling van energie.

En dat zijn geen simpele airco’s die in een data ruimte zitten.
denk dat je met deze temperaturen in veel serverruimtes/datacenters een alarm gaat triggeren...

ideale conditie is tss 21° en 24 ° , bij 28 °c ging er een alarm af, en boven de 35 lieten ze extra koeling aanrukken heb ik al meegemaakt
hangt van de opzet af, traditioneel was het 18° en dan heb je ook nog setups van warme en koude gangen of gewoon warmere ruimtes, want men heeft door dat het wel wat warmer kan zonder extra problemen (lees minder kosten ivm lagere temperatuur).
Maar deze GPU is letterlijk erop gebouwd dat er meerdere fans aan de voorkant zitten met gigantische hoge RPMs, nu zit er alleen 30cm tussen ipv niks. Dit is net zo passief als waterkoeling.
Het punt is dat het apparaat niet zelf voor de koeling zorgt en afhankelijk is van iets anders dat dat regelt.

Je punt mbt tot waterkoeling is valide ware het niet dat er bijna geen gpu’s met waterblock default worden verkocht. Als ze wel met waterblok komen zitten ze meestal in een dure set met pomp en rad. In zo’n unit van een koffer.
5700XT powercolor liquiddevil

Maar de kaart is passief gekoeld.
Als je een passief gekoeld server hebt kan dat ook. Maar dit component is passief
Wat is de reden dat je zo met je hakken in het zand gaat over de term passief? Ik denk dat @johnkeates het heel goed heeft verwoord.

Let's face it: alle passieve koeling is afhankelijk van de omgevingstemperatuur om warmte af te kunnen staan. Hoe die omgevingstemperatuur tot stand komt, dat heeft niets met deze GPU te maken. :)
Ja maar de stap van geen actieve koeling naar passieve koeling is ook niet zo simpel, eerlijker om te zeggen dat deze kaart geen koeling heeft.

Nu zal het voor de zakelijke markt geen ramp zijn, maar denk dat je op de consumentenmarkt wat genuanceerder met je beschrijving moet zijn.

De enige passief gekoelde kaarten die ik me zo voor de consumentenmarkt kan herrineren zijn entry level cards die die ventilator ook echt niet nodig hebben en het ook nog wel zullen doen in een 10 jaar oude stoffige office pc. (En aftermarket passieve koelers, maar dat is een ander verhaal.)

[Reactie gewijzigd door KSU4reqY op 24 juli 2024 19:17]

Ja maar de stap van geen actieve koeling naar passieve koeling is ook niet zo simpel, eerlijker om te zeggen dat deze kaart geen koeling heeft.
Dat zou pas oneerlijk zijn, deze kaart heeft nml (uiteraard) wel degelijk koeling nodig. Hij genereert warmte, dus als hij niet zou koelen, zou hij blijven opwarmen tot hij zichzelf uitschakelt door oververhitting.
Nu zal het voor de zakelijke markt geen ramp zijn, maar denk dat je op de consumentenmarkt wat genuanceerder met je beschrijving moet zijn.
Legio componenten in je computerkast die passief gekoeld zijn. Er zit dan een heatsink op die zijn warmte afstaat aan de lucht in de kast, maar wel airflow in de case nodig heeft om die warmte aan verse, koele lucht kwijt te raken.
De enige passief gekoelde kaarten die ik me zo voor de consumentenmarkt kan herrineren zijn entry level cards die die ventilator ook echt niet nodig hebben en het ook nog wel zullen doen in een 10 jaar oude stoffige office pc. (En aftermarket passieve koelers, maar dat is een ander verhaal.)
Die kaarten hebben allemaal een airflow in de kast nodig om hun warmte kwijt te kunnen. De geleiding door de wand van de computerkast en convectie naar de buitenlucht is onvoldoende om computers te koelen.
Dat zou pas oneerlijk zijn, deze kaart heeft nml (uiteraard) wel degelijk koeling nodig. Hij genereert warmte, dus als hij niet zou koelen, zou hij blijven opwarmen tot hij zichzelf uitschakelt door oververhitting.
Ja en hoeveel minuten gok je dat dat duurt zonder actieve ventilator? of die nu up de kaart zit of in de kast.
Die kaarten hebben allemaal een airflow in de kast nodig om hun warmte kwijt te kunnen. De geleiding door de wand van de computerkast en convectie naar de buitenlucht is onvoldoende om computers te koelen.
Heb ik echt mijn twijfels over. Denk dat een 30-50W kaartje best genoeg heeft aan convectie/straling. Dat als het 92mm ventilatortje in een oude bagger pc kapot gaat dat er genoeg van een pasief schoorsteen effect onstaat dat je het zomaar niet eens hoeft te merken dat de ventilator kapot is. Heck ook wel eens van dat soort pcs gezien met een kapotte CPU fan die het nog gewoon deden.

Ik moet voor de gein eens opzoeken hoeveel watt warmte mijn huishoud electronica genereerd. TV, koelkast, etc, die zijn allemaal echt passief gekoelt en denk dat die ook wel redelijk in de wattages lopen.

[Reactie gewijzigd door KSU4reqY op 24 juli 2024 19:17]

[...]


Ja en hoeveel minuten gok je dat dat duurt zonder actieve ventilator? of die nu up de kaart zit of in de kast.
Heel kort, dat is m'n punt ook. Beweren dat de kaart geen koeling nodig heeft, is onzinnig als een kaart warmte genereert.
[...]

Heb ik echt mijn twijfels over. Denk dat een 30-50W kaartje best genoeg heeft aan convectie/straling. Dat als het 92mm ventilatortje in een oude bagger pc kapot gaat dat er genoeg van een pasief schoorsteen effect onstaat dat je het zomaar niet eens hoeft te merken dat de ventilator kapot is. Heck ook wel eens van dat soort pcs gezien met een kapotte CPU fan die het nog gewoon deden.

Ik moet voor de gein eens opzoeken hoeveel watt warmte mijn huishoud electronica genereerd. TV, koelkast, etc, die zijn allemaal echt passief gekoelt en denk dat die ook wel redelijk in de wattages lopen.
Het verschil is dat die allemaal ontworpen zijn om zonder actieve koeling gebruik te worden en als apparaat in een heel grote ruimte (je woonkamer of je keuken) staan waarin de opwarming door dat apparaat verwaarloosbaar zal zijn. Als jij echt alle fans uit je kast verwijdert, inclusief die op je CPU en GPU (en eventuele chips op je moederbord), houd je dat onder stress echt niet stabiel, niet in een gesloten kast die ontworpen is om met case fans te werken. Daarnaast installeert iedere keukenboer een rooster onder/boven de koelkast / diepvries, zodat de warmte weg kan.

Heel misschien dat het lukt met undervolten e.d., maar met normale instellingen en normale hardware (niet een of andere heel bijzondere mobiele chip) gaat je dat niet lukken. Er bouwt dan gewoon teveel warmte op waardoor je onder stress onvoldoende koelvermogen hebt.

Maar mijn punt was eigenlijk: je beweerde dat "heeft geen koeling nodig" een eerlijker statement zou zijn. Ook passief gekoelde apparaten (het zijn immers gekoelde apparaten) hebben koeling nodig. Als dat niet zo was, zouden ze geen warmte ontwikkelen en dat doet elektronica per definitie. We verzanden dan in een heel theoretisch verhaal met een grijs gebied waarin niemand elkaar kan overtuigen van wanneer iets werkelijk passief gekoeld is. Mijns inziens is een passief gekoeld apparaat een apparaat volledig zonder ventilators. Ik geloof dat Zalman ooit eens zoiets heeft laten zien en voor barebones kun je soms behuizingen kopen in de vorm van een enorme heatsink, die passief zijn warmte aan de omgeving afstaat. Maar van dat soort systemen moet je nooit wonderen verwachten qua prestaties.

[Reactie gewijzigd door Grrrrrene op 24 juli 2024 19:17]

Die zijn niet berekend op een grote fan die haaks op de Fins staat. Zoals deze kaarten

Die passieve oplossingen gaan ervan uit dat de case fan de warmte in de kast niet laat oplopen door de lucht tijdig te verversen.

Ik hoop dat iemand deze kaart zo in een normale pc probeert te steken en kijkt hoe snel die oververhit raakt. Lijkt me wel iets voor linus.
Dan is niks passief gekoeld, want je hebt de luchtdruk en temperatuur nodig van de atmosfeer van de aarde.
Passief gekoeld is koeling zonder bewegende onderdelen. MacBook Air is passief gekoeld, alle telefoons en bijna alle camera’s ook.
Net als deze videokaart, want die heeft ook geen bewegende onderdelen. Je macbook, telefoon en camera kunnen hun warmte direct aan de omgeving kwijt. Deze kaart zit in een behuizing opgesloten waarin warmte wordt gegenereerd, ook door andere componenten.

Passief gekoelde apparaten moeten hun warmte ook kwijt aan de omgeving en als dat niet kan, zijn er geen mogelijkheden deze overdracht te verbeteren. Een actief gekoeld apparaat zet dan zijn fan aan of wat hoger, waardoor er door convectie meer warmte kwijtgeraakt wordt aan de omgeving.
Een kaart met een koelblok die een externe ventilator nodig heeft die lucht op hoge snelheid door dat blok heen blaast is per definitie niet passief gekoeld.
Je kunt er wel een eigen definitie van proberen te maken, maar geen enkel passief gekoeld apparaat kan functioneren in een eigen bubble. Ze moeten allemaal op de een of andere manier hun warmte kwijt aan de omgevingslucht. Als je jouw Macbook in een kast zou zetten waar de temperatuur snel oploopt, gaat hij vanzelf trager lopen of zelfs uit, omdat hij zijn warmte niet kwijt kan.
Overigens,

Als het niet praktisch is om iets passief te koelen, wat met een GPU van 220 wat best lastig is. Kunnen we nog niet zomaar definities gaan veranderen of oprekken omdat passief niet mogelijk/praktisch is.

Deze kaart is gemaakt om in een server rack met actieve luchtkoeling te functioneren. Dat Sapphire marketing dat niet begrepen heeft in hun persbericht betekend nog niet dat Tweakers dat gelijk clickbait moet copy pasten.

Ik zou zeggen tweakers vraag een review sample plug hem zonder fan in een open testbench en kijk hoelang het duurt tot die terug klokt of uitfikt.

[Reactie gewijzigd door BarnET op 24 juli 2024 19:17]

Ja inderdaad dacht ik ook net als met de oude AMD processoren die na paar seconden zonden koeling meteen in rook opgingen.
Maar de kaart heeft toch geen dan?

Dus de kaart is toch passief gekoeld?
(...) Deze kaart is gemaakt om in een server rack met actieve luchtkoeling te functioneren.
Het actieve deel zit in het rack, zoals je zelf aangeeft, niet op de kaart ;)
Het wordt een beetje semantiek zo, maar passief gekoeld betekent "gekoeld zonder intrinsieke actie", contrasterend met actief, waarbij het werk en initiatief vanuit het product zelf komt. Denk maar aan de andere gebruiken van het woord passief in de Nederlandse taal, waar het informeel zoiets zou betekenen als "het laten gebeuren". B.v. "passief roken" wat neer komt op zelf geen tabaksproduct opsteken en toch rook inhaleren.
Nu heeft een grafische kaart geen intentie, er is slechts de intentie van de ontwerpers, dus is het iets lastiger vergelijken. Maar IMHO mag je wel degelijk stellen dat de grafische kaart passief gekoeld is; hij is namelijk afhankelijk is van externe factoren voor koeling en voert zelf geen "werk" uit (genereren van airflow) om dit te bewerkstelligen. Dat de server als geheel niet passief gekoeld mag zijn doet daar geen afbreuk aan.
Dat gezegd hebbende, je mag je uiteraard best afvragen wat de waarde van passieve koeling is in zo'n GPU. Er is iets minder lawaai en de ventilator vraagt misschien een W minder, maar ik vraag mij sterk af of die criteria belangrijk zijn in een lawaaiige serverruimte met hoge compute-eisen.

[Reactie gewijzigd door RSpliet op 24 juli 2024 19:17]

Minder bewegende delen die slijten en stuk gaan en vervangen moeten worden gaat t denk ik om.
Je hebt nog steeds fans ze zitten alleen in de server rack (zie de foto) die draaien nog steeds en zullen welles vervangen moeten worden.

Echter dat is vrij eenvoudig. Net zo makkelijk als het vervangen van je achterste case fan bij een PC.

Kan iedereen die een schroevendraaier kan beethouden
Nee het is zelfs veel makkelijker, die fans zijn veelal hot swappable. In het geval van de beste systemen zelfs van buiten hot swappable.
Het lawaai of verbruik van de fan zijn niet de reden om passief te koelen. Dat lawaai valt in het niet bij de andere fans en de airco, en het verbruik van die dingen is ook niet mals. Ik heb zo geen rackmount-fan in de buurt om af te kijken, maar voor een blade-enclosure met 16 servers wordt 500 Watt gereserveerd voor de fans. Zo'n enclosure is efficiënter dan de fans in een rackmount (er is immers veel meer ruimte voor), maar zelfs met een 1:1 vergelijking kom je op 30 Watt per server alleen voor de fans.

De waarde van die passieve koeling zit hem in het design. In een rackmount zit heel veel aandacht aan de airflow, en er is sowieso al een bak aan airflow aanwezig. Als je dan zelf een fan op die kaart zet, dan kost dat klauwen met ruimte waar je anders koeloppervlakte had kunnen plaatsen, en je zit met een grote uitdaging qua airflow. Waar haal je de koele lucht vandaan? Waar blaas je de warme lucht naartoe?

Bij consumenten-GPU's zie je dat de koele lucht van onderen (bij een tower dan toch) wordt aangezogen, en 'overal' (al is het zeker wel met een stevige 'suggestie' dat het naar achteren moet) uitgeblazen. Dat werkt gewoon niet in een rackmount.

Tevens zit je met onderhoud. Wat doe je als die fan stuk gaat? Server uit, kaart eruit, nieuwe kaart er in? Fan ter plekke vervangen? Dat het ding uit moet is al een doodzonde, en ter plekke die kleine fan vervangen zie ik ook nog niet gebeuren. Daar kan veel te veel mis gaan.

Door de kaart passief te koelen maak je gebruik van fans die er al zijn, fans die heel veel ruimte in kunnen en mogen nemen, fans die hotswappable zijn door mensen met de dikste vingers en zonder dat de server uit moet. Je koeloppervlak is groter waardoor de kaart koeler blijft. Er kan veel minder stuk waardoor de kans dat de kaart vervangen moet worden veel kleiner is.

Als ik in de pricewath kijk hoeveel GPUs twee sloten innemen (4) en hoeveel drie sloten (9) dan zit daar nog een voordeel: én goede koeling, én 33% kleiner dan de meeste actieve kaarten. Met andere woorden, je kunt meer GPU's kwijt in één server.
Bedankt voor deze context :-)
Dit is wel een beetje krom inderdaad. Nu is het voor servers heel gebruikelijk dat een centrale batterij aan fans voor de koeling zorgt, maar de componenten in zo'n rack zou ik inderdaad niet passief-gekoeld noemen.
Iedere processor is passief te koelen.

Sommigen zelfs meerdere keren!
Kun je dit wel passief noemen, daar een externe ventilator is voorgeschreven (en keiharde noodzaak)?

[...]
Als de fabrikant iets voorschrijft dat speciaal voor servers is, dan gaat de fabrikant er vanuit dat je dus ook server koeling erin hebt zitten dat voldoende koelcapaciteit heeft om dit soort kaarten te kunnen koelen.

Er zullen bij dit product wel wat vereisten aanwezig zijn voor garantie.

Dit soort kaarten koop je niet zomaar even zoals een normale consument. Bij het aanschaffen van dit soort producten gaat altijd wat research aan vooraf.

[Reactie gewijzigd door Luchtbakker op 24 juli 2024 19:17]

Op de foto van de server rack zie je 3 ventilatoren die lucht door de kaart naar buiten blazen.

Met deze logica van de tweakers redactie is een watergekoelde CPU of GPU ook passief gekoeld aangezien de ventilator niet direct op de kaart / moederbord zit
Hoe lang moet een heatpipe zijn voordat Tweakers iets 'passief-gekoeld' noemt 🤔
Eerder semi-passief denk ik :Y)
Hoewel dat ook zou kunnen betekenen dat er wel een fan is maar deze bv niet altijd aanstaat, zoals zero rpm mode bij veel gpus en voedingen.
Is 8GB VRAM niet een beetje weinig voor servertoepassingen?
Zo lijkt het mij meer op een kaart gericht op cryptominers in ieder geval.
Is dat nog wel interessant? Cryptomining met GPU's? Ik dacht dat, dfat al wel passe zou zijn. Er is hardware welke dat veel efficienter kan.
Etherium en veel andere grote coins kan je alleen maar met GPUS's minen, er waren inderdaad acis, en toen hebben ze gewoon het algorithm weer veranderd zodat het weer alleen met GPU'S kon.
Zonde van de GPUs, kunnen ze het algoritme niet opnieuw aanpassen zodat het ook niet meer met GPUs kan?
Dat zal vast kunnen, maar of ze dat willen, dat zou je ff aan hun moeten vragen.
Ze maken die protocollen bewust so dat het alleen (economische) met GPU's kan en niet met ASIC's.

De enige enigszins realistische oplossing is alle GPU's zo maken dat ze niet goed zijn in mining, zoals AMD met de 6000 series
Die is maar iets sneller als de 5700xt vanwege de beperkte geheugen bandbreedte, terwijl mining de infinity cache nauwelijks kan benutten(een bewuste anti-ASIC keuze).

[Reactie gewijzigd door Countess op 24 juli 2024 19:17]

Zonde van de GPUs, kunnen ze het algoritme niet opnieuw aanpassen zodat het ook niet meer met GPUs kan?
Als je met "ze" verwijst naar Ethereum, dan doen ze dat ook. De zogenaamde Proof of Work waarmee grafische kaarten worden gebruikt voor de blockchain consensus wordt vervangen voor een Proof of Stake algoritme. Hiermee wordt minen met een grafische kaart overbodig.

Bitcoin daarentegen gebruikt nog wel Proof of Work, maar voor Bitcoin worden ASIC miners gebruikt en zijn grafische kaarten al geruime tijd niet meer krachtig genoeg cq. te duur.

Er zijn ook modernere consensus algoritmes zoals dBFT waarmee een beperkt aantal gedelegeerde consensus nodes die door de gebruikers gekozen worden de nieuwe blocks in een blockchain valideren. Dit is natuurlijk veel efficiënter en hiermee heb je ook geen risico meer op een 51% aanval.
Innosilicon maakt ook ETH ASIC’s maar de vraag is hoe lang die nog werken met de overstap naar 2.0 straks. Voordeel van GPU minen is dat je makkelijk kunt switchen.
Dat is een beetje een vreemde bewering. Een ASIC is een Application-Specific IC. Dat is dus een chip die speciaal voor 1 doel is ontworpen. Die zijn dus altijd beter in dat ene doel dan een chip die meerdere dingen moet doen.

Je kunt dus een chip ontwerpen die op een GPU lijkt, maar de hele video-output kant achterwege laat. Dat maakt die ASIC strikt beter voor Etherium mining dan een equivalente GPU met een overbodige video-out.
Wat is een vreemde bewering?
Dat je crypto's alleen met een GPU kunt minen, maar niet met een ASIC. Je kunt namelijk een ASIC ontwerpen die alleen de crypto-relevante functies van een GPU bevat. Die ASIC is dus beter dan de GPU (voor de specifieke taak van minen)

"ASIC" is een verzamelnaam voor alles wat geen standaard-chip is. Het is daarom lastig om uitspraken te doen die voor alle ASIC's gelden.
Je snapt het denk ik verkeerd, ik zei dat er bepaalde coins zijn die je alleen met een GPU kunt minen, ik snap dat mensen asics ervoor kunnen ontwerpen, dat gebeurt ook, en dan veranderen ze het algorithm weer.
Dan denk ik dat je mijn punt mist. Sommige ASIC's zijn precies gemaakt om één exacte coin te minen, met 1 bepaald algoritme. Dat is maximale performance en minimale flexibiliteit. Een algoritme-verandering is dan fataal.

Maar coins die je met een AMD GPU én een NVidia GPU kunt minen? Die kunnen alleen de gemeenschappelijke functionaliteit van die twee GPU's gebruiken. Unieke CUDA of OpenCL functionaliteit kun je dan niet gebruiken. En je kunt dus een ASIC ontwerpen die geen grafische dingen doet, en alleen de gemeenschappelijke (matrix/tensor) functionaliteit van AMD en NVidia implementeert. Dat is alsnog een specifiek ontwerp, dus een ASIC, maar het breekt niet meer bij een algoritme-wijziging.
Ik begrijp je, maar ik denk dat jij mijn punt mist.
Dus daar zijn alle 5700 XTs gebleven! ;)

Wat is het nut van de display outputs op die kaarten?
Waarschijnlijk schaalvoordelen maximaal benutten. Apart pcb ontwerpen en aparte productielijn / series zal zichzelf waarschijnlijk niet snel genoeg terugverdienen. Zeker niet nu je je af kunt vragen hoe lang de toekomst van de 5700XT nog is.
Heel simpel en kort antwoord, niet. :)
Ze zijn daarom ook "grayed out" :9
Ik dacht dat RDNA niet zo geschikt was voor compute workloads?

Single precision is bijvoorbeeld 23% slechter dan bij de Vega 64: https://www.techspot.com/review/1870-amd-radeon-rx-5700/
Maar dat is op architectuur basis? Oftewel 1 core vs 1 core?

Want er zijn meer dingen die het mogelijk interessant maken. Als 1 core 23% lagere prestaties heeft, maar wel 24% lager verbruik is het al interessant. Zelfde gedlt voor meer cores op een die. Als je daardoor meer cores in 1 rack unit kwijt kan is het dus per saldo goedkoper.
Naar mij weten krijgen consumenten AMD GPU's al een tijd geen drivers meer voor Windows Server..
Is dit (dan) een nieuwe Pro variant?
Wat moet je dan ook met een consumenten AMD GPU in een Windows server omgeving? Daar zijn toch gewoon professionele oplossingen voor (RadeonPro, FirePro etc) en geen hobby bob kaartjes oplossingen :X

[Reactie gewijzigd door HKLM_ op 24 juli 2024 19:17]

Windows Server is een stuk prettiger dan standaard Windows 10 en consumenten kaarten zijn een stuk goedkoper.
De enige problemen zijn driver ondersteuning voor GPU's (nieuw~) en Windows Store is soms ook WEL handig ;-)

Bovendien een 'wat moet je dan met x in y omgeving' in deze context op Tweakers.. antwoord ligt voor de hand met alle IT pro's en hobbyisten met beperkt budget O-) ?

[Reactie gewijzigd door Peran op 24 juli 2024 19:17]

Ik zou het eerlijk gezegd super vinden om videokaart te kunnen kopen zonder behuizing of ventilatoren, waar je vervolgens (met inbegrepen metalen clipjes) je eigen 92/120MM ventilatoren op kan monteren. Dat is pas top koeling!
Wel raar dat de kaart zo hoog is, hierdoor past deze moeilijk in de meeste servers.
Vraag mij verder af welke toepassingen / software pakketen naast crypto welke met deze kaarten overweg kunnen,
Wat ik tegen kom is vooral voor cuda / tesla
Waarom zou die rechtop moeten? Genoeg mogelijkheden in servers zodat die gewoon "plat" erin gaat.

Die prik je dus niet (als het niet kan) zo rechtstreeks op het moederbord.
Wel raar dat de kaart zo hoog is, hierdoor past deze moeilijk in de meeste servers.
Ik weet zeker dat ie precies past.

[Reactie gewijzigd door Olaf van der Spek op 24 juli 2024 19:17]

In de meeste servers is hij te hoog
Nee, daar heb je nu eenmaal verschillende formaten voor. Verschillende doeleinden, verschillende formaten. De kaart voldoet gewoon aan de standaard en dat betekend niet dat je zo'n kaart in een blade kunt proppen. :)
Zojuist nog een soortgelijke kaart in een pizzadoos gestopt, ik vraag mij echt werkelijk af (kijkend naar vrijwel alle reacties) hoevaak mensen een server van binnen gezien hebben. Deze kan je gerust in een ''blade'' stoppen.

Althans, dan spreek ik voor Dell, HP en oa Lenovo. Over onbekende ''Chinese'' merken kan ik niks zeggen, geen ervaringen mee. Echter voor deze merken heb je gewoon riser boards waarmee je de kaart ''simsalabim pief paf'' horizontaal kan plaatsen ipv verticaal rechtstreeks in het moederbord. Nooit gezien?
De blade's (HP) die ik ken, gaat dat echt niet passen, veel te weinig ruimte daarvoor. Tenminste niet een dergelijke kaart.
Pak je een 2U kast waar de kaart horizontaal in gaat. Dell heeft een serie waar je 3 van deze kaarten in kwijt kan.
En zijn de meeste servers 3U? Ik kom voornamelijk pizzadozen van 1U en 2U tegen. Enkel de storagecontainers zijn 3U of 4U.
Wat een zanik. 'De meeste servers zijn 3u'. Bron? Als ik rondkijk in de datacenters waar ik kom is het merendeel 2u en 1u. Wij zelf draaien enkel 1u machines. En afgezien van dat, ooit van risers gehoord? In 'lagere' machines (vwb aantal u) gaan de kaarten horizontaal in. Ooit een PCIe kaart gezien die maar 1u hoog was? Ik ook niet.
Ik hen het over full height verticaal,
Dat gaat nooit in een 2u of 1u passen
Full height is wat precies? Bedoel je daarmee een 2 slots kaart of niet low profile of zonder riser?

Zelfs in een 1U past een dubbeldik kaart met riser namelijk. Moeilijk te vinden maar het kan zeker wel.
Full height, uhm niet low profile en zonder rizer,
Klopt kan in 1u maar 6 stuks word lastig.
Als deze GPU gebruik moet maken van externe ventilatoren om gekoeld te worden en niet maximaal kan draaien op een test bench, kan je dit dan wel een passieve GPU noemen?
Een door lucht gekoeld koelblok (luchtstroom door fan) is geen passieve koeling!
Jawel. Het ligt er alleen aan wie die luchtstroom produceert. Het product zelf? Dan actief.

Waterkoeling is dan ook een grijs gebied :P.

[Reactie gewijzigd door supersnathan94 op 24 juli 2024 19:17]

Licht heeft hier niks mee te maken ...
Dit is wel ideaal voor onderin iets als een NCase M1 ipv een GPU met fan die je moet deshrouden :)

[Reactie gewijzigd door aaahaaap op 24 juli 2024 19:17]

Op dit item kan niet meer gereageerd worden.