Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Innodisk onthult m2-videokaart

Innodisk brengt een m2-videokaart op de markt. Het kleine insteekkaartje is in staat om beeld in 4k-resolutie te tonen met een verversingssnelheid van 30 hertz en 1080p op 60 hertz. Output gaat via hdmi, lvds en dvi-d.

Voor de outputs heeft het kaartje headers aan boord die hoogstwaarschijnlijk verbinding maken met outputslots die voor de achterkant van een computerbehuizing zijn bedoeld. Volgens AnandTech heeft dit 2280 m2-kaartje een chip die is gebaseerd op de Silicon Motion SM768-controller. Dat zou betekenen dat de gpu tot 256MB geheugen heeft en een 128bit-2d-engine. De videodecoder ondersteunt h264 mvc/avs+, h263, mpeg 4, mpeg 2, m-jpeg, realvideo, vc-1 en theora. De interface is pci-e 2.0 x1/x2 of usb 3.0. In de bekendmaking zelf staan echter geen technische details, dus wellicht dat deze informatie anders zal blijken te zijn.

Met het kaartje richt Innodisk zich op de industrial embedded sector, maar voor de consument kan de videokaart eveneens interessant zijn. Hoewel bijvoorbeeld Intel-processoren veelal een geïntegreerde videochip hebben, geldt dat niet voor AMD's concurrerende Ryzen-cpu's. Wie dus zo'n Ryzen-systeem wil inzetten, maar dat niet gepaard wil laten gaan met een conventionele videokaart, zou in dit apparaat een oplossing kunnen vinden. Een prijs voor de m2-videokaart is nog niet bekend, noch is duidelijk wanneer hij precies in handen van de consument kan belanden.

Door Mark Hendrikman

Nieuwsposter

06-12-2018 • 12:51

100 Linkedin Google+

Reacties (100)

Wijzig sortering
Dus een moederbord willen voorzien van een cpu zonder igpu, maar wel beeld willen hebben, maar dat dan weer niet met een reguliere gpu.

Hier offer je dus een m.2 slot voor op (die moet tenslotte ook op het moederbord aanwezig zijn). Je bent dan weer afhankelijk van een 'externe' SSD (een sata drive).

Ik zie hier, buiten bovenstaand, zoveel mitsen en maren dat het kosten technisch nooit verantwoord kan worden. De prijs zal vast geen tientjeswerk zijn, wat het verschil tussen een cpu met of zonder ingebakken gpu veelal wel is.

Behalve mogelijke warmteontwikkeling (deze m.2 gpu moet je mogelijk ook koelen, dus dat mag geen issue zijn) is er mogelijk geen verschil met een cpu met of zonder igpu. En als het alleen voor een GUI omgeving is zonder echte druk op de gpu is de igpu ook geen warmtestoker.
Je zit dan ook helemaal niet te wachten op al die technieken en ondersteuning voor 4K. Wat je dan al op 4K wil weergeven kun je dan ook prima op een GPU van 50-100 euro doen.

Als je specifiek een cpu zonder igpu (veelal servers) zoekt zit er meestal wel een GPU chip op het moederbord.

Ik kan mij dus niet voorstellen dat hier markt voor is.

[Reactie gewijzigd door BLACKfm op 6 december 2018 13:15]

Voor een zelfbouw nas is dit al ideaal. Als je een Xeon koopt heb je vaak geen igpu of je betaalt de meerprijs hiervoor. Je hebt geen sterke NVMe ssd nodig voor de snelheid dus zal een sata prima voldoen. Zeker als je hem wilt meenemen in een raid kaart. Houd meteen je( vaak enige PCIe x16 slot) voor een raidkaart op een uatx bord. Heb je meteen een video output zonder te compriseren op een PCIe slot voor je raidkaart.

Verder heeft dit ook een mooie werking op dualboot systems die tegelijk moeten draaien met behulp van virtualisatie. Als er dan voor elk systeem een video out moet zijn dan heb je met alleen je iGpu niet genoeg. Dan is dit een ideale oplossing.

Kortom genoeg toepassingen te bedenken ;)

edit: typos

[Reactie gewijzigd door brogamma op 6 december 2018 14:10]

Waarom zou je een (extra) videokaart in je zelfbouw NAS willen hebben? Ondanks de VGA aansluiting op het moederbord van mijn NAS draait die headless. Als je je zelfbouw NAS toch met een XEON draait heb je meestal ook wel de beschikking over IPMI of een andere remote access oplossing. Begrijp me niet verkeerd, ik zie wel mogelijkheden voor dit videokaartje, maar juist heel expliciet niet in een NAS waar je geen storage slots wilt opofferen voor functionaliteit die je toch niet gebruikt.
IPMI vereist een aparte netwerk als je het systeem veilig wil houden. Dit is op geen enkel manier een alternatief voor een directe beeld uitgang. Ik zou zelfs durven zeggen dat je als consument nooit moet beginnen aan IPMI tenzij je ermee heb gewerkt in een server park en bewust bent van wat het werkelijk is.
Een M2 gpu daarentegen heeft weinig issues mbt beveiliging dus installeer maar raak.
"apart netwerk", vlan ja.
een vlan is zeker een optie en nagenoeg de oplossing in server parken maar is niet een vereiste om netwerken gescheiden te houden.
Hij heeft het toch ook niet over layer 1? Op 2/3 is dat prima veilig.
je systeem draait misschien wel headless, voor het installeren ervan is beeld hebben toch verrekt handig.

hoe krijg je beeld op een minitx bordje met al iets anders (sas hba ofzo) in het enige pcie slot en geen onboard gfx?
Ik ben met je eens dat het hebben van beeld tijdens de instalatie en voor troubleshooten verrekte handig is, maar om antwoord te geven op je vraag: via een ipmi interface die op de meeste serverboarden aanwezig is kun je beeld krijgen in je browser voor de instalatie van je OS. Het is dus wel te doen
Ik stel me grofweg 2 scenarios voor:

1. Alleen beeld nodig bij installatie. Prima, doe je de eerste install met een GPU en zet je daarna je RAID kaart in het PCIe slot. Ik heb wel eens een headless install gedaan met een Raspberry Pi maar ik moet toegeven dat het inderdaad handiger is met beeld.
2. Regelmatig beeld nodig maar geen PCIe slot over. Koop een CPU met iGPU: goedkoper, simpeler, geen M.2 slot opgeofferd.

De enige use-case die ik me kan bedenken is als je echt veel monitoren aan een klein bordje wilt hangen. Dan kun je zoiets halen en 4 M.2 sloten uit een enkel PCIe16x slot halen, vier van deze dingen erin, hopsaflops acht monitoren aan een miniem uITX bordje (ervan uitgaande dat je meerdere outputs tegelijk kan gebruiken). Meer nog, met een iGPU. Een drie-bij-drie videowall uit een kastje kleiner dan een NUC moet dan lukken, dat is nog wel best knap.
de impi zoals al gezegd.

ik zelf gebruik een com poort.
lekker ouderwets. }>
(hier voor heb je wel een speciale bios nodig, anders kun je nog niet de bios in via de com port.)
Het is ook voor troubleshooting. Gaat je netwerk een keer plat of moet je een keer via een scherm of interface op de NAS komen om te kijken waar het probleem zit dan is dit een oplossing. Verder is een 2de videokaart in je zelfbouw nas niet nodig. Tenzij je iGpu wilt gebruiken om te encoden/decoden. Dit is op een iGpu zeer snel en als je dan ook een scherm erop wilt aansturen kan dit wel belasten. Snap je volledig dat het niet praktisch lijkt. Maar een mogelijkheid tot troubleshooten is altijd fijn, ookal moet je deze zelf toevoegen.
Dan lijkt het me alsnog dat een onboard Aspeed GPU + VGA poort aanzienelijk goedkoper is dan een uitgeklede dGPU voor je M2 slot. Volgens mij doet Plex overigens al het transcode werk op de CPU, dus daar is deze GPU ook al niet nuttig voor (in een NAS).

Je kan overigens ook prima een GPU in je PCIe slot frotten voor de installatie van je OS, en die daarna vervangen door je HBA / Raid Kaart / Whatever floats your boat.
Nuttigheid is er genoeg als je bijvoorbeeld een cpu hebt zonder videokaart ingebakken zou dit een oplossing zijn, maar meestal zit al op het moederbord al een vga aansuiting waar het op het moederbord al op gebakken zit.Verder ook een nuttigheid als je een laptop hebt met ruimte voor zo een aansuiting en meestal zit daar ook al op het moederbord gebakken videokaart.Misschien is die m2 aansluiting best snel en misschien ken je er games op spellen maar natuurlijk niet op high en ultra.
Ik vind het best een leuke uitvinding videokaartje hoeft ook niet groot te zijn maar natuurlijk ook niet te vergelijken met een pci xpres aansuiting en grafische kaart op pci express 16x.
legio mogelijkheden.

[Reactie gewijzigd door rjmno1 op 6 december 2018 16:42]

In de industrie draaien best veel computers waarvan het beeld eigenlijk van totaal ondergeschikt belang is. Voor onderhoud is het prettig dat er wel een beeldscherm aan gekoppeld kan worden. Ook voor super compacte barebones geeft dit leuke mogelijkheden. Dat kan dan met gemak zo klein gemaakt worden dat je het ook in het dashboard van een auto kunt plaatsen.

Inderdaad mogelijkheden genoeg,
Zat zelf ook te denken dat dit prima gebruikt kan worden als 'primary' display voor je Hypervisor terwijl je al je diskrete GPU's doorpaast aan je VM's. :)
Hier offer je dus een m.2 slot voor op (die moet tenslotte ook op het moederbord aanwezig zijn). Je bent dan weer afhankelijk van een 'externe' SSD (een sata drive).
Ik denk dat dit ding niet gericht is op bestaande consumentenbordjes, maar meer op de embedded markt en gespecialiseerde hardware. Een m2 slot is veel kleiner dan een PCIe-slot, als je een nieuwe moederbordje laat ontwikkelen dan kan dat met m2 kleiner zijn.
Als het om formaat gaat is een igpu toch een stuk kleiner dan een extra kaartje. Of dat nou een volwaardige gpu of een m.2 slot is.

En het is mogelijk niet specifiek gericht op (bestaande) consumenten(-bordjes), maar dat wordt wel aangehaald in het artikel.
Dat is wel jammer. Zat al te hopen op een Titan RTX variant.
Dit is wel zinnig voor kleine builds. Er zijn een aantal Thin mITX en STX bordjes op de markt met 2x SATA + 1x M.2, als je daarin een sterkere videokaart wilt hebben kan je de SSD op SATA hangen en de videokaart in het M.2 slot zonder veel ruimte op te offeren.
Wat is een 'sterke videokaart'? Ik denk dat dit m.2 kaartje een goede is voor 'But, can it run Crysis!!1!', als het al start komt dat waarschijnlijk in de 3FPS range uit op LOW.

Dit is leuk, net als die Matrox videokaarten leuk zijn... voor erbij.

Zolang die genoemde bordjes een PGA socket hebben, dus een cpu die je zelf kunt kiezen, en er onboard video uitgangen zijn zie ik geen nut in een dedicated gpu (van dit kaliber) op een m.2 slot als het beeld ook van de iGPU kan komen.
Misschien niet qua gpu power, maar bv wel qua hoeveelheid schermen. De iGPU doet er 2-3, een M.2 GPU doet daar nog eens 3 bij. Da's ook handig voor kiosk toepassingen als je 4-6 schermen wilt aansturen.
Daar zijn wel praktischere oplossingen voor. Matrox kaarten of usb monitoren als het allemaal niet zo nauw komt.

[Reactie gewijzigd door BLACKfm op 6 december 2018 18:48]

En hoe moet het praktischer zijn om een gpu in een PCI slot te steken ipv een gpu in een m.2 slot? Zelfde soort handelingen en beide gebruiken PCI lanes.
Over USB monitoren kan je snel op houden aangezien die niet bestaan. Ja je heb tablets die het accepteren om als 2de scherm gebruikt te worden met erg veel haken en ogen maar groter als 15 inch vind je ze niet. Als je dan toch een kiosk wil (dus groter beeld oppervlakte) kom je niet met tablets..... En dan heb ik het niet eens over prestaties zoals refresh rate, kleur bereik en kijkhoek.
Vreemd dat die niet bestaan, ik heb er laatst nog 1 verkocht en jaren op kantoor gebruikt.Zoiets. T.net had het vorig jaar nog over een nieuw modelletje. Dus niks geen gedoe over tablets. Dat ze niet meer gemaakt zouden worden (heb ik geen onderzoek naar gedaan, maar met USB C is dat prima mogelijk, stroom en video in 1 kabel, wie wil dat nou niet) daar gelaten.

En wat betreft refresh rates (USB heeft zo zijn drawbacks, al kon ik op mijn samsung usb2.0 monitor prima een filmpje kijken) kan ik je voor usb monitoren wel gelijk geven.

En als het gaat om meerdere video uitgangen zie ik niet in waarom daar dan een compact systeem achter moet zitten. De m.2 gpu lijkt mij enkel geschikt voor situaties waar geen enkele andere oplossing mogelijk is, dus dan kan je er net zo goed een normale desktop achter hangen.
Hum optane in een pci slot of optane in m.2. Keuze lijkt mij snel gemaakt als je de optie heb om je gpu in beide te steken.
er zijn moederborden met 2 M.2 sloten, waarvan er 1 al gebruikt wordt voor een wifi-kaartje, dus zo vreemd is deze oplossing niet
Ik weet niet welke consument een xeon (of andere non igpu cpu) met xxx gb ram wil gebruiken met ondersteuning voor 4K, waar een i7 / ryzen (cpu met igpu) ook niet zal voldoen én een normale PCI-E GPU geen optie is.

Dat er meerdere sloten kunnen zijn is zeker mogelijk, maar ikzelf zou die 2 sloten dan eerder gebruiken voor een raid config.
consument en xeon gaan al niet samen in 1 zin en in het artikel staat ook duidelijk dat er op industrial embedded sector wordt gefocussed en dan kan je bvb wel een rugged mini-itx setup tegenkomen waar dit een oplossing kan zijn, bvb voor dunne en compacte infopalen die buiten staan.

je moet niet denken in termen van waarvoor kan ik iets anders gebruiken, maar waarvoor kan dit de beste oplossing zijn (waarbij de definitie afhangt van het doel, budget, ...)
Ten aanzien van bestaande oplossingen (GPU op moederbord of in de cpu) vind ik dit geen toegevoegde waarde hebben. Zeker als het om ruimte gaat is iets extra's moeten toevoegen niet bepaald efficiënter dan het ingebouwd hebben. Zelfs low powered of kleinere toepassingen hebben middels een ATOM processor al een IGPU, dus ik kan mij alleen voorstellen dat een dergelijke oplossing alleen voor 'grote' toepassingen ingezet wordt.

Een Raspberry Pi Zero of de intel compute sticks zijn haast al kleiner dan deze m.2 gpu, en dat zijn hele systemen. Als iets dus compact en niet zoveel rekenkracht nodig heeft dan lijken mij dat al 2 opties die beter zijn dan iets waar je middels een m.2 slot een GPU kunt bijprikken.
Hoeveel M.2 sloten kun je kwijt in de ruimte van een pcie slot?

Als deze techniek ver genoeg wordt doorontwikkeld kun je over een paar jaar 1080ti performance hebben in M.2 formaat.

Of zelfs twee van die kleine dingen naadt elkaar.

Kan me ook voorstellen, dat je in een embedded apparaat de M.2 slot gebruikt voor het echte werk, en de igpu voor onderhoud, zodat je het systeem niet hoeft af te sluiten?

Ik kan me ook voorstellen dat je als maker van embedded apparaten iets van r grond af aan moet ontwerpen. Dan zou je dus geen igpu nemen op de soc, maar op zo'n kaartje, zodat je alleen de gpu kan vervangen, en niet ook per se de cpu. Kun je de cpu lekker vastsolderen, en dit kaartje makkelijk bereikbaar maken.

Kortom:

Met een beetje fantasie zijn er genoeg toepassingen te bedenken.

Laten we iets nieuws de kans geven zichzelf te bewijzen.

Immers het eerste vliegtuig had ook geen toegevoegde waarde.. Zonder die eerste stap had de wereld er nu echter heel anders uit gezien!
Dat is allemaal toekomstmuziek, en in principe ook niks nieuws. Er zijn al jaren manieren op via mini pci(-e) een externe gpu aan te sturen.
1080ti performance gaan we ook zeker niet zien over een paar jaar op m.2 formaat, daar geloof ik niks van.

Dat zie ik eerder in de iGPU van de processor voorbij komen, en dan ook nog steeds niet binnen 5 jaar.
Sommigen hebben er zelfs 3, vaak dan aan de achterkant eentje extra.

Het mooie van M.2 is het compacte en kabelloze. Hoewel hier wel een kabeltje op komt voor de output.

[Reactie gewijzigd door Navi op 6 december 2018 13:23]

M.2 voor Wifi is vaak A+E en niet M+B
ben je niet in de war met msata?
Het is waarschijnlijk bedoelt voor in-store video demo/touchscreen integratie, dus het missen van een m.2 slot maakt geen drol uit.
het gaat er alleen maar om dat je een x86 hebt een een volledig plat bord zonder riser cards & allerlei kabels.

Weet niet wat je aan een display hebt in een server, dat is zo uit de tijd..
Dan zou ik toch eerder een Raspberri pi gebruiken, of desnoods een Latte Panda of Udoo oplossing als het zo compact moet zijn (en x86).
Niet echt te upgraden en geen volwaardig windows10 support (touchscreen), dus geen optie voor video/3D graphics touch displays.. (Linux is vaak ook geen optie, kost teveel tijd om alles zoals cameras aan de praat te krijgen)
Ik worstel met de gedachten dat het blijkbaar 'licht' genoeg (kwa rekenkracht) mag zijn voor simpele taken, klein genoeg (want geen risers en kabels) en dan nu blijkbaar ook upgradable moet zijn. Wat is er dan mis met een itx moederbord en een cpu met iGPU?

Verder lijkt het mij voor kiosk doeleinden ook niet heel belangrijk dat het upgradebaar is. Koop een NUC voor een paar honderd euro en als je het wilt 'upgraden' koop je gewoon een nieuwe. Het gedoe van 'upgraden' en dat dingen dan al niet meer helemaal werken kost waarschijnlijk meer dan het gewoon te vervangen. In de zakelijke wereld komen ze niet voor een chocoladereep even je ICT op orde brengen zoals men dat misschien wel doet als oom of tante een nieuwe computer nodig hebben.
Multi-touch informatie borden met 3D graphics "kaarten/richting" heb je niets aan die domme ARM bordjes, helemaal als je beperkt bent met software ontwikkelaars. (Optimaliseren kost geld)

In nederland zie je dit soort complexe informatie borden niet nee, maar in het buitenland is het zeer normaal om een best zware PC er in te hebben voor de snelheid. (Ja in nederland is een raspberry pi genoeg ja)
Vaak gebruiken ze een mid-range dell/hp laptop, maar een M.2 pc bord met CPU is goedkoper.

[Reactie gewijzigd door stewie op 6 december 2018 17:11]

Ik heb het idee dat we langs elkaar heen praten. Want waarom dan een m.2 videokaart voor heel specifieke toepassing en dan komen met voorbeelden waar reguliere oplossingen (een normale computer) prima volstaat?
om ruimte te besparen. (volledig plat bord zoals een laptop bord, maar goedkoper met een socket & upgrade mogelijkheden)
Dat zijn wel heel trage cpu's.
De Udoo bolt, of andere aankomende op Ryzen gebaseerde systemen zijn waarschijnlijk snel genoeg bepaalde doeleinden. Als je er prima op kunt gamen dan moet het voor de overige toepassingen ook wel goed genoeg zijn.
Als je specifiek een cpu zonder igpu (veelal servers) zoekt zit er meestal wel een GPU chip op het moederbord.
Dat ligt er maar net aan. Als je in je server gewone consumentenhardware gebruikt kan het best zo zijn dat je toch op zoek moet naar een GPU. In zo'n geval kan dit nog best een uitkomst zijn, bijv in een 1U systeem waar je verder geen ruimte meer hebt na het toevoegen van 10GbE.

[Reactie gewijzigd door ocf81 op 6 december 2018 13:33]

Deze oplossing lijkt mij juist in het leven geroepen omdat je óf helemaal geen uitstekende kaarten wilt hebben, of die ruimte al niet hebt en dus eigenlijk ook niks hebt aan de pci-e aansluitpoorten indien beschikbaar.

Overigens ben ik wel benieuwd naar jouw specifieke situatie, een itx met enkel een 1x slot?
Ik heb nu een X470 mobo met een 2700X als server draaien. Omdat ik deze server sowieso wilde uitbreiden met 10GbE, heb ik hierop vooruit gepland door een Zotac GT710 met 1x slot te kopen. Hierdoor kan ik die 10GbE kaart en evt. ook een HBA voor een nog te bouwen DAS in de 16/8x sloten prikken.

Op zich is dit nu een compute node en zou ik dit ook in 1U kunnen proppen met een kaartje zoals deze Innotech m2 kaart. (moet er wel een koelertje op dat ik alleen in het buitenland kan krijgen)
Um, om te testen of je GPU verrot is?

Stel de PC geeft geen beeld meer heeft, kan de externe GPU zijn, of iGPU. Kan ook de CPU zijn met ingebouwde iGPU, of een van de twee.

Wat het ook is, als het een redelijk goedkoop dingetje is... why not. Dan zie ik ook niet meer het verschil tussen een pci-e test kaart.

[Reactie gewijzigd door Marctraider op 6 december 2018 17:23]

Daar ligt dan de crux, ' als het een redelijk goedkoop dingetje is'. Voor 2 tientjes wil ik dit wel op de plank hebben liggen, maar ik verwacht dat het wel een tienvoud daarvan kan gaan kosten.

En voor minder koop je ook een 2e hands videokaart om mee te testen, als je al geen 2e computer hebt staan om dingen mee te testen.

Dan nog maar hopen dat een dergelijke gpu direct werkt voor de POST, anders heb je er nog niks aan.
Je betrekt het op de consumenten markt, maar

"Met het kaartje richt Innodisk zich op de industrial embedded sector"
Er komen steeds meer mainboards met 2 M2 sloten, maar op zich deel ik je mening wel.
Ik zit hier wel op te wachten. Ik heb vier M-slots in m'n laptop en m'n server (zelfbouw met game moederbord) heeft er 2 waarvan er maar één in gebruik is. Als er iets komt wat hardwarematig HEVC decoden/encoden dan ga ik het direct aanschaffen.

Altijd zo'n rare opmerking "je zit niet te wachten"... alsof je kan beslissen voor anderen wat ze nodig hebben. Zeg dan gewoon niets.
Dit is een geweldige mogelijkheid voor small form factor of http pc's, waar de iGPU soms net niet goed genoeg is (ook vanwege thermals). Tuurlijk niet de meest geweldig specs mogelijk, maar wel heel cool.
geen h265 support anno 2018 lijkt me een showstopper om het als HTPC te gebruiken
geen h265 support anno 2018 lijkt me een showstopper om het als HTPC te gebruiken
Maar een opvolger heeft dat misschien wel, als die ooit uitkomt voor de gewone man.
Daar zijn gelukkig andere, niet eens zo dure, oplossingen voor.
Dan kan je idd net zo goed een Coffee Lake Celeron pakken van vier tientjes, die iGPU heeft wel H.265 support. Dit is meer voor games en voor toepassingen met veel schermen.

[Reactie gewijzigd door Dreamvoid op 6 december 2018 16:32]

Dan moet je wel goed uitkijken dat de m2-poort op de voorkant van het moederboard zit en niet aan de achterkant.
Gezien de dikte van zo'n kaartje zou dat misschien nog best eens kunnen passen. Die headers zijn vrij dun en flatcables kun je achter het moederbord omleggen als je dat echt zou willen. Misschien niet superpraktisch, maar heel onmogelijk lijkt 't me ook weer niet.
Dan moet je wel goed uitkijken dat de m2-poort op de voorkant van het moederboard zit en niet aan de achterkant.
Dat ligt er weer aan hoe dicht het bij de rand is. Bij een SFF/HTPC zou je de kabels ook om het moederbord heen kunnen begeleiden. Het moederbord is er klein genoeg voor.
Ik denk dat menig IGP krachtiger is, en voornamelijk een hoop meer features heeft dan dit ding. Dit is eerder wat voor reclamezuilen, automatisering, etc.
Ik ben benieuwd hoe het dan voor consumenten pc's zal werken met de aansluitpoorten. Moet je moederbord dan de benodigde aansluitingen al hebben (HDMI, DVI, DP?) of komt er een soort header met poorten die je ipv een insteekkaart in een slot kunt vastschroeven en die vervolgens via een kabel (ribbon misschien als je af gaat op de zichtbare aansluitingen op het kaartje) met de m2 kaart verbonden zijn.

edit:
quote: can be fitted with ports to connect to devices using HDMI, LVDS and DVI-D signals.

Lijkt er dus op basis van deze tekst dat je een header met poort(en) op het kaartje aan moet sluiten

[Reactie gewijzigd door Nitroglycerine op 6 december 2018 12:59]

Lijkt er dus op basis van deze tekst dat je een header met poort(en) op het kaartje aan moet sluiten
Voor de outputs heeft het kaartje headers aan boord die hoogstwaarschijnlijk verbinding maken met outputslots die voor de achterkant van een computerbehuizing zijn bedoeld.
Volgens de tekst uit het Tweakers-artikel ook :+
Gewoon het zelfde zoals met USB brackets enzo die je vaak bij je mobo krijgt. Bracket aan de achterkant, en een kabel naar de headers.

Of een frontpannel, kan allemaal.
Met LVDS kan het nog wel boeiend zijn, als je er dan bijvoorbeeld een "kaal" laptopscherm aan kan hangen of zo. Interessant voor embedded dingen.
Dan kan je dus ook een laptop scherm erop aansluiten :+ Ik zie graag de prijs en prestaties ervan en zeker ook het verbruik. Gaat één van je normale I/O kanalen plat, heb je toch nog wat. Ook leuk even snel vast te schroeven en te testen als poortje, als je geen M.2 schijfje bij de hand hebt. Of, je hebt een half defecte laptop(met M.2) liggen dat dit met de flatkabels toch beeld kan geven.
Ideaal voor mijn thuisservers zonder geïntegreerde grafische chip. Momenteel gebruik ik voor een van mijn servers een PCI-e 1x oplossing, zodat ik mijn 8x sloten voor belangrijker zaken zoals 10GbE en HBAs kan gebruiken. Dit zou handig kunnen zijn als je geen sloten over hebt o.i.d.

[Reactie gewijzigd door ocf81 op 6 december 2018 13:28]

Die beheer je waarschijnlijk toch gewoon remote?
Waarschijnlijk wel totdat een driver/windows update of een software probleem je netwerk eruit gooit.
Dan zal je toch weer fisiek naar de server moeten en een beeldscherm aanslingeren.
Tenzij je dus een desktop als server gebruikt hebben servers gewoon RSA/iLO/iKVM waarmee je over het netwerk de server kan beheren, ook als Windows zichzelf weer eens sloopt of als er nog geen eens een OS geinstalleerd is.
De context was een _thuis_server. Light-Out management is high-end; zelfs voor het MKB is het typisch overkill.
Lightsout zit anders al op de mid-range en meeste low-end servers, verre van high-end only dus.
De context was een thuis-server, dat hoeft geen bladesysteem te zijn maar een ML310 oid is niet erg ongewoon en heeft al de volledige iLO functionaliteit...
Anders kan je nog low-end gaan voor bijvoorbeeld een ML110 welke een beperkte iLO functionaliteit heeft...
Ben dan ook zelfs in het MKB nog nooit tegen gekomen dat een server geen Lights Out had, zit er op verruit de meeste servers standaard op, dat de licentie niet erbij gekocht is gebeurt wel vaak maar dan kan je alsnog buiten het OS de functies gebruiken...

Thuis een laptop of oude desktop als server inzetten kan, de laptop heeft deze M.2 kaart niet nodig en de oude desktop heeft geen Xeon zonder IGP...
Je haalt daar twee HP dozen aan. De gemiddelde eigenaar van een thuisserver is een tweaker en kan zelf een PC in elkaar schroeven. En het gemiddelde budget-mobo uit de pricewatch heeft geen iLO.
Dat die tweaker zelf een pc in elkaar kan schroeven is leuk, maar daarmee schroef je nog geen server in elkaar, daarom zie je juist hier op Tweakers zat mensen die dus een daadwerkelijke server (tower model dan wel) gebruiken ipv desktop zonder server features.
Lights out is verre van high-end, zit zelfs in de goedkopere Supermicro moederborden voor echte low-end servers. Als je een server wil hebben, waarom zou je dan een desktop in elkaar schroeven ipv een server, zelfs als je het zelf in elkaar zet kies je gewoon een dergelijk moederbord met zo'n feature.
We hebben anders ook nog de V&A waar het vol staat met goedkope servers met iLO voor homelabs, ja er zijn er zat die een 'server' hebben (de oude laptop/desktop die toch niet gebruikt werd) maar tot nu toe zie ik de meerderheid een daadwerkelijke server gebruiken.
Wat noem je low-end? Uiteindelijk kun je een Raspberry Pi ook gebruiken voor server-taken. Een synology is een file server.

Wat SuperMicro betreft, zo'n Xeon-D systeem als de X11SDV-4C-TP8F heeft geen Lights Out management; daarvoor moet je naar de Xeon E3/E5 modellen.
Als jij een M.2 in die Raspberry weet te krijgen hoor ik het heel graag :)
Overigens noemt Supermicro bij dat bordje:
IPMI2.0, KVM with dedicated LAN, Watchdog
Zelfs als het geen dedicated poort zou hebben (en dedicated LAN klinkt alsof hij het wel heeft) zou de functie dus alsnog beschikbaar zijn via een VLAN...
Zit helaas niet op alle servers, mijn goedkopere dell server (tower model uit 2010) heeft wel drac (dell remote access c.....)
maar als ik volledige functionaliteit wil hebben moest daar extra voor betaald worden (en die was toendertijd niet goedkoop) en ik heb het sowieso nooit goed werkend gekregen dus gewoon te voet naar de server en op een antieke monitor windows overtuigen om toch maar te gaan werken :)

oh en ja dit is een prive server zakelijk had ik wel gewoon beschikking tot een netwerk kvm switch maar dat werkte wel gewoon via vga adapter op het moederbord en is een stuk betrouwbaarder dan alle onboard opties waarbij je maar 1 vendor mag hebben voor servers of je zit met tig verschillende "oplossingen" om te verbinden met een server
Ja, maar omdat er geen BMC op zit is een vorm van video toch wel handig.
ik zou er wel oren naar hebben, hoor. je kunt dan de pic-e slots gebruiken voor bijv raid/hba kaart voor veel opslag.

maar dit kaartje moet natuurlijk ook h265 met rond 80-90mbit kunnen ondersteunen. dan pas praten we echt over 4k.

in ieder geval is dit mooie ontwikkeling
Met 30hz stelt 4k sowieso niet veel voor.
30Hz is toch voldoende voor media consumptie (streaming, Blu Ray, etc.)?
Voor gaming lijkt me dit ding sowieso volstrekt ongeschikt, zeker op 4K.

[Reactie gewijzigd door w00t00w op 6 december 2018 14:52]

Als je er alleen films mee kijkt wel, maar een beetje internet browsen, door een excel file scrollen of zelfs tekenen is echt niet leuk met maar 30hz
Fair enough, daar had ik nog niet eens bij stilgestaan. En ook niet bij 60fps media op bijvoorbeeld Youtube, nu ik er over nadenk.
Maar ik denk eerlijk gezegd niet dat al dit soort zaken echt binnen de use case van een dergelijke GPU vallen, aangezien ik betwijfel dat deze voor consumentendoeleinden bedoeld is (zou eerder denken aan toepassingen als pinautomaten, info-terminals, etc.)
Nou, in mijn ervaring niet... films zijn vaak 24 fps of 29.97 fps Daardoor krijg je rare skip-frames of tearing.
Ik vond het niets.
Plus 4k 60Hz kan je weer niet kijken. En ik vind 60Hz bij 4k wel echt uitmaken!
Mijn opmerking was puur bedoeld om aan te geven dat technisch gezien een 30Hz paneel voor media-consumptie voldoende is, maar ik ben het volledig met je eens dat 60Hz echt wel een groot verschil maakt.
Maar, correct me if i am wrong, de Ryzens die het hebben zijn vaak beter of gelijk aan de beste intel oplossing met ingebakken GPU. Die dan weer Vega gebruiken in hun CPU's (Alleen laptop CPU's? ergens gelzen dat Intel Vega gaat gebruiken als on package GPU oplossing).
Dat geldt alleen voor specifieke APU chips, de R3 2200G en de R5 2400G. Alle overige Ryzen 1000 en 2000 CPUs hebben geen enkele vorm van iGPU.

Edit: typo, en voor de nieuwe Athlon GE geldt hetzelfde, ook die heeft een iGPU maar die is ook niet Ryzen-branded

[Reactie gewijzigd door TweakingRens op 6 december 2018 13:12]

klopt, de integrated graphics op Intel en AMD processors zijn superieur. Deze kaart is gelimiteerd tot 1GB/s
Dank je voor je toelichting maar wat ik wilde zeggen was dat processoren met integrated Vega allemaal sneller zijn dan die met intel graphics integrated.
Zo, dit biedt opties voor echte low powered GPUs dit toch net genoeg rekenkracht hebben voor E-sport titels. Misschien een leuke markt voor AMD of Nvidia om naar te kijken?
'Net genoeg'? Voor minimum specs? of voor 120fps op een native 1080p resolutie? Want dat zie ik bij CS:GO, DotA en LoL echt niet gebeuren met zo'n kaartje. Daar mag je blij wezen dat je zonder lag patience kan spelen.

Denk dat een e-sporter ook helemaal niet zit te wachten op dit soort oplossingen, anders zaten ze allemaal al wel aan de Intel iris-pro cpu's.

Met alle koeling die tegenwoordig nodig is lijkt het 'gat', wat dit kaartje dan moet oplossen, helemaal niet te bestaan. De huidige iGPU's zijn krachtiger en als die niet genoeg is dan is een dedicated kaart al snel beter.
In het plaatje van het artikel zie ik niks m.b.t. koeling, dus deze gpu kan waarschijnlijk helemaal niks presteren. Of ze moeten er net als bij de NVME-SSD's een heel koellichaam omheen gaan bouwen.
Van de bron
M.2 has become one of the dominant form factors in the market and its foothold within the industrial embedded market is growing accordingly. The 2280 M.2 card easily suits the need of the automation, retail and medical markets for space-saving solutions.
......
Embedded systems do not always fit the common standards and as such require a unique approach. This is why the Innodisk graphics card is compatible with both Windows and Linux-based systems with further customization options available if needed.
Dus niet voor de "consument" wel leuk als je systemen zelf maakt met bv een intel NUC mainboard en een eigen behuizing kun je de beperking van 2 of 3 beeldschermen opheffen met een extra video kaart in het M2 slot hou je nog 2 sata over voor disken. Dit is bijvoorbeeld handig voor in een snackbar waar je steeds vaker een prijslijst op lcd schermen ziet. Als je dan 5 of 6 schermen met een computersysteem ipv 2 of 3 kunt aansturen is dat uiteindelijk een kosten besparing op hardware en beheer enz. Bij dit soort schermen is ook 30 Hz voldoende.
Innodisk graphics card is compatible with both Windows and Linux-based systems
Lijkt mij voor de doelgroep erg prettig
Er van uitgaande dat er ook USB poorten op zitten heb je geen extra videokaarten nodig om extra schermen aan te sturen, er zijn ook USB monitoren.
Ben ik de enige die denkt dat de term "ververssnelheid" gewoon een smerig anglicisme is? Waarom geen beeldfrequentie? Hertz (Hz) is ook geen eenheid voor snelheid.

[Reactie gewijzigd door Flake op 6 december 2018 13:38]

Hdmi 1.4 kan inderdaad maar 4k bij 30 Hz. Ik heb het geprobeerd, maar vond het onwerkbaar. Ik vind dan ook niet dat je 4k compatibiliteit als pre moet zien bij deze kaart.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True