Nvidia kondigt Jetson Orin Nano Super-devkit aan, verlaagt prijs naar 249 dollar

Nvidia introduceert een nieuwe Jetson Orin Nano Super-devkit. Het apparaat, dat studenten en hobbyisten hun eigen AI- en roboticaprojecten laat opzetten, krijgt een lagere adviesprijs van 249 dollar. De voorgaande Jetson Orin Nano kostte 499 dollar.

De nieuwe Jetson Orin Nano Super-devkit krijgt grotendeels dezelfde hardware als de voorgaande Jetson Orin Nano uit 2022. Het apparaat beschikt over zes Cortex-A78-cores, een Nvidia Ampere-gpu met 1024 CUDA-cores en 8GB aan Lpddr5-geheugen. Door softwareverbeteringen biedt de devkit alsnog meer AI-rekenkracht. Nvidia spreekt over maximaal 67Tops aan int8-prestaties, wat neerkomt op een toename van 70 procent.

Nvidia Jetson Orin Nano Super

Nvidia zegt dat al die verbeteringen afkomstig zijn van een nieuwe prestatiemodus voor de Jetson-computers, die de kloksnelheden van de cpu, gpu en het geheugen verhoogt. Eigenaren van een voorgaande Jetson-devkit kunnen diezelfde verbetering dan ook downloaden via een update van de JetPack-sdk. Die update is per direct beschikbaar. De nieuwe powermodus gebruikt wel meer stroom dan voorheen. Nvidia spreekt van 25W aan stroomgebruik, een toename van 10W.

Met de nieuwe prestatiemodus presteert de Jetson Orin Nano Super onder meer beter bij het draaien van generatieve-AI-modellen, zegt Nvidia. De fabrikant deelt benchmarks voor verschillende AI-rekenscenario's zoals llm's en visionmodellen. De devkit kan dan ook gebruikt worden voor het opzetten van eigen AI-chatbots, visuele AI-agents en AI-aangedreven roboticaprojecten.

De nieuwe Jetson Orin Nano Super is volgens Nvidia per direct beschikbaar. Het bedrijf deelt alleen de Amerikaanse adviesprijs van 249 dollar, maar noemt geen europrijzen. Omgerekend en inclusief btw zou de adviesprijs neerkomen op 287 euro.

Nvidia Jetson Orin Nano SuperNvidia Jetson Orin Nano SuperNvidia Jetson Orin Nano Super

V.l.n.r: Nvidia's Jetson Nano Orin Super-benchmarks in llm's, vision language models en vision transformers. Bron: Nvidia

Door Daan van Monsjou

Nieuwsredacteur

18-12-2024 • 09:44

59

Submitter: ComputerGekkie

Reacties (59)

59
58
21
5
0
29
Wijzig sortering
Ik heb vorig jaar een Jetson Nano gekocht. En ik beschouw dit als een serieuze miskoop. Want Nvidia laat het liggen waar veel andere fabrikanten (behalve Raspberry Pi) het ook vaak laten liggen: software support.

Hij komt standaard met Ubuntu; dus ik ging ervan uit dat er goede Linux support aanwezig was voor deze boards. Dit blijkt niet het geval te zijn. Je krijgt er Ubuntu 18.04 op en dat is de enige distributie en versie die officieel ondersteund is. De drivers die erbij geleverd worden kunnen niet gebruikt worden in combinatie met latere versies van Ubuntu of met andere Linux distributies.

De enige manier om een modernere versie van Ubuntu erop te krijgen is om op Github repository van een Chinese ontwikkelaar een aangepaste versie van een latere versie van Ubuntu te downloaden. En dat vind ik het beveiligingsrisico niet waard.

Dus mijn advies voor de potentiële kopers onder ons: overweeg a.u.b. een Raspberry Pi met een AI-hat als u zoiets dergelijks wilt. Of een goedkope mini-pc als je iets zwaarders nodig hebt.
Die informatie lijkt onjuist, of in ieder geval achterhaald/niet toepasselijk voor de huidige generatie Jetson Nano's: https://developer.nvidia.com/embedded/jetpack
JetPack 5 was op 20.04, JetPack 6 is 22.04. Draai zelf sinds voorjaar heel stabiel op 22.04.

Beide LTS waren misschien niet onmiddelijk na release beschikbaar, voor zover ik kan zien zijn die wel officieel ondersteund.

Edit: Heb je wellicht de eerdere generatie Nano? Uit 2019, die gebaseerd is op oudere architectuur? Daarvan is ondersteuning bij JetPack 4.6.6 gestopt inderdaad.

[Reactie gewijzigd door shufflez op 18 december 2024 12:14]

Ik vroeg me af: heeft het veel zin om 70tflops te hebben als je maar 8GB ram beschikbaar hebt? Die LLM's hebben toch veel ram nodig? De kleine LLM's van 13B 32GB en de grootte van 70B 64GB, nee?
Ik zie hetzelfde probleem op de andere GPU kaarten zoals geforce 4000 reeks dat maar tot 24GB gaat, net te weinig om grotere modellen te kunnen draaien. Het zou zo leuk zijn als er eens eentje afkomt met 64GB optie, omde LLM volledig in te laden, zonder swapping overhead.

[Reactie gewijzigd door sebastienbo op 18 december 2024 12:11]

Dit is precies het probleem waar ik ook mee zat toen ik dit las.

Behalve dat het DDR is en geen GDDR of HBM (wat dus ook betekent dat er minder bandbreedte is) is het ook "maar" 8GB.

Ik denk dat deze dingetjes eerder bedoeld zijn voor andere soort modellen die geen LLMs zijn en eerder een snelheid bottleneck hebben dan een geheugen bottleneck, maar alsnog zou het leukzijn om een soortgelink iets met meer RAM te hebben ja. :)
Laten we eerlijk zijn, in de inleiding word gehint op studenten en hobbyisten.
Je kan je afvragen of voor kleinschalige experimenten al zoveel RAM nodig is?
Ik ben het er mee eens, je gaat hier nog geen eens een klein- tot middenbedrijf mee voorzien.
Maar om studenten te laten experimenteren met beperkte data sets, is dit ideaal.
Als student moesten wij ook zelf algoritmes schrijven en testen met datasets van maximaal 500 regels.
Dat kon op menig basislaptop.
Als het puur voor het testen van Proofs of Concept is, verwacht ik niet dat je snel als student tegen die grenzen aanloopt.
De Jetson serie is vooral bedoeld voor embedded systemen. Voor de uiteindelijke toepassing ga je dan uiteraard geen devkit gebruiken, maar een custom PCB met een Jetson module of een kant en klare Jetson IPC. Wij gebruiken dergelijke IPC's regelmatig voor industriële machinevisietoepassingen, daar is dat eigenlijk de ideale oplossing voor (degelijke support, in tegenstelling tot goedkopere Chinese alternatieven en voldoende lang leverbaar in tegenstelling tot consumenten-GPU's).
De Jetsons dienen dan uiteraard enkel voor de inference, training gebeurt op zwaardere machines, al dan niet in de cloud.
Ik draai hier lokaal Mistral 7b op 4GB en dat werkt best okee. Maar je koopt geen devkit om een commercieel model te draaien, maar om zelf te experimenteren. En je gaat zelf niet zo'n groot model trainen.
Ik vroeg me af: heeft het veel zin om 70tflops te hebben
offtopic: het zijn tops en geen tflops: Tensor Operations Per Second vs Tera Floating Point Operations Per Second ofte 70 tensor operations vs 70*1000*1000*1000*1000 floating point operations ;)
Bedankt. Het is dus 1000 keer minder krachtig dan een lunar lake CPU met 79tflops
@dasiro weet je 't zeker? Kan zo snel niet vinden dat het om Tensor-operations gaat, weet niet of daar een metric voor bestaat eigenlijk (behalve hoeveelheid cores).

De vergelijkingen die ik ken gaan over 'Tera Operations Per Second' vs 'Tera FLoatingpoint Operations Per Second'. TOPS gaat uit van integer (INT8) cq sparse precisie, waar TFLOPS floating-point is.

Ivm de lagere precisie en kwantisering (quantization) voor AI is het nuttig om prestaties voor integer berekeningen te vergelijken itt FP. Int8 is volgens Qualcomm 50 tot 150% efficienter, met behoud van 90% nauwkeurigheid. CPUs zijn bij uitstek geschikt voor hoge precisie bij relatief laag aantal rekenkernen, niet direct nodig voor AI. Gok dat NVIDIA daarom TOPS gebruikt ipv FLOPS.

@sebastienbo Zo kan je het m.i. niet vergelijken. Lunar Lake mobile heeft tot 67 NPU TOPS bij een TDP van max 37W tov 70TOPS INT8 bij 25W. Komt neer op 1.9TOP/Watt vs 2.7TOP/Watt. Bij de CPU moet nog moederbord, geheugen en opslag aangeschaft ook ;)

Toevoeging: NPU AI TOPS voor Intel Core Ultra 5 tm 9 liggen tussen 40 en 48 TOPS, aangevuld met 53 tot 67 XMX TOPS van CPU cq iGPU. Als prestaties van XMX en NPU kunnen combineren (weet niet of dat software-matig te doen is), komt men gemiddeld genomen op 104 TOPS. 2.8TOP/Watt.

[Reactie gewijzigd door shufflez op 18 december 2024 22:37]

Verwacht geen LLM te trainen :)
Llama 2 draaide prima, leuk met RAG, fine-tunen duurde me te lang. En Llama2 is natuurlijk niet meer van deze tijd. Voor mij is Jetson vooral bedoeld voor opdoen van kennis & ervaring, zeker met de nieuwe prijs (damnit) erg geschikt.

Misschien zijn SLM of NanoLLM misschien een leuk experiment, ben zelf nu met NanoVLM aan het experimenteren (op een andere Jetson welliswaar).
Lang niet alle AI is een LLM. Wij draaien audio AIs van 10 MB op Cortex cores, zelfs zonder GPU.
Mogelijk dat ik (zonder daar erg in te hebben) inderdaad de oude versie gekocht heb dan. Het ging om dit product om precies te zijn. Daar had ik dan meer onderzoek naar moeten doen.

Dat gezegd hebbende vind ik dit nog steeds waardeloos van NVIDIA. Ik heb qua software veel goede ervaringen met NVIDIA gehad en verwachtte daarom ook dat ze, net als bij Raspberry Pi, hun eigen ecosysteem goed en lang zouden ondersteunen. Over goed kan ik niet oordelen, maar lang in ieder geval niet.
Snap je frustratie volledig! Naamgeving is ook extreem onduidelijk. En heb ook liefst altijd meest recente versies cq (b)leading edge. Hoewel in dit geval misschien qua mogelijkheden niet per se veel uitmaakt? Ken zelf de support cycles voor Jetson niet en kon ze zo snel niet vinden, maar ruim 5 jaar updates voor een dev kit is toch niet zo gek?

Zie dat er paar weken geleden EOL update is geweest voor JetPack 4.6.6. Dat brengt je niet naar hogere Ubuntu versie, wel weer up-to-date qua beveiliging.
Hoeveel heb je er dan voor betaald? En waarom heb je vorig jaar nog voor de Jetson Nano gekozen in plaats van een ander bord met betere mainline ondersteuning?

Ik schrijf dit nu zelf op een Jetson Nano met 4 GB, die ik in 2019 of 2020 voor €30 tweedehands heb aangeschaft, maar waar ik om verschillende redenen pas sinds dit jaar gebruik van heb kunnen maken. Ik heb het gehele rootfs vervangen door Debian Unstable (Trixie/Sid), maar wel de u-boot en de kernel gehouden.

Als ik deze laatste 2 zou kunnen vervangen met mainline versies, is alles volledig up-to-date en onafhankelijk van de Nvidia ondersteuning voor dit bord, dat al EOL (end-of-life) is. Het is helaas zo dat niemand van Nividia of een derde partij de moeite heeft gedaan om alles te upstreamen.

Ook zul je met een nieuwere distributie geen gebruik meer kunnen maken van de SDK's, maar dat vind ik persoonlijk minder een probleem. Dit zal ik de komende tijd nog wel zo kunnen gebruiken, totdat ik een nieuwer en sneller ARM bord aanschaf, zoals een Orange Pi 6 of de Jetson Orin Nano Super uit dit artikel.

Verder is er ook nog een Armbian nightly met een nieuwere kernel, maar daar werkt de GUI niet naar behoren. Ik heb ook geprobeerd Debian op een SD kaart met de u-boot en kernel versies van de laatste Armbian nightly te zetten, maar dat werkt voor mij (nog) niet. Ik zal er later deze week nog eens naar kijken.
Je hebt het product simpelweg niet begrepen. Een Jetson koop je voor de SDK die er bij geleverd word, een vaste voorgeconfigureerde Ubuntu versie is daar een onderdeel van. Iets om zelf een beetje mee te knutselen en je eigen software stack opbouwen was niet de bedoeling. In een ver verleden had ik een Jetson TX2 en dat was ook dezelfde opzet. Hartstikke fijn als je doel is om software te bouwen voor deze modules maar inderdaad niet iets om als standaard computer te gebruiken.
Vooraf wil ik zeggen dat ik echt een leek ben op het gebied van dit soort producten. Ik vraag me altijd af bij dit soort producten of je deze ook gewoon als "normale" pc of server kan gebruiken. Deze producten zijn meestal redelijk betaalbaar en hebben een hoop goodies aanboord. Iemand ervaringen met dit soort projecten?
Je kan er gewoon Linux op draaien, maar het is alleen nuttig als je ook iets met de cuda cores doet, zoals AI taken. Dit ding kan een AI taalmodel snel genoeg draaien om normaal mee te praten, en tegen slechts 15w stroomverbruik. Dus voor een lokaal taalmodel voor een smart home oid zou dit ideaal zijn. Dave van Dave's Garage heeft een prima video gemaakt over dit ding: YouTube: NVIDIA's $249 Secret Weapon for Edge AI - Jetson Orin Nano Super: Dr...
Precies. Icm deze video van NetworkChuck YouTube: my local, AI Voice Assistant (I replaced Alexa!!)

== Een nieuw project voor thuis :+
Waar ik benieuwd naar ben is of je hier bijvoorbeeld Home Assistant met een LLM goed op zou kunnen laten draaien. 25 watt is natuurlijk nog steeds behoorlijk wat maar een dedicated GPU om een dergelijk model op te draaien vraagt ook makkelijk 25 watt.
Ik weet niet, er is maar 8GB ram dat is extreem weinig voor een LLM + OS, niet?

Op mijn gsm moet ik 12GB ram hebben voor een klein model van 3B parameters te draaien. Llama 3.2

[Reactie gewijzigd door sebastienbo op 18 december 2024 12:12]

12GB RAM? Ik draai Llama 3.2 3B uitstekend op 8GB RAM. Je moet gewoon de juiste quantizations pakken. Q4KM is maar 2GB ofzo en ook nog eens vliegensvlug op mijn niet super telefoon (CMF Phone 1). Met 8GB, vooral als die grotendeels vrij is, kun je makkelijk een 8B Q4KM model (rond de 5GB) draaien, zelfs met ruime context size.
Idd, ik draai wel graag op 5KM of hoger. In dit geval draai ik het op Q8 (full). Dan lopen de tokens heel snel zonder qualiteit verlies.

[Reactie gewijzigd door sebastienbo op 18 december 2024 17:46]

Deze LLM draait goed op een Samsung S10, die heeft 8GB ram.
Dat was inderdaad een soort van use-case wat ik voor me zou zien. Een lokaal draaiende llm icm home assistant. Neemt wat mij betreft de perikelen rond het always-online moeten zijn weg.
Ik had me meer een device ernaast in gedachten. Een ai computertje die 95% van de tijd idle staat te staan en alleen als Home Assistant een trigger woord herkent ineens aan gaat. Dan de processing doet en daarna weer naar minimale idle gaat.
Dan kan HA gewoon op mn pi blijven draaien :)
Waarom ernaast? Deze Nano heeft 6 ARM cores naast de GPU. Dat is prima om nonAI taken te draaien. De GPU kan idee blijven totdat er werk is.
Jazeker kan dat, JetPack is gebaseerd op Ubuntu en je kunt er dus gewoon op werken zoals met een raspberry pi.
Ligt eraan wat je wil doen. Als gewone server zou ik zelf iets anders pakken. Maar als je iets hebt dat baat heeft bij acceleratie van de jetson dan heeft dat grote voordelen. Bv. frigate waar je objectdetectie doet, die erg zwaar is voor een normale cpu.
Ja hopelijk werkt dit met Frigate. Google heeft op het gebied van vision met Coral.ai wel zo’n beetje de monopoly op local AI op een single board computer.
Er zit een nvme poort op, maar vind het een beetje zonde van de AI/GPU functionaliteit. Voor server doeleinden zijn er vast goedkopere boards te vinden die het ook prima doen.
Ik denk dat er vooral een uitdaging in zit welk OS erop kan draaien.

Bij "normale" pc denk ik toch aan een pc met Windows OS erop. Volgens mij biedt Microsoft nog geen images aan om zelf op hardware met ARM SOC te installeren.
Er zullen ongetwijfeld Linux distributies zijn die wel ondersteund zijn, maar dat is niet voor de meeste huis tuin en keuken gebruikers weggelegd om daar aan te beginnen. Ik denk zelfs dat de meeste Tweakers (mijzelf inclusief) even op hun hoofd moeten krabben om dit aan de praat te krijgen.
Dat valt m.i. wel mee. Er is een Jetson SDK met alle benodigde software, waarin ook kant-en-klare Jetson Linux zit. Op die SDK pagina lees ik ook over Red Hat, RedHawk, Suse, Windriver en Yocto-distro's (wat die laatste ook mag zijn).
Dat valt me inderdaad nog aardig mee, vanuit een tweakers perspectief, vanuit normale PC gebruikers perpectief is dit natuurlijk magie.
https://www.yoctoproject.org/
https://www.openembedded.org/wiki/Main_Page

Yocto is bedoeld om uw eigen linux distributie/OS te maken. Het gebruikt OpenEmbedded als onderliggende laag.
Beetje in de trent van: selecteer uw kernel, bootloader, packages & maak hiermee een installeerbaar filesysteem.

Het wordt zeer veel gebruikt in de embedded wereld.
Dit soort bordjes zijn perse bedoel als 'normale' pc of server. Ze zijn voornamelijk bedoeld om AI processing op te doen. Op school mocht ik zelf gebruik maken van een van de eerste generaties (normale Jetson Nano) en die zag een 5x (!) snelheids boost van een video analyse model (Yolov8n) t.o.v een RPI 5 4 GB. Verder zou je het natuurlijk ook kunnen gebruiken voor andere AI toepassingen zoals Robotica. Moet zeggen dat ik de ondersteuning wel een beetje brak vondt, het bordje dat wij hadden was al niet meer ondersteund en alleen met veel Docker gekloot werkend te krijgen.

Kortom, het product is echt bedoeld om een verder product mee te bouwen zoals robotica toepassingen of een AI powered camera ofzo. Niet om je eigen Plex servertje te draaien of als HTPC (tenzij je video analyse daarop gaat doen).
Ter verduidelijking: De Jetson Orin Nano Super is gewoon een generieke single-board computer zoals de Raspberry Pi. Er is niks AI-achtigs aan de hardware zelf. Het AI gedeelte komt puur van de (meegeleverde?) software van Nvidia, dat geoptimaliseerd is voor de hardware.
Klopt volgens mij helemaal, maar zoals Dave van Dave's Garage (o.a. legendarische oud Microsoft dev) in z'n preview video van de Jetson ook zegt, geparafraseerd:

"Een LLM draaien op een Pi is als een hond die piano speelt. Zo klinkt het ook. We zijn niet onder de indruk van wat hij speelt, dat is ook niet het punt. Het is indrukwekkend dat het überhaupt kan!"
Er zitten toch gewoon CUDA cores op het device. Daar draait een AI model veel sneller op dan op een standaard PI. Ik snap dus niet helemaal wat je bedoelt met je opmerking.
AI draait sneller met CUDA, maar CUDA is niet alleen maar speciaal voor AI. Je kunt er meer dingen mee doen.
Net zoals je met een GPU ook een heleboel andere dingen kan doen dan beeldjes maken, wil het niet zeggen dat er geen hardware in zit die voor grafische toepassingen is gebouwd. Het is niet kloppend om te stellen dat de GPU dan alleen maar door de software goed is in grafische toepassingen. Zo zit er ook in dit bordje een stukje hardware die er speciaal voor AI toepassingen erin is gestopt en is het niet alleen de software dat dit een AI device maakt.
De Jetson Orin Nano Super is zeker niet zomaar een generieke SBC. De JONS heeft een GPU aan boord die gebruikt kan worden voor CUDA enabled programmas. De software wordt inderdaad meegeleverd en heb je wel nodig om van die CUDA cores gebruik te maken. Er zit wel degelijk een wezenlijk verschil in dit bordje en een RPI als het gaat om AI toepassingen (en dat komt door AI hardware, niet door software).
Zie mijn reactie op hiostu
Dit is de SBC met Cuda. In een wereld waar 95% van AI op CUDA draait, is dit dus de SBC voor AI.
Een 3060 12gb heeft 3x zoveel cudacores en kun je voor 200 euro vinden 2e hands. Koop je een 2e hands Dell of een pi met pcie erbij en je hebt een thuis server dat een stuk krachtiger is.
Dat is natuurlijk ook niet het doel van dit ding. Dan praat je over 150watt of zo voor de GPU alleen, en dan de rest van de PC erbij (en nieuw vs 2e hands natuurlijk). Dit is 15watt (of 25watt in turbo mode) totaal.

Dit zijn de dingen die bedoeld zijn om bij een camera monitoring systeem te bouwen, of voor andere dingen te gebruiken waar het niet te veel stroom mag kosten. Het is ook niet voor niets een devkit. Het is bedoeld om software te bouwen op een low-power platform wat ergens integrated gaat worden.

Er zijn altijd wel manieren om meer performance voor minder geld te krijgen, maar dat zijn niet de enige factoren op de wereld.
Hoewel ze het nergens aangeven heb ik een vermoeden dat ze deze boards goedkoper kunnen maken omdat ze de gebruikte chip nu massaal aan het fabriceren zijn. Het lijkt me een heel goede kandidaat CPU voor de Switch 2...
Zou je hier een zelf een mediaplayer van kunnen knutselen met bijvoorbeeld LibreELEC? Als vervanging van de SHIELD?
Het kan vast, maar ik denk dat het overkill is in bepaalde opzichten. Denk je dat goedkoper en energiezuiniger kan doen met bijv. een systeem obv een intel n100 of n150 ofzo. Die verbruiken, althans de cpu/gpu iets van 6 watt. Beetje appels en peren vergelijken, maar denk niet dat deze zuiniger gaat zijn en die gpu kracht ga je eigenlijk niet nodig hebben op een mediaplayer.
Jammer genoeg rekenen veel webshops nog de oude MSRP prijs.

wacht wel even tot de prijzen bij elke winkel is gedaald en dan mischien eentje halen.
De fabrikant deelt benchmarks voor verschillende AI-rekenscenario's zoals llm's en visionmodellen.
@AverageNL Wel een mooie kans om er een link van te maken?
AuteurAverageNL Nieuwsredacteur @Recursio18 december 2024 09:56
De benchmarks staan in de bron (eerste link in het artikel). Twee keer naar dezelfde url linken proberen we doorgaans te vermijden :)
Dat is ergens begrijpelijk, maar die eerste link triggerde me niet - die suggereerde naar een algemeen verhaal te gaan. De zin uit het citaat uitboven wel, maar dat was geen link. Het gaat niet om 1 of 2 keer een link naar dezelfde URL, maar om de informatiebehoefte van de lezer, toch?
AuteurAverageNL Nieuwsredacteur @Recursio18 december 2024 10:08
Eens, maar toch vind ik het hier overbodig. Niet in de minste plaats omdat de benchmarks zijn beperkt tot een paar grafiekjes, die bovendien al in het artikel staan. Ik kan die wel iets naar boven trekken zodat ze wat meer opvallen

Edit: Done! Plaatje van de Orin-devkit zelf is nu verplaatst naar de zijkant van het artikel, zodat de benchmarkgrafieken meer ruimte hebben :)

Edit 2: ik kom net tijdens het rondkijken nog een developerblog tegen met uitgebreidere informatie over de benchmarks (ook daadwerkelijke prestatiecijfers in tokens (of frames) per seconde, naast alleen de grafiekjes). Dat vind ik wél van toegevoegde waarde. Dus ik voeg dat linkje toe aan die zin @Recursio

[Reactie gewijzigd door AverageNL op 18 december 2024 10:14]

Ze delen dus de benchmarkresultaten; niet de benchmarks zelf.
Dergelijke benchmarks zouden wel leuk zijn geweest om mijn huidige home-computer ermee te vergelijken.
@AverageNL - Fijn dat je hier zo inhoudelijk mee aan de slag gegaan bent - dat waardeer ik zeer. :)
Alleen maar netjes lijkt me. Zo volg je ook toegankelijkheidsrichtijnen!

https://www.w3.org/WAI/WC...stent-identification.html

Op dit item kan niet meer gereageerd worden.