Het Kadaster stelt 3d-bestand van Nederland beschikbaar als open data

Het Kadaster heeft een 3d-model van Nederland beschikbaar gesteld als open data. Hiermee kunnen gebruikers bijvoorbeeld 3d-visualisaties maken of analyses uitvoeren. De huidige versie is gebaseerd op luchtfoto's uit 2018 en wordt jaarlijks geactualiseerd.

Het 3d-bestand is gepubliceerd door het Kadaster, een overheidsdienst die gegevens bijhoudt over grond, gebouwen en adressen. De kaart is gemaakt in samenwerking met het ministerie van Binnenlandse Zaken en de TU Delft. Het bestand is beschikbaar op PDOK, een website waarop open datasets van de overheid worden gepubliceerd. Gebruikers kunnen daar delen van de kaart downloaden. De informatie wordt geleverd als CityJSON-bestand.

PDOK meldt dat het 3d-bestand onder andere is gebaseerd op topografische informatie uit de Basisregistratie Grootschalige Topografie. De gebouwen zijn gebaseerd op informatie uit de Basisregistratie Adressen en Gebouwen. Vervolgens is de hoogte automatisch gegenereerd op basis van luchtfoto's en het Actueel Hoogtebestand Nederland. De huidige versie van het bestand maakt gebruik van luchtfoto's uit 2018 en het bestand wordt een keer per jaar geactualiseerd.

Het bestand kan onder andere gebruikt worden voor het maken van 3d-visualisaties. Daarnaast is het geschikt voor het analyseren van schaduwen, zonnepotentie of geluidsmodellen. Gemeenten kunnen het bestand ook gebruiken voor het uitvoeren van projecten, schrijft PDOK. Uiteraard kunnen 'gewone' gebruikers de kaart ook downloaden om te bekijken.

Momenteel is er alleen een volledig basisbestand beschikbaar dat terreinen, water, wegen en gebouwen bevat. Op een later moment komen er nog versies beschikbaar die alleen modellen van gebouwen bevatten, al dan niet met hoogtestatistieken. Het is nog niet bekend wanneer deze worden gepubliceerd.

3d-basisvoorzieningen

Door Daan van Monsjou

Nieuwsredacteur

16-07-2020 • 11:22

154

Reacties (154)

154
154
59
13
0
78

Sorteer op:

Weergave:

Mocht je de file zelf willen bekijken, deze website heeft een overzicht van how to en met welke software: https://www.cityjson.org/software/
Eerste file die ik erin wil laden (1GB) resulteert in een 'out of memory' javascript error helaas.
Klopt, bestanden zijn veel te groot.

Zelfs valideren wil niet (pip install cjio):
cjio 01gn1.json validate
Je kan beter Den Haag proberen van deze site op ninja:
https://www.cityjson.org/...tomatically-your-own-area

Of een subset van een van de downloads:
[code]cjio 01gn1.json subset --random 10 save out.json[/code]

[Reactie gewijzigd door Jan121 op 23 juli 2024 02:22]

Weet jij hoe je een gerichte subset kunt selecteren/exporteren? ik wil hier best graag wat mee doen maar zelfs met 32 GB ram krijg ik Mem errors :/
Kan met cjio:
cjio 21gz1.json subset --bbox 202396 502405 203491 503563 save subset.json
Zie ook
cjio subset --help
...
--bbox FLOAT... 2D bbox: (minx miny maxx maxy).
...
De coördinaten kun je bijv. opzoeken met: https://epsg.io/map#srs=7415
Goed opletten dat je de inderdaad de laagste x en y eerst zet.
Ook voor @StackMySwitchUp
Dank, had de optie --bbox wel gezien, maar nog niet uitgevogeld.
time cjio 25gn1.json subset --bbox 121100 487238 121300 487524 save paleis_op_de_dam.json #5m48
Dan heb je het Paleis op de Dam en de Nieuwe Kerk in een kleine 6 minuten, en dat bestandje werkt prima op https://ninja.cityjson.org/

Overal platte daken: het land is zo een waar paradijs voor Sinterklaas en Zwarte Piet :)

[Reactie gewijzigd door Jan121 op 23 juli 2024 02:22]

Thanks!! Ik wist dat het kon maar kon de syntax niet vinden

Edit: Helaas, nog steeds memory errors, en dat is als ik een gebied van 200x200m selecteer :(
Edit2: Had geen pagefile, nu gaat het goed :)

[Reactie gewijzigd door StackMySwitchUp op 23 juli 2024 02:22]

Goeie vraag. Nog niet echt.
cjio of jq?

Met cjio een object subsetten wilde net:
cjio 25gn1.json subset --id B0000.b25c29495802431e9fb6f098574a11d9 save out2.json

https://github.com/cityjson/cjio/blob/master/cjio/cjio.py
@click.option('--id', multiple=True, help='The ID of the City Objects; can be used multiple times.')
@click.option('--bbox', nargs=4, type=float, help='2D bbox: (minx miny maxx maxy).')
@click.option('--random', type=int, help='Number of random City Objects to select.')
@click.option('--cotype',
type=click.Choice(['Building', 'Bridge', 'Road', 'TransportSquare', 'LandUse', 'Railway', 'TINRelief', 'WaterBody', 'PlantCover', 'SolitaryVegetationObject', 'CityFurniture', 'GenericCityObject', 'Tunnel']),
help='The City Object type')
@click.option('--exclude', is_flag=True, help='Excludes the selection, thus delete the selected object(s).')
Onhandig dat CityJson geen jsonl (json line) is, dan kan je gewoon knippen per regel.

En voor jq dat CityObjects geen array is.
Same, ik denk dat die website em niet gaat worden.

Ik ben nu met Blender bezig, maar ik denk dat ik er teweinig geheugen voor heb. Het programma zit nu aan de 10gb, de rest van het geheugen is ook al in gebruik. [edit] En ik snap ook niks van Blender, dat is het grootste probleem.

[Reactie gewijzigd door Rub3s op 23 juli 2024 02:22]

Bij mij is het met een 500MB bestand al een half uurtje bezig, het gebruikt zo'n 20GB ram van mijn 32GB beschikbaar. Ik gebruik een i7-9750H en RTX 2070 MaxQ
ik heb net geprobeerd een bestand van ~3,7 GB te laden in Blender maar ik krijg memory errors (32 GB RAM waarvan 29,8 gebruikt voor de crash) dus nu aan het proberen te converteren naar iets bruikbaars met citygml-tools

[Reactie gewijzigd door StackMySwitchUp op 23 juli 2024 02:22]

Na lang wachten heb ik een bestand in Blender geladen gekregen. Blender rendert alleen niets..

Bestand als .obj geëxporteerd, in 3ds Max geimporteerd, en na wat minder lang wachten werkt het voor mij. Anti-aliasing uit, klein render window, en jawel ~89m verts op 3fps (1070Ti).

"Succes"
Heb hem eerst in Blender binnen gehaald en heb hem nu in Unreal Engine staan. Moet nog wel wat optimalisatie gebeuren om het realtime enigszins soepel te laten draaien. Specs; i9 / 64GB ram / Quadro RTX 6000.
Ik dacht dat het aan mij lag waarom ik niks in Blender zag. Schijnbaar was dat dus niet het probleem :) . Ik zal het ook eens in Unreal Engine of 3ds Max proberen!
De JSON die ik download is uitgepakt 2.3 GB groot, ik weet niet of uploaden naar een website dan echt de handigste manier is :p
Hij draait hier al circa 5 minuten rondjes voor 210MB
Ik zit al op 10 minuten :)
Ik zit op de 20, kijken wie het verst komt
Ik zit op ruim een uur voor 2,3 gb
In de console van je browser heb je waarschijnlijk gewoon een dikke javascript error. Maar ik zou gewoon blijven wachten :Y)
In ieder geval wel wat ik direct krijg bij het uploaden van een bestand van ongeveer 230MB:
Unexpected end of JSON input
at JSON.parse (<anonymous>)
at FileReader.regeneratorRuntime.mark.regeneratorRuntime.wrap.i.onload
Lijkt erop dat het JSON bestand niet valide is. Maar VSCode wil een bestand van deze grootte niet openen. Wellicht Notepad++.
Ik denk dat die website gewoon niet met zulke grote bestanden werkt. Misschien dat het al voor het uploaden misgaat, wellicht moet het javascript gedeelte allerlei dingen checken voordat ie gaat uploaden.

Edit: Website upload nooit bestanden, alles draait op je pc.

[Reactie gewijzigd door Rub3s op 23 juli 2024 02:22]

Let op dat het single-line files zijn, en dat splitten waarschijnlijk aan te raden is. Eventueel even pretty-fyen.
Daar staat op dit moment geen error, dus ik denk dat hij daadwerkelijk nog aan het uploaden is.
En ik zit niet te wachten hoor, af en toe ik eens of er al voortgang is ;)
Als de site de JavaScript puur lokaal interpreteert, heb je kans dat dit gepauseerd wordt als je browser tab niet de focus heeft
Dat zou mij niet verbazen. Ik ben het nu in Blender aan het importeren, maar die vindt het niet zo grappig op een laptop van 3 jaar oud :D
Op een laptop van 3 weken oud met 32GB ram heeft hij het ook zwaar.
Je ziet de preloader toch gewoon draaien :P
Shit, ik heb net ververst na een uur wachten 8-)
Waarschijnlijk zijn jullie niet de enige 4 die dit nu doen :-)
Het draait allemaal lokaal, dus dat maakt niet uit :P . Of de JSON is niet geldig, of de browser/javascript functie kan niet met zoveel JSON omgaan.
Zover ik het zie, draait deze applicatie lokaal en upload hij deze niet.
de AHN, 1 van de bronnen voor de Z waardes, bevat 10 tot 15 meetpunten per m2 oppervlak, en Nederland is ~41.543.000.000 m2, dus ja, dat is een lel aan data.
Hier kun je het bestand in je browser checken. Hoef je geen software te downloaden die je verder nooit meer gaat gebruiken.
Heb je die website ook zelf geprobeerd?
Hoe dan, je moet eerst alsnog het bestand downloaden en daarna weer uploaden naar deze tool?
Ja...
"Upload a CityJSON file to have fun!"

Binnenhengelen vanaf https://brt.kadaster.nl/basisvoorziening-3d/ (sectie aanklikken op de kaart, dan verschijnt de downloadlink)

En dan na enig geduld uploaden op de site die SomverenV linkt.
Ik ben aan het experimenteren met deze tool:
https://github.com/3dcitydb/importer-exporter/

Die lijkt niet te crashen bij hoog RAM gebruik. Hij is echter al een half uur aan het crunchen. Wellicht kan iemand er wat mee.
Ik heb er even mee gespeeld. op https://www.pdok.nl/how-to-faq1 vind je verdere instructies hoe de dataset te gebruiken. Ik denk dat dit o.a. handig is voor degene die bezig is met zelfbouw voor een kavel. Dan kun je inderdaad nu zelf controleren of schaduwen e.d. je electrische zelfopwekking met zonnepanelen reduceert. Met gasloos bouwen nu is de zelfopwekking een feit. Tegelijkertijd zijn deze diensten voor een paar honderd euro's zo uitbesteed. Mijn oordeel: handig voor de enthousiaste hobbyist.
Maar nu deze data als publieke data is openbaar gemaakt, kunnen architecten en woningbouw dus zelf ook eenvoudiger en wellicht goedkoper dit soort dingen controleren.
Weet iemand of je dit in een VR programma kan laden? Programma’s als Google Tilt Brush bijvoorbeeld...
Je kunt hem in Blender 2.83+ inladen met de CityJSON plugin, sinds kort is daar een VR viewer beschikbaar.
Plugin: https://github.com/cityjson/Blender-CityJSON-Plugin
Repository (.zip) downloaden, Blender openen, Edit->Preferences, Add-ons, Install, de .zip selecteren en in in het Add-on menu aanvinken dat je hem actief wilt hebben.
Dan kun je File->Import->CityJSON gebruiken om de kaart te importeren.
VR kun je in Blender 2.83 activeren in het Add-on menu, de add-on heet: 3D View: VR Scene Inspection.
Video tutorial hiervoor: https://www.youtube.com/watch?v=hTro_QBEXR4

Je kunt natuurlijk het model ook exporteren vanuit Blender naar een ander formaat (.fbx/.obj) waardoor je het in een andere applicatie kunt bekijken.

De plugin deed bij mij het model trouwens niet inladen, wie weet heeft mijn PC niet genoeg geheugen voor zo'n groot model (1,2GB JSON in 16GB RAM). De stacktrace gaf niet veel inzicht in de fout zelf.
Update:
De 16GB is inderdaad te weinig RAM, krijg een MemoryError zodra hij op 15,9GB zit.

[Reactie gewijzigd door tedades op 23 juli 2024 02:22]

Bij mij blijft het een redelijk constante 20-23GB gebruiken.
Ik heb een file van 3.4GB niet in blender gekregen met 32 GB ram, zelfde error bij 29,8 Ben benieuwd wat je ervoor nodig hebt
Bedankt voor de info!! Ik ga het straks proberen met een 500mb zip.
Ik heb het geprobeerd op een stukje ijsselmeer (~25MB) en die laad wel in maar had nog geen model gezien. Mogelijk heeft het een offset en zit het niet direct in mijn view.
Je moet het dan nog object selecteren uit de lijst en dan View button|Frame Selected doen, zie ook een ander comment van mij.
Vreemd dat dit nu pas (als open data?) beschikbaar is voor Nederland... In Vlaanderen is deze dataset al geruime tijd beschikbaar als open data:
  • Digitaal Hoogte Model Vlaanderen I - Sinds 2005 beschikbaar
  • Digitaal Hoogte Model Vlaanderen II - Sinds 2014 beschikbaar
En ik dacht dat we in Vlaanderen achterliepen omdat het maar een LoD 1 betreft... Dat zou voor mij echt nieuws zijn, dat er een LoD 2 of 3 beschikbaar wordt gemaakt. (Ter info, LoD1 zijn enkel rechthoekige blokjes, LoD 2 is er informatie over de dakhelling beschikbaar, LoD 3 is er informatie over oversteken, ramen, eventueel textures voor gevels, ...)

Ik ben nog steeds aan het wachten op een Open Data set zoals in Google Earth/Google Maps 3D...

[Reactie gewijzigd door Geert.St op 23 juli 2024 02:22]

Nederland heeft al een behoorlijke tijd een hoogtebestand in de vorm van AHN3, wat zelfs als rauwe LIDAR data valt te downloaden. AHN1 begon in 1997, en was in 2004 "compleet". Momenteel zijn er congressen rondom AHN4 bezig.

Naast deze initiatieven, en feitelijk een soort 3D BGT (waar dit over gaat), en volledige INSPIRE-harmonisatie, liggen er ook vrij veel initiatieven om de CAD-wereld hier naar toe te brengen, met zelfs volledige BIM modellen van sommige componenten vaker publiek en toepasbaar.

CityJSON zoals hier is eigenlijk meer een 'gevolg'-dataset dan de oorspronkelijke bron.
De achterliggende datasets, oa de AHN (1/2/3), BAG en BGT, zijn al veel langer openbare data, en worden in bijvoorbeeld de ingenieurswereld al tig jaren veelvuldig gebruikt. (dit dankzij een van de kabinetten Balkenende meen ik) Die doen dan wat het kadaster nu heeft gedaan voor heel Nederland, zelf met bijvoorbeeld een pakket als ArcGIS, voor een bepaald project. Zoals je aan de reacties hier kan lezen, is het een lel van een dataset, die je niet zo even voor heel Nederland gaat maken.

Sterker nog, we zijn qua openbare GIS datasets in Nederland een van de meest vooruitlopende landen in de wereld, en bijvoorbeeld "ons" kadaster, naja hun knowhow, wordt veel gebruikt als ontwikkelingshulp, want bij economische ontwikkeling is het kunnen vastleggen van eigendommen een belangrijke stap. Zie dat laatste zo, als jouw huis eigendom niet via het kadaster (juridisch) waterdicht zou zijn vastgelegd, zou geen bank je een willen hypotheek geven.
Des te vreemder vind ik dus het feit dat deze dataset nu pas kant-en-klaar beschikbaar is en bovendien slechts in LoD 1. Ik ben dus zo iemand die vanuit de ingengieurswereld wekelijks bezig met het "3D GRB Vlaanderen".

Als ik zie hoe ver Nederland inderdaad voor ligt op andere punten, vind ik dit echt verrassend en een beetje een gemiste kans.
Hier werd het al veel gedaan door bedrijven zelf, dus er was niet echt een prikkel om dit vanuit de overheid te doen.

En het is ook vaak een kwestie van mensen en middelen, ik meen dat de afdeling van het kadaster die hiervoor verantwoordelijk is, ook via een omweg tijd op een van de Nederlandse supercomputers kon krijgen. Zo hebben ze ook al eens een poging tot een 3D kadasterkaart gedaan, maar dat gaf wat teveel voetangels mbt appartementsrechten etc, dus daar zijn ze volgens mij niet echt verder mee gegaan. Dat zal wel het zaadje hiervoor geplant hebben gok ik. Daarnaast waren veel van die datasets voorheen niet openbaar, zo was de voorloper van de BGT, de GBKN, het product van de Nederlandse gemeenten en 1 ingenieursbureau, wat voor grof geld verkocht werd. Met het invoeren van de basisregistraties hier, moesten er ook oplossingen voor dát soort knelpunten bedacht worden.

Overigens konden wij hier bij het kadaster al jaaren geometrie (perceelsgrenzen) downloaden, waar onze Vlaamse collega's die nog per fax kregen, dus het is ook maar net waar de focus op ligt.

Verder is er de laatste paar jaar ook wat veranderd wat betreft eigendom en verantwoordelijkheid van dat PDOK, waar ze dit vanuit ontsluiten, dat is meer naar het kadaster gegaan, en zal ook mede dit bepaald hebben.
Vet hoor!

Ooit had ik een baantje waarbij ik in kon zien wat er allemaal onder de grond zit. Toen keek ik ook al mijn ogen uit.
Ik weet zo even niet hoe dat bij onze zuiderburen heet, maar die heten hier KLICmeldingen. (Kabels en Leidingen Informatie Centrum). En ja, dat is soms erg leuk om te zien. Wij zijn nu bezig om die gegevens via een AR app aan onze collega's buiten te leveren, dan mikken ze de smartphone op hun tenen, en zien ze de K&L onder hun voeten liggen, en weten ze waar ze wel of niet veilig de grond in kunnen.
Let op dat het geen substituut is voor een echte klic melding (en supervisie van de partij die belang heeft bij dat stuk ondergrond), puur omdat kabels/leidingen nog al eens willen verschuiven, of, zoals bij telco's en DSO's, soms achteraf pas ingetekend worden/lang geleden gedigitaliseerd zijn/etc...
I know, we doen ~5000 graafmeldingen per jaar als bedrijf, dus al die (soms echt knullige) eisvoorzorgsmaatregelen ken ik inmiddels wel. Recent pareltje, een waterbedrijf wat een EV buffer om ál hun leidingen, dus inclusief huisaansluitingen, heeft gelegd. Daar blijf je maar mee bellen. Aan de andere kant, een oliegekoelde, asbestgeïsoleerde, hoogspanningskabel wil je dan weer écht goed beschermen. (en ja, die liggen er in de grond in ons land). Maar goed, dankzij de Wibon krijgen we eindelijk vectordata, en dan zijn dat soort AR toepassingen weer een stuk dichterbij. Nu nog Z gegevens aanleveren, en ik ga die netbeheerders misschien nog wel eens leuk vinden ook.

Maar goed, op de graafmelding van mijn eigen voortuin staat de huisaansluiting van de glasvezelkabel, compleet aan de verkeerde kant van de woning getekend, dus dat is inderdaad soms wat een sluitpost..
Ik durf te stellen dat ik bovengemiddeld veel weet van de DSO's in Nederland. En helaas is de Z as nogal een genegeerd kindje (in AR wereld en game engines dan weer de Y as...). Bij de drie groten in NL zijn er enkel 'graafdiepte adviezen', waar aannemers er (zeker in het verleden), dan nog wat meer werk van maakten om maar wat te doen... er zit wel wat vooruitgang in, maar er zijn andere zaken belangrijker, zoals het in stand houden van een overbelast net... nieuwe aanleg... beperkingen rondom graven... projecten als GSA... vergeet niet dat er doorgaans ook nog steeds een tekort is aan sommige functies bij hen... GIS, BIM, en vrij logische zaken als 3D krijgen daarom al snel wat minder aandacht, laat staan dat er gedacht wordt over moeilijke scenario's als IMKL en de omgevingswet ;)
Moet je nagaan wat zooitje het was geweest als het kadaster die netbeheerders niet aan de hand had meegenomen de Wibon in.. Nog los van het feit dat die eerste deadline ervan, vooral door de gemeenten, niet gehaald werd. Mooiste vond ik recent nog wel, dat een grote stad lege geometrie meestuurde met een complete graafmelding, en bij constatering elke grondroerder die in die periode een graafmelding had gedaan, via WeTranfer maar een cad bestand stuurde van de hele gemeente, met het verzoek om de juiste stukjes er maar zelf uit te clippen.
Helaas is dat in de praktijk ook erg variabel. Als er een boomwortel toevallig inde weg zit dan kan het gebeuren dat een glasvezel-kabel ineens 30 cm omhoog schiet en direct onder de wegfundering ligt. Maar ook de oudere KPN-kabels hadden dit probleem al....
Maar goed, dankzij de Wibon krijgen we eindelijk vectordata, en dan zijn dat soort AR toepassingen weer een stuk dichterbij.
Komt dat er eindelijk? Toen ik hier zes jaar terug voor het laatst mee bezig was, zou K&L in vectorformaat er aan het einde van het jaar zijn :+
Dat is er al, sinds begin van het jaar. Maar omdat het door het kadaster is geregisseerd, en die zijn eigenlijk wat te slim voor dit soort dingen, wel in GML formaat, met een bovenliggend datamodel waar ik nog af en toe 's nachts wakker van schrik. Ik bedoel, waarom niet gewoon ouderwetsch een shapefile ofzo, of een dxf. Naja, FME to-the-rescue. :-)
Niks mis met GML, stuk beter dan die PNG's met een stukje XML erbij van vroeger!
Het is een beetje offtopic maar ik weet dat de Universiteit Twente ook druk bezig is met ontwikkelingen op dit gebied. https://research.utwente....or-developing-a-digital-b Is een publicatie die hier aandacht aan geeft. Wellicht een lead om een samenwerking aan te gaan om dit (best wel grote) probleem binnen de infrastructuur te verminderen.
De Wibon heeft al in zich dat de nu nog vaak semi-digitale huisaansluitingen (pdf's met gescande analoge veldschetsen van zeg de PTT), écht digitaal, dus GML-vectoren, moeten gaan worden. Voor gas huisaansluitingen al redelijk vlot, dit mede dankzij een paar recente dodelijke incidenten, en voor de rest over ~10 jaar ofzo. De legacy data is wat dit soort initiatieven vaak ten gronde doet lopen. Dit moet met ~2000 netbeheerders geregeld worden, van het grote KPN of Enexis, tot dat kleine restaurant in Drenthe wat toevallig een kabeltje onder de N-weg ernaast hebben lopen, om er de slagboom van het parkeerterreintje te kunnen bedienen.

En gezien de historie van de switch naar GML, wat serieus vertraging op liep, vnl omdat veel gemeenten hun hielen lichtten, denk ik dat dit nog héél lang zal gaan duren.
de voorloper van de BGT, de GBKN, het product van de Nederlandse gemeenten en 1 ingenieursbureau, wat voor grof geld verkocht werd.
Waren dat de 'kabouter kaarten' die bij geocaching op magische wijze op 4 gebrande cd's in caches verschenen?
Dat waren volgens mij die van de Top10nl of Top25raster, welke toentertijd ook nog betaald waren, maar van het kadaster. De GBKN was eigenlijk bedoelt voor (civiele) toepassingen schaal 0 tot 1:10.000, en daarna kwamen de Top10vector voor >1:10.000, en de Top25/50/100/250 raster bestanden. Die top10nl is de BRT geworden, en de GBKN de BGT, in het huidige stelsel van basisregistraties.
Spijtig dat ze die niet gebruiken in Google Earth... Veel steden zijn nu gewoon nog volledig plat :( Terwijl andere er super uit zien! Ik kan soms uren zitten 'rondvliegen' op earth!
Google doet dat niet zo ingewikkeld/maatvast, die hebben dit ook niet nodig om advertenties te kunnen plaatsen.. :-)
Beter laat dan nooit hè.
Ik kan op dit moment nog geen link vinden naar de download: https://brt.kadaster.nl/basisvoorziening-3d/
Volgens mij moet je een sector op de kaart selecteren.
een klein gebied rond mijn huis was namelijk al 210mb :)
Dat is dan maar een kleine file. Ik heb er twee gedownload en die zijn 1.5 tot 1.9 GB. "Even" zo'n bestandje bekijken is er helaas niet bij. Qgis heeft het er serieus moeilijk mee en online bekijken vraagt een snelle (upload) verbinding.
Gezipped waarschijnlijk 210mb. Uitgepakt wel iets groter.
Het lijkt erop dat je eerst een regio'tje aan moet klikken voordat de link verschijnt.
Thanks @WiiiLDFARMER , @Leeghoofd21 , @Maverick. Een regio is inderdaad tussen de 200 en 600 MB :) dat kan dus wel in de tientallen gigabytes gaan lopen als je die als geheel wil.
Met shift ingedrukt, kun je meerdere regio's selecteren
Let op dat je dan ZIP's krijgt (uitgepakt ~2,5GB/stuk) en minimised jsons (als in: alles op één string, geen formatting). Stuk Amersfoort (dacht, laat ik het rijksdriehoekdsstelsel eren!) zit al boven de 10GB voor één kaartblad ;) -- splitsen per object en verwerken naar een ander formaat (via een 3D modelling tool, een GIS wat met CityGML kan werken, of iets in de CAD wereld) kan je veel voordelen geven, maar het is niet 'off the shelf' eenvoudige data om mee te werken.
Mijn regio is rond de 80MB.
Zodra je een gebied op de kaart selecteert komt er ene link tevoorschijn. Je kunt niet de hele database in 1 keer downloaden.
Je kunt niet de hele database in 1 keer downloaden
Wat is het limiet dan? Aangezien je doormiddel van shift wel meerdere regio's kan selecteren.
Helaas geen select all functie (Al zou dat kunnen met een eigen JS scriptje), maar neem aan dat je alles handmatig kan selecteren?
Ik zie geen download link in de tabel?
Je moet eerst een regio selecteren door er op te klikken op de map. Als je meerdere regio's wilt exporteren moet je shift ingedrukt houden en dan klikken.

EDIT: kennelijk wordt alleen de laatst geselecteerde regio geëxporteerd, ook al zijn er meerdere regio's geselecteerd. Jammer, dan zul je dus alle regio's een voor een moeten exporteren als je alle data voor Nederland wilt.

[Reactie gewijzigd door stuiterveer op 23 juli 2024 02:22]

EDIT: kennelijk wordt alleen de laatst geselecteerde regio geëxporteerd, ook al zijn er meerdere regio's geselecteerd. Jammer, dan zul je dus alle regio's een voor een moeten exporteren als je alle data voor Nederland wilt.
Dat is wel een tegenvaller, ben nu aan het proberen den haag te importeren in Blender, maar hij heeft het er moeiijk mee.
Eerst links een kaartvak selecteren..
Zojuist geprobeerd om met de plugin in QGIS te laden, maar het bestand is te groot met 2.3 GB en loopt helemaal vast. Als iemand een goeie viewer heeft gevonden die het aankan hoor ik het graag.
QGIS en 3D is sowieso altijd betwijfelbaar. Ik ben nu met JQ de file aan het splitsen & prettifyen (één blad al >10GB prettified omdat het single string is vanuit PDOK), en als het ding klaar is na werk vanavond een snelle conversie naar CityGML, waarna ik het geheel als een multipatch dataset met bestaande tools in ArcGIS Pro zal laden en kijken of ik het als een i3s service kan deployen. CityJSON is nogal primitief, zelfs FME kan het pas sinds versie 2020 lezen en deze specifieke files zijn nogal... euh... log. Alles op één line...
Thanks voor de uitleg, ik ben van nature geen Gisser, maar een Cadder in de wegenbouw dus leek me mooi om eens te proberen maar als ik dit al hoor dan wacht ik wel tot er een iets gebruiksvriendelijkere optie komt ;)
Eens kijken vanavond of de maten van mijn huis een beetje kloppen.
Eens kijken vanavond of de maten van mijn huis een beetje kloppen.
Gezien het 3D-bestand o.a. gebaseerd is op de BGT moet je in ieder geval rekening houden met een nauwkeurigheid van 30cm.
Als je huis maar groot genoeg is maakt die nauwkeurigheid niet zoveel uit :-)
Het kadaster brengt ook ieder jaar kaarten uit van Nederland, op meerdere schalen. Ook deze kun je terugvinden op PDOK, TOPraster noemen ze het tegenwoordig.

Het mooie hiervan is dat je deze afbeeldingen dan weer keurig in Ozi Explorer kunt inlezen en dan heb je dus gewoon actuele kaarten van Nederland op schaal. Je kunt de kaarten dus ook gewoon printen, zodat je voor (bijvoorbeeld) scouting activiteiten altijd actuele kaarten hebt.

[Reactie gewijzigd door walteij op 23 juli 2024 02:22]

Orion84 Admin General Chat / Wonen & Mobiliteit @walteij16 juli 2020 15:35
Apps als Topo GPS maken daar ook dankbaar gebruik van :)
Ah, dat wist ik niet. Topo GPS ziet er best goed uit inderdaad. En 4 Euro voor een dergelijke app zonder reclames of andere tracking meuk is natuurlijk niet duur.
Wat grappig! Lijkt me enorm leuk om je eigen woonomgeving d.m.v deze files in 3d te printen.
enig idee hoe je dat zou kunnen doen met dit bestand?
Ik heb eerlijk gezegd geen idee. Normailiter converteer ik 3d files met Sketchup naar printable files. Ik zag wel op de website dat er een plugin is voor Blender. Hoogstwaarschijnlijk dat je via Blender ook printable files kan produceren (of misschien zelfs van Blender naar Sketchup). Iemand suggesties?
Met blender kun je ook gewoon exporteren naar .obj of .stl en dit kan je in de slicer omzetten naar gcode.
Bedankt voor het advies. Ik krijg nu echter in Blender een fout tijdens het inladen van de json file (memory usage error). Volgens mij heeft dit met Python te maken.
Het gebruikt inderdaad flink wat RAM geheugen vanwege de grote bestanden. Ik heb ook problemen van het inladen van gebieden in mijn omgeving, maar als ik een stuk van 80% zee pak merk ik dat het eigenlijk meteen is ingeladen. Dan zie je hoe die addon zijn data weergeeft als model om te zien of je het kan gebruiken voor het 3D printen. Ik ga het zo meteen is proberen op mijn desktop om te zien of deze het wel wilt laden (ook met 32GB ram, maar betere CPU en grafische kaart).
Een json file van circa 700mb vebruikt +- 9gb ram om het in Blender te laden. Gaan json files zo inefficïent om met ram geheugen?
JSON files zelf gaan heel efficient met geheugen om voor een leesbaar formaat. Omdat het formaat redelijk simpel is kost het parsen hiervan niet heel veel tijd, zeker niet in vergelijking met dingen als XML. Ik denk dat het een combinatie van het grote JSON bestand, modellen en de berekening om de polygons te bepalen het zwaar maakt.
Ik heb zelf het bestand ook nog niet bekeken om te zien hoe de format van de JSON is en welke data er exact instaat.
Je gebruikt deze plugin?
https://github.com/cityjson/Blender-CityJSON-Plugin

Ik ben er nu mee bezig, wil mijn wijk 3D printen, dus ben nu bezig met importeren, duurt even, en dan naar STL duwen.
Ja, dat is de plugin die ik gebruik. Blender en json files zijn echter geen goede combinatie (althans, op mijn pc). Een json file van circa 700mb verbruikt 9gb aan ram. Dat betekent dat ik nooit mijn wijk op mijn pc kan inladen (mijn wijk is +- 2,7gb).
Het gebruikt het aantal ram dat benodigd is. Mijn systeem heeft maar 8GB ram, en heeft een uurtje lang nodig gehad (5GB ram gebruik) om 500MB in te laden, dat direct geëxporteerd als STL voor 3D printen.
heb je verder nog iets aangepast voordat je het naar STL hebt geëxporteerd?
Mijn huis staat in een bestand van 1600MB, JSON inladen duurde 4+ uur in blender. Uiteindelijk wel gelukt en zie de objecten rechts staan maar iedere keer als ik ergens op klik blijft blender voor enkele seconden vasthangen.
Heb met een kleinere JSON geprobeerd om te kijken hoe ik die naar Cura krijg maar als ik die exporteer als STL krijg ik hem niet goed in Cura.
Ik heb puur import gedaan, als ik iets in blender doe hangt ie weer een tijdje. Dus maar gewoon File > Export > STL gedaan. Duurde een tijdje, maar toen kon ik m importeren in PrusaSlicer, en daar rondkijken.
Ja dat is degene die de meeste hier gebruiken. Al lijkt het wel flink wat RAM te kosten. Hij pakt nu 90% van mijn 32GB RAM. CPU heeft het minder zwaar en GPU doet niets.
Ik zat precies hetzelfde te denken. Leuk voor aan de muur!

Op dit item kan niet meer gereageerd worden.