Strato brengt websitebouwer Smartwebsite 'op basis van AI' uit

Strato brengt een eigen websitebouwer uit die 'op basis van AI' een nieuwe site maakt met bepaalde templates als uitgangspunt. Bij duurdere pakketten kunnen gebruikers de ingebouwde AI gebruiken om afbeeldingen en tekst te genereren en zorgt Strato voor seo-optimalisatie via AI.

Strato voegt de functie toe aan pakketten met een Sitebuilder-pakket. Sitebuilder was tot nu toe het pakket waarbij gebruikers vanuit hun Strato-dashboard direct een website met cms konden installeren, zoals een WordPress- of Joomla-website. Het pakket heet voortaan Smartwebsite.

Smartwebsite kan automatisch websites bouwen voor gebruikers. Dat gebeurt 'op basis van individuele specificaties'. Gebruikers beginnen met een van de 29 standaardtemplates en kunnen die naar wens laten aanpassen. "De geïntegreerde kunstmatige intelligentie (AI) helpt je met ideeën en het maken van teksten of afbeeldingen, en stelt een professionele structuur voor je website voor", schrijft Strato. In de praktijk betekent dit dat gebruikers nieuwe pagina's kunnen aanmaken, secties zoals een contactformulier kunnen toevoegen en het font of kleurenschema kunnen aanpassen.

Een groot deel van die functies zit overigens achter een betaalmuur. Het goedkoopste pakket van Smartwebsite, Basic, bevat wel de websitegenerator. De tekstgenerator, seo-assistent en afbeeldinggenerator zijn echter alleen beschikbaar bij een Plus- of Pro-pakket, dat respectievelijk acht of veertien euro per maand kost. Met het Basic-pakket kunnen gebruikers bovendien maximaal vijf pagina's maken.

Het bedrijf kon desgevraagd niet direct duidelijk maken welke AI-tools Strato voor Smartwebsite, en voor de tekst- en afbeeldinggenerator gebruikt.

Strato templates

Door Tijs Hofmans

Nieuwscoördinator

05-07-2024 • 09:22

52

Reacties (52)

52
52
28
1
0
19
Wijzig sortering
Leuk voor 'statische' pagina's maar interactie met een database is toch nog gewoon handwerk. Ik vraag mij ook af in hoeverre de gegenereerde code optimaal is. In het verleden veel bagger gezien met gegenereerde pagina's en wazige javascript zonder referentie waar het vandaan komt.

[Reactie gewijzigd door fenrirs op 22 juli 2024 19:06]

Die bagger is nog steeds het geval, de websites zoals Squarespace ze maakt zijn allemaal bekende patronen en dat is dus kopiëren en plakken voor een LLM, maar alles dat wat spannender wordt dan dat komt gewoon nog keiharde rotzooi uit.

M.i. is het ook niet beter geworden. De eerdere versies van ChatGPT durfden nog een beetje te dromen en kwamen wel meens met een interessante oplossing, maar nu is het al snel gewoon fout omdat het geen bekend probleem is. GitHub Copilot's chat is vergeleken met ChatGPT compleet nutteloos maar kan wel meer completion doen, alleen is het daar helemáál erg als het geen bekende patronen zijn, dan komt er 9/10 keer gewoon géén antwoord.
ik moet zeggen dat ik GitHub copilot best aardig vindt werken voor python backends. Bij minder bekende talen als Julia gaat het echter helemaal mis omdat die talen vaak nog in ontwikkeling zijn en bepaalde constructies in nieuwe versies gewijzigd zijn.
Bij een Django project bv suggereerde CoPilot nog om de 'delete' functie te gebruiken voor custom DeleteView functionaliteit, terwijl de plek om dit te doen bij versie 4 gewijzigd is naar de 'form_valid' functie. (we zitten nu bij v5).
Dit 'achterlopen' gaat echt een probleem worden.
Uit onderzoek blijkt dat in 50% van de gegenereerde code (python oa) fouten zitten, en dat het gros van die fouten niet opgemerkt wordt door de gebruikers van de genAI tool..

https://arxiv.org/abs/2304.10778
According to a study by Cornell University last year, there’s a wide variance between various genAI coding tools. The study showed ChatGPT, GitHub Copilot and Amazon CodeWhisperer generate correct code 65.2%, 64.3% and 38.1% of the time, respectively.
daar ben ik mij zeer bewust van. Controleren blijft noodzaaak
Een groot probleem wat dit veroorzaakt is dat een generatie opgroeit met deze fouten. Ze worden ook niet meer getriggerd om zelf na te denken en met oplossingen te komen.

Vaak zie je dat de code werkt, maar dat het resultaat niet klopt. Als je de code en architectuur nog niet goed kent kan het zo zijn dat je het verschil tussen goed en fout niet ziet.

Je kan zeggen, mensen maken ook fouten, maar de manier waarop is wel anders. Normaal bouw je code steeds iets meer uit tot je hem werkend hebt. Met Ai krijg je de complete code, met de foute verborgen tussen het begin en einde.
Tsja er zijn genoeg mensen waar "het werkt" goed genoeg is. Dat de zon, de zee, de maan, bepaalde sterren daarvoor in de correcte stand moeten staan vinden ze niet erg. Een vriend van me heeft zelfde diploma als mij (bachelor toegepaste informatica) maar kan "niks" programmeren. Voor hem is dit ideaal want hij weet wel dat hij een loop nodig heeft ofzo en kent wel een if, maar daar stopt het dan. Hij kan met AI wel iets maken dat "werkt" mits aan bepaalde condities voldaan is. Dat dit niet 100% battle tested en production ready is, kan hem weinig schelen. Hij heeft iets. Met "iets" ben ik niet tevreden, het moet werken en het moet correct werken onder alle omstandigheden. Ik ga echt geen support constant leveren.
Maar is het hele idee op IT gebied niet "if it's works, don't touch it" ?
Ik prompt echt anders als ik code wil dan dat in dat artikel gedaan is.
Resultaten zijn dan ook vaak beter dan verwacht. Belangrijk om te realiseren is dat je zelf verbanden moet geven en een stappen plan, kleine opdrachten lukken beter.

Maar zodra je een functie aanroept met meerdere parameters met een er van de waarde null en vraagt om een ander stukje aan te passen ...

Kort om, nothing is perfect.
Sorry hoor maar copilot was een paar maanden geleden alleen nuttig voor "een autocomplete lijntje" of zeer triviale code. Maar productie ready ? Nee in de verste verte niet. Het zal werken (meestal onder niet alle condities) en daar stopt het. En in 25% van de gevallen zat de autocomplete er nog helemaal naast. En nu is het alleen maar erger geworden. En dat is zowel voor Python als react, als go, als rust. Spijt dat ik er 100 euro heb aan betaald

Tevens is dit gebaseerd op "oude" code en iets nieuws zal je ook al met moeite vinden.

Het echte probleem met programmeren is nog altijd: wat heeft een klant nodig en wat wilt hij. Dat kan een AI niet. En als die click & whatever tools zoals Joomla & Wordpress is allemaal mooi en leuk tot je iets niet out of the box moet doen, en dan is het een ramp. Dan zijn er de eindeloze plugin's die gebruikt worden die niet compatibel zijn met bepaalde updates en zo begint het. En die websites worden meestal na een tijdje niet mee geupdate.
Volgens mij zeg ik dat ook. Leuke ‘autocomplete’, maar inderdaad regelmatig fout.

Wat wél heel fijn is is dat het ook naar je eigen code kijkt in andere tabjes. Heel handig bij het bouwen van allerhande datastructuren. (Nee, voor mij geen privacy dingetjes, het is toch uiteindelijk open code)
Toevallig een security audit gedaan op een intranet pagina. Was grotendeels met AI gemaakt en doordat de gehele infrastructuur voor die use case en bijbehorende inhoud geïnventariseerd waren, kwamen ChatGPT en Claude stukken verder dan men verwacht had met goede kwaliteit.
dus je weet van alle gegenereerde javascript waar het vandaan komt en of er niet ergens een 'probleempje' in zit?
Als je vanaf scratch je site maakt met geverifieerde publieke frameworks en de aanpassingen zelf schrijft weet je in ieder geval dat de kans op problematische code minder is dan code gegenereerd door ChatGPT.

Juist voor een intranet pagina, waar vaak gevoelige info ingeklopt wordt zou ik daar zeer kritisch mee zijn.
Het gaat om veel meer dan alleen code en javascript. Het gaag om het bieden van de juiste stappen en het schetsen van de context, alles passend aan de interne processen. En dat is waar de kracht van generatieve AI ligt. Natuurlijk moet de code zelf gevalideerd worden (gelukkig niet mijn verantwoordelijkheid as CISO), maar gezien de ontwikkelingen verwacht ik dat ook dat grotendeels geautomatiseerd gaat worden komende jaren.
Het gaag om het bieden van de juiste stappen en het schetsen van de context, alles passend aan de interne processen.
Ik mag toch hopen dat dat al afgetikt is vóór er enige code geschreven gegenereerd is.
Uiteraard. Het gaat om een organisatie die onder strenge toezicht staat in de financiële wereld net als de concurrenten. Elke major change zonder juiste goedkeuringsprocessen leidt al tot een miljoenenboete. Het is geen klein MKB kantoortje in Schiedam met 80 medewerkers.
> gelukkig niet mijn verantwoordelijkheid as CISO

Zou ik hopen want ik werk dagelijks met CoPilot and het kan enorme fouten / bugs genereren...

En ik wacht op de toekomst wanneer men de LLMs beginnen te vergiftigen, aka:

* Slechte LLM code dat opgenomen word in toekomstige modelen
* Staten / Hackers, dan code publiceren op Github enz om te laten opnemen in LLM modelen voor achterdeuren enz

Ik heb in al deze tijd nog nooit 1:1 CoPilot code overgenomen want er is altijd iets dat ofwel niet past in je code, dat een bug bevat, dat een race condition heeft, achterloopt op de actuele compile, of andere issues. Handig om snell code examples te krijgen van modules, zeker als hun documentatie achterloopt.

Maar wie puur gebruikt maakt van LLM code zonder een deftige programmeur erop te zetten, gaat dat later betalen door gestolen data of gans hun data encrypted door ransomware!
de ontwikkelingen verwacht ik dat ook dat grotendeels geautomatiseerd gaat worden komende jaren.
Ik zie een verlies in bepaalde jobs ...

* Taal checken is enorm handig met een LLM
* Herschrijven van text in meer pro (zeker als je taal 2de of 3de taal is, enorm handig)
* Snel images genereren voor avatars, default images, enz
* Documentatie aanmaken (wat je natuurlijk aanpast)

M.a.w, voor graphics artiesten, checkers, vertaling, daar zie ik best wel jobs sterven. Technisch ook bij Programmeurs, zeker de junior jobs... Als bedrijven zo dom zijn om seniors kwijt te spelen, dan betalen ze dat later.

Willen of niet, je hebt mensen nodig met ervaring voor om te gaan met LLMs. Mijn indruk is dat het vooral de meer junior jobs gaat opeten. Kan mis zijn natuurlijk ...
Met de huidige staat van AI ... nopes. Het vertalen van de noden van de klant. Ik heb nu al meermaals de oefening gemaakt een complex formulier laten genereren. Na een halve dag en maar opnieuw condities toevoegen en wijzigen was er nog niet veel klaar en was het verre van wat het moest zijn. Dit heb ik reeds meermaals getest, en daar komt echt niks bruikbaars uit. Kleine stukken triviale code ja en daar stopt het.

Wat de klant wenst vertalen is nog altijd waar het grote probleem ligt en dan dit omzetten naar iets dat 100% idiot proof is.
nou wil ik wel even toegeven dat veel developers ook heel de hele Node package repo leegtrekken voor een appje.
ja, belachelijk. Ik heb een blauwe maandag gestoeid met Vue. Meer dan 1500! packages stonden er in de dependencies.
Met Vue (en veel andere JS frameworks) heb je een hele hoop dependencies die ter ondersteuning aanwezig zijn in de ontwikkelingsfase. Als je een productie build genereert wordt het meeste er uit gefiltert, dus dat zou ter referentie moeten nemen.
Inderdaad, deze AI's kunnen hartstikke handig zijn voor het genereren van stukken code, maar dan wel ter ondersteuning van een daadwerkelijke programmeur. Het iets laten genereren en maar gewoon in productie nemen lijkt mij uiterst link.
Zelfs voor sitjes genereren bij Strato, het dient nog gewoon allemaal gecontroleerd te worden (dus alle code met de hand door een programmeur laten beoordelen), je kan en mag er gewoon niet vanuit gaan dat AI dat in 1x goed doet (ook al ziet het er ogenlijk goed uit, daar zijn deze AI's goed in, in hoe goed ze overkomen, niet hoe goed het daadwerkelijk is). Je zal maar, zonder te weten, een site genereren die je business schaadt of zelfs illegale dingen doet.
Het iets laten genereren en maar gewoon in productie nemen lijkt mij uiterst link.
Voor statische pagina's waar we het over hebben? Dan kan je weinig verkeerd doen.

Welke risico's zie jij daar dan?

[Reactie gewijzigd door watercoolertje op 22 juli 2024 19:06]

Weinig is niet hetzelfde als niks.
Dient alsnog gecontroleerd te worden. Het zou maar een lullig klein foutje zijn waar je gigantisch mee voor lul staat en het je business schaadt of zelfs strafbaar ben.
Uiteraard kan je met statische pagina's ook gewoon nog genoeg verkeerd doen.

Daarom dus: controleren.
Dat geld zo'n beetje voor alle AI gegenereerde content, groot en klein.
Ik haak toch niet in op je stukje over content-management? Maar over het stukje uit je vorige reactie over de code die gevaarlijk zou kunnen zijn (waar ik het niet mee eens ben).

[Reactie gewijzigd door watercoolertje op 22 juli 2024 19:06]

* Vergiften van LLMs kan betekenen dat je een statisch website genereert maar in de praktijk zit er JS ergens in. Als je niks kent van programmeren, voila, nu draai je lekker botssoftware bij klanten dat je website bezoeken.
* Stel dat je een statisch site maakt, wel, zoals Zoop aangeeft, je moet alles deftig controller. Leuk dat het een website maakt maar op pagina 3, staat een gegenereerd nummer van een concurrent, dat gebruikt werd voor de LLM te trainen.
* TOS dat automatisch aangemaakt word en als je niks kent van de voorwaarde, staat er onzin of andere toestanden.
* Linken dat niet goed staan
* Contact forms (ja, is statisch website!) dat verkeerde data bevatten

Statisch is niet altijd statisch, en kan heel wat issue bevatten. Ik zie gereld websites dat men aangemaakt heeft met een generatie programma. Restaurants enz, en waar je dan naar verkeerde paginas gestuurd word, of men maakt de site maar ze kunnen de boel niet deftig updaten, gevolg ... je verliest klanten want je website komt slecht over wegens fauten, of verkeerde menu's (oude vs nieuw).

Als we spreken over een single page, sure ... maar zodra het begint met meerdere patina's, menus, beetje js (wat een statisch website zit bomvol met JS deze dagen!). LLMs doen gewoon wat al die generators vroeger deden, gewoon met makkelijker input. Dat neemt niet weg dat de boel grondig kan foutlopen vanuit de LLM of de klanten later (gebrek aan kennis).
Een ander probleem met 'statische websites' is dat tegenwoordig voor van alles en nog wat aan resources worden binnengehaald van andere CDN's, bijvoorbeeld een webfont voor social media icon's of CSS voor fancy buttons en weet ik veel wat. Als je je hele website laat genereren door een AI en die voegt daar een dubieuze URL in dan weet je maar nooit wat er binnengehaald wordt. Denk aan een gevalletje polyfill.io om maar iets te noemen.
En waarom zou die code niet gevaarlijk kunnen zijn dan? Gevaarlijk in de context, schadelijk voor bedrijf / imago, of zelfs verder. Het hoeft bij wijze van spreke maar verkeerde cookies te zetten dat je in de knoei komt met GDPR/AVG, bijv. Hoe dan ook, punt blijft: controleer het.

Content management daar gelaten, maar ook dat gebeurd veel met AI (zo ook hier, tekst/afbeelding generator and ai seo).
Dat gaat natuurlijk net zover als dat je eigen kennis gaat. Als jij niet op de hoogte bent van een bepaalde bug in een framework dat je gebruikt dan kan je website, door gebruik van dat framework, zo lek zijn als een mandje. Daar doet het gebruik van een script generator AI niets aan. Wat je wel kan doen is om tools te gebruiken die voor jou CVE's etc checken en rapporteren. Dat staat echter los van het gebruik van een AI.

En los daar van, ik neem aan dat ook wanneer er code gemaakt is via script generators AI dat je alsnog gewoon reviews laat doen door collega's...
Tenzij het standaard functionaliteit is, zoals een blog, webshop, ...
Dat is nog steeds zo. Sterker: het wordt alleen maar erger.
Er bestaat geen gegenereerde optimale code, simpelweg omdat alle features -wel of niet gebruikt- op elkaar ingespeeld moeten zijn, om het uiteindelijk als feature in het geheel in te kunnen zetten. Daar krijg je ontzettend veel overhead van. En hoe meer een theme of template kan, hoe erger het wordt.
Voor het oog ziet een Wix/Elementor/Strato/Squarespace website er fantastisch uit, maar onderwater is het een grote dikke ondoordringbare sloot met tenenkrommende bagger, waar je uit moet blijven.

[Reactie gewijzigd door DeCo op 22 juli 2024 19:06]

Ik denk dat het eerder omgekeerd wordt. Je kunt op basis van gebruikers profielen die aangevuld zijn met data van buiten je eigen domein(en) om persoonlijke of groepsgebonden sites bouwen.

Neem Tweakers, DPG bouwt profielen op ondanks we dit niet willen via Tweakers maar ook via andere DPG websites en het zou me verbazen als het verzamelen van persoonlijke data daar eindigt. Ik ben zelf een 40'er, woon in het buitenland, man, zoals mij zijn er nog talloze, maar mijn intresses zijn niet hetzelfde als een 20'er jonge dame met misschien een beduidend hoger of lager opleidingsniveau. Ik kan me goed voorstellen dat op termijn het mogelijk wordt dat de landingpage aangepast wordt naar mijn smaak, hoe ik als oudere man makkelijker door pagina's browse, wellicht minder rommel misschien content geschreven op basis van mijn smaak terwijl een jongere dame misschien meer intresse heeft in content dat een beetje meer leeftijds-conform is.

Uiteraard komen daar nu nog schrijvers aan te pas, maar vergis je niet, DPG zit op zo'n gigantische berg data zowel persoonlijk maar ook content dat zij gek zouden zijn als ze niet al AI toepassen wellicht via A-B's om zo hun modellen sneller/slimmer te testen. Het zal voor hun ook een mooie toevoeging zijn om platform specifiek content te generen, zij het op hun eigen website, mobiel, Youtube, you name it allemaal met slimme LLMs, daar zullen nu nog mensen aan te pas komen voor een stukje finesse maar voor hoelang dat nog het geval is . . .

Dit is uiteindelijk de toekomst en dat is ergens best eng omdat we nu al bergen gemanipuleerde data zijn en dat zal enkel toenemen. We worden op korte termijn ondergesneeuwd met custom content, wat Strato hier doet is enkel het begin.

[Reactie gewijzigd door n4m3l355 op 22 juli 2024 19:06]

Gaat dus om content, niet om de code.
De meeste gebruikers die op strato zitten interesseren zich niet zoveel over de kwaliteit van code.
Ik wil zelf een nieuwe website en zit eigenlijk een beetje op zoiets te wachten. Via Claude opus ervaren hoe snel je via prompts elementen aanpast en zie dat wel als de toekomst. Via GitHub copilot kan je text selecteren die je bevraagt of aanpast ik zie het zelfs voor sites gebeuren. Je selecteert een knop/ component en beschrijft hoe die er uit moet gaan zien en wala.
Voila bedoel je? :)

Ik heb mijn twijfels over het genereren van plaatjes, dat is bij de meeste websites niet zo zinvol lijkt me (Welkom op mijn website 'Vogels in Nederland' met allemaal door AI gegenereerde, niet bestaande vogels!), alleen als vervanging van stock foto's of zo zou dat handig kunnen zijn, en ook dan moet je controleren dat ze niet teveel lijken op bestaande stock foto's (en je dus problemen daarmee kan krijgen).
Anoniem: 1872794 @Skyclad5 juli 2024 22:59
Stockfotografie lijkt mij inderdaad ook een goede plek om te starten, maar in mijn ervaring gebruiken veel websites dat juist wel, helemaal als je kijkt naar de doelgroep van dit product, right?
AI kan best een 'echte' vogel produceren hoor. Vraag om een koolmees die net landt op een tak bijvoorbeeld dan krijg je iets wat daar levensecht op lijkt. Of een meeuw die frietje van iemand steelt. Ik noem maar wat.
Dit is echt zo'n product waar niemand echt blij van wordt en dat is bedacht door het management. "Wij moeten ook iets met AI gaan doen." De doelgroep is waarschijnlijk de lokale kleine ondernemer die zelf wat aan het prutsen gaat, en daarvoor is het misschien afdoende. Maar die doelgroep is vaak ook wel bediend met een Facebook- of Instagram-pagina.

Professionals, zoals designers, die een no-code website builder willen gebruiken voor hun klanten, zullen eerder kiezen voor iets als framer.com of webflow.com, wat veel meer te bieden heeft.

En voor serieuzer werk wordt toch gekozen voor robuustere technieken en veel meer maatwerk.
Context: ik ben eigenaar van JouwWeb. Een Nederlands, bootstrapped bedrijf, dat meer dan 180.000 kleine startende ondernemers helpt eenvoudig hun eigen website te maken met een DIY website builder.

On topic: de sitebuilder van Strato is altijd erg waardeloos geweest. Deze liep mijlenver achter op de producten van b.v. Wix, Squarespace en ook JouwWeb. Ik ben dan ook zeer sceptisch dat dit product veel voorstelt. Goede kans dat het vooral een leuke PR stunt is (maar to be fair: nog niet zelf getest).

Merk op: er is wel degelijk veel innovatie gaande op sitebuilding met AI. De taalmodellen zijn namelijk best aardig in staat om een gebruiker te helpen zijn of haar website te maken. Een voorbeeld: wij gebruiken nu b.v. LLMs om startende gebruikers een eerste versie van hun website te geven. Deze kunnen ze gebruiken als startpunt. Hiermee werk je om het "Blank Canvas Paralysis" probleem heen, waarbij de gebruiker niet weet wat er op een website hoort. A/B tests die wij draaien laten ons zien dat dit de gebruikers ook echt helpt. En ook Wix en Shopify hebben best indrukwekkende manieren gevonden om dit toe te passen.

[Reactie gewijzigd door maurad3r op 22 juli 2024 19:06]

Dank zinvolle aanvulling, wellicht dat de prijzen van Strato concurreren, maar ik ben niet thuis op deze markt.
Ik ben een leek als het gaat om bouw websites en zoek dat dus altijd bij kennissen. Ik juich dit soort tools wel toe, want voor de gewone mens is een website online krijgen wellicht niet moeilijk, maar door de enorme hoeveelheid mogelijkheden ook wel een grote uitdaging.

Tijd is overigens ook een factor, alles is te leren van het internet, maar je moet er dan wel tijd voor hebben en dat willen investeren.
Joomla en Wordpress in een zin noemen lijkt me totale onzin. Joomla is echt zoveel meer alleen weet bijna niemand dat, helaas. Er is zoveel mee mogelijk maar je moet wel wat kunnen.
Strato is een totale ramp voor hosting. Ik zou het iedereen afraden. Al zoveel klantjes geholpen die daar in de problemen zijn geraakt. Drama bedrijf.
Volgende week weer offline omdat het te veel elementen van bestaande website overneemt?
Anoniem: 454358 5 juli 2024 09:36
Een ouderwetse statische pagina, op zich prima voor 90% van de bedrijven contact formuliertje erbij, klaar
Persoonlijk merk ik dat ik juist steeds minder op andere websites kom, komt allemaal uit Google, openingstijd oid?
Ik wil een website laten maken met een inlog voor gebruikers. Zou dat ook kunnen via sit pakket? Ik he. Geen flauw idee waar ik zou moeten beginnen.
WordPress is in principe zo ooit begonnen. Daardoor ook vrij makkelijk om een website te maken met een inlog voor gebruikers.
Password pretected directories gebruiken dan (.htaccess /..htpasswd) Kan met elke webhost ingesteld worden. Maar dat is vast niet wat je bedoeld, maar zo poept ai het er vervolgens wel uit.
Zo zijn er toch nog? https://www.simpelweb.be/
https://durable.co/ en anderen. Maak van beide gebruik, super handig, idd heel snel om wat live te brengen, en vele klanten hebben geen database backend nodig. Het opzetten en bijhouden van een wp voor een statische website is toch Overkill.
Snap niet dat alleen Strato hier genoemd wordt, Vimexx heeft de Website builder ook al enige tijd, zelfs gratis voor een simpele website. Heb er al een website/pagina mee gebouwd, precies wat 't moet doen.
Is dat dan op basis van AI?
Kun je voor kiezen. Naast een ruime keuze uit vaste sjablonen.

Op dit item kan niet meer gereageerd worden.