GitHub brengt preview AI-tool Spark uit voor hulp bij bouwen webapps

GitHub brengt een preview van zijn eigen AI-tool Spark uit. Ontwikkelaars kunnen de tool gebruiken om simpele webapps op basis van prompts te generen. Gebruikers kunnen de code eventueel zelf aanpassen of door middel van prompts laten aanpassen.

Spark is volgens GitHub bedoeld voor ontwikkelaars die een 'microapp' willen genereren. Dit zijn applicaties met een relatief lage functiecomplexiteit. Het codeplatform stelt dat zowel beginnende ontwikkelaars als ervaren programmeurs van de tool gebruik moeten kunnen maken; gebruikers kunnen zelf kiezen in hoeverre ze code aanpassen of laten aanpassen.

Zogenoemde sparks worden direct in de 'managed runtime environment' van GitHub gehost; de tool moet volgens het platform niet alleen code genereren, maar direct het resultaat kunnen tonen. Spark werkt op desktop, tablet en smartphones. Het is niet duidelijk wanneer de releaseversie van Spark beschikbaar komt.

In het verlengde daarvan kunnen gebruikers van GitHub Copilot voortaan meer opties kiezen wat het onderliggende AI-model betreft. Het platform biedt sinds deze zomer de optie aan om verschillende modellen te kiezen, maar dat kon nog niet direct binnen Copilot Chat in Visual Studio Code. Gebruikers hebben vanaf ergens in de komende weken de keuze uit Anthropics Claude 3.5 Sonnet, Googles Gemini 1.5 Pro en OpenAI’s GPT-4o, o1-preview en o1-mini.

GitHub microappGitHub microappGitHub microapp

Door Yannick Spinner

Redacteur

29-10-2024 • 17:58

17

Reacties (17)

17
17
6
0
0
6
Wijzig sortering
Als embedded developer heb ik zo nu en dan chatGPT gebruikt, maar toch is die categorie aan programmeren nog een beetje moeilijk omdat het allemaal zo context afhankelijk is. Voor websites is het al best geschikt zolang je het simpel houdt, bij complexere websites kun je hem meestal gelukkig nog wel genoeg context meegeven om problemen op te lossen, maar ga maar eens iets maken voor een CEC1736 oid, dat is high level hetzelfde als alle andere microchips, maar low level komt er altijd zoveel onzin bij kijken, en ChatGPT de hele manual geven maakt ook niet teveel uit want het kan nog niet zo goed dingen halen uit 300+ paginas aan semi zinnige info die voor ieder project maar 2% relevante info bevat, maar wel een andere 2% voor ieder project.

Hoop toch dat het uiteindelijk tot dat niveau kan komen! alhoewel de meerwaarde van de programmeur dan wel wat minder zal zijn.

[Reactie gewijzigd door sdziscool op 29 oktober 2024 19:23]

ChatGPT, co-pilot of de andere smaken zijn handig om je op weg te helpen maar daar blijft het ook bij. Ik heb toevallig afgelopen weekend iets in elkaar gezet met chatgpt maar elke keer als ik een wijziging aangaf dan was er ineens weer functionaliteit weg die ik nodig had en helemaal niet om gevraagd had om weg te halen.... weer wat prompts later was iets wat werkte ineens kapot. Ook gevraagd om iets op te lossen maar daar kwam elke keer iets niet werkend uit... dus toen maar de documentatie van hetgene wat ik nodig had gelezen en het zef in 10 minuten opgelost.

Eind van het verhaal... zeker heel makkelijk om een begin te maken aan een project maar als het wat ingewikkelder komt dan komen al die LLM nog heel veel kennis en inzicht tekort. Een ander nadeel is dat ze gewoon getraind zijn met data die al weer verouderd is en dus ook met oplossing aankomen die in nieuwere versie bijvoorbeeld niet meer kunnen of heel anders opgelost moeten worden.

Dus bang zijn dat AI een job van een ontwikkelaar gaat vervangen..... nou voorlopig echt nog helemaal niet.
Wel goed om aan te geven dat je het niet hebt over github Copilot. Niet dat het perfect is maar dat is toch echt een ander soort ervaring met auto complete
Mogelijk gebrek aan output tokens? Stel je maakt een verslag van 2 pagina's en zegt: "voeg hieraan 3 alinea's toe", dan kan het dus zijn dat hij, maar een klein deel uitspuugt van de totale context omdat hij anders over zijn limiet gaat. Wat ik meestal doe is dat ik dan in de prompt mee geef dat hij een soort 'stop zinnetje' heeft waarna ik antwoord: "ga door met antwoord geven", zodat hij verder gaat met rest en dus niet met een verkorte versie terug komt.

[Reactie gewijzigd door Puddi Puddin op 29 oktober 2024 19:14]

Wat ik soms doe buiten werk voor persoonlijke projecten is een hele stuk code + de error die ik ervaar meegeven.
Zelfs al lost hij hem niet direct op, ChatGPT is een wonderbaarlijk goede "rubber duck", het komt met mogelijke problemen en geeft wat richtingen aan en dat is soms zo handig.
Ook voor simpele dingen waarvan ik weet dat het algemeen bekende info is (bijvoorbeeld pathing algoritmes bijvoorbeeld), vraag ik gewoon om een simpele implementatie binnen in de context die ik geef en dat werkt meestal na poging 3 ;P
Precies dus als werken met een mediocre geoutsourcede developer ;)
"Inzicht" vragen van een LLM is toch echt op dit moment een nog heel erg menselijke factor. Inzicht vraagt een bepaalde creativiteit en ervaring om tot een mogelijke oplossing te komen.
Als je dat handboek aan notebooklm.googlr geeft?
En wellicht ook die van de programmeertaal en die van je andere vereisten?

Kan die er dan iets mee?

Die kan tot 50 documenten in 1x mee nemen in de context.

[Reactie gewijzigd door djwice op 29 oktober 2024 20:54]

GitHub Copilot vond ik eerder, misschien dat het ondertussen beter is, handig voor een opzetje van een klein goed gedefineerd stukje code (een beginnetje). Je moest er altijd nog veel aan sleutelen. ChatGPT werkt goed voor vragen, al blijft StackOverflow een favoriet.

Sinds kort ben ik aan de slag met Cursor, een fork van Visual Code maar dan met AI features. De chat heeft de context van je project, specifieke file(s) of geselecteerde code. Die context, die is echt goed. Je kan ook prompts in de instellingen gooien met je voorkeuren.

Nog steeds kritisch kijken naar de resultaten natuurlijk, maar de resultaten zijn veel bruikbaarder en makkelijker bij te sturen. Ook zijn alle resultaten als een diff gelijk in je code toe te passen zodat je volledige controle houdt.

Echt een aanrader om eens mee te spelen.
Als je documentatie kan vinden die de juiste context meelevert hoeft het volgens mij niet zo complex te zijn. Maar voor mij als externe leek voelt het een beetje als een nogal gesloten markt vol met experts die het zelf wel uitzoeken :p
Zou je tien jaar van nu nog bet zelfde zeggen? Ik durf wedden van niet. Dan klaag je steen en been dat je alles nog zelf moet uitzoeken. Al is het maar dat AI betere documentatie schrijft voor wie het zelf nog wil doen als hobby.
Al is het maar dat AI betere documentatie schrijft voor wie het zelf nog wil doen als hobby.
Of om het nog een beetje concreter te maken: LLM's schrijven de documentatie die je exact op een specifiek moment nodig hebt.

* Stukfruit is er heel blij mee dat hij niet meer steeds complete documentatie hoeft te doorzoeken met onlogische navigatie of trage zoekfuncties die wel "hello world" maar niet "hello wold" begrijpen...
GitHub eet je hobby projecten.
Hmm een paar weken geleden kwam Stackblitz met hun eigen tool https://bolt.new/ ik denk niet dat dit een rechtstreekse concurrent is, maar toch. Beiden leuk om in de gaten te houden, zeker om te prototypen.
Leuk concept, het wordt meteen in stackblitz gepushed. Dit kan wel handig zijn!

[Reactie gewijzigd door jinks26 op 30 oktober 2024 10:59]

OutSystems heeft de EAP van Mentor beschikbaar gemaakt. De demo zag er uiterst interessant uit waarbij GenAI de volledige SDLC ondersteund. Dit is, vanwege de focus van OutSystems, ook geschikt voor complexere applicaties.
Heeft iemand dit gebruikt? Wat zijn de ervaringen?

Op dit item kan niet meer gereageerd worden.