OpenAI test GitHub-toegang voor ChatGPT-agents in nieuwe bèta

OpenAI maakt het met een nieuwe bèta voor ChatGPT's deep research mogelijk voor AI-agents om direct in GitHub-repository's te zoeken. De functie wordt in eerste instantie onder Plus-, Pro- en Team-gebruikers getest en moet later voor de abonnementen Enterprise en Edu uitkomen.

ChatGPT's agent deep research werd in februari van 2025 uitgebracht en is bedoeld om diepgaand meerfasig onderzoek uit te voeren op basis van online en offline bronnen. Gebruikers kunnen in de nieuwe bèta voortaan GitHub-repository's als bron gebruiken om onderzoek op basis van specifieke code en bestanden uit te voeren, aldus OpenAI. Daarvoor moet de admin van de betreffende repo wel toestemming geven. GitHub zelf ondersteunt daarbij al langer ChatGPT via Copilot.

Door Yannick Spinner

Redacteur

09-05-2025 • 12:06

21

Reacties (21)

21
21
5
2
0
8
Wijzig sortering
En dat op dezelfde dag dat GitHub een normale gebruiker sneller rate limit als je niet ingelogd ben: https://github.blog/chang...unauthenticated-requests/

Volgens mij al sinds vorige week gezien ik toen al de rate limit bereikte toen ik door een GitHub repo aan het bladeren was.
Ah dat was het dus. Ik net zo, ik stond er al van te kijken omdat ik gewoon door wat sourcecode aan het bladeren was. Jemig wat lame.
Github heeft, net zoals veel andere publieke code repos, veel last van AI scrapers.
Misschien moet Github ook maar Anubis installeren ipv deze rate limiting.
Ze kunnen misschien beter even stoppen met nieuwe features en wat aan optimalisatie gaan doen, momenteel is in een beetje conversatie chatgpt echt niet vooruit te fikken en vaak trager als mijn lokale LLM.
...momenteel is in een beetje conversatie chatgpt echt niet vooruit te fikken en vaak trager als mijn lokale LLM.
Ik zie dat als een mooie kans om een goed lokaal model te kiezen voor je software ontwikkeling. ;)

Heb je hier wat aan?
https://github.com/elder-plinius/CL4R1T4S/tree/main/CURSOR

(of andere systeem-prompts in die repo)

[Reactie gewijzigd door djwice op 9 mei 2025 13:02]

Ik draai ollama al een tijdje voor lokale probeersels, maar ook bijvoorbeeld als copilot alternatief in combinatie met N8N. Eerder was het alleen zo dat voor random zaken ChatGPT sneller was, natuurlijk kan je dit ook gewoon lokaal doen, maar een gebrek aan een stapel 4090's maakt dat wat trager.

Voor de mensen die ook een beetje dezelfde interface willen als chatgpt is er openwebui.
Gaaf, waar zet je n8n.voor in, ben benieuwd naar de voorbeelden. Ik zag recent natuurlijk het voorbeeld van Jort Kelder bij Eva m.b.t. het ontwikkelen van een boek promotie.

Maar er kan natuurlijk veel meer. Welke hardware gebruik jij? De 4090 of geef je juist aan dat die mist? Of gebruik je meerdere video kaarten in een systeem om elk eigen llm's te draaien?
Draai je onder Linux of Windows? Compleet je llama.ccp specifiek voor je pc/video kaart architectuur of gebruik je de generieke zoals ollana.exe?
Thuis (mis)gebruik ik de 4090 in mijn gaming station, bij een klant heb ik een zelfbouw 19inch met 2* 4090.

Met N8N doen we dan bijvoorbeeld het inlezen van pdf files naar een vector database. Deze vector database wordt later weer aangeroepen door een zelf gemaakte front end die een LLM combineert met de info uit de vector database. Je krijgt dan dus antwoorden van de LLM die veel meer in lijn zijn met de interne policies/procedures ipv een generic antwoord wat je normaliter zou zien.

Meerdere GPU's kun je ook door 1 model laten uitnutten afhankelijk van het formaat van het model kan dit zelfs nodig zijn om de snelheid erin te houden. Heb je niet genoeg GPU ruimte dan gaat Ollama ram gebruiken, kan ook maar is niet zo snel als het hele model in VRAM.

edit kleine aanvulling

[Reactie gewijzigd door themadone op 9 mei 2025 13:59]

Gaaf hoor, leuk. Waarom bij de klant een consumenten GPU, zijn die voor llm sneller of was dit makkelijker verkrijgbaar?
goedkoper, en net zo prima als de DC gpu's. Zoals gezegd hebben we dit zelf gewoon in een 19" rack behuizing geschroefd met een net MB,CPU,RAM setje erin. Dit systeem is bedoeld als simpele vraagbaak, het is niet de bedoeling om complete eigen modellen te gaan trainen etc. Dus heel veel heb je daar niet voor nodig.
Is n8n enterprise ready? Ik neem aan dat je hem dan binnen de organisatie zelf host en de enterprise license hebt? Of is het meer voor PoC's?

Ik ben er ook sinds deze week mee bezig, benieuwd of het ook serieus bij bedrijven ingezet kan worden, of dat je toch naar andere oplossingen moet kijken?
Ik heb op dit moment nog de free version in POC draaien. En idd gewoon volledig self hosted in een docker container. Werkt tot nog toe best wel prima. De front end die we gebruiken is wel volledig self coded in Python, roept een webhook van N8N aan, en ook dat gaat tot nog toe foutloos.

Helpt ook dat deze klant een MKB is waar niet direct bloed loopt uit het feit dat de vraagbaak niet functioneert. Ik denk dat als ik dit bijvoorbeeld aan een klantgerichte website had moeten hangen ik nog steeds N8N had gebruikt voor het vullen van de vectordatabase, maar zeer waarschijnlijk stukje custom code voor het opvragen via de LLM.
Loop je dan niet tegen beperkingen op met community editie? Bv GIT integratie voor opslaan workflows etc? Ik dacht eerst dat je lokaal gewoon echt alle functions kon gebruiken, maar helaas heb je daar toch de enterprise licentie voor nodig.

Loop jij niet tegen zaken aan die je mist met de community editie?
nee, niet direct eigenlijk, de flows opslaan doe ik door ze eerst even te exporten. Ja is niet zo makkelijk als direct saven, maar op zich prima te doen en voor de schaal waarop ik bezig ben geen enkel issue.
Vraag me af hoeveel waarde je eruit kan halen als je de code zelf niet kan uitvoeren. Heel nuttig voor deep research als je vraag implementatie details over een programmeergebeuren betreft, maar dat doet het vaak zonder deel research al goed genoeg. Misschien dat anderen wel kunnen zien wat hier veel waard aan is?
Ik zie hier anders al veel use cases voor. Iemand die graag een bepaalde functionaliteit wil toevoegen, of iemand anders met weinig programmeerervaring die een UI wil maken voor een database. Deep Research stelt eerst vragen om de context beter te begrijpen en ik kan me voorstellen dat deze flow gebruikt wordt om juiste repo's te vinden voor de desbetreffende vraag.
Stel een wetenschappelijke paper heeft een bijbehorende code repo. Je wil een probleem laten oplossen en dat probleem kan worden opgelost door informatie uit meerdere papers op een bepaalde manier te combineren.

Wellicht dat er ook simulatie software of een model implementatie gemaakt kan worden door DeepResearch. Wellicht wel door de code uit andere repo's als lib te gebruiken, of een deel van die code te gebruiken en te wijzigen.

Er wordt geëxperimenteerd om AI's ook code omgevingen te geven, zodat ze de resultaten kunnen valideren. CoPilot schrijf al een tijdje Python code en voert die dan voor je uit om bepaalde bewerkingen te doen. Ook de betaalde versie van OpenAI heeft de beschikking over diverse software als API onder de motorkap, van andere AI modellen, Python scripts, tot aan conversie en bewerkings software.

Google heeft recent Canvas toegevoegd waarin gegenereerde code in een web sandbox omgeving draait, zodat jij het resultaat kunt testen en feedback kunt geven.
- vooralsnog lijkt het om simpele game apps te gaan op basis van een beperkte set standaard libraries.

[Reactie gewijzigd door djwice op 9 mei 2025 13:15]

Vraag me af hoeveel waarde je eruit kan halen als je de code zelf niet kan uitvoeren.
Gemini kan je gewoon in de webapp een hele code map uploaden. Vet handig, want je krijgt echt makkelijker goede oplossingen. ChatGpt kan met m'n vscode meekijken, maar raakt in de war als er meerdere Windows open staan, biedt dan aan hele bestanden te herschrijven, etc. Niet goed.

OpenAi moet veel meer integratie mogelijk maken, want ze zijn hard aan het verliezen van Google, die sowieso al veel data heeft en veel diensten waarmee ze kunnen integreren. Hun modellen zijn ook eens goed en snel met code. Als Microsoft serieus concurrerende modellen heeft kunnen ze vergelijkbaar goede diensten verzinnen. Alternatief: Via API access kan iedereen snel overschakelen naar andere modellen dus daar wordt iedereen gedwongen prijs kwaliteit scherp aan te bieden.
Google's modellen konden er eerst bij, ik heb er diverse analyses en rewrites mee gedaan, maar recent lijkt hij voor bepaalde modellen dicht gezet te zijn.
Wellicht door Microsoft om hun partner OpenAI markt voordeel te geven?

[Reactie gewijzigd door djwice op 9 mei 2025 13:00]

Op zich aardig. Voor programmeren mag ie sowieso wel wat vaker in de code kijken dan schatten wat iets is. Als ik classes, types, enums, interfaces definieer, dan mag ie daar gewoon naar kijken als ik hem vraag om tests te genereren waar ik deze dingen in gebruik. Helaas gaat dat nog te vaak fout.

[Reactie gewijzigd door Martinspire op 9 mei 2025 19:03]


Om te kunnen reageren moet je ingelogd zijn