OpenAI brengt ChatGPT Plus-update uit met pdf-ondersteuning

OpenAI heeft ChatGPT Plus naar het zich laat aanzien een update gegeven, waardoor het pdf's kan analyseren. Ook zitten alle tools nu ingebouwd, waardoor klanten niet meer hoeven te wisselen in de interface om een tool te gebruiken.

ChatGPT Plus update, eind oktober 2023
ChatGPT Plus-update, eind oktober 2023

OpenAI lijkt de update voor sommige gebruikers al live te hebben gezet. Niet alle klanten hebben toegang tot de nieuwe versie. Ook is er nog geen aankondiging op de site van OpenAI zelf. Met de update kan ChatGPT pdf's analyseren. Die kunnen klanten uploaden via de chatbox van de dienst.

Daarnaast is het mogelijk geworden om afbeeldingen die klanten uploaden aan te passen. Een klant laat in een demo zien dat ChatGPT Plus de prompt 'make an image like this dog but then running' begrijpt en op basis van de foto die de klant had geüpload Dall-E een afbeelding laat genereren. Dall-E 3 zit al sinds eerder deze maand in ChatGPT. De nieuwe functies vereisen het betaalde abonnement ChatGPT Plus.

Door Arnoud Wokke

Redacteur Tweakers

30-10-2023 • 07:17

70

Reacties (70)

70
70
24
4
0
41
Wijzig sortering
Leuk de nieuwe snufjes. Maar ze mogen GPT4 wel eens gaan versnellen. Mijn hemel wat is dat een partij traag zeg. Waar 3.5 een seconden of 10 doet voor bijvoorbeeld een scriptje, heeft GPT4 er met gemak een minuut voor nodig.

Om nog maar te zwijgen als je hem een document wilt laten controleren, of een document wilt laten genereren.

Als betalende gebruiker verwacht ik toch een stuk meer snelheid.

[Reactie gewijzigd door Luchtbakker op 23 juli 2024 05:07]

is dat niet een heel eenzijdige verwachting? Ik ben nog niet in de kleine lettertjes gaan zoeken, maar ook een AI heeft tijd nodig om die gigantische database en input met elkaar te matchen en een output te genereren. Ik zou liever een nauwkeuriger resultaat hebben dan dat het er sneller is.
Maar dat is ook slechter geworden imho. Ook het maar een antwoord “moeten” genereren valt me tegen.

Ik vroeg chatGPT over informatie over leidingen winterproof maken mbv thermolint (een stroomkabel die warmte afgeeft). Mijn woordenboek veranderde dat naar “thermoprinter” zonder dat ik het zag.

Ik kreeg een antwoord dat het een uiterste geschikte methode is om leidingen winterproof te maken met een thermoprinter. “Dit soort printers gebruiken warmte om te printen wat goed ingezet kan worden voor warmte toepassingen zoals het winterproof maken van waterleidingen, waardoor ze niet bevriezen”.

Nu is dit overduidelijk. Maar hoe vaak genereert het onzin terwijl de gebruiker het voor waarheid aan neemt??
Als je zegt dat het fout is geeft hij het ook altijd toe.
Als je zegt dat het fout is geeft hij het ook altijd toe.
Sterker nog, als je zegt dat het fout is (terwijl het wel klopt), geeft ChatGPT het óók toe. Dit is een tekortkoming die ik regelmatig tegenkom.

Er lijkt een tendens te zijn om een antwoord te moeten genereren, ook als de informatie wellicht niet (volledig) beschikbaar is. Vooral als de vragen zeer specifiek worden lijkt het alsof de pseudo-AI deze uit de kunstmatige mouw schudt.

Enkele voorbeelden:
Maar Jessica van de Allman Brothers Band wordt toch met piano gespeeld?
ChatGPT
Je hebt gelijk, mijn excuses voor de verwarring. "Jessica" van de Allman Brothers Band wordt meestal met een piano gespeeld, niet met een Hammond-orgel. Mijn excuses voor de onjuiste informatie.
En deze:
Is het Hildebrandslied wel Nederlands? Zover ik weet staat dat bekend als een hoogduitse tekst
ChatGPT
U heeft gelijk, en mijn excuses voor de verwarring. Het Hildebrandslied is inderdaad geen Nederlands, maar een Oudhoogduitse tekst. Het Hildebrandslied is een belangrijk voorbeeld van Oudhoogduitse literatuur en is geschreven in een Oudhoogduitse taalvariant. Het is een episch gedicht dat dateert uit de vroege middeleeuwen en behandelt onderwerpen als verraad en oorlog. Het is niet geschreven in het Oudnederlands, maar het is een belangrijk document voor de studie van de Oudhoogduitse taal en literatuur. Nogmaals excuses voor de verwarring en bedankt voor de correctie.


User
Hoe komt het dat je deze fout maakte?
ChatGPT
De fout in mijn vorige antwoord was te wijten aan onnauwkeurigheid in mijn respons. *knip
ChatGPT is niet Q&A, en het is ook geen data-toegang-platform. GPT is een Large Language Model (LLM), dat betekend dat het kan antwoorden op wat je vraagt. Er is nergens in een feature beschrijving van een LLM die aangeeft dat het je feiten kan geven.

LLM's zijn goed in het genereren van teksten op basis van input, en of iets feitelijk correct of foutief is doet er bij een LLM niet toe. Dat is niet het doel van een LLM.
Er is wel een manier om het model zich maar aan feiten te laten houden: Temperature.

Er is een schaal van 0 t.e.m. 1 in creativiteit, waar deze standaard op 0.7 staat. Waar "0" meer de traditionele aanpak en beproefde aanpak geeft, zal "1" een creatief antwoord zijn, en vaker zal je zaken zien zoals "AI Hallucination"

Hier een voorbeeld met code generatie: https://community.openai....f-prompt-responses/172683

Andere voorbeelden zijn wat filosofischer:
Here’s another example and way to use this:

temperature=0: Question: What is the meaning of life?
"The meaning of life is to find happiness and fulfillment."

Second time, with temperature=0.5:
"The meaning of life is to find one's purpose and make a positive impact on the world."

Third time, with temperature=1:
"The meaning of life is a mystery, it could be different for everyone, it's a journey of self-discovery and enlightenment."

please summarize: As you can see, each answer reflects a different perspective on the question and provides a unique perspective on the concept of the meaning of life. With temperature=0, the answer is more conservative and deterministic, providing a more traditional view on the subject. With temperature=0.5 the answer is more balanced, providing a more nuanced perspective. With temperature=1 the answer is more creative and diverse, providing a more open-minded view on the question
Link: https://www.reddit.com/r/...to_create_unique_content/

Net zoals veel modellen, moet je weten hoe je een goede prompt maakt.
Hoewel je natuurlijk gelijk hebt, is dit wel hoe men in het algemeen ChatGPT gebruikt.

90% (of zelfs meer) van de gebruikers is niet goed op de hoogte hoe een LLM onderwater precies werkt.
Anoniem: 302359 @Wasp30 oktober 2023 18:12
Hoewel je natuurlijk gelijk hebt, is dit wel hoe men in het algemeen ChatGPT gebruikt.

90% (of zelfs meer) van de gebruikers is niet goed op de hoogte hoe een LLM onderwater precies werkt.
Dat maakt het alsnog geen tekortkoming van het product wat zo wel vaak (zelfs hier op Tweakers)gesuggereerd wordt. Men moet hun eigen verwachtingen van het product bijstellen en voordat ze het gaan gebruiken eerst eens goed inlezen wat het nou eigenlijk is en hoe je er het beste gebruik van maakt.
Maar die verwarring kan je de eindgebruiker nu al niet meer aanrekenen.

Immers, de grote spelers hebben het nu al geïmplementeerd in een zoekmachine. En als je daar een vraag stelt is het wel degelijk het doel dat je antwoord krijgt op je vraag.

Ik snap helemaal wat je zegt. Maar de profilering die o.a. MS nu doet gaat al niet meer uit van de het doel van tekstgeneratie.
voor dit soort vragen zou ik ook eerder Bard gebruiken.
dit zijn allemaal googlebare vragen.
en Bard kan het internet afstruinen voor antwoorden.
Soms ook als het correct is en je zegt dat het fout is. Er is geen toegeven. Enkel een woordenspel genereren wat correct klinkt.
Ja... maar dat helpt niet en frustreert nog meer 8)7
En als je zegt dat het een goed idee is dan gaat hij verder. Dat is toch een beetje het punt net, dat het geen waarheid-machine is maar vaak een vlotte verzinner?
Maar dan moet je ten eerste wel weten dat het fout is en ten tweede heb ik gemerkt dat ChatGPT dezelfde fout blijft maken met dezelfde zoekopdracht op een ander account.
Ook als het antwoord goed is geeft hij dat vaak aan.
Echt?

Ik gebruik meestal Bing.
Die geeft practisch nooit fouten toe, zelfs al is het nog zo duidelijk.
Nu is dit overduidelijk. Maar hoe vaak genereert het onzin terwijl de gebruiker het voor waarheid aan neemt??
Behoorlijk vaak, dat is en blijft het gevaar van deze tools. Ze zijn zo zelfverzekerd in alles wat ze zeggen
Ben je zeker? Ik heb het getest en ik krijg een antwoord dat je een thermorprinter kan gebruiken om te voorkomen dat leidingen bevriezen. Maar het hele uitleg gaat over de inzetbaarheid van de etiketten en wat daar op moet staan wat isolatieinstructie betreft.

Als je GPT opstart krijg je de melding dat in de informatie niet kan kloppen.Je bent dus gewaarschuwd. Omdat nu te klagen... Niet alles wat je via een Google search leest is de waarheid, niet alles wat iemand tegen je zegt is de waarheid en socialmedia zit vol bots die zoveel mogelijk fake news verspreiden. Ja GPT maakt fouten maar 100x minder dan we gewoon zijn van alle andere bronnen.

Als je meer zekerheden wil inbouwen kan je gebruikmaken van de 'bing search' functie, dan zal GPT bronnen geven en dan kan je die bronnen nagaan op kwaliteit.
Nu is dit overduidelijk. Maar hoe vaak genereert het onzin terwijl de gebruiker het voor waarheid aan neemt??
Denk je dat je zelf al op het verkeerde been gezet bent door GPT? Geld verloren of een professionele fout je in onzin intrapte? Misschien is het net goed dat alles informatie die je leest en belangrijk is om een keuze te maken een fact check nodig heeft. Volgens mij valt dat probleem best wel mee zolang je kritisch blijft. Ik heb het nog nooit meegemaakt dat GPT4 een flagrante subtiele fout maakte. Als ik twijfel kijk ik het na. Meestal klopt het gewoon.

[Reactie gewijzigd door Coolstart op 23 juli 2024 05:07]

Dat is dus het welbekende gevaar, ChatGPT zet alles neer al ware het een absoluut. Volledig geloven in een eigen uitleg is gevaarlijk.
Dat geldt ook voor een hoop personen op dit forum
En dat is het he? Een persoon kan zichzelf nog toetsen, in twijfel vallen of zichzelf bijsturen. Open staan voor andere mening, uiting of inzicht.

Een LLM is het samenvatten van input, de som daarvan is een absoluut. Maar niet een noodzakelijk kloppend absoluut.
En was dat met GTP3 of 4? Ik heb wel het idee dat 4 wat beter gaat…
Ligt vaak ook sterk hoe je prompt.
Als je hem vraagt, geef mijn een essay waarom Trump de beste president is, doet hij precies dat. Vraag je erna om een essay waarom hij de slechtste is, dan ook, elk zonder (merkbare) bias. Hij geeft waar je om vraagt. Dus als je hem vraagt hoe gebruik ik X om Y te bereiken, is dat vaak een regelrecht lulverhaal.

Het is dan ook geen zoekmachine of waarzegger, en je zou hem ook niet als dusdanig moeten gebruiken. Als je dat toch doet, wees dan specifiek in je prompting dat hij dit dient op te zoeken dmv een zoekmachine (die koppelingen heeft hij), en niet alleen een leuk verhaal schrijft.

Want dat is basically hoe de meeste mensen hem prompten "schrijf iets over X" en "iets" is dan ook precies wat je dan krijgt.
Als hij antwoord geeft dan is het het corrigeren en te testen. Jij traint chatgtp dat het een fout antwoord is.

Als ik dat vergelijk met google bard die bij 9 van de 10 vragen die ik stel "sorry ik ben een ..." , antwoord geeft dat in feite aangeeft dat hij niet een betrouwbaar antwoord kan geven, dan is een beta product dat wat halicuneert toch handiger.
ChatGPT moet ook niet als kennisbron gebruikt worden voor zaken waar je geen verstand van hebt.

Het is een LLM, geen kennisbank.

Als je niet in staat bent om het antwoord te kunnen beoordelen op waarheid is ChatGPT simpelweg niet de tool die je moet gebruiken.
De fout die je maakt is dat je denkt dat je betrouwbare info eruit kan krijgen. Dat krijg je niet.

Je kan ChatGPT inzetten om dingen te genereren, niet om informatie te geven. Het is ook niets anders dan een veredelde wereld woordengenerator, het heeft geen kennis of context.

Ik zag laatst een collega informatie over Azure opzoeken met ChatGPT, and i lost my ^%*#. Half uur verspilt aan iemand die claimt dat die het volgens documentatie heeft gedaan maar eigenlijk deed wat ChatGPT zei dat die moest doen. En ChatGPT zat er gewoon naast (op een klein minuscuul nuance dingetje wat je een woordengenerator niet kwalijk kan nemen).
Maar dat is ook slechter geworden imho. Ook het maar een antwoord “moeten” genereren valt me tegen.

Ik vroeg chatGPT over informatie over leidingen winterproof maken mbv thermolint (een stroomkabel die warmte afgeeft). Mijn woordenboek veranderde dat naar “thermoprinter” zonder dat ik het zag.

Ik kreeg een antwoord dat het een uiterste geschikte methode is om leidingen winterproof te maken met een thermoprinter. “Dit soort printers gebruiken warmte om te printen wat goed ingezet kan worden voor warmte toepassingen zoals het winterproof maken van waterleidingen, waardoor ze niet bevriezen”.
En je vroeg het aan nederlandstalige ChatGPT?
Eens, ik ervaar wel dat er een ontzettend groot verschil zit tussen playground en chat.openai. Playground genereert imo betere antwoorden/reacties.
Ik zou liever een nauwkeuriger resultaat hebben dan dat het er sneller is.
Ook Dat is niet echt iets om over naar huis te schrijven. Je moet vaak meermaals herhalen wat je wilt, want het bedenkt vaak gewoon zaken waar je bij staat. Pas na 2-3 keer opnieuw vragen en hem wijzen op fouten die hij maakt lost hij het op.

Maar ook zoals gisteren, iets enorm simpels, vroeg ik hem 40 CSV regels te vertalen. Je levert het keurig in.txt aan en zegt dat je alles achter de comma moet vertalen. Vervolgens vertaalt hij alles, en maar 10 zinnen en vraagt hij of het goed is om verder te gaan.

1. Het vertaalt alles, en niet alleen alles achter de comma
2. Als je zegt dat hij mag doorgaan doet hij enkel een export en de overige 30 velden slaat hij over.

GPT3.5 doet dit een heel stuk beter en hoef je amper tot nooit te corrigeren.

[Reactie gewijzigd door Luchtbakker op 23 juli 2024 05:07]

Maar dan blijf je toch op 3.5 als je vind dat deze het beter doet? Op dit moment heb je de keuze en die staat vrij. Als ik twee colelga’s heb die dit voor me kunnen oppakken kies ik ook de meest geschikte.

Gpt4 kan een hoop beter, maar misschien niet alles… of op z’n minst niet wat jij verwacht/wilt
Bij versie 3.5 kan je niet die andere functies gebruiken zoals

Browse with Bing
Advanced Data Analysis
Plugins
DALL-E 3
Zijn er ook nog steeds limieten voor betalende gebruikers? Toen ik daar achter kwam hem ik mn subscription direct weer stopgezet.

25 instructies per 3 uur was het geloof ik. Belachelijk weinig, als je even 'chat' over kleine details of aanpassingen ga je zo 5x in een minuut heb een weer.
Nee, de limieten zijn er niet meer.
Jawel die limiet is er nog steeds, al is het nu 50 berichten per 3 uur.
Wat best wel veel is als je daadwerkelijk interessante vragen stelt en daar nog wat mee wil doen ook. Je hoeft ook niet alles te vragen. Anders kan je altijd nog je vraag uitgebreider maken.
Ligt er net aan hoe druk het is, de gratis versie is soms ook rete snel.
Het analyseren gaat heel erg snel, maar de output is inderdaad traag. Het is wel mijn ervaring dat GPT4 soms vrij snel kan zijn. Ik vermoed daarom dat de snelheid ook afhangt van het aantal actieve gebruikers op een bepaald moment.
Ik gebruik ChatGPT dagelijks en ervaar geen enkel probleem en gaat ook snel. Ligt het niet aan je internet verbinding oid?
Ik gebruik ChatGPT dagelijks en ervaar geen enkel probleem en gaat ook snel. Ligt het niet aan je internet verbinding oid?
GPT 3.5 of GPT4? Met 3.5 ervaar ik namelijk ook geen issues.
GPT4, ik heb ook een abbo.

Wel zie ik dat de tekst wordt opgebouwd, maar dat ervaar ik niet als traag. Als je een prompt geeft, kunnen we vergelijken. Dan neem ik de tijd op.
Ik heb gemerkt dat het ligt aan de chathistorie. Als die bij mij vol zit met hele lappen tekst en discussie, dan vertraagt dat de responstijd aanzienlijk. Ik heb de vrees dat de hele historie meegaat met mijn laatste chatbericht, en dat er daarna veel meer tekst geparsed moet worden voor het antwoord. Als ik dezelfde prompt in een nieuw venster stel, krijg ik direct antwoord, maar dan weer minder goed qua terugvallen op historie en eerdere antwoorden.
Dat is niet mijn ervaring. Ik zie wel het vertragen, maar ik zie soms ook een vertraging bij het eerste bericht. En tegenwoordig soms ook in het midden van het antwoord; het wordt duidelijk real-time gegenereerd.
Hah, ja, da's een goede. Een tekstinterface die last heeft van de snelheid van de internet verbinding.
GPT 3.5 een seconde of 10? GPT 4 een minuut? Bij mij zijn beide gewoon instant (letterlijk nu net getest tijdens het typen van deze reply, nog niet eens 1 seconde voor GPT 4).
Ach, ik betaal er ook voor en als die traag is dan haal ik koffie of check Tweakers even snel. ChatGPT is vele malen sneller dan het zelf doen en ik heb er geen problemen mee als ik 1 minuut moet wachten tot die klaar is.

Vergeet niet dat niet alleen jij deze tool gebruikt.
OpenAI tilt de ChatGPT-ervaring naar een hoger niveau met een verbazingwekkende update voor ChatGPT Plus: nu met de mogelijkheid om pdf's te analyseren en afbeeldingen aan te passen binnen de chatinterface. Een grensverleggende stap vooruit in conversational AI!

[Reactie gewijzigd door Adam s op 23 juli 2024 05:07]

Heb het net in gpt4 geprobeerd maar God wat werkt het slecht, zelfs als ik gpt op zn fouten wijs en vraag om revisies.

Missende letters, zelfs als ik zeg hey er mist een u en een r, please revise to include those, blijven ze missen, handen met 3 vingers, etcetera.

Echt heel slecht, zal nog even duren voordat dit echt nuttig is.
Dat is intentioneel omdat ze schrik hebben voor copyright namen. Je zal bijna nooit een text krijgen die correct is.

Het toevoegen van PDF en uploads is zeker een welkome toevoeging. Heb al verschillende keren plug-ins gebruikt om documenten te laten analyseren. Voor mij is ChatGPT een onmisbare tool die ik dagelijks gebruik.
Dat is intentioneel omdat ze schrik hebben voor copyright namen. Je zal bijna nooit een text krijgen die correct is.
[...]
Tekst is gewoon heel moeilijk voor dat soort modellen.

Om het wat te verduidelijken. Het is allemaal statistiek, maar waar een model zoals gpt nog prior informatie meekrijgt over de tekst ervoor en dus nog enigszins logische vervolg kiest, heeft een model als stable diffusion dat niet (op die manier). De kans is daar dus ook vele ordergroottes minder dat je een correcte tekst krijgt als output. Nog even los van alle andere randzaken.

[Reactie gewijzigd door Caelorum op 23 juli 2024 05:07]

Heb je het nu over afbeeldingen genereren? Want dat is niet ChatGPT...
Zie laatste alinea van het bericht daar reageer ik op.
Ah heb ik gemist... Is nog steeds niet echt ChatGPT maar blijkbaar heeft hun marketing team besloten alles onder die noemer te gooien
Paar keer voor de lol GPT3 geprobeerd maar dat is snel kwa reactie; type snelheid wat je ziet. Zie zelf niet 1,2 3 waarom ik het nodig heb, paar gevraagd hoe laat het was, en was redelijk accuraat. :P

Ook een keer, week geleden, een SwiftUI Table view combi UIKit stukje code gevraagd maar resultaat was niet iets om te gebruiken; herkende zelf de Table view niet; verwees iedere keer naar List. GPT3 zou informatie gebruiken tot 2020 begreep ik.

Hoe zit dat met GPT4? Kan dat de laatste versie van Swift 5.x gebruiken?
Zouden ze ooit 3 gaan opfrissen kwa info?
Huh, hij kon al PDF's analyseren met de Advanced Data Analysis optie hoor. Dat heette in het begin overigens Code Interpretor (en is paar maanden geleden van naam gewijzigd) en toen kon je al PDF's analyseren (net als .docx, excel, zips etc).

Ze hebben gewoon de verschillende opties nu samengevoegd waardoor je niet per se handmatig een versie hoeft te kiezen (kan nog wel) en als het goed is de versies dus ook door elkaar kan gebruiken in dezelfde chat (killer feature!). Voorheen kon je via de default versie afbeeldingen analyseren en via Advanced Data Analysis overige documenten. Nu alles in 1 chat kan, hebben ze het gewoon onder 1 kopje zo genoemd. Analyseren van PDF bestanden is dus niet nieuw.
Is er eigenlijk al het grote chatGPT topic op tweakers?
Nee, go for it! Tag me en ik help wel met de TS. Tip: noem het ‘Het praktische ChatGPT tips, tricks en nuttige ervaringen topic’ om de hele filosofische discussie en redenen om het NIET te willen gebruiken of waarom het allemaal zo slecht is in de kiem te smoren.
Het was meer een vraag hoor. Ben niet zo'n ster in hele verhalen typen t.b.v een topicstart :o

[Reactie gewijzigd door C6DL op 23 juli 2024 05:07]

Oké, dan doe ik het wel! Ik ben toch de hele dag met ChatGPT, BingChat, en Claude2 bezig

[Reactie gewijzigd door Weicool op 23 juli 2024 05:07]

Waarom gebruik je chatGPT niet om een topic start te schrijven ? :+
Hier is de topic start, gemaakt met hulp van ChatGPT: forumtopic: De ChatGPT Gids: Deel je Tips, Tricks en Epische Momenten in de typische ChatGPT dynamische schrijfstijl.

[Reactie gewijzigd door Weicool op 23 juli 2024 05:07]

Never mind.

[Reactie gewijzigd door Ayazis op 23 juli 2024 05:07]

Ik zou het echt fijn vinden als Tweakers het data topic iets serieuzer neemt. Ik bedoel je hoeft tegenwoordig niet in security te werken om te maken te hebben met management die zich al zorgen maakt over "wat gebeurt er met ons PDF als medewerker X iets uploadt".

Zou tof zijn als er een zin of twee besteed wordt aan data zelf als het gaat om features zoals deze. Iets meer info wat er gebeurt met je PDF na de upload. Zou ook een unique selling point kunnen worden van Tweakers en de "go to" site voor nieuws + je bespaart gelijk tijd aan research wat betreft het GPDR debacle.

Samenvattend, altijd veel tijd bespaard dankzij Tweakers ivm nieuws, info en discussies onder artikelen, maar zit vaak de laatste tijd toch zelf een uurtje te onderzoeken wat er nieuw is wat betreft data handling etc..
Is dit echt nog wel een artikel waard, of is het gewoon een update, die met de andere updates samengevat gerapporteerd kunnen worden?
Ik snap dat AI op dit moment een hype is, maar PDF ondersteuning klinkt mij nou niet echt als bijzonder.
Is best wel een belangrijke update, het is de volgende stap naar een unified AI die alles kan afhandelen met geluid, beeld en tekst.
Ik spreek voor mijn persoonlijke situatie maar als dit naar behoren werkt zou het ons (kleine) bedrijf duizenden tot tienduizenden euros per jaar kunnen besparen aan manuele taken die dan geautomatiseerd kunnen worden. PDF is gewoon een k*t formaat om automatisch te parsen, al zeker als die files van verschillende bronnen zonder consistente layout komen.
Als de opmaak full text PDF is, is het parsen redelijk eenvoudig, is dat niet het geval zullen ze met OCR geïndexeerd moeten worden, geautomatiseerde declaratie software kan dat al jaren.
Enige probleem wat ik met dat indexeren zelf ben tegengekomen is de layout die overal anders is, vooral de datum notatie. Is 22/1/23 nu 22 januari 2023, of 23 januari 2022?
Ja puur de tekst eruit halen is redelijk makkelijk (als je verkeerd gecodeerde characters, verkeerde word/zin splits, geen superscript detectie enz negeert). De document structuur is extreem complex. Waar zitten de headers? Wat is de reading order? Enz...
ik vraag me af hoeveel functionaliteit er nog bepaald wordt door de mensen die er werken en wat er door de AI gegenereerde aanbevelingen zijn. De bron kan van beide nog het klantengedrag of feedback zijn, maar ik gok dat het punt waarop die rol verschuift toch dichtbij begint te komen, als we dat al niet zijn gepasseerd.
Anoniem: 217290 30 oktober 2023 14:05
ah nu snap ik waarom sinds dit weekend chatgpt niet meer vooruit te branden is pff.... dacht dat het aan mij lag.. als ze nu eerst eens zorgen dat betalende klanten die met chatgpt4 werken ook beetje fatsoenlijke snelheid krijgen dan zou dat al heel veel schelen... een stukje tekst van 20 regels duurt gewoon minuten sinds dit weekend...

Op dit item kan niet meer gereageerd worden.