OpenAI maakt ChatGPT Plus-abonnement beschikbaar in Nederland en België

Het betaalde abonnement voor ChatGPT is sinds vrijdag ook beschikbaar in Nederland en België. Dat blijkt uit screenshots van meerdere gebruikers. Ook uit eigen observatie blijkt dat het nu mogelijk is om te upgraden naar ChatGPT Plus.

ChatGPT Plus Nederland
Screenshot van tweaker IMarks

Op de pagina van ChatGPT is nu links het kopje 'Upgrade to Plus' te vinden. Het abonnement voor de Plus-dienst kost in Nederland en België 24,20 dollar per maand, omgerekend 22,61 euro, vanwege de 21 procent btw die bovenop de 20 dollar wordt berekend. De enige betaalmethode is via een creditcard. In onder meer Duitsland en Frankrijk is de abonnementendienst op dezelfde dag beschikbaar gemaakt. Een volledige lijst landen waar de dienst nu beschikbaar is, is niet gegeven.

ChatGPT Plus werd begin deze maand geïntroduceerd in de Verenigde Staten. Het biedt onder meer snellere responstijden, vervroegd toegang tot nieuwe features en algemeen toegang tot de chatbot, ook op drukke momenten. OpenAI zegt ook bezig te zijn met verschillende andere abonnementen rondom ChatGPT.

ChatGPT Plus Nederland

Door Kevin Krikhaar

Redacteur

12-02-2023 • 09:48

249

Submitter: IMarks

Lees meer

Reacties (249)

249
245
121
8
0
97
Wijzig sortering
Ik heb het een paar keer geprobeerd en kreeg allemaal foute antwoorden. Bijvoorbeeld Hoe hoog is de Mont Bouquet. Die was volgens OpenAi meer dan 1000 meter. In werkelijkheid is die 629 meter. Andere vraag Vertel me meer over de Himalaya. Antwoord was het is een berg. Voorlopig maar weer aan de kant geschoven.
Probeer https://www.perplexity.ai/ eens. Krijg je meteen de bronnen erbij. Veel betrouwbaarder dan ChatGPT.
beter maar niet echt ....

vraag maar eens hoe groot denemarken is.
( ruim 2 mln km2, vanwege Groenland. )

dat kan je m dus niet aan het "verstand" peuteren. dat komt omdat er geen verstand achter zit...

soooo how big is greenland and denmark together ?? geeft het goede antwoord....

maar de connectie maken dat denemarken dus het grootste land van europa is...
nee... dat lukt niet..
Wellicht heeft dat iets te maken met dat het ook niet zo is. Groenland is geen deel van Europa. En bij "Denemarken" moet je onderscheid maken tussen het landsdeel Denemarken en het koninkrijk. Ik ben benieuwd wat 'ie zegt als je vraagt hoe groot het Koninkrijk Denemarken is.

Edit: grappig dat na mij nog drie mensen het nodig vinden om exact hetzelfde te melden.

[Reactie gewijzigd door Henkieschmenkie op 22 juli 2024 14:12]

"Hoe groot is het Koninkrijk Denemarken?"

"Het Koninkrijk Denemarken heeft een totale oppervlakte van 43.094 vierkante kilometer. Het omvat het vasteland van Denemarken en een aantal eilanden, waaronder Seeland, Funen en Bornholm, alsmede andere kleinere eilanden."

"Is Groenland deel van Denemarken?"

"Ja, Groenland is onderdeel van het Koninkrijk Denemarken. Het is een autonome deelstaat binnen het koninkrijk en heeft een zekere mate van zelfbestuur, hoewel het nog steeds onder het Koninkrijk valt en de Deense koning als staatshoofd heeft. Groenland is het grootste eiland ter wereld en bedekt een oppervlakte van ongeveer 2.166.086 vierkante kilometer."

"Waarom tel je Groenland niet mee in het oppervlak van het Koninkrijk Denemarken?"

"Ik verontschuldig me voor het verwarrende antwoord. Je hebt gelijk, Groenland is onderdeel van het Koninkrijk Denemarken en wordt daarom ook meegeteld in de totale oppervlakte van het koninkrijk. Het totale oppervlak van het Koninkrijk Denemarken, inclusief Groenland, is ongeveer 2.166.086 vierkante kilometer."

"Hoe groot is het Koninkrijk Denemarken?"

"Het Koninkrijk Denemarken heeft een totale oppervlakte van 43.094 km², inclusief het vasteland van Denemarken en de eilanden in de Oostzee en de Noordzee."

"Nu vergeet je alweer Groenland mee te tellen."

"Sorry, dat klopt. Het Koninkrijk Denemarken, inclusief Groenland, heeft een totale oppervlakte van ongeveer 2.166.086 km²."

"Hoe groot is het Koninkrijk Denemarken?"

"Het Koninkrijk Denemarken bestaat uit twee delen: het vasteland van Denemarken en het eiland Groenland. Het vasteland van Denemarken heeft een oppervlakte van ongeveer 43.094 km², terwijl Groenland een oppervlakte heeft van ongeveer 2.166.086 km². Dus in totaal heeft het Koninkrijk Denemarken een oppervlakte van ongeveer 2.209.180 km²."

Moest het een paar keer vragen voordat hij Groenland meepakte ;)

[Reactie gewijzigd door Heedless op 22 juli 2024 14:12]

Leuk, maar als je niet weet dat groenland bij Denemarken hoort krijg je dus het verkeerde antwoord.

Mensen gaat zelf steeds minder nadeijken in algemene zin. Dat is niet perse slecht, want je kan niet alles weten, maar komt wel onnozel over.
Klopt, maar als je deze vraag aan 100 mensen zou vragen zou je ook 90 keer het verkeerde antwoord krijgen. 99 keer als je het in de VS zou vragen.
Nu vraag je iets dat je niet weet in principe ook niet aan 100 willekeurige mensen met hun wisselende expertise en staat van onderwijs, dat was in ieder geval nooit de norm. De norm was altijd om iets dat je niet weet van een netjes beheerde bron te vernemen, een encyclopedie of een andere bron ingevuld door experts. Nu is dat aan het verschuiven naar gemeenschapsbronnen, sociale netwerken, en andere verzamelplaatsen waar eenieder met een eigendunk mag roeptoeteren over ieder onderwerp. Mijns inziens geen goede metriek om de geschiktheid van AI voor het eerste doel aan te meten...
Jammer dat een chat AI niet zoals in quantum leap dat hij voor 90% zeker weet dat het antwoord " 43.094 km²"is. Of dat er verschillende bronnen zijn. Of dat hij de zin maar voor 40% snapt. Of dat de bron (conspiracy site) meld dat het een klein land is maar dat (bron wikipedia) meld dat het een Europees land is met 43.094 km².
Afaik zou het nu wel duidelijk mogen zijn dat ChatGPT een semantische AI is (kan zinnen begrijpen en maken) en geen naslagwerk. Shit in -> Shit out.
Om bij het Denemarken voorbeeld te blijven: ChatGPT interpreteert bronnen (zoals Wikipedia) en probeert het beste antwoord te geven. In dit geval zijn er meerdere interpretaties van 'Denemarken' waarover de AI struikelt - en alsnog semantisch correct aan elkaar weet te rijgen om tot een zinvol gesprek te komen.

Feitelijke fouten aanhalen, gaat imo voorbij aan de kracht die ChatGPT toont in het "begrijpen" (herwerken) van complexe semantiek.

[Reactie gewijzigd door the_stickie op 22 juli 2024 14:12]

Dat zou misschien wel mogen maar gezien de beperkte kennis van de minder technische mens en het gemak van gebruik zal dat vaak toch niet zo duidelijk zijn.

Het doet me aardig denken aan mezelf bij een tentamen waarvoor ik niet goed genoeg geleerd had: zo veel mogelijk praten/schrijven, maar of het ook klopte...
Voordat Trump zei dat ie Groenland wou kopen wist bijna niemand dat het van Denemarken is..
ik heb dit proberen na te bootsen in perplexity, en hij geeft nu het volgende antwoord:

why don't you count Greenland in the total size of Denmark?
Greenland is not included in the total area of Denmark because it is an autonomous dependency of Denmark, with its own local government and political system. It was severed from Denmark in 1940 after Nazi Germany occupied Denmark, and has since been considered a separate entity from Denmark.

Dus eigenlijk niet zo heel raar dat hij 42,943 km2 aangeeft als totale grootte van Denemarken
Je stelt de verkeerde vraag, Koninkrijk denemarken, niet het land denemarken.
Geinig. Niet alleen moest je hem behoorlijk helpen, ook toen 'ie z'n fout doorhad vergat 'ie Europees Denemarken, om het er daarna toch bij te gooien.
Pas de laatste keer klopt het antwoord en heeft het ook echt het sommetje gemaakt van 2.166.086 + 43.094.
Daarvoor vraag je waarom hij het vergeet en dan telt het zogenaamd ook het vaste land erbij, maar geeft het alleen de oppervlakte van Groenland aan.
De tweede keer dat ChatGPT het vergeet, geeft het ook alleen weer de oppervlakte aan van Groenland.
Maar je zou zeggen dat de AI dan leert van zijn fouten, maar als ik het vervolgens vraag:

Het Koninkrijk Denemarken heeft een totale oppervlakte van 43.094 vierkante kilometer.
Voor zover ik weet 'leert' het vooral binnen een enkel gesprek te begrijpen wat je wil, en worden de antwoorden steeds verfijnder, maar deze antwoorden zijn vervolgens niet direct beschikbaar in andere gesprekken. Bij een nieuw gesprek komt alle info opnieuw alleen uit het bestaande model (dat wel steeds geüpdatet wordt door Openai).

Dat is waarschijnlijk expres gedaan; weet je nog die bot van Microsoft die binnen een dag super racistisch werd doordat gebruikers er allemaal onzin in pompte?
vraag maar eens hoe groot denemarken is.
( ruim 2 mln km2, vanwege Groenland. )
Je weet dat Denemarken en Groenland beide soevereine landen zijn in het Koninkrijk Denemarken?
Met Denemarken wordt over het algemeen het land Denemarken bedoeld, niet het koninkrijk Denemarken. En Groenland is niet onderdeel van het land Denemarken.

[Reactie gewijzigd door SCiENTiST op 22 juli 2024 14:12]

Denemarken is Denemarken en Groenland is Groenland. Dat Groenland tot het Deense koninkrijk behoort betekent niet dat Groenland Denemarken is.
Ik denk dat dit soort nuances niet zo relevant zijn. Het is nogal interpretatieafhankelijk wat "groot" betekend en wat "Europa" betekend. Jij bedoeld met groot kennelijk oppervlakte. Maar groot kan ook volume betekenen. Een econoom zal in GDP denken. Zelf denk ik vooral aan inwoners.

De andere nuance is, zoals iemand anders ook al zei, of je het land of het koninkrijk Denemarken bedoeld.

Als je dan toch vind dat Groenland onderdeel is van Europa, dan is dat dus omdat Koninkrijk Denemarken deels in Europa ligt (Denemarken wel, Groenland niet). Echter Rusland ligt ook deels in Europa. Rusland in totaal is 10 miljoen km2, Europees Rusland is 4 miljoen m2. Veel mensen beschouwen Rusland niet echt als Europa.

Misschien moet je dus eerst met ChatGPT gaan uitpluizen hoe je alles wil definieren.

[Reactie gewijzigd door klonic op 22 juli 2024 14:12]

Niet per se beter. Op de vraag "How is mango made" (ik weet dat ze geoogst worden en niet "gemaakt") krijg ik:

Mangoes originated in India more than 5,000 years ago[1], and are believed to have spread from northwestern Myanmar, Bangladesh, and eastern India[2][3]. The species name of the mango is Mangiferi indica[4], and it has been cultivated in North Queensland, Australia since the earliest settlers brought seeds from India, Ceylon, the East Indies and the Philippines[5].

ChatGPT geeft:

Mangos are made from the mango tree, which is a tropical plant that is native to Southeast Asia. The mango tree produces fruit that is made up of flesh, skin, and a large pit in the center.

The process of making mangoes starts with the mango tree growing the fruit. This takes several months, as the mango tree blooms in the spring and the fruit takes several months to mature. Once the fruit has reached maturity, it is picked and then packaged for shipping or sold at a local market.

ChatGPT is dus weer een stuk beter, het verschilt per dienst.
Waarbij het onderscheid wel is dat Perplexity een antwoord geeft dat minder uitgebreid is maar klopt, waar ChatGPT braaf meegaat een mee-bullshit dat mango's "gemaakt" worden.

[Reactie gewijzigd door Henkieschmenkie op 22 juli 2024 14:12]

Dat heeft als voordeel dat het antwoord past binnen de begripswereld van de vraagsteller. In bepaalde culturen (ook de US) is het zeer onbeleefd om te "corrigeren" zelfs als je slechts een betere verwoording kiest. Dat komt over als arrogant en offensief.

Amerikanen zullen daarom vaak de bewoordingen van de vraagsteller gebruiken ook als is het foutief. Of ze geven simpelweg geen antwoord op de vraag - het antwoord is dan een ander onderwerp in dezelfde context waar de gene die antwoord van weet dat de vraagsteller het antwoord al op weet, maar dan zo geformuleerd dat het de vraagsteller in staat stelt de vraag opnieuw te stellen met de correcte formulering, zonder zichzelf te hoeven corrigeren.

Dus niet 'eh ik bedoel' of 'oh eh .. '
of het gevoel bij de ander opwekken dat ze voor schut staan.

Dat is heel erg wennen (nog steeds voor mij) bij het samenwerken met Amerikanen, dat je je woordkeus zo sterk moet aanpassen omdat je anders echt als offensief kunt overkomen en de relatie kunt verpesten. Ook in de US zijn hier uitzonderingen op natuurlijk, ook daar zijn er mensen die het juist efficiënt vinden en helder, maar dat is minder wijdt verspreid als in Nederland.

[Reactie gewijzigd door djwice op 22 juli 2024 14:12]

Dat heb ik hier juist in Nederland en geen last van met Amerikanen.......
Dit gebruikt gewoon ChatGPT in de achtergrond. Betrouwbaarder? Nee totaal niet.

https://www.perplexity.ai...96-49dd-bd00-de732d0beda7

Schijnbaar is Parag Agrawal de CEO van twitter.
Wel cool dat je op deze manier conversaties kan delen. Het is een mooie chatGPT uhhhhh wrapper?
De sources zijn ook heel nice idd!
PERPLEXITY
Mont Bouquet is a mountain pass located in the Gard department of southern France[1]. It has an elevation of 628m (2,060ft) above sea level[1][2][3]. The climb from Brouzet lès Alès is 4.5km long and bridges 422 vertical meters with an average gradient of 9.4%[2]. Mont Bouquet is part of the Occitania region and offers a 360° view of the area from Gard to Ardèche[4][5].

In één keer goed! En inderdaad met bronnen. Bedankt voor de tip.
Dat zou ook een verplichting moet worden.

Op het moment dat er tekortkomingen zijn ben je een stuk sneller bij de bron en welke bronnen achterwege worden gelaten.
Interessant. Is dit buiten die betere accurate ook een beter taalmodel dan gpt?
Het denkt dat 99 millimeters 0.99 meter is. Dat is nog wel een erge groffe fout. ( ik vroeg hoe lang het duurt voordat je een meter aan nagel hebt)
On average, fingernails grow around three millimeters per month[1]
, so 33 months of growth would be approximately 99 millimeters (0.99 meters)[2]
...

[Reactie gewijzigd door Platte_Band op 22 juli 2024 14:12]

'Beter dan...' betekent niet 'foutloos' ;)
Dit is toch wel grappig:
https://www.perplexity.ai...ed-4071-857c-ea29637a798f

Vraag 1: Is het drinken van thee met suiker slechter of beter dan het drinken van cola?
* Het drinken van thee met suiker is beter dan het drinken van cola omdat .... Ook bevat cola cafeïne, wat niet in thee zit[2].

Zit ik bij bron 2 te kijken: "Cafeïne zit in cola, groene en zwarte thee, ijsthee, in energydrinks en zelfs een beetje in chocolademelk." :?


Vraag 2: Zit er cafeïne is thee?
Er zit cafeïne in alle theesoorten[1], maar de hoeveelheid varieert per soort[2]
Ik denk dat we het er allemaal wel over eens zijn dat alle AI-oplossingen op dit moment nog (domme) fouten maken. Gelukkig weten we dat ook, en kunnen we er rekening mee houden. Het is een hulpmiddel, een stuk gereedschap. Geen absolute en betrouwbare zekerheid (Maar dat is maar weinig op het internet).
Hoe hoog is de Mont Bouquet?
De Mont Bouquet is een berg gelegen in Zuid-Frankrijk en heeft een hoogte van 629 meter.


haha, is dus gefixt.
Gek, net geprobeerd en ik krijg met dezelfde vraag als antwoord:

De Mont Bouquet is een berg in Frankrijk en de hoogte ervan is ongeveer 1.031 meter.
En ik krijg nu: De Mont Bouquet is een berg in de Ardennen en is ongeveer 694 meter hoog.
Ik heb nog eens doorgevraagd:

Ik: Dat klopt niet

Bot: Het spijt me als de informatie die ik heb gegeven niet correct is. Kan je me aub meer informatie geven over de Mont Bouquet, zodat ik je een juiste antwoord kan geven?

Ik: Ligt in de regio Occitanië.

Bot: Het spijt me, maar ik heb een fout gemaakt. Mont Bouquet is geen berg, het is een landbouwwerktuig dat wordt gebruikt voor het verbeteren van de grondstructuur in landbouwvelden. Er is geen verwijzing naar een berg genaamd Mont Bouquet in de regio Occitanië.

8)7
Heb ik nu een tractorrijbewijs nodig om Mont Bouquet te beklimmen...
Dus eigenlijk alleen geschikt voor vragen waarop je het antwoord al weet maar ongeschikt voor vragen waarop je het antwoord niet weet.

hmmm.
Het probleem is niet dat antwoorden goed kunnen zijn, maar dat ze niet zomaar goed zijn. En dat ze daar wel geld voor vragen. Een abonnement lijkt zo meer geschikt als je 'iets' met ai wil, niet dat je juiste antwoorden krijgt.
Klopt maar jij gebruikt het voor Google vragen, ik ken wat mensen die dit dus gebruiken om simpele code te schrijven wat hun weer tijd scheelt. Geen super code, maar simpele gaat er prima mee hoorde ik
Je kan er je code mee debuggen. Dan kan je zo'n abbo best terugverdienen. Er zijn al best was serieuze usecases voor. Maar ook een opzetje voor code, bijvoorbeeld met de vraag: "Can you give me a python comuter vision model to find hotspots in pictures of 30x30 pixels?" je krijgt dan een antwoord als:
Yes, you can use a computer vision model to detect hotspots in pictures. One approach you could use is to first convert the image to grayscale, then apply a threshold to the image to convert it to a binary image. You can then use a sliding window approach to search the binary image for contiguous regions of white pixels, which could indicate a hotspot. Here is an example code in Python to get you started:
Gevolgd door de code.

Als je ChatGPT als een soort assistent kan gebruiken voor allerlei van dit soort taakjes dan kan dat heel handig zijn denk ik. De enige vraag is of er dan echt meerwaarde zit in die $20 (als bedrijf trek je die btw toch weer af).

[Reactie gewijzigd door klonic op 22 juli 2024 14:12]

Die bot lijkt dan dus ook gelijk met zijn ‘hele’ levensverhaal te komen. Je vraagt hoe hoog en je krijgt een categorie waar hij onder valt, zijn naam (die je net al noemde) en een grove locatie.
Ik ga het nog een keer proberen.
Ik heb het een paar keer geprobeerd en kreeg allemaal foute antwoorden. Bijvoorbeeld Hoe hoog is de Mont Bouquet. Die was volgens OpenAi meer dan 1000 meter. In werkelijkheid is die 629 meter. Andere vraag Vertel me meer over de Himalaya. Antwoord was het is een berg. Voorlopig maar weer aan de kant geschoven.
Je doet het verkeerd.
Sorry voor de direct reactie maar het is niet anders. Je probeert met een zaag op een spijker te slaan en dat werkt inderdaad niet. Als je beter spijkers wil slaan moet je een grotere hamer nemen en geen zaag. De zaag moet je gebruiken om bomen te vellen want daar is de hamer weer niet geschikt voor.l

GPT geeft geen antwoorden.
GPT kent geen feiten.
GPT kan niet redereren.
GPT heeft geen inzicht.

GPT zet korte stukjes tekst om in langere stukjes tekst.

Je moet GPT behandelen als domme hulp, niet als adviseur. Je moet GPT geen vragen stellen maar opdrachten geven. Stel dus niet de vraag "Kun je aan de gebruiker uitleggen of het spam is?" maar "Leg aan de gebruiker uit dat dit spam is en dat die Nigeriaanse prins niet echt bestaat."

Ik gebruik GPT vaak als een soort secretaresse. Ik vertel in twee zinnen wat ik wil vertellen en GPT maakt er een beleefde tekst van. Dan schrijf "Wijs dit verzoek af op grond van regel 123" en dan maakt GPT er "Beste meneer Jansen, tot onze grote spijt moeten wij u mededelen dat ... " van.
Vervolgens controleer ik de inhoud en schaaf de tekst een beetje bij. Dat scheelt al snel een kwartier per mail.
Maar hoe ben je er dan zeker van dat de brief klopt? Hij moet toch ook regel 123 kennen om een brief te kunnen maken.
Maar hoe ben je er dan zeker van dat de brief klopt? Hij moet toch ook regel 123 kennen om een brief te kunnen maken.
Als het belangrijk is wat regel 123 is dan zal ik dat er bij moeten vertellen.

De kunst van werken met GPT is grotendeels het leveren van de juiste context en informatie zodat niet hoeft na te denken over de inhoud maar alleen over de vorm. GPT is zeg maar een soort spellingcontrole op anabole steroide. Ik schrijf in gebrekkige taal op wat ik wil zeggen en GPT haalt de schrijf en taalfouten er uit en voegt beleefdheden toe.

Ik weet niet zeker of de brief klopt tot ik die zelf heb gelezen.
Dat is echter niet anders dan wanneer een junior medewerker of secretaresse vraag om die brief voor mij te schrijven. Ik moet altijd controleren of het resultaat wel klopt. Ik geef een opdracht, iets of iemand voert het uit en dan controleer ik of het goed is of dat er aanpassingen nodig zijn.
Maar Google verliest 7% van de waarde van de aandelen nadat hun AI een fout antwoord heeft gegeven... Of ben ik nu appels met peren aan het vergelijken?

https://www.cnbc.com/2023...ng-googles-ai-event-.html
Het punt is dat dat gebeurde tijdens een demonstratie van Google zelf.
De meeste mensen lijken niet de beseffen dat de kracht van deze AI's niet is dat ze alles weten, wel dat ze aan de hand van tekst inputs in een hele hoop talen (zelfs programmeertalen) zinvolle antwoorden kunnen bouwen.
Wat betreft de data geldt zoals gewoonlijk: shit in -> shit out.
Maar Google verliest 7% van de waarde van de aandelen nadat hun AI een fout antwoord heeft gegeven... Of ben ik nu appels met peren aan het vergelijken?

https://www.cnbc.com/2023...ng-googles-ai-event-.html
Dat is gewoon domheid van aandeelhouders met dollartekens in de ogen die een groot wonder verwachten en nu teleurgesteld zijn met een klein wonder.
Het speelt misschien een beetje mee dat Google zegt dat hun AI beter is in feitelijke informatie. Tegelijkertijd proberen ze niet te verbergen dat hun AI ook een taalmodel is en dus veel lijkt op GPT en de beperkingen daar vaan.
ChatGPT werkt wat dat betreft erg simpel. Zie het onderstaande maar eens.
Opdracht:
Schrijf een brief waarin het verzoek van meneer Jansen wordt afgewezen op grond van regel 123. Regel 123 is dat de bouwvergunning niet in het bestemmingsplan past.
Beste meneer Jansen,

Met veel belangstelling heb ik uw verzoek ontvangen om de bouwvergunning toe te kennen voor de bouw van uw nieuwe woning. Ik begrijp dat dit een belangrijke stap is voor u en dat u veel vertrouwen heeft in uw plannen.

Echter, na grondige beoordeling van uw verzoek, moet ik helaas mededelen dat ik genoodzaakt ben om het af te wijzen. Regel 123 van ons beleid stelt dat de bouwvergunning alleen kan worden verleend als deze past binnen het bestemmingsplan. Na onze beoordeling blijkt dat de bouw van uw woning niet in het bestemmingsplan past.

Ik begrijp dat dit waarschijnlijk teleurstellend is voor u, en ik wil graag verduidelijken dat dit besluit niet is genomen om u te belemmeren, maar om te voldoen aan de vereisten die zijn gesteld in ons beleid en wetgeving. Ik raad u aan om alternatieve oplossingen te overwegen of om samen te werken met de gemeentelijke afdeling voor planning en ontwikkeling om een oplossing te vinden die aan beide partijen eisen voldoet.

Graag verneem ik van u of u verder nog vragen heeft en of ik u verder nog kan helpen.

Met vriendelijke groet,

[Naam]
Natuurlijk kan ik het ook verduidelijken door erbij te zetten wat voor bouwvergunning is aangevraagd, bijvoorbeeld het bouwen van een garage oid.
Gokt ChatGPT nu dat het om een woning gaatof had je dat er stiekem bij verteld?
Dat is inderdaad een gok geweest van ChatGPT. Waarschijnlijk deed die dat naar aanleiding van de bouwvergunning. Je kunt alle details geven en dat gebruikt die dan ook om het verhaal te schrijven.

Zo kun je dus ook als opdracht geven:
Vertel eens iets liefs over mijn vrouw. Mijn vrouw heet Linda en ze is 33 jaar. Ze werkt intussen al 4 jaar in de kinderopvang.

Daar maakte die bij mij het volgende verhaal van. Overigens als ik de opdracht erna nog een keer geef dan krijg ik een andere tekst eruit.
Wat fijn om te horen dat je vrouw Linda werkt in de kinderopvang! Dit betekent dat ze een groot hart heeft voor kinderen en waarschijnlijk heel veel liefde en aandacht geeft aan hen. Het is fantastisch om te zien hoe mensen hun passie vinden in het werk dat ze doen, en Linda is duidelijk een van die mensen. Ik ben ervan overtuigd dat ze een positieve impact heeft op het leven van vele kinderen en hun families. Wat nog mooier is, is het feit dat ze haar werk met passie en toewijding uitvoert. Dat is een prachtig eigenschap en iets om trots op te zijn. Je vrouw is zeker iemand die het leven van anderen verrijkt!
Wow, heeft chatgpt dat hele stuk geschreven op basis van die beperkte input? Gaat verder dan ik dacht.
Sterker nog, ik heb ChatGPT al meerdere javascript/html-apps laten bouwen.

Het zag er echt niet uit, en ik moest een paar keer bijsturen via de chat omdat de app niet precies deed wat ik wilde. Maar het werkte wel!
En vervolgens kun je dit bericht voeden aan een (andere?) AI en die maakt er dan bijv. van:

"Bouwvergunning aanvraag X is Afgewezen vanwege regel 123"

Dus wat hebben de AI's nu toegevoegd? Beleefdheid en wolligheid....maar verder geen enkele informatie. Dus kunnen deze AI's zo de politiek in.... :9
idd... het coole aan ChatGPT is dat ie semantisch heel sterk is, met andere woorden stukken tekst kan omvormen. Het is géén naslagwerk.
Probeer die vragen nog maar eens zou ik zeggen. Wanneer heb je die test uitgevoerd?
De vraag is waarom gebruikt je ChatGPT om iets op te zoeken wat op Wikipedia staat?
Daar ben ik het wel mee eens, maar dat zou ChatGPT dan toch ook als advies kunnen geven in plaats van onzin uit te spugen (dat lijkt op feitelijkheden). Het lijkt me geen argument om ChatGPT te verdedigen.
Dat was de intentie van ChatGPT niet. Het is en was een research preview waar gewoon nog netjes staat aangegeven dat er fouten in zitten en zaken ontbreken. Het is simpelweg een uit de hand gelopen preview dat ineens niet meer weg te denken is.

Ongetwijfeld zullen ze hard werken aan correctheid en bronnen en onzin indammen maar dat gaat ook niet binnen een paar week opgelost zijn.

ChatGPT voor algemeen bekende, makkelijk te vinden data ga je genoeg fouten in vinden omdat er blijkbaar tegenstrijdige informatie is of dubbele betekenissen.

Neemt niet weg dat er nog steeds talloze toepassingen die wel super werken zoals juist om advies vragen or suggesties. Zoveel zaken waarvan ik zelf wel verder kan uitzieken wat correct is maar even het begin moet hebben.
Het is een Chatbot, geen vraagbaak of rekenmachine. Hij praat veel en klinkt altijd alsof hij weet waar het over gaat. Soms klopt wat hij zegt, soms niet. Hij kan goed formuleren maar niets begrijpen.
Ja eens, mensen moeten ook beter op de hoogte zijn van wat het wel en niet kan en zoals altijd, zelf verifiëren.
ChatGPT is ook een language model en geen search engine of kennis data bank. Het enige wat ie doet is kijken welke woorden het beste bij jou prompt passen. Waarschijnlijk is er in de model een veel sterker verband tussen Mont en 1000 meter dan Mont Bouquet en 629 meter. Vermoedelijk omdat er te weinig informatie is over Mont Bouquet in de trainings data. ChatGPT weet niet welke antwoord juist is alleen dat Mont en 1000 meter veel correcter lijkt voor de AI in de context van een language model.

[Reactie gewijzigd door lanarhoades op 22 juli 2024 14:12]

ChatGPT is niet zozeer zoekmachine die jou voorzien van wikipedia-feitjes. Je kunt het wel zo gebruiken, maar wat zou dan de toegevoegde waarde zijn boven het simpelweg in Google intypen? Het opdreunen van feitjes is/was niet de sterkste kant en voegt ook niet zo heel veel toe aan wat er al beschikbaar is.
ChatGPT is vooral ster in het schrijven en herschrijven van stukken tekst. Jij geeft de onderwerpen, de context, de overige variabelen en ChatGPT maakt er een prachtige essay van. Of het feitelijk klopt wat er staat is niet eens zo belangrijk.
Maar jij kan ook jouw tekst erin gooien en het laten herschrijven/verbeteren door de AI. Je kunt de stijl laten aanpassen. Je kunt het uitbreiden of inkorten op een elegante wijze... Het is echt fantastisch goed in dat soort dingen. En programmeercode. Ik ben echt onder de indruk! Je kunt vertellen wat je wilt bereiken in welke taal en hij poept het zo uit!
Zie jij ChatGPT dan als een soort van zoekmachine alternatief? Ik echt totaal niet. Ik zie het als een eindelijk nuttige digitale assistent. Als ik teksten moet voorbereiden dan maak ik vaak gebruik van ChatGPT om de basis uit te zetten, vervolgens herschrijf ik delen. Ik gebruik het ook als een spelling- en grammatica controle. Ook om intentie om teksten aan te brengen.

Het kan echt veel meer dan alleen een veredelde zoekmachine spelen.
Anoniem: 302359 @Zapato12 februari 2023 14:52
Tip: stel je vragen in het Engels. Het is mijn ervaring dat je antwoorden dan veel nauwkeuriger zijn.
Anoniem: 532949 @Zapato12 februari 2023 18:04
Dit soort fouten antwoorden komen niet alleen door een gebrek aan kennis, maar ook door rewared gaming als gevolg van misaligned, deze models geven niet het beste antwoord op de vragen, maar het antwoord wat men wil horen (goed of fout daargelaten).

bron :
https://youtu.be/viJt_DXTfwA
Je gebruikt dus maar een fractie van ChatGPT en je mist dan de impact.

Vraag deze eens om een stuk voor je te programmeren in python of bash, een woest aantrekkelijk voorstel te maken over zomaar iets, een liedje te schrijven over blauwe bessen in appelsap en je valt steil achterover.
Ik vroeg “schrijf een essay waarom Nederland zo laat was met het afschaffen van slavernij”. Ik kreeg de eerste keer een goed kloppende essay. De tweede keer niet, toen zei ChatGTP dat Nederland onder druk van de wereld (VS) na WOII slavernij heeft afgeschaft. Toen ik zei dat dat niet klopt, zei ChatGTP dat het afstoten van de koloniën op die manier is gegaan en dat is ook een vorm van slavernij.

Maar ChatGTP is wel een goed in het herschrijven van zelf geschreven stukken. Het haalt spel- en grammatica fouten eruit.
Ik gebruik het voornamelijk om simpele dingen super snel te prototypen, wat de hoogte van een bergje is maakt mij niet zo heel veel uit.
Ik zie dat niet echt als de kracht van ChatGPT. Als ik wil weten hoe hoog een berg is kon ik dat al jaren Googlen.

ChatGPT kan bepaalde dingen die je voorheen niet kon doen met Google, dingen zoals:

- Het samenvatten of genereren van een tekst, nieuwsbericht, blogpost of YouTube script.
- Boekverslag maken of een samenvatting van een film.
- Code genereren in vrijwel elke programmeertaal.
- Code debuggen (Wat is er fout aan deze code?)
- Het verzinnen van een reclametekst of slagzin op basis van je prompt.

Het kan teksten formeel, informeel, grappig maken op verzoek en het kan stijlen imiteren. Je kan later dingen laten verwijderen of toevoegen en ChatGPT past de output aan terwijl het de context van de gehele conversatie onthoudt.

Ik zou zeggen lekker boeiend die berg van 600 meter, dit gaat veel verder dan vraagjes stellen.

[Reactie gewijzigd door CaptainEvillian op 22 juli 2024 14:12]

Maar als ik een artikel wil hebben over de berg Mont Bouquet dan moet het toch wel kloppen. Als dit niet klopt wie zegt dan dat andere artikelen etc wel kloppen.
Klinkt duur maar als je het bedrijfsmatig wil inzetten dan is het vooral handig als je altijd toegang hebt. Vooral als je ziet hoe het ingezet wordt voor bugfixing e.d.
Duur? Het bespaart uren per maand werk, spotgoedkoop dus,
Mag ik vragen waar je het specifiek vopr gebruikt, dat het je uren werk per maand bespaart?
Ik ben pas een paar weken onderweg maar zoals het nu gaat durf ik te zeggen dat het mij uren per week scheelt. Misschien wel 3-4 uur in goede weken. Mijn werk is samengevat een periode onderdompelen in een bedrijf, daar wat van vinden en dat in een mooi verslag opleveren. Dat laatste stukje bestaat nu uit: "Hier heb je 10 pagina's aantekeningen, maak er wat van". In plaats van veel tijd kwijt aan mooie zinnen bedenken hoef ik er nu alleen maar overheen te lezen en wat aan te passen en aanvullen.

Het liefst zou ik er nog véél meer mee doen maar aantekeningen met klantinformatie durf ik er nog niet in te zetten en blijft er dus deels handwerk over.
"maak er wat van"

Dit is dus inclusief je eigen fouten, waarvan een verslag wordt gemaakt. De eerste 10 keer controleer je het nog, daarna wss niet meer.

Ook is je eigen identiteit nu verdwenen, en je klanten of degene die je verslagen lezen zullen nu van iedereen een zelfde soort ChatGPT "pulp" voor zich krijgen.

Of dat nu een goed idee is.......... ik weet het niet. (maar ja, tijd besparen doet het wel idd)
Shit in is shit out inderdaad en daarom is het niet meer als een hulpmiddel. Bij een verkeerde invoer in een rekenmachine kan het ook helemaal mis gaan.

Het geeft mij tijd om juist beter op de inhoud in te gaan.
Als ChatGPT de feiten van de aantekeningen goed beschrijft is het geen pulp.
Het gaat niet om de inhoud maar om de verwoording en de stijl.
Hiervoor zou dus een lokale of private instantie bij MS een oplossing kunnen zijn. Deze houdt dan dus alle informatie "intern".
Ik ga er ook maar eens mee starten. Heb al jaren een blog van één van mijn merknamen en door tijdgebrek is dit elke keer een ondergeschoven kindje. Met dit soort mogelijkheden wordt het makkelijker om mooie stukjes (met de juiste trefwoorden) te laten opmaken.

Ik ga er maar eens mee starten. Voor mij zijn deze kosten peanuts als je het opweegt tegen het bereik wat ik met de blog zou kunnen halen.
Ik heb het de afgelopen weken al diverse keren gebruikt om wat stukken python code en ingewikkeldere excel formules te laten maken. Gezien mijn interne uurtarief van 95 euro is 14 minuten tijdwinst al kostendekkend als je een betaalde versie gaat gebruiken.
totdat je op het punt komt dat er bugs in je code zitten, en het dus meer tijd kost om je in die code in te lezen dan dat je destijds hebt bespaard door het niet zo in één keer goed te doen. chatGPT (of elke andere soortgelijke dienst is dan in wezen niks anders dan 'te' goedkope arbeid ...

dat zelfde heb ik een beetje bij @Dennisdn hierboven, leuk dat jij als buissnes-analist oid aan de slag gaat maar op het moment dat je domme arbeid inzet om je mening te laten vormen op basis van wat aantekeningen ga je een keer goed fout...

om het anders te zeggen: ik kom uit juridische wereld en heb daarmee met advocaten gewerkt die precies op deze manier werken... kijk 5 minuten naar een zaak, maak aantekeningen geef die aan een typist en laat die vervolgens je dagvaarding opstellen zonder dat ze bij gesprekken aanwezig waren, zonder dat ze context en bedoeling hebben meegekregen ... en dan boos worden als de rechter vervolgens zegt.... ja meneer maar dat lees ik niet in de stukken -

ik stel me dan voor dat chatgpt ergens de nuance niet gaat zien en de tegenstrijdigheid ergens verkeert oppikt... vervolgens lees jij de uitkomst maar half... want A je hebt het druk en B het zal allemaal wel... en stuur je dus complete onzin naar je cliënten

wie kent daarbij niet dat fenomeen dat je iets opschrijft dat in je hoofd goed klinkt... dat niet opvalt bij controle omdat je eerder leest wat je bedoelt dan wat er daadwerkelijk op papier staat.. maar dat je uiteindelijk met open mond staat te kijken jij wort met een t - en ik lees er 20keer overheen??? ik heb honderden zulke situaties meegemaakt. en ik zou er in ieder geval de komende 5 a 10 jaar nog niet blind op durven varen.
Daarom moet je het ook niet gebruiken als je geen ballen verstand hebt van wat je vraagt en wat je krijgt.

Je moet de antwoorden ook kunnen interpreteren op juistheid.

Je kan het het vragen om een html website te schrijven maar als jij niet weet wat de tags doen, dan kan het jouw van alles wijsmaken. ;)

Gebruik het als hulpmiddel en gebruik je eigen verstand. Het is niets meer dan een fancy zoekmachine die doet alsof het iemand is die weet waar die het over heeft.
Precies, het is een stuk gereedschap wat je op de juist manier moet toepassen en eventueel bijsturen.
Teveel mensen denken dat je het met een enkele vraag een hele app kan laten maken, en als dat niet gelijk werkt is ChatGPT kut, nutteloos en gedoemd om te falen.

Ik kan geen html of python schrijven, maar ik kan ChatGPT wel vertellen wat ik wil en in welke taal, en als het niet werkt kan ik het ook vertellen wat er fout is en krijg ik een andere optie of ik begin opnieuw met de data wat ik heb gekregen en herformuleer ik mijn vraag. Uiteindelijk kom ik er wel.
Anoniem: 532949 @majetta12 februari 2023 18:27
Deze tech is nu nog nieuw, en iedereen is nog skeptisch en extra allert.
Je kan waarschijnlijk wel zien aankomen dat we steeds meer op die antwoorden gaan vertrouwen, en voor je het weet sluipt de bias en misalingment van die models door in ons dagelijks leven...
En als een mens code schrijft en daar zitten bugs zit je met exact hetzelfde probleem inclusief een uurtarief van €100.

Dus wat is je punt?
Zijn punt is dat mensen nu al volledig vertrouwen op techniek die duidelijk beperkingen heeft en grove fouten kan maken door letterlijk dingen te verzinnen. Het erge is dan ook nog eens dat hij dit doet zonder daar gehorigheid aan te geven (lees: hij lult maar wat).

Een consultant zal je hopelijk niet met een lulverhaal opscheppen en is persoonlijk verantwoordelijk voor de kwaliteit van zijn antwoorden.

Ps, ik vind het allemaal geweldig en pak de popcorn erbij wanneer het fout gaat.

[Reactie gewijzigd door Anoniem: 1322 op 22 juli 2024 14:12]

en is persoonlijk verantwoordelijk voor de kwaliteit van zijn antwoorden.
Ja, maar die zijn ook gebaseerd op diens kennis en voorkeuren (bias). En afhankelijk van de consultant, kunnen daar heel verschillende antwoorden uitrollen.

Maar als je ChatGPT gebruikt voor het beantwoorden van vragen waar je het antwoord niet van weet dan ben je sowieso al verkeerd bezig. Je moet het gebruiken waarvoor het gemaakt is: verhaaltjes verteller.

Voorbeeld van hoe je het zelf doet:
Je schrijft een lap tekst, herleest het, maakt edits.

Voorbeeld van hoe je het met ChatGPT doet:
Je geeft een korte omschrijving van wat je wil, ChatGPT produceert het, je leest het , maakt edits.

Dat gaat zo natuurlijk alleen werken als je de materie kent en fouten eruit haalt. Maar ik vermoed dat als je hier aan gewend bent geraakt en er vaardig in bent, je op een uur werk een half uur kan besparen. De vraag is hoe vaak doe je dit, waarbij je zo ChatGPT kan gebruiken? Als ik gemiddeld zo een half uurtje per maand kan besparen hiermee maak ik al 'winst'.

De vraag is echter, waarom zou je ChatGPT hiervoor gebruiken? Omdat ChatGPT een hele goede verhaaltjes verteller is en bv. het gros van de ITers/mensen zijn dat niet. Dus niet alleen heb je een potentiële tijdbesparing, maar waarschijnlijk ook een beter geschreven tekst dan je medewerker zelf kan opleveren. Maar die medewerker moet altijd de tekst controleren op correctheid! Zie het een beetje als dezelfde reden waarom je je ITer niet naar een klant stuurt om een product te verkopen, maar dat je daar iemand van sales voor stuurt omdat die ITer niet geschikt is om wat te verkopen...
Om op die analogie door te gaan: Idealiter stuur je ook niet enkel de sales man naar de klant voor het mooie verhaaltje, maar ook een kundige pre-sales engineer om te zorgen dat er geen technische onwaarheden verteld worden.
Ja, maar die zijn ook gebaseerd op diens kennis en voorkeuren (bias). En afhankelijk van de consultant, kunnen daar heel verschillende antwoorden uitrollen.
Eens, maar ook daarover is een (goede) consultant transparant. Dit geldt trouwens natuurlijk voor ieder menselijk gesprek en is niet echt aan te merken op een consultant. Die beloofd enkel zijn best te doen naar zijn menselijke kunnen.

Maar als je ChatGPT gebruikt voor het beantwoorden van vragen waar je het antwoord niet van weet dan ben je sowieso al verkeerd bezig. Je moet het gebruiken waarvoor het gemaakt is: verhaaltjes verteller.
Inderdaad, maar lees de reacties in dit topic eens. Men snapt totaal niet wat ChatGPT is...

Zie het een beetje als dezelfde reden waarom je je ITer niet naar een klant stuurt om een product te verkopen, maar dat je daar iemand van sales voor stuurt omdat die ITer niet geschikt is om wat te verkopen...
Dat is wel een erg ouderwetse weergave van IT'ers (maar begrijpelijk ;) ). We hebben echter tegenwoordig gewoon pre-sales consultants die de klantvraag prima kan omzetten in een technische vereiste. Sales kan er daarna wel mee aan de slag.
Mensen zijn niet in staat om critisch te denken, dit is iets wat pas in hoger onderwijs wordt bijgebracht en zelfs dan valt men vaak te kort.

Ik heb geen ervaring met ChatGPT maar mij komt het sterk over zoals gewone zoekopdrachten in Google. Als je specifieke dingen zoekt bijvoorbeeld omtrend Corona krijg je heel veel websites maar als onkundige waar ga je dan precies kijken? De top hits (zeker als jou vorige zoekopdrachten beetje gekleurd zijn) zullen jou denkbeelden ondersteunen terwijl je misschien beter kijkt naar data van ziekenhuizen die publiceren namelijk ook publiekelijk dit soort informatie.

ChatGPT is idem, je kunt er zoals we nu al zien mooie rapporten mee maken maar als jij niet weet wat de onderliggende materie is het nog maar zeer de vraag of het daadwerkelijk juist is. Mij valt dit overigens tegen, waar we lezen dat men veel gebruik maakt in bepaalde medische gebieden en zelfs de AI beter soms presteerd dan de vakkundige, zien we met ChatGPT oa dat dit dus helemaal niet zo goed is. Ik vraag me dan ook sterk af waarom deze LLM's niet zo goed presteren tov hele specifieke tools.
Mensen zijn niet in staat om critisch te denken, dit is iets wat pas in hoger onderwijs wordt bijgebracht en zelfs dan valt men vaak te kort.
Eens, behalve het hoger onderwijs stuk.

Ik vraag me dan ook sterk af waarom deze LLM's niet zo goed presteren tov hele specifieke tools.
Je geeft je eigen antwoord al, omdat ChatGPT daar gewoon simpelweg niet voor gemaakt is (en dat ook helemaal niet het doel is van ChatGPT). Pas als je die zaken gaat combineren krijg je een goed werkend eindresultaat. Zie als voorbeeld ChatGPT+WolframAlpha
https://writings.stephenw...e-superpowers-to-chatgpt/

Je kan het hier zelf proberen:
https://huggingface.co/spaces/JavaFXpert/Chat-GPT-LangChain
Mensen zijn niet in staat om critisch te denken, dit is iets wat pas in hoger onderwijs wordt bijgebracht en zelfs dan valt men vaak te kort.
Ik ben van mening dat dit niet wordt bijgebracht in hoger onderwijs, maar dat je dit dan al moet hebben en velen alsnog door dit 'hoger' onderwijs heen kunnen komen zonder die eigenschappen. Sommige laten 'kritisch denken' eigenschappen als zien op de middelbare school of zelfs al de basis school.
Mij valt dit overigens tegen, waar we lezen dat men veel gebruik maakt in bepaalde medische gebieden en zelfs de AI beter soms presteerd dan de vakkundige, zien we met ChatGPT oa dat dit dus helemaal niet zo goed is. Ik vraag me dan ook sterk af waarom deze LLM's niet zo goed presteren tov hele specifieke tools.
Nogmaals, het 'valt tegen' omdat jij en ieder ander er de verkeerde verwachtingen aan stelt. Je verwacht van Herman van Veen toch ook niet een diepgaand en juist antwoord over Stringtheorie. De eerste kritische vraag die je moet stellen: Waar is ChatGPT voor gebouwd?
Voordeel van een bug in je eigen code is wel dat je (als het goed is) een idee hebt wat je code doet en welke beslissingen je tijdens het schrijven hebt gemaakt. M.a.w het is mogelijk dat je daardoor iets eerder de bug vind dan in een onbekend stuk code wat door ai is geschreven. Als je daar wat langer mee bezig bent kost dat dus meer centen.

Anderzijds gooi je je code in de ai en vraag je of de bug kan worden gefixt en 9/10x lost de ai het keurig voor je op. Wat weer enorm veel tijd en geld bespaard.
Probleem is dat ik geen code kan schrijven. Code begrijpen, lezen en aanpassen lukt nog wel.
Het is niet zo dat je de code altijd copy-paste-ship doet. Het is meestal een scaffold / stub code die je uitbreid of omgeeft voor jouw usecase. En aangezien je tests er tegen schrijft of je gewoon met je debugger er doorheen stapt komt dit echt wel goed. No drama!

Maar ik begrijp de populistische angst tegen copy-paste-ship code. Of het nu van chatgpt, copilot of stackoverflow komt. Het levert je klicks op en +2 op.

[Reactie gewijzigd door Jochem op 22 juli 2024 14:12]

Alleen als de medewerkers hem slim inzetten, dat kan lang niet iedereen.
Dat geldt natuurlijk voor alle tools. Als je niet goed met office om kunt gaan verspil je ook veel tijd. Of als een timmerman niet goed met een superdeluxe zaagbank kan werken was het ook een zinloze investering.
In de meeste gevallen is dat een kwestie van tijd. Alle nieuwe dingen moet je immers even leren gebruiken en toepassen.
En vergeet de opleidingskosten niet. €150/uur is niks. En dan 4 weken cursus.
Zeker niet duur inderdaad, ik heb net bijvoorbeeld uit pure interesse de teksten op de website van mijn bedrijfje eens laten beoordelen en verbeteren. Gewoon uit de kunst, heel bizar.
Als kleine zelfstandige is een professionele tekstschrijver al gauw flink aan de prijs... hier kun je flink wat maanden ChatGPT voor nemen. Ik ben wel bang dat deze mensen klanten gaan verliezen. Ik zie er zo al een hoop toepassingen voor bijvoorbeeld voor mijn offertes. Ik ben zelf dyslectisch dus voor controle ben ik altijd afhankelijk van naasten. Ik denk dat ik hier zeker gebruik van ga maken en ik denk ook wel een met een Plus-abonnement.
ik moet heel eerlijk zeggen dat ik je verhaal niet zo goed snap. vooral voor zaken als dyslectie heb je al jaren goede taalmodellen voor spelling- en gramatica checking en zelfs zinsbouw of vorm... dan kijk ik naar tools als grammerly (engels) of languagetool (meertalig) die hetzelfde kunnen voor ongeveer 5 per maand.... een andere vrij handige oplossing is text-to-speach... immers leest die wat er staat en niet wat je bedoeld.. je kunt dus horen dat er fouten in je text zitten omdat je tts-engine er troep van maakt zodra je text niet in orde is...

dit zijn tools die velen malen goedkoper zijn dan chatGPT dus vraag ik me direct wel een beetje af of dit niet een beetje overdreven is.. je stopt immers ook geen 128core threadripper in een office pc voor oma.
Chatgpt is gewoon gratis in het beoordelen van teksten op een website. Copy paste. Daar hoef je geen tools of andere taalmodellen voor te zoeken en te leren. Dit is echt laagdrempeligger als het niet je vak is.
Het gaat niet alleen om "spelling- en grammatica controle" die tools ken ik wel. Het gaat er om of zinnen lopen, het verhaal samenhangend is. Het is niet mijn talent om goed te schrijven, en mijn dyslexie maakt het hoogdrempelig en tijd rovend om mezelf te controleren en kritisch blijven is dan nog lastiger...
De dingen die ik een paar uur geleden geprobeerd heb, komen gewoon goede suggesties uit. Die mij veel tijd schelen, ook vertalen werkt bijzonder goed.
Het blijft duur ondanks het je werk bespaard. Denk even na dat dit gewoon technologie is dat iedereen helpt en wij trainen de AI tenslotte door onze input. Waarom voor betalen? Waarom altijd maar winst willen maken.. een gift zou veel mooier zijn voor de mensen want men kan ook leven van andere dingen.
het is gratis, maar er is dus een betaalde versie.
ik neem aan dat jij ook gewoon betaald wilt zien voor je werk?
Dus omdat wij het nu helpen beteren door onze inputs mogen de developers die er JAAAAREN dag in dag uit aan gewerkt hebben om het zover te krijgen niet voor hun harde werk beloond worden?
Ik vind dat als men kan profiteren van gebruikers die massaal hier gebruik van maken en ook de AI juist trainen waardoor dit bedrijf tenslotte alleen maar van gaat groeien ook wel ergens gecompenseerd kan worden in een wat lagere maand kosten of wellicht gratis. Zij kunnen dit prima inzetten voor grotere projecten in bedrijven wat wel een licentie kosten mag bevatten waar een bedrijf zelf ook hogere omzet van kan genereren. Maar een gemiddeld gebruiker zou ook van deze functie mogen proeven in mijn optiek.

Maja ik begrijp ook wel heel goed waarom men dit doet alleen baal er een beetje van dat er weer zo'n verdien model wordt waar men winst perse op moet maken.

[Reactie gewijzigd door deniz280 op 22 juli 2024 14:12]

Paar dagen terug heb ik die tool voor de eerste keer gebruikt om een zakelijke brief laten schrijven. Resultaat was enorm goed en heb enkel maar een aantal minimale aanpassing moeten doen. Ik was stoen eigenlijk verkocht. Helaas is het Nederlands wel een stuk minder, maar als ik voldoende usecase kan vinden, dan zie ik mij dit toch ook aanschaffen.
Via Deepl vertalen naar Nederlands kan een oplossing zijn. Het Nederlands wat uit ChatGPT komt is inderdaad beperkt of vaak fout.
Nadeel is dat zelfs DeepL, die wel echt de verre voorloper zijn in automatisch vertalen, gewoon nog niet zelf kan vertalen zonder flinke fouten.

Voor een brief waar een perfecte vertaling minder belangrijk is dan een mooi verhaal is het leuk speelgoed, en het is ook zeker wel inzetbaar als hulpmiddel, maar nog bij lange na niet iets waarmee je hele documenten kunt laten vertalen zonder problemen.

Dus ik vraag me ook af wat er gebeurt als je een AI tekst in een ML vertaalmachine gooit, want dan heb je twee stappen waar rare dingen kunnen optreden.
Duur? Een ROI van enkele minuten, hoe kan dat dan duur zijn of klinken?
Als je er daadwerkelijk een deel van het werk mee kan automatiseren is het echt een schijntje.
Voor een 'gimmick' is het wel prijzig.
Bedrijfsmatig is $24.20 een afrondingsfout ;-)
'24.20'
2 - (2) = (0)
4 - (2) = (2)
2 + (2) = (4)

coincidence? I think not! Of misschien wel, ben me aan het vervelen.

[Reactie gewijzigd door ilaurensnl op 22 juli 2024 14:12]

Het is $20+21% BTW (wat bedrijven kunnen terugvragen). Dus eigenlijk 20 dollar plus een landafhankelijke opslag. Dus ik snap je niet.
Slecht bedoelde grap, kwam niet goed over. De extra kosten om chatgpt te betalen boven op wat een medewerker sowieso al kost, is heel weinig.
Duur? 24 euro per werknemer per maand waar je met de eerste 5 minuten gebruik al 2 uur aan werk bespaart? Klinkt spot goedkoop.
Best grappig, want straks is dit allemaal gratis via Bing. Mocht je willen zien hoe dat eruit ziet: https://bing.com/new
Ik moet zeggen, dit heeft wel wat disruptie veroorzaakt in mijn plannen. Ik wou inderdaad het plus abbonement aanschaffen voor ChatGPT zodra die uit kwam hier, maar gezien hebbende hoe goed de bing intergratie is weet ik niet of het mij nog 20 dollar per maand waard is om eerlijk te zijn.... Ik zou dan toch hopen dat de OpenAI versie ook mogelijkheid krijgt om te zoeken op het internet eigenlijk
Voor 3 tientjes kun je het toch gewoon uitproberen? Niet tevreden = opzeggen. Simpel zat.
Oh maar ik weet al dat ik ChatGPT geweldig vind. Gebruik het zo'n beetje dagelijks voor van alles en nog wat en in principe is het mij die 25 euro wel waard, maar het probleem zit hem in wat themadone zei; Bing is bezig met ChatGPT 4 intergratie en ik heb gisteren net een heel stuk WAN show gezien van LinusTechTips waarin zij dit aan de tand voelen en het feit dat de chat intergratie met bing het internet doorzoeken kan is nog een veelvoud van een veelvoud beter dan wat ChatGPT 3 (waar dit abbonement bij hoort) aan bied op dit moment, en die is al geweldig. Dus als Bing de integratie gratis aanbied, of zelfs als ze daar ook 25 euro voor vragen, dan is het een no-brainer om de Bing integratie te gebruiken over de OpenAI GPT3 bot en dan wordt het natuurlijk de vraag "is het mij het nu waard om 25 euro p/m uit te geven aan de GPT3 bot, óf wil ik liever wachten tot ik toegang heb tot de bing variant?" en op die vraag is het antwoord dus "weet niet of het mij dat nog waard is"
Ik heb nu al direct nuttige toepassingen voor GPT. Het doet er niet toe hoe goed of goedkoop Bing gaat worden want op dit moment kan ik het niet gebruiken en GPT wel. Als Bing volgende maand geweldig blijkt te zijn dan stap ik wel weer over.

Ik snap niet helemaal waarom je nu geen GPT zou willen nemen omdat iemand anders in de toekomst misschien met een betere tool komt. Daar heb je nu niks aan en er is altijd een betere tool aan de horizon.
Die WAN Show sla ik over, ben niet zo’n fan van die praatshows van 3 uur tenzij het gaat over iets waar ik heel geïnteresseerd in ben. Zelf met dubbele snelheid is het nog anderhalf uur van je tijd. Wacht wel tot het in een van zijn reguliere video’s opduikt.
Scroll even in de comments naar de timestamp guy(meestal 3de of 4de comment), die deelt elke topic op met een timestamp zo kan je snel en makkelijk de delen kijken die jou interesseren. De chatGPT delen zijn inderdaad echt een aanrader.
Ik sta op de wachtlijst. Geen idee hoe lang het duurt voor ik aan de beurt kom. Ben benieuwd.
Je kunt het versnellen door alle Microsoft tools als standaard in te stellen op je device en door de Bing app te installeren.. :D
Er zullen wel beperkingen aan zitten.
nee, er zal echt wel een verschil zijn, net zoals je gratis hotmail-accountje met office online niet hetzelfde is als een o365 subscription.
Klopt, dat denk ik ook.

Maar aan de andere kant, hoe lang duurt dat nog? Mensen willen er nu mee aan de slag. Het is een win-win denk ik.

OpenAI mooie inkomsten, en de betaler krijgt goede toegang.

Wanneer dit in Bing en Edge zit, gaan de abonnementen van OpenAI waarschijnlijk wel afnemen, maar dan betaal je het toch via Microsoft weer aan hun.
Ja maar de vraag is wat voegen ze allemaal toe via bing en wat niet? Gaan ze via een api meer functies geven bijvoorbeeld? Zat opties voor specialisaties
Ik denk niet dat Bing en Bard een 1 op 1 kopie zullen zijn.


En als het gratis is dan... Ben jij het product :+
Waarschijnlijk word het een aftakking van ChatGPT die zich meer gaat specialiseren op het vinden en presteren van informatie in de context van een search engine. Ik heb een interview gezien met de CEO van MS en er werd vooral over search gesproken wanneer er werd gevraagd naar de OpenAI integratie in Edge en Bing. ChatGPT zal zich vermoedelijk blijven onderscheiden door veel meer te kunnen en zal denk ik in het Office pakket worden toegevoegd.
Met ‘prioriteit access to new features and improvements’, word je daarmee in principe niet gewoon een beta tester? Ik weet niet of dat nou echt een voordeel is voor een betaalde dienst, of je moet het uit kunnen zetten. Ik zou eerder juist extra mogelijkheden verwachten, bijvoorbeeld langere teksten kunnen genereren of het toevoegen van bronvermeldingen bij antwoorden.
Je bent sowieso een betatester als je het gebruikt want het is allemaal nog nieuw. OpenAI zal zeker kijken naar alle problemen waar gebruikers tegenaan lopen en de input die ze geven. Voor een betaalde dienst mag je wel enige stabiliteit verwachten, maar Microsoft heeft wel eerder betaalde producten uitgebracht waar veel klachten over waren (Windows ME, Vista, 8.0).

[Reactie gewijzigd door Ozymandias op 22 juli 2024 14:12]

Misschien heb ik niet het goede woord gekozen, maar je gaat in elk geval wel echt met een early availability release werken in plaats van general availability. Noem het eventueel een alpha test in plaats van beta test.

Juist als je het professioneler in wilt zetten lijkt me dat niet altijd handig. Als je er als hobbyist voor betaalt is het een ander verhaal misschien.
Voor mij als hobbyist is het een te duur abonnement. Ik vind het enorm tof om met ChatGPT te spelen, en een paar euro (bv 5 per maand) zou ik er wel voor over hebben.
Ik zou dit abonnement zelf ook niet nemen. Maar ik kan me voorstellen dat het wel aantrekkelijk is voor bepaalde bedrijven en power users die er het geld voor overhebben.
Zou je dit abbonement kunnen delen? Voor beperkt hobbyen vind ik 20€ wat aan de hoge kant
Dan heb je dus het gratis abo met het risico dat als jij wilt hobbyen de ‘gratis slots’ vol zijn.
Hoe gaat ChatGPT ooit geld verdienen als Microsoft een betere versie ervan gratis weggeeft? 🤔
Chatgpt is voor een groot deel van Microsoft. Ik denk dat ze gewoon een splitsing gaan maken. Chatgpt voor bedrijven en opleidingsinstituten omdat die gewoon wat beter afgeschermd is. En Bing kan dan gewoon gebruikt worden door consumenten.
Microsoft en gratis in een zin? Ms gaat dit tzt ook gewoon betaald maken (net als copiloot) of serieus beperken.
Nou ja, ze vragen tegenwoordig geen geld meer als je Windows upgradet naar een nieuwe versie (voor de Home-versie dan). Vroeger moest je voor elke nieuwe versie een upgradepakket kopen voor een paar meiers (dat deden heel veel mensen natuurlijk niet).
Microsoft levert sinds oudsher al gratis 'extra' diensten. Dit om hun betaalde diensten te ondersteunen.

Maar goed, dat speelt hier niet eens.

Hier zit bij veel gebruik ook gewoon een prijskaartje aan. Het wordt een feature van de Bing API (wat best een vernufte API is om mee te spelen in projecten) en hier mag je na 10.000 requests per maand (oid) ook gewoon voor gaan betalen. Naast maps en andere features, komt hier nu gewoon ChatGPT bij.
Hoe is Google groot geworden? Het begon met de zoekmachine. Die markt is enorm veel waard omdat veel mensen daar beginnen als ze het internet op gaan.

Als het hen lukt een groter deel van de taart de krijgen dan praat je over potentieel miljarden aan (reclame)inkomsten.

En wellicht verdwijnt de gratis versie ooit en krijg je alleen met betaalde (tiers?) toegang tot bepaalde api’s en integratie mogelijkheden? Dit heeft zakelijk ook veel potentie. Laten we eerlijk zijn, heel veel bedrijven hebben klantenservice chatbots, maar hoeveel daarvan zijn echt goed? Zat potentie op heel veel markten.
Zolang chatGPT nog zoveel foute antwoorden geeft als nu is het voor mij niet interessant.
Laatst getest met een medische vragenlijst op mbo niveau. 8 van de 20 vragen fout.

Dit betekent dus ook dat er een gelijk aantal fouten in andere vragen kan zitten.
In hoeverre kun je chatGPT dan nog gebruiken, wetende dat er fouten in zitten?
Precies dit. Net als in real life gaan deze taalmodellen slecht om met bias. Als 10 teksten brullen dat de aarde plat is en één bewijst! dat de aarde rond is, dan wordt dat op z’n best genoemd, maar vaak genegeerd
Ja, dat is al aan de gang.

ChatGPT lijkt nu al een voorstander te zijn van producten zoals amandelmelk en havermelk in plaats van koeienmelk.

Bijvoorbeeld:
Bessen smoothie met amandelmelk.

...wanneer je vraagt naar gezonde hapjes.

Veel amandelmelk producten bevatten heel veel suiker. Dus of dat nu zo'n goede keuze is...

[Reactie gewijzigd door pimpampetje op 22 juli 2024 14:12]

Ik ben zelf de bron, meerdere keren getest en telkens (ongeveer) de zelfde aantal fouten. Van de 20 vragen gemiddeld 8 fout.
Dus je voedt chatGPT met MBO niveau vragen in het NL, waarvan het antwoord dat jij bekijkt ook de MBO antwoorden zijn.

Sorry dat ik skeptisch ben en vind het wetenschappelijk artikel wat ik laat zien veel meer representatief.
Ik zou voor jouw "eigen onderzoek" eerst starten met de vragen in perfect Engels aan te bieden en de antwoorden niet uit jouw boek halen, maar een niveau hoger.
Jammer dat het zo duur is en dat de winstmarge aan hun kant geen rekening houdt met de BTW die de klant moet betalen.
Duur? Imho is dit spotgoedkoop. Wij gebruiken het voornamelijk voor het schrijven van rapporten, dat gaat nu wel een factor 4 sneller. De medewerkers geven de input, controleren de output, vragen om verbeteringen, controleren nogmaals, herschrijven stukjes om er een persoonlijke draai aan te geven en klaar. Waar ze tot begin dit jaar een week mee bezig waren, doen ze nu in een dag. En van hogere kwaliteit. Dat is wat klanten tenminste aangeven.

Al kost het een 1000 euro per maand, dan nog zou het economisch een goede investering voor ons zijn
En weten die klanten ook dat ze net zo veel betalen voor vele malen minder werk en enkel nog gecontroleerd oor jullie medewerkers in plaats van gemaakt door?

Waarom zouden deze klanten het nu niet gewoon zelf kunnen gaan doen?
De input moet voorlopig nog gewoon door een medewerker worden geleverd. Als klant betaal je het bedrag voor de kwaliteit die voor jou acceptabel is. Hoe je leverancier tot het product komt is minder relevant.

Wat je gaat zien is dat repetitief en gestandaardiseerd werk (bijv offertes of standaard rapporten schrijven) door AI kan worden overgenomen. Is niks mis mee.

Wellicht gaan de prijzen van dit soort werk op termijn zelfs omlaag.
Wellicht gaan de prijzen van dit soort werk op termijn zelfs omlaag.
Wij hebben al besloten om onze prijzen ondanks de hoge inflatie, dit jaar niet omhoog te doen. Normaal doen we dat per 1 april van elk jaar, dit jaar zien wij daar vanaf. Daarmee worden onze diensten relatief goedkoper, al betaalt de klant er nog net zoveel voor als vorig jaar.

Concurrenten doen de prijzen wel omhoog, wat ons een betere concurrentie positie geeft.
Dit heeft natuurlijk nog meer nadelige gevolgen voor mensen met een wat lagere opleiding op de arbeidsmarkt. Met een MBO-opleiding kom je er al vaak niet meer. En ook hoger opgeleiden zullen hierdoor op den duur veel van hun werkzaamheden overbodig zien worden.
Dit heeft natuurlijk nog meer nadelige gevolgen voor mensen met een wat lagere opleiding op de arbeidsmarkt.
Om eerlijk te zijn verwacht ik bij de lager opgeleiden eigenlijk nog de minste problemen: Dat is niet het werk dat door ChatGPT wordt overgenomen. Lager opgeleiden doen vaak/vaker werk met hun handen, denk aan productie- en schoonmaakwerk. Daar is robotisering juist de bedreiging.
Met een MBO-opleiding kom je er al vaak niet meer. En ook hoger opgeleiden zullen hierdoor op den duur veel van hun werkzaamheden overbodig zien worden.
Wat ik hier zie, is dat het werk voor junior & medior medewerkers, dus tot een jaar of 5 werkervaring, minder zal worden. En dan ga je vanzelf het probleem krijgen dat er geen seniormedewerkers meer bij komen, want niemand doet ervaring op... En zonder ervaring kun je de chatbot moeilijk controleren en aansturen. Wanneer junior- en medior- medewerkers tot kort geleden de basis legden van onze rapportages, is dat nu overgenomen door de chatbot. Wij hebben een deel van het werk kunnen verleggen naar de onderzoeksfase waardoor we genoeg werk voor iedereen houden. Maar we zijn nog zoekende hoe we op termijn ook iedereen op voldoende niveau kunnen krijgen om de chatbot van input te voorzien, output valideren, het laten verbeteren, etc. Een senior kan dat doordat ze in het verleden zelf zijn opgegroeid met het schrijven van rapportages, maar het is juist dat werk dat nu grotendeels door de chatbot is overgenomen. Dus hoe een junior or medior dat gaat leren...
Misschien, kun je die helpen door die alle gevallen te laten behandelen, waarin het rapport van zo'n chatbot nog onvoldoende is (dan moeten ze nog wel even genoeg werk hebben ;) Want zeker bij code is het resultaat nu niet bepaald optimaal, echt er zijn vaak veel betere oplossingen mogelijk.
Dat is 100% van de initiële resultaten... Wat wij zien dat het vooral de kunst is om goede opdrachten te geven met goede input. Dat levert gemiddeld een 6-je op, wat voor ons bij lange na niet goed genoeg is. Wat je dan doet, is op basis van je eigen kennis en waar de grootste gebreken zitten in het resultaat, gericht doorvragen naar verbeteringen en daarbij wellicht ook aanvullende input geven in de vorm van cijfers en hypotheses. Ik zie dat de mensen met veel specialistische kennis dan tot de beste resultaten komen. En dat ook vrij snel weten te behalen, ze weten hoe ze vragen moeten stellen, zien welke cijfers ontbraken in de oorspronkelijke vraag, etc.

De mensen met weinig werkervaring komen snel tot "een" resultaat, maar mogen al blij zijn met een vijfje. Hun gebrek aan werkervaring en kennis is dan blocking om verbeteringen door te voeren. Hulp van een senior is dan ook niet meer een oplossing, het startpunt is niet goed waardoor een senior gewoon opnieuw begint ipv een poging doet om een slecht/matig initieel rapport te verbeteren. Wij proberen nu een soort van template te maken die iedereen wat houvast geeft bij het starten van de rapportage om voor betere input te zorgen. De vrijdagmiddag gebruiken we nu ook voor het presenteren van best practices bij het starten om die kennis te delen.

Want op termijn voorzie ik het probleem dat de mensen mét ervaring er geen zin in hebben om te werken met de mensen zónder ervaring. Zelf een rapport herschrijven is sneller dan een ander helpen met het herschrijven, want de controles moet je toch al zelf doen. Het is de naam van de senior die op het rapport staat.

Uitdaging voor de 21e eeuw, kwam als een verrassing voor 2023, maar is ook wel leuk om zo'n uitdaging aan te gaan.
Jullie hebben dus blijkbaar geen kennis bank (door senioren), of iets dergelijks voor de jongere aangelegd. En lijken ze dus in het diepe te gooien. Terwijl de ia vele miljoenen soort gelijke documenten heeft kunnen lezen.... Zo kan ik ook vergelijken. Mischien is delen van kennis een verbeter punt binnen sommige organisaties.
Die kennis is wel beschikbaar, maar zolang je die kennis niet kunt interpreteren omdat je de ervaring niet hebt, is het meer data dan dat het informatie is. Een junior ziet een symptoom, een senior is al op zoek naar een mogelijke oorzaak en weet ook al dat mogelijke oorzaken C en D in deze situatie het meest voor de hand liggen. Een junior gaat zoeken naar mogelijke oorzaken, komt eerst bij A, dan bij B, etc. Dat is het verschil in werkervaring.

Dit is precies waarom we de vrijdagmiddag presentaties van stal hebben gehaald, om kennis en ervaring breder te delen. Dat er een kloof is tussen junior en senior, dat is normaal. Maar die kloof moet niet te groot worden en je moet de kloof ook kunnen overbruggen. Presentaties maken de senior bereikbaar, ook voor de verlegen junior.
Opleidingsniveau heeft er niks mee te maken, afstudeerrichting bepaald alles. Ik help liever 100 MBOers uit de techniek aan een baan dan 1 universitair opgeleide archeoloog.
dan 1 universitair opgeleide archeoloog.
Ik voel mij persoonlijk aangevallen. ;) Echter - waarom? Archeologen kunnen over het algemeen uitstekend schrijven - iets wat in vrijwel ieder werkveld met klantcontact van pas komt. Ze kunnen veel informatie verwerken en daar leidraden uithalen. Velen hebben doorgaans ook toegepaste en theoretische kennis van meer technische vakken: denk daarbij aan Geografische Informatiekunde, bodemkunde, aardwetenschappen en in sommige gevallen zelfs 3D-modelling, genetica en massaspectrometrie. Je hebt het bovendien over zo'n beetje de enige academische beroepsgroep die het daarnaast ook fijn vindt om hard werk te verrichten in de modder, ongeacht weersomstandigheden.

Met die kunde (vooral op ICT-gebied) heb ik gelukkig een hoop bedrijven gevonden die een kans op mij wilde wagen. Tot de dag van vandaag word ik nog gecomplimenteerd op mijn communicatievaardigheden en leersnelheid.

Inmiddels met veel MBOers samengewerkt. Velen ervan bijzonder getalenteerd of gemotiveerd - een minderheid zelfs beiden. Maar om nou te zeggen dat je meer aan ze hebt dan academici? Nou, nee. Niet noodzakelijk.

[Reactie gewijzigd door Praetoriani op 22 juli 2024 14:12]

Haha sorry ik doelde meer op het belang van de afstudeerrichting in plaats van het opleidingsniveau in het vinden van een baan. Het is makkelijker een baan te vinden als een MBOer in de techniek dan het als hoogopgeleide in een niche, verzadigde markt.
Dit heeft natuurlijk nog meer nadelige gevolgen voor mensen met een wat lagere opleiding op de arbeidsmarkt. Met een MBO-opleiding kom je er al vaak niet meer. En ook hoger opgeleiden zullen hierdoor op den duur veel van hun werkzaamheden overbodig zien worden.
Daar zitten een beetje twee kanten aan en dat komt door hoe we onze maatschappij hebben ingericht.

Als de wereld volkomen eerlijk en rechtvaardig zou zijn dan zou iedere technische verbetering gunstig zijn voor iedereen. Misschien dat sommige mensen hun baan kwijt raken maar als de wereld als geheel daar productiever van wordt dan kunnen we die mensen een uitkering geven die hoger is dan hun salaris was. Win-win voor iedereen.

Maar ja, zo werkt de wereld niet. In praktijk is het aannemelijk dat de rijksten het meeste profiteren en de armsten het minste want zo gaat het meestal. Dat is maar frustrerend. Ik geloof echter niet dat het tegenhouden van vooruitgang daar iets aan verbetert, volgens mij gaat dat proces toch wel verder en geeft techniek juist nieuwe manieren om de oude systemen en patronen te doorbreken.

Overigens betekent een groter gat tussen arm en rijk niet per se dat de armsten er er op achteruit gaan. Arm en rijk is allemaal maar heel relatief. Het is eigenlijk niet mogelijk om een goede vergelijking te maken tussen arme Nederlander van nu iemand van 2000 jaar geleden. Op sommige punten zijn de armste armen nu beter af dan de rijksten van toen, op andere punten is verschil in welvaart groter dan ooit.
Dat maakt het heel moeilijk om de voorgang van de tijd en de techniek te zien.
Als je ziet hoe beperkt zelfs de beste robotstofzuigers zijn dan hoeven schoonmakers zich ook geen zorgen te maken. Je krijgt straks wel een strikte scheiding van de banenmarkt tussen hoog- en laagopgeleiden want de banen daartussen gaan verdwijnen. Maar die trend was al langer gaande. Je moet er toch niet aan denken dat er straks alleen werk is voor de heel knappe koppen en voor mensen die met hun handen werken?
En weten die klanten ook dat ze net zo veel betalen voor vele malen minder werk en enkel nog gecontroleerd oor jullie medewerkers in plaats van gemaakt door?
Doet dat er toe? Je betaalt toch voor het resultaat, niet voor de methode?
Als ik een trui koop maakt het me ook niet uit of die met de hand gebreid is of machinaal is geweven.
Waarom zouden deze klanten het nu niet gewoon zelf kunnen gaan doen?
Omdat ze de controle niet zelf kunnen doen. Pagina's met tekst vullen is makkelijk, dat kan iedereen.

Ik denk dat je het zelfs omgekeerd moet zien. Als je zelf geen GPT gebruikt om je eigen kosten te drukken dan ben je duurder dan noodzakelijk dus is het voor je klanten aantrekkelijker om naar een andere oplossing of aanbieder over te stappen. Je kosten niet verlagen als de concurrentie wel doet is over het algemeen geen recept voor succes maar juiste het einde.

Uiteindelijk is ieder bedrijf gebaseerd op de aanname dat het bedrijf iets beter of goedkoper kan doen dan wanneer mensen het zelf doen. Of het nu gaat om het bakken van een brood of het opstellen van een audit-rapport. Met genoeg geld en tijd kun je alles zelf doen. Ieder bedrijf zal af en toe moeten nadenken of het wel genoeg waarde levert en hoe het met de tijd mee moet gaan.
Dat ligt aan hetgeen ik koop. Branding, design etc. Ja, daar gaat het om het resultaat. Dingen als een belastingaangifte, als ik daarvoor honderden euros betaal en er vervolgens achter kom dat ze zelf amper werk verrichten voel ik me wel redelijk genaaid.

Bedrijven gaan er op deze manier veel meer winst op maken, oftewel de inzet van zulke technologieën komt maar een heel klein deel van de bevolking ten goede en daar ben ik het niet mee eens.

Ik zie bedrijven niet zo snel hun prijzen verlagen.
Dat ligt aan hetgeen ik koop. Branding, design etc. Ja, daar gaat het om het resultaat. Dingen als een belastingaangifte, als ik daarvoor honderden euros betaal en er vervolgens achter kom dat ze zelf amper werk verrichten voel ik me wel redelijk genaaid.
Tja, een beetje wel, maar dat zit toch voor een groot deel tussen de oren, zeker zo iets als branding.
Geloof maar niet dat je op andere gebieden niett net zo hard genaaid wordt.
De productiekosten van een A-merk zijn niet veel hoger dan die van het goedkoopste C-merk. Wel iets maar niet in verhouding tot het verschil in eindprijs.
Bedrijven gaan er op deze manier veel meer winst op maken, oftewel de inzet van zulke technologieën komt maar een heel klein deel van de bevolking ten goede en daar ben ik het niet mee eens.
Ik deel je angst maar techniek tegenhouden wordt de wereld ook niet beter. Laten we wetten maken om de wereld eerlijk maken en niet proberen technologsiche vooruitgang tegen te houden. We moeten zorgen dat die bedrijven "genoeg" belasting betalen (wat genoeg precies is laat ik even in het midden) om de schatkist gevuld te houden.

Ik zie het meer als kans dan als bedreiging. Laten we les trekken uit de stoommachine, dat was ook een radicaal verstorende techniek die een hoop banen overbodige maakte. Tegelijkertijd gaf het ruimte voor nieuwe banen die eerst niet nodig waren of niet rendabel waren. Nog belangrijker is dat de industrialisering ook ruimte gaf aan een aantal belangrijke wettelijke hervormingen zoals een verbod op kinderarbeid en schoolplicht en grenzen aan werktijden

Ik hoop dat we met deze techniek nog wat mooie sociale hervormingen kunnen laten plaatsvinden. Misschien kunnen we de werkweek een dag verkorten of een basisinkomen invoeren of de BTW verlagen of de gezondheidszorg gratis maken of zo iets.

[Reactie gewijzigd door CAPSLOCK2000 op 22 juli 2024 14:12]

Het maakt jou niet uit inderdaad maar hier ben je niet de klant.

Een handgebreide trui kost meer omwille van de manuren die er in steekt ten opzichte van machinaal gemaakte truien.

Stel dat je ChatGPT gebruikt om rapporten te schrijven, kan je dan nog dezelfde tarief aanrekenen als dat je normaal zou doen? Zeer grijze zone vind ik.
Anoniem: 532949 @Triple012 februari 2023 18:13
Hoewel ik het ook niet leuk vindt, is dit natuurlijk een logisch evolutie. De concurrentie strijd in de markt zal straks elk bedrijf dwingen om AI in te gaan zetten, anders verliezen ze hun concurrentie positie (op een paar niche marken na dan).

Er is een hele industrie aan het ontstaan door deze vraag, om AI te ontwikkelen die zo veel mogelijk werk over kan nemen. Het bedrijf met de beste AI integratie zal het meeste winst gaan maken, zeker als we straks autonome AI systemen hebben die 24/7 365 dagen per jaar kunnen doorwerken.
Het maakt jou niet uit inderdaad maar hier ben je niet de klant.
Ik neem aan dat andere klanten hetzelfde denken: je wil een bepaald resultaat tegen een zo laag moge prijs. Of de leverancier daarvoor 23 uur per dag in de modder staat de zwoegen of één keer met z'n vingers knipt verandert niks aan het nut van het product en de prijs die men bereid is er voor te betalen.
Een handgebreide trui kost meer omwille van de manuren die er in steekt ten opzichte van machinaal gemaakte truien.
Dat is het "probleem" van de leverancier, niet van de klant. De klant kijkt of de trui mooi en warm is en binnen budget past. Als een andere trui net zo mooi en warm is maar goedkoper dan koopt de klant die.
Stel dat je ChatGPT gebruikt om rapporten te schrijven, kan je dan nog dezelfde tarief aanrekenen als dat je normaal zou doen? Zeer grijze zone vind ik.
Hoezo is dat grijs? Het is doodnormaal* dat bedrijven een zo hoog mogelijk tarief rekenen. Dat is vooral een balans tussen de prijs van de concurrent en prijs die de klant wil betalen. De productiekosten geven een ondergrens, niet meer. Als je als bedrijf hetzelfde werk kan leveren met minder kosten dan maak je meer winst. Alleen bij felle concurrentie aan de onderkant van de markt speelt de prijs van het productieproces de grootste rol.
Hangt er van af wat voor soort consument je bent en wat voor soort bedrijf je bent.
Ik heb de indruk dat je er van uit gaat dat elke consument enkel de laagste prijs wilt betalen voor een bepaald product maar dit is niet het geval.

Toen ik student was en moest leven van mijn zakgeld, leefde ik in die mindset. Laagste prijs mogelijk of zelfs tweedehands.

Ik beschik nu over voldoende inkomen om bvb te zeggen: Ik ga een T-shirt kopen die niet in de filipijnen is gemaakt en hier in de winkel 5 euro kost.

Bedrijven zijn er inderdaad om winst te maken. Maar er zijn er meer en meer die zich afvragen: At what cost? en dit is een positieve evolutie. Daarmee dat AI gegenereerde rapporten een grijze zone betekent voor mij.
Zonder de input van de medewerkers ga je dit rapport niet krijgen. De kwaliteit van het werk, van de rapporten, is omhoog gegaan, het is niet minder geworden. En wij hebben onze prijzen niet verhoogd, we zijn slimmer gaan werken waardoor we meer werk in minder tijd kunnen verzetten

Zie ChatGPT als een AI co-worker, niet als een dom stuk gereedschap die mensen vervangt. Het is een aanvulling en die zorgt voor de som 1 + 1 = 3
Wanneer iets te mooi lijkt om waar te zijn, is dat meestal ook zo... :D
Je geeft het antwoord zelf al. Het bedrijf geeft input en controleert. Het staat het bedrijf die deze dienst inkocht altijd al vrij om het zelf te doen, maar ergens maakt dat ze dat niet kunnen. Of dat tijd of kennis is maakt geen drol uit, de value die ze kopen blijft hetzelfde, dus waarom zouden ze de dienst direct goedkoper aan moeten bieden. Of waarom zouden ze moeten zeggen dat ze ChatGPT gebruiken? Ze kopen de dienst als output, als de output klopt is daar niets aan veranderd.

Als ik mijn dienst verkoop is dat bijna altijd op basis van een uren schatting en uurtje factuurtje, maar als mijn klanten vragen om een fixed fee bouw ik altijd een marge naar boven in. Wanneer ik het werk met een dienst als ChatGPT in veel minder uren kan realiseren dan is dat mijn voordeel geweest, de klant krijgt nog steeds datgene waar die om gevraagd heeft voor een prijs waar die bereid was voor te betalen.

Marktwerking zelf zal vast voor een correctie in prijs zorgen, maar niet het simpele feit dat 1 bedrijf zn werk sneller kan doen en dat je daarom je klanten gaat vertellen hoe je dat doet...
Omdat ze simpelweg de expertise niet zelf in huis willen halen. Als ik een rapport moet schrijven over de dienstverlening en ik laat AI dit deels oplossen, dan heeft dat nog niet de dienstverlening vervangen.
Ik weet niet precies wat voor rapporten het zijn met welke C levels; maar hoe gaan jullie om met eventuele bedrijfskritische/concurrentie gevoelige/strategische informatie?
Wordt vooraf gelabeld en mag niet worden gebruikt in de bot. In de opdrachten die we aan de bot geven, benoem je ook dat je met opzet een stuk informatie weglaat en dat later zelf toevoegt. Dat levert bruikbare resultaten op, waarbij je zelf nog wat moet toevoegen.

En toevoegen moet toch al, grafieken, tabellen, plaatjes, layout etc. moet je toch al zelf doen. Het is die 80% generieke tekst waar we zoveel tijdswinst mee pakken
Wat voor rapporten zijn dat dan?
-

[Reactie gewijzigd door dago21 op 22 juli 2024 14:12]

Weten jullie ook dat dit soort models veel feitelijke fouten maken en soms erg bias zijn? Zo ja wat doen jullie er aan om correctnes van het werkt te garanderen.
https://youtu.be/w65p_IIp6JY
In Amerika betalen ze ook gewoon btw hoor.. Alleen zijn ze daar gewend de netto prijzen te zien vanwege de verschillen per staat. Ze rekenen daar ook gewoon varianten van 24,20 af.
Je hebt helemaal gelijk. Alleen is de btw daar doorgaans een stuk lager, zo rond de 10%.
Als je kijkt wat voor serverpark en software je nodig hebt om dit uit te voeren, dan is het een behoorlijk nette prijs. Ik denk niet dat ze op die 24 euro veel winst gaan maken.
Ik vraag me af hoe YouTube winstgevend kan zijn. Die hebben een opslag die in petabytes wordt gemeten, dat moet toch astronomisch veel geld kosten om voor het merendeel gratis aan te bieden? Zouden ze nou echt zoveel winst maken met advertenties?
2 woorden: schaalgrootte en reclame.
Door schaalgrootte kunnen ze opslagkosten relatief laag houden. En de inkomsten uit reclameverkoop zijn ruim voldoende. Anders zouden ze het echt niet volhouden.
Ik heb het even opgezocht, er wordt dagelijks 24 Tb aan video’s geupload op YouTube. Dat lijkt me niet zoveel, staat gelijk aan iets meer dan die twee 10 Tb externe harde schijven die ik hier heb liggen. Maar cloudopslag is natuurlijk veel duurder dan een harde schijf.
De data wordt opgeslagen in de datacenters van Google zelf, dat is voor hun geen cloud storage en is een stuk goedkoper dan wat jij en ik voor een TB in de cloud betalen.
Als je dit bedrijfsmatig duur vindt wordt het tijd om iets anders te gaan doen. Dan is het eerder een hobby.
Het is jammer dat het niet per definitie vrij is, dit zou niet alleen beschikbaar moeten zijn voor rijke / bedrijven. Zeker aangezien de AI in de toekomst steeds sterker word in het boosten van productiviteit. Denk dat men wel kan inzien hoe dit soort technologie de kloof tussen arm en rijk alleen maar kan vergroten.

Dat gezegd te hebben, het is volkomen logisch dat bedrijven hier nu geld voor gaan vragen, dit soort tech ontwikkelen en runnen is erg duur.
Met de tijd die je kan besparen door bijvoorbeeld Unit Tests te laten generen bij het programmeren of andere stukken code die je regelmatig schrijft een prima prijs lijkt mij.
Hoe laat je unit tests genereren zonder context?
Misschien wordt zo’n nieuwe feature wel directe verbinding met je git repo (met als je betaald de garantie dat je code verder privé blijft). Heeft ie genoeg context om testen te schrijven, suggesties te maken voor verbetering, documentatie te schrijven en meer.
Wat dacht je van integratie in Visual Studio professional? :)
Hoe laat je unit tests genereren zonder context?
Terecht vraag, je zal iets van context moeten geven.
Tegelijkertijd is GPT heel erg goed in zelf details invullen, zoals aannames doen over het bestaan van klassen en functies die nuttig zouden zijn in een bepaalde context.

Het is misschien een beetje makkelijk gezegd maar gebrek aan context kan ook een voordeel zijn. Bij het schrijven van tests is één van de gevaren immers dat je code en tests gebaseerd zijn op dezelfde foute aannames.

Op dit item kan niet meer gereageerd worden.