OpenAI kondigt GPT-4-model aan dat afbeeldingen en tekst als input kan gebruiken

OpenAI heeft de nieuwste versie van zijn GPT-taalmodel aangekondigd, te weten GPT-4. De nieuwe versie heeft als voornaamste vernieuwing dat tekst en afbeeldingen als input kunnen dienen. Het GPT-taalmodel vormt de basis voor AI-chatbots als ChatGPT en het nieuwe Bing.

OpenAI benadrukt dat GPT-4 afbeeldingen en tekst accepteert om teksten als output te genereren. Volgens het bedrijf is het nieuwe model minder capabel dan mensen in veel situaties uit de echte wereld, maar vertoont GPT-4 prestaties op menselijk niveau bij verschillende professionele en academische benchmarks.

De voorganger, GPT-3.5, accepteert alleen tekst als input. In een normaal, informeel gesprek kunnen de verschillen tussen GPT-3.5 en GPT-4.0 subtiel zijn. OpenAI stelt dat de verschillen pas echt goed naar voren komen als de taak een bepaalde mate van complexiteit haalt of overschrijdt. GPT-4 zou in vergelijking met GPT-3.5 betrouwbaarder en creatiever zijn en in staat zijn om meer genuanceerde instructies af te handelen.

OpenAI toont een aantal voorbeelden van de capaciteiten van GPT-4 waarbij er een vraag in tekst wordt gesteld over een bijgevoegde foto. Zo zijn er meerdere voorbeelden waarbij aan het model wordt gevraagd om uit te leggen wat er grappig is aan het plaatje.

Volgens OpenAI is er zes maanden gewerkt om de prestaties van de nieuwste versie te verfijnen. Een jaar geleden werd GPT-3.5 getraind als een eerste testsessie voor het nieuwe systeem. Daarbij zijn bugs en theoretische onderbouwingen verbeterd. Op basis daarvan was de GPT-4-testsessie 'ongeëvenaard stabiel', stelt OpenAI. Daarmee werd deze nieuwe versie het eerste taalmodel van OpenAI waarvan de trainingsprestaties accuraat en voortijdig waren te voorspellen, aldus het bedrijf.

De tekstinvoercapaciteit van GPT-4 wordt uitgebracht via ChatGPT en de api van het nieuwe model, waar een wachtlijst voor is. Om de capaciteit voor het invoeren van afbeeldingen breder beschikbaar te maken, werkt OpenAI vooralsnog samen met een enkele partner, te weten Be My Eyes. Dat is een mobiele app om de wereld beter toegankelijk te maken voor blinden en slechtzienden.

GPT-4

Door Joris Jansen

Redacteur

14-03-2023 • 19:33

108

Lees meer

Reacties (108)

108
107
32
8
1
70
Wijzig sortering
Wat ik tot zover weet, deels verzameld via de https://discoveryunlocked.substack.com nieuwsbrief:
  • GPT-4 kan moeilijke problemen met meer precisie oplossen, dankzij zijn bredere algemene kennis en probleemoplossende vaardigheden.
  • GPT-4 is betrouwbaarder, creatiever en in staat om veel subtielere instructies te verwerken dan GPT-3.5. Het overtreft ChatGPT in zijn geavanceerde redeneervermogen.
  • GPT-4 is veiliger en meer afgestemd. Het is 82% minder geneigd om te reageren op verzoeken voor verboden inhoud en 40% meer geneigd om feitelijke antwoorden te produceren dan GPT-3.5 in OpenAI's interne evaluaties.
  • GPT-4 heeft nog steeds veel bekende beperkingen waar ze aan werken, zoals sociale vooroordelen, hallucinaties en tegenwerkende prompts.
  • GPT-4 kan een prompt van tekst en afbeeldingen accepteren, waarmee de gebruiker elke visie of taak in taal kan specificeren, parallel aan de instelling met alleen tekst.
  • GPT-4 is beschikbaar op ChatGPT Plus en als een API voor ontwikkelaars om applicaties en diensten te bouwen (API-wachtlijst op dit moment).
  • Duolingo, Khan Academy, Stripe, Be My Eyes en Mem gebruiken het al, onder andere.
API Prijzen
GPT-4 met een context venster van 8K (ongeveer 13 pagina's tekst) kost $0.03 per 1K prompt tokens en $0.06 per 1K completion tokens. GPT-4-32k met een context venster van 32K (ongeveer 52 pagina's tekst) kost $0.06 per 1K prompt tokens en $0.12 per 1K completion tokens.
GPT-4 is veiliger en meer afgestemd. Het is 82% minder geneigd om te reageren op verzoeken voor verboden inhoud en 40% meer geneigd om feitelijke antwoorden te produceren dan GPT-3.5 in OpenAI's interne evaluaties.
Ik weet niet wat ik moet vinden over verboden inhoud.

Er is een groep mensen dat zich daardoor mogelijk gecensureerd voelen. En dan mogelijk ook gedaan worden.

Buiten het feit de dingen waar niet over gesproken mag worden nu goed of fout is.

Het geeft ook een risico dat iets uit het verleden wat achteraf niet zo slim was van ons als mensheid weg gefilterd kan worden, omdat het niet meer gepast is en daardoor niet meer mag.
Terwijl geschiedenis juist een belangrijk onderdeel is van onze kennis.

Het is natuurlijk extreem lastig, vrijheids van meningsuiting is een ding. Maar bedrijven willen ook niet voor bepaalde dingen bekend staan van jullie Bot zei xyz. Maar aan de andere kant wil je ook niet bekend staan als het bedrijf dat bepaalde gedachten per direct verbied.
Er is een verschil tussen vrijheid van meningsuiting en alles kunnen zeggen. Het is geen meningsuiting om chat-gpt te vragen hoe je het witte huis opblaast. Logisch dat er beperkingen op worden gelegd. Die zitten ook in onze wet.
Anoniem: 63072 @Infinnity14 maart 2023 23:06
En een ander verschil wat veel mensen niet schijnen te kennen: dat tussen een mening en een leugen.

Je komt niet weg met een leugen door te roepen dat het een mening is.
Anoniem: 1617016 @Tintel15 maart 2023 12:26
Dat de politiek het ook doet maakt het niet goed. Die politici zijn ook fout bezig.

En veel mensen liegen inderdaad 'onbedoeld', omdat mensen geneigd zijn meningen te hebben over dingen waar ze geen verstand van hebben. Maar dat is ook kwalijk gedrag, en zou wmb. harder mogen worden afgeleerd (bijv. op school).

/enigzins_offtopic
Ik krijg een min maar men vergeet gewoon dat liegen onderdeel is van onze maatschappij. Influencers liegen omdat ze daarvoor betaald worden. Verkopers liegen omdat ze anders te weinig verkopen. Diplomaten liegen om te zorgen dat er geen oorlog uitbreekt. En tegen je partner zeggen dat ze inderdaad ontzettend dik is als ze vraagt of de nieuwe jurk haar niet dik laat lijken",is ook niet altijd gewenst. :9
En hoeveel grappen zijn er niet gebaseerd op vooroordelen of gewoon leugens?
Dan hebben we nog onze absolute toekenningen die in veel gevallen ook niet waar zijn ('nooit' en 'altijd' zijn vaak betwistbaar).

Daarom worden we niet meteen bestraft als we iets zeggen dat misschien niet waar is. En dat is waarom context zo verschrikkelijk belangrijk is. Als we altijd de waarheid zouden moeten zeggen dan wordt veel humor een probleem.
Anoniem: 63072 @Tintel15 maart 2023 14:15
Het is dan nog steeds liegen en niet goed te praten met 'het is mijn mening'.

Als een leugentje om bestwil schade veroorzaakt is dat gewoon een onrechtmatige daad.

Als je het niet wist kan je nog kijken of intentie van belang is, maar een bewuste leugen, ongeacht de bedoelingen, blijft gewoon jouw verantwoordelijkheid.
maar een bewuste leugen, ongeacht de bedoelingen, blijft gewoon jouw verantwoordelijkheid.
Maar stellen dat mensen niet liegen of zouden mogen liegen is onjuist gebleken. Verkopers verliezen hun baan als ze niet liegen. Influencers krijgen geen geld als ze niet liegen. Waar ligt dan de verantwoordelijkheid? Diplomaten die liegen om te zorgen dat er geen oorlog komt is dat dan ook verwerpelijk? Niet in iedereens ogen denk ik.

Het is makkelijk om te zeggen dat verantwoordelijkheid bij negatieve gevolgen bij degene ligt die de leugen naar buiten bracht, maar zo werkt het niet denk ik.

Zelfs kinderen worden belogen om hun gevoelens te sparen of om ze iets te leren (Sinterklaas is toch echt al een tijdje dood... :9 )

Ik ben tegen liegen hoor - maar het is niet zo simpel helaas als stellen dat niemand mag liegen. Of dat de leugenaar altijd verantwoordelijk is voor de negatieve gevolgen. Beste bedoelingen tellen echt wel mee.
Anoniem: 63072 @Tintel15 maart 2023 18:50
Ik zei nooit dat ze niet liegen. Maar dat ze leugens vertellen en als ze daarmee geconfronteerd worden claimen dat het hun mening is en dat het vrijheid van meningsuiting is en nog erger dat die 'mening' - op de een of andere manier - gerespecteerd moet worden.
Okay - daar sluit ik me helemaal bij aan. :)
Zolang die beperkingen dus zodanig zijn dat ze wettelijk zijn vastgelegd is er dus geen probleem. Want jouw voorbeeld is terecht; het Witte Huis opblazen is verboden...tenzij het gewoon een wit huis is dat ergens op een veldje staat en niets te maken heeft met de Amerikaanse regering....
(Ik weet eerlijk gezegd niet of chat-gpt so case-sensitive is...vermoedelijk telt context zwaarder :Y) )

Daarom is verbieden van uitspraken zo moeilijk; context telt bijzonder zwaar...
En daarom zijn wetboeken zo enorm dik.

Want ik mag best zeggen dat "die rokinderen die een bal door mijn ruit trapten een schop onder hun hol verdienen" maar ik mag geen kinderen mishandelen - dus ook niet schoppen...
Ik denk dat iedereen wel snapt dat het niet zo simpel ligt zoals ik kortweg zei. Punt want ik probeerde te maken is dat vrijheid van meningsuiting niet betekent dat juridisch gezien alles gezegd mag worden.
Juist - dat is juridisch een probleem een mens mag idd niet alles zeggen. Maar is zeggen hetzelfde als plannen? En is het een probleem als een mens haatzaaiende tekst in z'n eigen dagboek schrijft [dus de data wordt niet verder gedeeld dan 1 mens]?
Dat is vast wel een probleem als die mens het daadwerkelijk doet - dan is het voorbedachte rade. Maar tot dan is er weinig mis.

Valt de output van een AI (die dus niet verantwoordelijk gehouden kan worden van wat het 'zegt') onder juridische beperkingen? Want die output is alleen voor de gebruiker toch?

Mag een mens tegen een andere mens vertellen hoe je het Witte Huis opblaast? Vast niet. Maar hoe zit het dan met de AI? - Mogen we die AI dan dan gelijk stellen aan een mens als het om juridisch verboden teksten gaat maar voor de rest is de AI eigenlijk niet verantwoordelijk voor wat deze 'uitbraakt' ?
Maar waarom ChatGPT een scheldwoord niet wil vertalen, is dan wel weer vreemd, niet waar? Dat valt namelijk ook onder 'verboden inhoud'.
Nee, dat is er niet. En het feit dat er dingen in de wet zijn opgenomen die haaks staan op de vrijheid van meningsuiting maakt nog niet dat een wet goed is. Dit is even uit mijn hoofd gezegd gebaseerd op een van de rechtsbeginselen.

Ik noem de wet met betrekking tot belediging. Vreselijk interpreteerbaar.

Los daarvan heb je omgangs- en fatsoensnormen. Maar dat neemt niet weg dat je op een gegeven moment niet iets over een taboe kunt of mag zeggen terwijl bijvoorbeeld bepaalde maatschappelijke ontwikkelingen de spuigaten uitlopen.

Het is altijd een balans. Maar de geschiedenis van de mensheid heeft geleerd dat je de dingen beter eerst bespreekbaar kunt maken in plaats van de boel in een wanorde te laten ontpoppen, met als resultaat oorlogen e.d.

PS
Als je aan mij zou vragen hoe je het witte huis op moest blazen, zou ik daar afhankelijk van de context op reageren.

[Reactie gewijzigd door Hatseflats op 22 juli 2024 14:36]

Dat klinkt leuk natuurlijk, alleen begon die verboden inhoud al bij dat het systeem geen positief gedicht wilde schrijven over Trump maar wel over Biden.
Ik denk dat deze beperkingen vooral ligegn op het genereren van afbeeldingen en videos die in het gros van de wereld illegaal zijn. E.g. CP.
Ben benieuwd of er ergens een lijst is met wat precies verboden is, en dan hopelijk daarbij de onderbouwing waarom.
Anoniem: 138647 @SuperDre15 maart 2023 00:58
Dingen als bv. "hoe vermoord ik iemand" zal wel verboden zijn. Een onderbouwing lijkt me niet nodig.
Onderbouwing vind ik heel belangrijk. Als het in Amerika in bepaalde staten verboden is iemand te helpen met abortus, wordt dit dan ook verboden in de AI? GPT-4 is namelijk de onderliggende engine van die nieuwe Bing AI.

Het lijkt me vrijwel zeker dat dit een "altijd een AI in je broekzak" moment er is. De monopolisten hebben op daardoor een massamanipulatietool in hun handen. Aangezien er nog bias is omtrent vragen rondom Trump vs. Biden, ga je mensen hebben die "Op welke partijen kan ik stemmen en wat is hun programma?" als vraag stellen en een gekleurd antwoord krijgen. Stel dat zelfmoord aanpakken een groot punt is, dan kom je ook tegen de censorship regels aan. Wil je LGBTQ rechten verruimen of publiek bloot promoten, dan is er een zekere kans dat je onderwerp gecensureerd wordt (of een kleiner gewicht krijgt) vanwege de preutsheid van de engine.

Ik ben helemaal pro AI, maar gezien het potentieel moet volgens mij in deze fase sterk gereguleerd worden qua rechten, tegen censuur in. Hoe dat in de praktijk gerealiseerd kan worden zonder al te veel negatieve effecten, no idea. Er komen volgens mij veel pijnlijke momenten aan die niet te vermijden zijn.

[Reactie gewijzigd door FlaffTweakr op 22 juli 2024 14:36]

Een onderbouwing kan naar mijn mening wel helpen bij het gebruiken van de tool. Net zoals bijvoorbeeld de specs van een apparaat weet ik dat mijn schroefmachine niet geschikt is om te boren in beton. Door dat te weten weet je waar beperkingen liggen en snap je de output beter. En helpt het de gebruiker ook om dan te kiezen voor een ander algoritme/tool/systeem te gebruiken.
Bij de handleiding van je boormachine staat toch ook niet dat je het niet mag gebruiken om iemand te vermoorden? ... Ergens je common sense nog gebruiken kan helpen 😃
Anoniem: 138647 @Katanatje15 maart 2023 09:00
We krijgen hier steeds meer Amerikaanse toestanden waarbij je op een magnetron een sticker moet plakken dat je geen huisdieren in een magnetron moet doen om ze te drogen. Dat soort ongelofelijk onzin.
De maatschappij wordt steeds dommerderder lijkt het wel en gezond verstand is vaak ver te zoeken.
Dommer
Dommer-er-der
Dommer-er-der-st
Mensen waren altijd (gemiddeld) al imbeciel. Het valt nu alleen meer op omdat iedereen internet gebruikt.
In dat specifieke geval? Zeker! :) Maar er zullen ook randgebieden zijn waarbij het voor de gebruiker niet duidelijk zal zijn of dat de context verkeerd wordt geïnterpreteerd door t systeem en dan is enig uitleg best handig.
De censuur is ook erg op preuts amerika toegespitst en veel minder op de wereldbevolking
Net even geprobeerd door te vragen wat de positieve kanten van Hitler waren, kreeg dus eerst het standaard verhaal dat het afgrijselijk was en hij dus niks wou delen. Toen ik zei dat elk persoon positieve en negatieve kanten had, kreeg ik toch een sommatie van sommige positieve aspecten van Hitler.
Hier is een deel van het antwoord erop:

As an AI language model, there are certain topics or types of questions that I am not designed to engage with. Specifically, I am programmed to avoid any questions that are:

Illegal: I cannot engage in any activities that are illegal, such as hacking, cyberbullying, or accessing confidential information.

Inappropriate: I cannot engage in any activities or discussions that are inappropriate or offensive, such as promoting hate speech, discrimination, or harassment.

Harmful: I cannot engage in any activities that can cause harm, such as promoting violence, self-harm, or suicide.

Personal: As an AI language model, I cannot engage in personal or confidential conversations, such as sharing private information, medical advice, or financial advice.

If you have any questions that fall under these categories, I may not be able to provide a response.
Dit filmpje laat zien waarom AI censureren een bijzonder slecht plan is.
Dat context venster is wel een belangrijke; je kan GPT-4 dus vrij veel data voeren op basis waarvan het een antwoord moet produceren. Die 52 pagina's aan tekst is waarschijnlijk ruim voldoende om de volledige knowledge base van veel bedrijven in kwijt te kunnen, waardoor dit makkelijk te bevragen wordt voor eindgebruikers. Mensen hoeven bij wijze van spreken alleen nog maar de basishandelingen van iets onder de knie te hebben om aan de hand van instructies toch complexe handelingen uit te voeren.
Het overtreft ChatGPT in zijn geavanceerde redeneervermogen.
Kan je dat echt zeggen over chat-gpt? Dat het redeneert? Klinkt verdacht veel als 'denken'.
GPT-4 heeft nog steeds veel bekende beperkingen waar ze aan werken, zoals sociale vooroordelen, hallucinaties en tegenwerkende prompts.
chat-gpt heeft hallucinaties? Dus waanbeelden? Da's niet best. Mensen met waanbeelden zijn over het algemeen niet de eerste keuze waaran ingewikkelde vragen worden gesteld.
Anoniem: 1617016 @Tintel15 maart 2023 12:39
Uiteindelijk is het een language model, dus in de basis vult het zinnen aan met de woorden/zinsneden die statistisch gezien het meest logisch zijn in die context. Dus het is eigenlijk juist heel normaal dat ie gaat lopen brabbelen als hij de context even niet helder heeft :)

Dat verklapt ook een beetje de onderliggende werking; dat het dus niet echt redeneert, het is pure statistiek. Hoewel, misschien zou je dat ook redenatie kunnen noemen, dat ligt een beetje aan je definitie. Want misschien vormen wij zinnen ook wel - deels - op eenzelfde manier.. en dan noemen we het ook, misschien een beetje arrogant, denkvermogen :Y)
statistisch gezien het meest logisch zijn in die context.
Ik denk dat het alleen statistiek is - dus geen logisch oordeel. Als 90% van de wereld opeens zou verkondigen dat 2 + 1 = 4 dan zal chat-gpt dat overnemen.

Wij (als mens) kunnen ook beslissen nemen zonder statistische onderbouwing - sterker nog: soms zelfs tegengesteld aan statistische onderbouwing (zoals meedoen aan lotterijen).
De meeste mensen zijn bang voor slangen - zonder ooit gebeten te zijn door een slang en zelfs nog zodner daarover informatie te hebben gekregen. Kinderen zijn bang voor grote blaffende honden. Terwijl statistiek zou stellen dat de meeste honden niet gevaarlijk zijn. Maar het gaat ons dan juist om die enkele uitzondering.
Natuurlijk weet ik ook niet precies hoe het menselijk brein 'leert' maar gezien ons geheugen (meestal) niet absoluut is (het veranderd altijd wel iets) en ook de capaciteit lang niet groot is als het gehele internet, werkt het vast niet alleen op basis van statistieken.
Is het dan arrogant om te zeggen dat chat-gpt niet kan denken? Ik denk van niet... :9
Anoniem: 1617016 @Tintel15 maart 2023 13:59
Toch zal je verrast zijn hoe logisch chatGPT lijkt te kunnen nadenken bij bepaalde vraagstukken. (Ik zeg lijkt, omdat ik dus niet zo goed weet of dat gedrag ook 'uit statistiek voortkomt', maar ik denk het wel).

Ik kan de bron helaas niet meer vinden, maar iemand poste laatst iets wat hij chatGPT had geleerd. Ik parafraseer uit mijn geheugen :P

"Een wibble (zelfbedacht woord) is een reeks opeenvolgende getallen die niet allemaal hoger zijn dan de vorige. 1467 is geen wibble. 2527 is wel een wibble. Kun je mij een ander voorbeeld geven van een wibble?"

ChatGPT: "4921" (of iets dergelijks)

"kun je mij een voorbeeld geven van een alfanumerieke wibble?"

ChatGPT: "BXAK" (of iets dergelijks)

Slecht geparafraseerd, maar je snapt het punt, er lijkt toch wat logica aan te pas te komen. Of zou dit puur uit statistiek voort kunnen komen? Ik ben niet slim genoeg om een antwoord te geven :P

(Disclaimer, ik moet dit eigenlijk zelf nog uitproberen in ChatGPT, maar ik weet niet of mijn Engels goed genoeg is :P)

[Reactie gewijzigd door Anoniem: 1617016 op 22 juli 2024 14:36]

Ja, dat is wel een knappe afleiding [die alfanumerieke wibble].
Je kan het gewoon in het Nederlands vragen

Ik heb het even snel gedaan: https://ibb.co/mJPjwZY

[Reactie gewijzigd door TPar op 22 juli 2024 14:36]

Anoniem: 1617016 @TPar16 maart 2023 18:06
Thanks! Ik wist niet dat ChatGPT gewoon multilingual was, al klinkt dat heel logisch! Hij maakt bij jou iets creatiefs van die alfanumerieke, maar fair enough :P Vind het ook gaaf dattie het zelfs helemaal toelicht :)
Om 21.00 vandaag wordt er een live demo gegeven: https://www.youtube.com/watch?v=outcGtbnMuQ
Anoniem: 85014 @m624814 maart 2023 21:30
Oei oei. De komende dagen gaan we overal om de oren geslagen worden dat GPT-4 onze accountant zal kunnen vervangen.

Arme boekhouders.

ps. Ik denk toch niet dat ik het het Belgische Wetboek van Koophandel ga toevertrouwen om er zo mijn boekhouding mee op te stellen. Zelfs twintig jaar of meer universiteit en een hele carrière bij de belastingen werken wil niet zeggen dat je alles juist zal interpreteren. Hangt ook wat af van welke rechter je hebt en of die de avond ervoor goede seks heeft gehad. De stand van de maan. En zo verder.

ps. De man die de demo doet zegt dat hij er zelf een halfuur voor nodig had om de regels die toegepast moesten worden te begrijpen. Het ging concreet over een halve pagina eenvoudige stapjes. Beetje overdreven. Toch ook wel knap dat het language model een goed antwoord eruit spuwde.

[Reactie gewijzigd door Anoniem: 85014 op 22 juli 2024 14:36]

Hij had er een halfuur voor nodig om de achterliggende belastingregels te doorgronden en hij begreep het pas echt nadat hij het halve A4-tje van Chat-GPT 4 had gelezen.
Ik ben benieuwd of dit voor ChatGPT Plus gebruikers beschikbaar komt als standaard engine, of dat dit een duurder betaald abonnement wordt (ChatGPT Pro bijv).

Edit: ik heb zelf Plus en heb mij aangebeld voor de wachtlijst. Kreeg een bevestiging waarin staat dat als je Plus hebt, je ChatGPT-4 kan previewen (hoewel beperkt plek is ook).

[Reactie gewijzigd door ASNNetworks op 22 juli 2024 14:36]

Best effort.
Uit de mail:
ChatGPT Plus subscribers will get GPT-4 access on chat.openai.com with a dynamically adjusted usage cap. We expect to be severely capacity constrained, so the usage cap will depend on demand and system performance
GPT-4 currently has a cap of 100 messages every 4 hours

ben + member

het model is nog niet van zichzelf bewust, vroeg GPT-4 naar de verschillen met 3.5, en kreeg toen

As an AI language model, I am based on OpenAI's GPT-3.5, and there isn't a GPT-4 available yet.

[Reactie gewijzigd door lvmeijer op 22 juli 2024 14:36]

Ik ben ook een Plus lid. Dezelfde melding hier. Ook zie ik nergens een plek waar ik een afbeelding kan uploaden.
In de tech-demo hadden ze het er over dat afbeeldingen later toegevoegd gingen worden, omdat die nog in de laatste testfase zat.
Ik heb het geprobeerd. De melding staat er inderdaad en het werkt nog niet met afbeeldingen. Maar het verschil zit hem vooral in de geproduceerde teksten die meer preciezere details bevatten en wat langer zijn.

Update: een dag later werkt het!

[Reactie gewijzigd door Weicool op 22 juli 2024 14:36]

Gezien de data van 3.5 maar tot eind 2021 gaat kan hij natuurlijk niet weten dat iets nu bestaat :)
Update: een dag later werkt het naar behoren! De AI noemt zichzelf nu eindelijk GPT-4 en kan afbeeldingen herkennen!
Ik heb Chatgpt plus en is beschikbaar
Bing maakt ook gebruik van gpt4, is deels beperkt (aantal berichten en lengte chatsessie) , maar deels beter omdat het gebruik maakt van internet en het is gratis.

https://twitter.com/yusuf...lqzoV-cDQFy-9aCTnfNQ&s=19

[Reactie gewijzigd door drakiesoft op 22 juli 2024 14:36]

Love it!

Ik gebruik GPT dagelijks en ik vind het voor mijn doelen goed werken!

Echter, zal ik mij, bijvoorbeeld medisch, nooit laten adviseren door GPT!
Wat als ChatGPT straks realtime up-to-date informatie heeft van alles wat artsen wereldwijd publiceren. Al deze info meteen kan afwegen en in begrijpelijke taal communiceert of er meteen een video van maakt voor je.

Ik zeg niet dat het artsen kan vervangen maar zeg nooit nooit of het je niet in sommige gevallen zelfs beter kan adviseren ;) Artsen maken ook fouten.
Wat je zegt, klopt.
Maar, ik switch niet ieder jaar van mijn huisarts.
Ik zit nu 20 jaar bij dezelfde huisarts, je bouwt een vertrouwensband op(in mijn geval).
Het zal door slimme artsen worden gebruikt. Het merendeel van de klachten is bekende koek voor artsen, dit wordt pas echt interessant voor weinig voorkomende aandoeningen. Daar leert de arts juist van!

Een punt van aandacht is natuurlijk nog wel de privacy en achterhaalbaarheid van het individu. Want je voedt het systeem natuurlijk ook met interessante informatie. Iets dat we nu nog wel eens eng vinden met Google.
Dit inderdaad. Zeker als een chatGPT variant de bronnen waar die het antwoord op baseert erbij levert, dan kan de arts gelijk nagaan of alles idd zo is als chatGPT het voorschotelt.

Je kan het prima gebruiken, alleen niet blind vertrouwen.
Wat als ChatGPT straks realtime up-to-date informatie heeft van alles wat artsen wereldwijd publiceren.
Dan zal het al snel ophouden met die publicaties.

Een AI die het internet afschuimt is maar zo goed als het internet. Indien beroepsgroepen zich bedreigd voelen, dan zullen deze gewoon ophouden met hun kennis te grabbel te gooien op het internet.
Toch blijft het een risico om op een AI te vertrouwen die blind vertrouwen heeft in alle informatie die het kan vinden... artsen vertrouwen niet blind in alles wat ze lezen (hoop ik) maar kunnen wel weer informatie missen of vergeten.
Ik gebruik het nu voor het leren van een andere programmeertaal. Het is de leuke variant van Stack Overflow, omdat je daar al snel afgezeken wordt als je iets vraagt.
Zeg nooit nooit, ik denk dat een AI over een aantal jaar vele malen betrouwbaarder is om medische adviezen te geven dan een menselijke dokter, zeker als lichaams scanners ook beter/goedkoper worden. Het is nu al vaak genoeg dat de dokter voor je neus zit te googlen.
Het zou in ieder geval een ENORME vooruitgang zijn voor onze zorg, vooral wat betreft kostenbesparing.

[Reactie gewijzigd door SuperDre op 22 juli 2024 14:36]

Alleen is de vraag hoe goed AI nieuwe behandeling kan ontwikkelen. Als doktoren straks gewoon oplezen wat hun AI zegt, maar de AI krijgt geen data terug van het resultaat of verloop van een behandeling dan zal het ook de adviezen niet kunnen verbeteren. En tegelijkertijd; arten zullen zichzelf minder ontwikkelen en vaardigheden verliezen waardoor de kennis van het ontwikkelen van nieuwe behandelingen verloren gaat.

Het kan natuurlijk ook anders lopen maar dan zal er veel meer en veel beter verslag gedaan moeten worden over het ziektebeeld van patiënten om daarmee de AI te voeden zodat patronen ontdekt kunnen worden.
Eens. Maar stel dat het systeem concludeert dat behandeling niet meer effectief is voor jouw situatie. Kunnen we dat ook accepteren?
Waarom niet? Een menselijke arts kan fouten maken en ook concluderen dat een behandeling niet effectief is. Accepteren we dat dan wel?
Spannende ontwikkelingen! Nu AI recent een soort basisniveau heeft gehaald lijkt de ontwikkeling ervan ineens veel sneller te gaan, terwijl ik denk dat op absolute schaal er toch relatief beperkte voortgang is. Ben benieuwd waar dit alles toe gaat leiden.
Ben benieuwd waar dit alles toe gaat leiden.
Dat vraag ik me ook af. Je kunt misschien wel in de volgende versie met 2 kleine zinnen een super realistische foto generen. Wat houd iemand dan tegen om nog meer nep nieuws te generen en voor te doen als echte foto's

[Reactie gewijzigd door Victorppp op 22 juli 2024 14:36]

Dat is een functie die nu al in DALL-E zit, eveneens van OpenAI. Gekend van de “kunstwerken” die het genereert op basis van AI, geleerd door de grote kunstenaars. Naast “kunst” en digitale tekeningen maakt DALL-E nu ook al realistische foto’s. Probeer maar eens “a realistic photo of…”.
Ik mag geen "a realistic photo of Mark Rutte on a tractor", of uberhaupt een foto van Mark Rutte op een trekker genereren. Werkt op dat opzich best goed want anders had ik dit kunnen sturen naar alle VVD'ers in de randstad /sarcasme

edit: overigens is de realistische foto van een pizza niet zo heel erg realistisch.

[Reactie gewijzigd door Victorppp op 22 juli 2024 14:36]

Vreemd - want dat is niet wettelijk verboden [op een tractor zitten]. Dus is het censuur. Of het verbod moet zijn dat je niet iemand afbeelding mag gebruiken zonder zijn/haar toestemming.
Dit is juist goed tegen nepnieuws! Nepnieuws is er al jaren, maar nu kan het zo makkelijk dat mensen nieuwe manieren moeten vinden om betrouwbaarheid te toetsen. Hoop dat daar dus ook innovaties van uit de grond schieten.
Het blijft denk ik 50/50 de een blijft het geloven en de ander twijfelt eraan. Dus dan maar even chatGPT vragen of hij het gegenereerd heeft voor iemand anders (:
Daar heb je geen taalmodel voor nodig, dat kan Stable Diffusion/Midjourney/Dall-E ook wel.
"On the highway towards Human-Level AI, Large Language Model is an off-ramp." - Yann LeCun

Maar ja, ik ben het met je eens. Leuke tech demo, maar het komt bij lange na niet in de buurt van menselijke intelligentie en effeciëntie.
Dat is het doel van chatGPT toch ook niet? Het is een natural language processing model. Ik gebruik het omdat chatGPT beter is in taalvaardigheid dan mij (al heb ik nog genoeg te editen als chatGPT klaar is, maar dat heeft meer met nadrukken en toewijdingen te maken die ik wil en niet expliciet had opgegeven). chatGPT is een stuk beter dan mij in teksten schrijven, ik hoef alleen maar de kennis en intentie aan te leveren met een slordige tekst :)
Jawel dat is het doel. ChatGPT is een tekst model maar het uiteindelijke doel is een model dat zo intelligent is als een mens. En niet alleen dat, de computer die het model draait moet ook net zo efficiënt zijn.

[Reactie gewijzigd door langestefan op 22 juli 2024 14:36]

2:14 a.m., EDT, on August 29, 1997
We zijn ruim 25 jaar te laat, but you know the drill... 😉

Iets serieuzer: ik zou graag zien dat de robot wetten van Asimov erin geprogrammeerd zouden zijn. Dit is echt het begin, er van onvoorstelbare dingen gebeuren op technisch vlak de komende decennia. En ik weet niet of het onverdeeld positief gaat zijn. Kijk waar China doet met camera's en AI, bv.
Ware het niet dat de wetten van Asimov niet werken.
Een korte uitleg
Terwijl ik dit artikel aan het lezen was vroeg ik me af of ChatGPT-5 dan ontwikkeld gaat worden door 4. Dan is 't hek pas echt van de dam.
Dit is een taalmodel, het kan mooie zinnen produceren op basis van associaties en dat is het zowat. Het kan geen nieuwe versie van ChatGPT ontwikkelen, tenzij de instructies reeds op Stack Overflow staan.
Het jaar 2023 jaar in de toekomst worden gezien als het eikpunt of kantelpunt van menselijk gegenereerde content en computer gegenereerde op het internet. Onderzoekers zullen in de toekomst datasets / data voor 2023 zoeken voor hun onderzoeken of juist daarna.
Sites als tweakers zullen worden overspoelt door automatisch gegenereerde sites waar een handvol journalisten de input geven en complete nieuws sites als output hebben.
Een voorbeeld is een site waar als input recente papers van universiteiten worden gegeven en als output begrijpbare samenvattingen volledig in categorien opgedeeld. Spannende ontwikkelingen.
Het merendeel van de sites op het internet zijn nu al AI generated.
Heb je hier een bron voor? Lijkt me onzin.

Je kunt een website online zetten vol met ai-gegenereerde content, maar die zal niet goed ranken in zoekmachines. Dus erg lucratief voor seo is het niet.
Hoe gebruik je de image search functie? kan het niet zo 1 2 3 vinden :/
Anoniem: 1708394 @qmarrr14 maart 2023 20:59
Je kan een foto als input gebruiken, maar nog niet als output. Je hebt hiervoor de API nodig of ChatGPT Plus
The image input feature wordt pas later gereleased, die zit nog in testfase.
Bing draait al 6 weken op ChatGPT 4, vandaag hebben ze ook het aantal berichten in 1 gesprek verhoogd.
Inderdaad, van 10 naar 15 berichten per gesprek. Nice.
Hoe komt het dat AI zoals deze toepassing nu, op dit moment zo'n sprong maakt. Komt dit door de (veel) grotere rekencapaciteit, software ontwikkeling, betere modellen, ...? Waarom niet 10 jaar, of meer, eerder ?
Ik denk dat je een groot deel van het antwoord zelf gegeven hebt, een samenloop van:
(veel) grotere rekencapaciteit, software ontwikkeling, betere modellen
er is meer data voorhanden, de theorie techniek om modellen te trainen wordt beter en efficiënter, men kan makkelijker capaciteit creëren en schalen, enzovoorts. Men zal ongetwijfeld over een X-periode een plafond bereiken of tegen een muur aanlopen. Ik las laatst een leuke vergelijking met vliegtuigtechniek. De overstap van propellermotoren naar straalmotoren opende gigantisch veel mogelijkheden in vrij korte tijd (positief, maar ook negatief/destructief, denk aan oorlogswapens), men liep ook al snel tegen de grenzen van natuur- en materiaalkunde aan (waar weer andere oplossingen en uitvindingen voor nodig waren) en ook op ethisch vlak zijn er door de jaren heen ook genoeg lastige vragen ontstaan.
Toch was er 10 jaar geleden ook al genoeg data voor handen om op te trainen, en genoeg rekenkracht.

Maar de techniek was er nog niet.

"In June 2012, the New York Times reported that a cluster of 16,000 processors in 1,000 computers dedicated to mimicking some aspects of human brain activity had successfully trained itself to recognize a cat based on 10 million digital images taken from YouTube videos. Google Brain"

De Large Language Models deden pas hun intrede in 2018.
ja, daarom zeg ik ook "een samenloop van" ;)
Ik zie het nog gebeuren dat mensen hun foto naar het input veld slepen en GTP-4 de opdracht geven om het grijsschaal te maken of het te verkleinen.

Terwijl zoiets met diverse willekeurige gratis applicaties ook kan.

"Vooruitgang" is relatief :)
Ik vind foto en beeldbewerking afschuwelijke acties, krijg de kriebels van Figma en consoorten, dus het is zeer aangenaam als je gewoon de orders kan doorgeven en het wordt voor je uitgevoerd. Dan zou ik me wel eens wat gaan bezighouden met beeldbewerking.
Je bent vrij om hier in mee te gaan of er in mee te stemmen. Zolang wij die keuze nog hebben. Niet iedereen zit te ChatGPTen op zijn werk school of vrije tijd. Laat staan om er mee in zee te gaan. Gelukkig maar dat dit nog geen verplichting is.
Nouja in een photoshop moet je maar net weten hoe dat moet, nu kun je het gewoon zeggen en hij doet het. Dus er is wel vooruitgang in die zin want je hoeft je er niet in te verdiepen
Dat is dan wel een vrij slechte vraag, want er zijn verschillende manieren om een kleurenfoto in monochroom om te zetten met elk hun eigen voor en nadelen en esthetiek.

Op dit item kan niet meer gereageerd worden.