Ceo OpenAI: geen GPT-5 in 2024; wel andere releases gepland

OpenAI zal dit jaar geen GPT-5 uitbrengen. Dat heeft ceo Sam Altman gezegd. De focus van het bedrijf ligt momenteel op de ontwikkeling van het o1-model en afgeleide producten. OpenAI plant dit jaar wel nog enkele nieuwe releases.

Altman deelde het nieuws mee tijdens een AMA-sessie op Reddit. De ceo van het Amerikaanse AI-bedrijf zei dat de modellen 'redelijk complex' zijn geworden en dat OpenAI niet zoveel producten tegelijk kan uitbrengen als dat het zou willen. Het bedrijf zou volgens Altman ook met limieten worden geconfronteerd. "We moeten harde beslissingen nemen wat betreft de computerkracht die we aan ideeën toewijzen", klinkt het.

Enkele gebruikers hebben tijdens de AMA-sessie ook vragen gesteld over Sora. Dat is de aankomende AI-tool van OpenAI die korte video’s kan genereren. Cpo Kevin Weil gaf aan dat het onderliggende model nog 'geperfectioneerd' moet worden. Hij doelde onder andere op de veiligheidsfuncties die in de AI-tool worden ingebouwd. Altman ging ook in op de volgende versie van Dall-E. "De volgende update zal de moeite waard worden", klonk het. Concrete details of releasedata werden er niet gedeeld.

Door Jay Stout

Redacteur

03-11-2024 • 11:56

71

Lees meer

OpenAI test ChatGPT-app voor Windows
OpenAI test ChatGPT-app voor Windows Nieuws van 18 oktober 2024

Reacties (71)

71
62
30
3
0
24
Wijzig sortering
Was te verwachten dat het dit jaar geen nieuw GPT-model zou worden uitgebracht. Er is zeker nog veel te winnen door simpelweg meer rekencapaciteit in te zetten, maar een gerichte aanpak zal waarschijnlijk efficiënter, effectiever zijn en financieel aantrekkelijker. Al zijn ze reeds wel begonnen met trainen: nieuws: OpenAI begint met trainen 'GPT-5' en hoe meer tijd ze die kunnen geven effectiever die zal zijn.

Focussen op kleinere, doelgerichte modellen en op de optimalisatie van bestaande zaken, laat zien dat ze daar bij OpenAI zich zeker bewust zijn van de schaalbeperkingen en de daarmee gepaard gaande 'diminishing returns' bij grotere modellen en dat ze steeds meer compute nodig hebben om deze te verbeteren. Een tijdje geleden een paper gelezen van ze over "Scaling Laws for Neural Language Models", "Observational Scaling Laws and the Predictability of Language Model Performance" en "Language models scale reliably with over-training and on downstream tasks" vond ik daarbij zelf fijn leesvoer.
Using this approach, we show the surprising predictability of complex scaling phenomena: we show that several emergent phenomena follow a smooth, sigmoidal behavior and are predictable from small models; we show that the agent performance of models such as GPT-4 can be precisely predicted from simpler non-agentic benchmarks; and we show how to predict the impact of post-training interventions like Chain-of-Thought and Self-Consistency as language model capabilities continue to improve.
Juist door het model meer nadenktijd te geven en het gebruik van gespecialiseerde narrow modellen in specifieke taken te stimuleren, kunnen AI-prestaties verder verbeteren zonder uitsluitend in te zetten op schaalvergroting. Het YouTube kanaal Two Minute Papers heeft daar een korte video over gemaakt m.b.t. het GPT-o1 model. Hoewel dit nieuwe model niet ‘slimmer’ lijkt in taken zoals tekstproductie, kan het door zijn stapsgewijze aanpak complexere problemen nauwkeuriger oplossen en kun je dus figuurlijk nog veel stappen maken.
Het trainen werkt ook niet altijd goed, waardoor je soms moet her-trainen als de resultaten niet zo goed zijn.
Ik gebruik de o1 nu bijna alleen maar, en merk echt wel verschil in hoe accuraat het model is. Zeker met mn laatste project, een debian server opbouwen met factorio headless er op was o1 echt goed op de hoogte en klopte nagenoeg alle commands.

Ook het stapsgewijs opbouwen is hierin echt wel beter en duidelijker. Ik ben in ieder geval erg tevreden over o1
ChatGPT is nog steeds erg dom. Vandaag nog proberen te gebruiken om een winnaar aan te kondigen uit een lijst van 50 spelers. Eén van de prijzen was "meest aantal gespeelde uren". Als je daar in de data 3000 uren zet bij een speler, gaat een normale mens direct zien dat dit niet eens mogelijk is in één maand. ChatGPT had echter deze speler direct benoemt als "meest actieve speler".
Als je dezelfde input geeft aan mensen zullen er ook genoeg zijn die gewoon degene met 3000 uur aanwijzen als winnaar als je vraagt wie het meeste heeft gespeeld.
Waarschijnlijk heb je gelijk, maar dat maakt het niet het goede antwoord :)
Als je niet vooraf aangeeft dat de winnaar niet mag valsspelen en dat de data op onredelijkheid gecontroleerd moet worden, is dat wel degelijk het juiste antwoord.
Ik ben van mening dat echte AI, zoals die binnen een paar jaar zal bestaan, dat uit eigen beweging doet. Zoals een mens dat ook zou doen. Als ik aan je vraag ga naar de winkel en koop 3000 bananen ga je ook zeggen dat dit niet mogelijk is en niet als een “domme AI” een poging doen om ze te kopen. Daarom is AI op dit moment nog dom, omdat ze alleen in vraag stellen wat wij zeggen dat ze in vraag moeten stellen.
Met de gegeven data lijkt het me het juiste antwoord op de (waarschijnlijk te beperkte) vraag.
In america zou niemand dat probleem zien. Het gaat om kritisch nadenken. En dat kan je oplossen door een pre-propmpt te maken die zegt dat je wil dat het zijn antwoorden eerst kritisch moet controleren.

En er is ook de regel van bad input bad output, of niet helemaal duidelijk zijn in je prompt waardoor het voor hem wel een geldig antwoord is (beperkte context omdat het enkel kan text lezen in tegenstelling tot een mensen dat andere zintuigen heeft).

Zicht bijvoorbeeld is niet hetzelfde als text kwa zintuig, zicht bevat veel meer informatie (zoals grootte, kleuren, diepte, indentaties,underlines,etc..) een mens kan dus veel meer met zijn ogen dan zuiver text input. Hierdoor ziet hij ook zaken die niet kloppen (zoals een 0 te veel achter 300, voelt langer aan dan wat het zou moeten zijn)

[Reactie gewijzigd door sebastienbo op 4 november 2024 12:49]

bad input = bad output.

Met meerdere clients is het toch perfect mogelijk om 3000 uren te klokken ?
Maar je zegt nergens dat het moet gaan om gespeelde uren in 1 maand, of wel? Ik snap niet wat hier niet goed aan is.
Ik hoop dat de realtime API goedkoper wordt gemaakt. Dan kan ik deze ook actief in dagelijkse zaken gaan inzetten. Nu kost de vraag voor een verhaaltje van 10 seconden al 0,10 €.
Gezien de gigantische operationele kosten, de enorme verliezen en de torenhoge investeringen, lijkt me het tegenovergestelde realistischer.

Bovendien ben je beter af zonder. Zelfs OpenAI geeft toe dat ChatGPT bijna 60% van de antwoorden vout heeft.

https://futurism.com/the-...best-models-wrong-answers

De huidige AI is heel erg A en heel weinig I.
Heb de onderzoekspaper bekeken en het onderzoek van OpenAI vraagt naar mijn idee om enige nuance. De benchmark bestond uit een set vragen, waarvan ongeveer 20% uit wetenschap en technologie bestond – onderwerpen waarvan bekend is dat AI-modellen hier meer moeite mee hebben. Dit gold overigens ook voor de overige vragen; men wist dat de vragen lastig zouden zijn voor het 4o-model. De benchmark is dus niet direct vergelijkbaar met alledaags gebruik.

De conclusie dat je “beter af zou zijn zonder” AI is dan ook wat kort door de bocht. AI-technologie is al 70-75 jaar in ontwikkeling, maar de eerste grootschalige beschikbaarheid van LLM’s is pas enkele jaren oud. De technologische vooruitgang van grote taalmodellen (LLMs) gaat buitengewoon snel in vergelijking met andere technologieën. In slechts een paar jaar zijn LLM’s uitgegroeid van beperkte onderzoeksmodellen tot krachtige commerciële toepassingen die breed worden ingezet. De ontwikkeling verloopt in een razendsnel tempo. Er is uiteraard nog veel werk aan de winkel, maar met de huidige snelheid waarmee AI wordt doorontwikkeld is het moeilijk voor te stellen dat de huidige tekortkomingen van LLM’s / AI nog lang een rol van betekenis zullen spelen.
Aangezien openai zelf zegt dat ze enorm veel extra rekenkracht nodig hebben (is er niet) en dat goed 'lesmateriaal' zo goed als op is (lees: we hebben al illegaal onze modellen getraind met alles wat we maar online konden vinden) en dat ze nog ettelijke miljarden extra investeringen nodig hebben, denk ik dat de tekortkomingen wel nog een tijdje een rok van betekenis zullen spelen.

Om cru te zeggen: die honderden miljarden die in ai zijn geïnvesteerd, hadden beter besteed kunnen worden voor de mensheid. En kom niet af dat ai de wereld kan beteren want momenteel wordt het vooral gebruikt voor memes, oplichting (phishing), manipulatie van verkiezingen en zever mails van het management van tien alinea's te schrijven wat ook in drie zinnen kon gezegd worden :+
Ik ben niet op de hoogte waar je je informatie vandaan haalt over het gebruik van AI, maar ik herken dit beeld niet. Hoewel AI inderdaad wordt toegepast voor dergelijke doeleinden, zijn er ook talloze positieve innovaties en toepassingen. Recentelijk heb ik onderzoek gedaan en een scriptie geschreven over dit onderwerp, dus ik ben redelijk op de hoogte van de vele nuttige AI-toepassingen, zoals medische AI (voor zowel diagnose als onderzoek), klimaatmodellen, innovaties in onderwijs en toegankelijkheid. Dit is slechts een kleine greep uit de domeinen waarin AI al waardevol wordt ingezet. De komende jaren zal dit alleen maar toenemen, wat naar mijn inziens wel degelijk bewijst dat de investeringen in AI in het belang van de mensheid zijn.

Hoewel er inderdaad nog grote uitdagingen zijn, zien veel experts de huidige beperkingen als tijdelijke technische hindernissen. Het veld blijft zoeken naar manieren om bijvoorbeeld met minder rekenkracht en data betere resultaten te behalen. Zoals bij elke technologie in ontwikkeling is het normaal om op grenzen te stuiten, waarna oplossingen worden gezocht en gevonden.

Overigens lijkt het tegenwoordig een trend te zijn dat elk AI-bericht wordt aangegrepen door sceptici met een onvolledig beeld, die vervolgens zeer terughoudend en vaak zelfs afwijzend staan tegenover AI-ontwikkelingen. Gezien de komst van AI al lange tijd in de lijn der verwachting lag en de huidige snelle vooruitgang, kan ik iedereen adviseren om er maar beter aan te wennen, want AI zal de komende jaren wereldwijd nog veel veranderingen teweegbrengen :)
De ene AI is de andere niet. @Horla refereert vooral aan LLM en image generation (wat in feite gewoon een LLM voor plaatjes is, want het werkt hetzelfde)
Deze modellen zitten op dit moment redelijk aan het limiet van mogelijkheden, om exact de redenen die @Horla aangeeft.
Alles waar men nu mee op de proppen komt is gewoon LLM met aardbeiensmaak, banaan, etc. en weinig innovatie.
Tot nu toe is het niets meer dan een bubbel. Google is kapotgemaakt door gegenereerde websites, onzin-antwoorden en hebzucht, Microsoft probeert allerlei problemen te verzinnen waar je AI tegenaan kunt gooien zodat ze dat weer kunnen verkopen, en Meta is.. Meta.

Dat ze positieve cijfers melden vanwege AI is omdat iedereen op de AI trein is gesprongen, als men eenmaal de limitaties doorheeft dan springen ze er weer af en volgt er weer een mega ontslagronde in techland.

Wat jij zegt is dat Deep learning en andere AI modellen veel bijdragen aan de samenleving. Daar ben ik het mee eens. Ik ben het óók eens met @Horla
Het probleem is dat we met LLM's enkel het negatieve zien, voor zoverre dat het negatief is dat bepaalde taken worden uitgevoerd door LLMs in plaats van mensen.

Denk aan domme product foto's die je nu voor veel geld online koopt, die zul je meer en meer door Midjourney en co zien, immers waarom betaal je veel wanneer Midjourney het net zo goed kan, sterker nog beter wanneer je precieze promts geeft.

Idem voor tekst, waar ik voorheen 3 schrijvers had voor social media heb ik er nu nog maar een en die is meer bezig met het aanpassen van content voor platformen via ChatGPT en de likes.

De techniek hoeft geen baan-vervanger zijn, maar kan ook naast ons werken. Zoals de voorloper van Excel er niet voor gezorgd heeft dat we geen accountants meer nodig hebben, maar dat zij meer kunnen met nieuwe tools.
Ik zie absoluut de toepassing voor AI op andere gebieden. Ik refereer aan ChatGPT en soortgelijke LLMs. Als je het volgt, zoals je zegt te doen, dan zie je dat er heel veel experts zijn die, zoals Horla aangeeft, die modellen al erg dicht in de buurt zijn van wat er maximaal haalbaar is.

Ik zie ook geen enkele reden om op basis van de huidige technologie te denken dat het anders zal zijn. LLMs zijn gewoon geen AI. Het zijn 'prediction machines'. Ze voorspellen woorden die bij elkaar horen. Zolang ze blijven voorspellen, in plaats van 'weten', gaan hallucinaties altijd een groot probleem blijven. En daardoor is het volledig onbetrouwbaar.

Ik had vrijdag nog een 'gesprek' met ChatGPT over een boek wat ik zocht, ik stelde 5 vragen, en geen enkel antwoord was correct. En dan bedoel ik niet dat het mijn boek niet vond. Het noemde 4 keer een boek, waarbij het karakters verzon die er niet in zaten, en volledig verkeerde schrijvers noemde. Jules verne is nou niet bepaald een obscure schrijver en zijn boeken zijn breed gedocumenteerd.

Het is troep. Maar dat neemt niet weg dat 'prediction engines' geen plek hebben in andere industrieen en ons helpen dingen ontdekken die we zelf niet (goed) kunnen.
En als je je scriptie 5 jaar eerder had geschreven, dan had het machine learning genoemd ;) . En ook die is niet zalig makend. Er bestaat nu in België een "AI" scanner voor huidkanker screening. Een journalist heeft dit getest en het bleek dat hij effectief huidkanker had maar dat puntje was niet opgemerkt door de AI, wel door de medisch assistente die het een verdacht vlekje vond en er extra foto's van nam.

@StackMySwitchUp heeft het al uitgelegd maar ik heb het inderdaad over LLM en beeldgeneratie. En laat die LLM's nu juist zijn waar er momenteel al die miljarden in worden gestoken maar waar ze nu tegen de limieten lopen. Eén van de enige positieve zaken die ik er uit kan halen, is dat er dankzij de LLM's die nu zo gepushed worden, er ook meer kaarten/servers zijn uitgekomen waardoor o.a. eiwitten folden efficiënter kan berekend worden. Maar een LLM kan daar niet bij helpen.

Ik heb niets tegen AI. Sterker nog: professioneel was ik onderdeel van een proefproject om een "slimmere" chatrobot te testen bij vragen/problemen op overheidssites. En daar werkt het best leuk en aardig. Maar een LLM zie ik inderdaad voornamelijk gebruikt worden voor "negatieve" doeleinden (de eerder genoemde phishing, vervuiling van het internet, etc).
Als je het zo afkraakt, waar had het dan beter aan besteed kunnen worden, zeer beperkte en kortzinnig opmerking zo.
Sorry, redelijk blijven. Men gaat in uw link na tot hoever een model algemene wereldkennis heeft zoals een quiz. Natuurlijk presenteren kleine modellen minder goed dan grote modellen in die specifieke case. Ook zijn we technologisch niet in staat alle info ter wereld accuraat in een werkbaar model te steken.

Wat je nu ziet is dat AI modellen doelgerichter gefinetuned worden. Om te een geluidsalgoritme te programmeren om compressie te verhogen moet je immers niet weten wat Durkheim’s theoretisch framework inhoud en welke de suprastructurele determinante zijn.

Ook test men een model achter de schermen. Geen compleet systeem waar bijv een fact checkt plaats vindt. GPT4o zit nu vaak spontaan internetbronnen in het antwoord en gaat dus door een feedback loop om de wereldse basiskennis te verbeteren en accurater te maken.

Men probeert net modellen kleiner, doelgerichter, lokaler en dus goedkoper te maken. Dus de per per token en context zal enkel maar dalen. En niet stijgen zoals in uw aanname.

Het spijtige is dat AI-bashing de norm is geworden. Kortzichtige populistische uitspraken die 0,0 inhoudelijke bijdrage leveren.

[Reactie gewijzigd door Coolstart op 4 november 2024 07:36]

Als het zo doorgaat is de kans groter dat het significant duurder gaat worden. Het besluit van Microsoft om ook andere modellen toe te voegen aan copilot sluit perfect aan bij de niet ondenkbare kansen dat ze de kortingen die ze geven aan OpenAI gaan stoppen en op termijn OpenAI gewoon loslaten.

Uitzetting van de kosten en inkomsten https://www.wheresyoured.at/subprimeai/
Zou dat niet enorm kapitaalvernietiging zijn? Ze zijn nu 49% aandeelhouder en openai is aan het voorbereiden op commercialiseren en uitieindelijk een IPO. Aandeelhouders van microsoft zullen hier graag onderdeel van zijn.
Voor zover ik weet is er van een IPO nog helemaal geen sprake en zoals het nu met OpenAI gaat is, naar mijn mening, iedereen die er aan mee zou doen niet helemaal verstandig bezig. Microsoft heeft al aangegeven dat ze OpenAI niet alleen als partner zien, maar ook als concurrent

Microsoft kennende trekken ze alle kennis uit OpenAI en laten het dan als een baksteen vallen.
Als je bedenkt, of laat generen door AI, hoeveel geld er in AI hardware wordt gestoken alleen al dit jaar en wat de stroomkosten zijn dan begin je, hopelijk ook zonder AI, te begrijpen waarom het zo duur is. :+

https://www.techspot.com/...mble-raises-concerns.html
Totdat het duurder wordt dan mensen.
teruggerekend 36€ per uur is geen overdreven tarief als je het door een mens laat verzinnen, hopelijk krijg je een leuk verhaaltje :+
Een paar dagen geleden hebben ze al de eerste prijsverlaging aangekondigd: https://community.openai....-and-cache-pricing/998238

Doordat ze de invoer tekst en geluid proberen te cachen bespaar je een boel kosten. Als ik het goed begrijp heeft dit voornamelijk effect als het gesprek al langer bezig is, en er dus al meer 'context' in de interactie aanwezig is.

Alsnog is de api nogal duur om te gebruiken in een product, daarvoor moet de prijs nog flink zakken.
Ik gok erop dat het eerder de andere kant op gaat. De free lunch tijd voor AI zal stilaan gedaan zijn vrees ik. Even voor de duidelijkheid, gebaseerd op buikgevoel :).
Ik betwijfel het sterk zolang we nog op GPU's werken en Nvidia de enige leverancier is, het is waarschijnlijker dat bedrijven met gespecialiseerde chips zoals Groq (niet te verwarren met Grok) de prijs/performance race gaan winnen.
Wat kost het als je het zelf moet maken? Zakelijk dan he.
Wordt ChatGPT ooit een keer betrouwbaar? Want nu genereert het tekst op basis van wat het meest waarschijnlijke antwoord is (voor zover ik het begrijp). Dat is niet echt een goede uitgangspositie, zeker als je ziet waar mensen het voor gebruiken. Sommigen zien het als een soort Google/Wikipedia.
De vraag is wat jij onder 'betrouwbaar' verstaat. Ze zijn nu al meer betrouwbaar dan de gemiddelde Twitteraar. Als jij 'foutloos' bedoelt dan kan je lang wachten natuurlijk.
Betrouwbaar als in dat de informatie die het genereert/verstrekt correct is. Dus dat je het daarmee zou kunnen gebruiken als digitale leraar. Dat is nu nog niet zo en dat is wel jammer want ik denk dat zo’n tool als ChatGPT daar heel goed voor zou zijn. En sowieso moet de informatie die gegeven wordt juist zijn.
Dat zegt nog niks, want je hebt zat leraren die onderdoen voor een moderne GPT, ik kan een leraar niet en de onderbouwing voor snaartheorie van quantummechanica en de precieze rol van Brutus in de moord op Caesar laten uitleggen. En beiden doen recente GPT’s correct… Nog los van dat ik genoeg leraren heb meegemaakt die steekjes lieten vallen, en dat waren nog fouten die ik opmerkte.

Dus wederom de vraag: in hoeverre exact of correct precies? Het zijn immers niveaus, geen lichtschakelaars. Zolang je die definitie niet bepaalt kan je er ook niet GPT’s op toetsen.
Ik vind ze nogal vooruitgaan maar dan voor andere zaken. Stukjes code schrijven bijvoorbeeld. Doet ie behoorlijk goed en stukken beter dan een jaar geleden. Die AI tools zijn wel bizar hoor, vraag me af waar het allemaal heen gaat.
Hangt er natuurlijk van af hoe je het gebruikt.
Mijn browser (arc) heeft ook AI en als ik daar wat aan vraag gaat die gewoon een hoop websites af en krijg ik een AI summary terug, ben ik tevreden mee.
Wanneer ik dan weer programmeer is copilot meer een tool om me ideeën/optimalisaties te geven, of gewoon een sneller alternatief voor Stackoverflow.
Hoeft niet allemaal baanbrekend revolutionair gebruik te zijn. Ook al situaties gehad waar ik er dingen uit leer die ik met Google minder snel tegengekomen zou zijn.

Media wilt het vaak heel sprookjesachtig maken met het hele generatieve AI of van die parasociale gesprekken die gewoon nog niet goed/nuttig zijn. Maar als tool om me efficiënter te maken vind ik het zijn geld al wel waard.
ChatGPT heeft veel info maar is minder goed in het redeneren. Wat ze nu wel doen in o1-preview is dat er meerdere ronden overheen gaan voordat het antwoord geeft (dit zie je ook in de UI gebeuren). Dat zou de resultaten ten goede moeten komen. Ze zijn ook bezig om o4 meer referenties te laten genereren.

Nog steeds is het zo dat je er geen origineel onderzoek mee moet doen, of de AI vragen stellen waarvan de antwoorden niet of moeilijk te vinden zijn. In dat geval is de AI niet goed genoeg om tot een betrouwbaar antwoord te komen en is de ruis te hoog. Ik gebruik het vooral voor taken die - in ieder geval voor andere mensen - relatief eenvoudig zijn.
Nee er zijn geen alternatieve technieken voorhanden om de huidige generatieve modellen te vervangen.

Je moet het ook zien als een databank waartegen je kunt praten. Daarnaast kan het tekst verwerken. Dat is beide echt wel nuttig op heel veel manieren. Het maakt meer fouten dan iemand die echt kennis heeft over de materie, maar van alle onderwerpen waar jij niet heel veel van weet kan het je daarover kennis brengen. Helaas weet je niet wanneer het correct is, je zult dus moeten accepteren dat het voor specifieke kens ernaast kan zitten en het model weet niet wat het weet (en kan je dat ook niet vertellen).
Maar het is dus geen databank. Het is wel getraind op veel echte data maar die wordt niet direct gebruikt om tekst te genereren. Dat is een algoritme dat berekent wat het jouw het meest waarschijnlijk moet antwoorden. Dat zie ik als een probleem omdat dit nooit betrouwbaar kan zijn.

Nu is het wel zo dat als je een antwoord krijgt dit vaak wel huist lijkt te zijn, maar als je doorvraagt of bronnen wilt ChatGPT al gauw door de mand valt met hallucinaties.
Ik snap dat het een perspectiefwijziging vereist, maar een verzameling parameters van een neuraal netwerk kun je evengoed zien als een databank.

Een neuraal netwerk slaat informatie niet noodzakelijk exact op, maar het kan dat uiteraard wel. Die modellen hebben honderden miljarden vrije parameters om informatie op te slaan. Dat is inderdaad behoorlijk anders dan een standaard SQL databank. Echter, alle informatie van het web gestructureerd opslaan, dat is totaal onmogelijk. Er is dus compressie vereist, en neurale netwerken brengen dat. Ik ga niet beweren dat de informatiekwaliteit heel goed is, maar het is wel degelijk onwaarschijnlijk veel informatie dat die modellen omvatten, onvoorstelbaar veel meer dan we ooit eerder in een enkele databank hebben gestopt.
Ik zie het meer als een iets te vriendelijke behulpzame vriend die graag doet alsof hij overal veel vanaf weet, en dat ook bijna altijd waar kan maken. Ik hecht waarde aan zijn antwoorden, maar ik zou voor belangrijke beslissingen altijd even ergens dubbel checken. :)
De I in AI is al behoorlijk menselijk in dat geval. Als je mensen niet de juiste vraag stelt krijg je ook geen goed antwoord. Daar zit bij AI kwaliteit ook de crux.
Is er wel bekend wat GPT5 moet worden?
Nee, veel geruchten maar weinig concreets.
GPT-5 wordt gewoon een model dat een paar procent beter scoort op alles dat GPT-4o ook doet. Er zijn enkele mogelijkheden vooruitgang te boeken: een groter model (meer data en compute nodig en dus duurder om te draaien), een kleiner model met vergelijkbare performance (goedkoper en mogelijk iets betere generalisatie), of een mix van die twee (iets beter en vergelijkbare prijs).

Er zijn geen fundamentele vooruitgangen geboekt in het vakgebied; er valt dus nergens een enorme winst uit te halen.

Het is wel exponentieel beter, maar je moet je vooral afvragen met wat voor exponent: die is zeker kleiner dan de vooruitgang in compute (Moore’s law), omdat we middenin de zone met diminishing returns zitten wat betreft performance. Het enige dat sneller zou kunnen zakken dan de vooruitgang in de hardware is de prijs, omdat de concurrentie steeds verder toeneemt.
Dit was al gelekt door Sam Altman een tijdje terug, maar nu officieel.

Gerucht gaat dat projecten binnen het bedrijfsleven meer prioriteit hebben, AI agents die productieve taken van mensen moeten "ondersteunen". Ander gerucht is dat ze druk zijn met een AI modellen om AI modellen te trainen.
Denk dat 2025 het eerste jaar wordt dat AI ons leven drastisch (en waarschijnlijk veel te snel) gaat veranderen.
The law of diminishing returns bewijst zichzelf weer.

Men verwacht veel van een “model 5” OpenAi weet dat het alleen zal “teleurstellen”. Daarom blijven ze hangen in “model 4”.
Los van het hele probleem om het economisch rendabel te maken.

Ik gebruik AI dagelijks voor allerlei toepassingen. Mijn “gegoogle” is zeker wel gehalveerd er door maar ik begin wel echt de critici te geloven dat de huidige manier hoe MLM’s werken niet tot AI/AGI zal leiden.
Ik ben benieuwd welke releases ze nog uitbrengen. Ik hoop dat ze multimodale van 4o gaan combineren met o1.
Ik hoop dat 5 stukken beter zal zijn dan 4, want mijn locale Llama 3.1 werkt beter dan de Online4 o versie.

Als je het geld hebt … ik heb een 4070 ti 16gb en daar kan je al hele leuke resultaten mee bereiken en zo ik ervaren heb met betere resultaten dan met chatgpt. Wel moet ik zeggen dat niet ieder model wat je download goed is zeker niet. Maar er zijn pareltjes out there. Super duper kickuh ook dat je een model lokaal kan draaien :D

Mag ik weten waarom mijn opmerking een 0 heeft en diegene die een vraag stelt een +1, geen klacht over de vraag die is perfecto maar dit hele moderating system is ziek.

[Reactie gewijzigd door 1Joshua5 op 3 november 2024 14:46]

Kan je wat meer vertellen over de verschillen die je het ervaren tussen Llama 3.1 en 4o? Ik wil op termijn ook graag een nieuwe videokaart aanschaffen om lokaal modellen te draaien, maar ik ben de situatie aan het afwachten. Ik hoop ook op goedkopere hardware dedicated voor LLM modellen.
Wat voor betere resultaten krijg je dan? Ik heb een tijdje terug ook diverse modellen getest maar lange na niet zo goed als gpt4o. In het Engels niet laat staan in het Nederlands. Ben benieuwd of 3.1 ineens zo een vlucht heeft genomen of dat het iets anders is.
Ohh nee hoor zou al blij zijn als je de moeite wilde doen om gewoon je ervaring te delen. Bewijzen heb ik niet nodig om een beeld te vormen van de ervaringen van mensen en mijn eigen ervaringen en kennis. Gewoon benieuwd naar jou toepassingen enzo. Thanks!
Misschien kan je Llama dat vragen te doen?

Maar je hoeft heus niet samen te vatten in maar 1 zin. Maar je besteed wel tijd in 2 paragrafen waarin je helemaal niets zegt… had je beter toch 1 concreet voor jou toepasbaar voorbeeld kunnen schrijven?

Daarnaast 24eu per maand GPT is niet slecht, want je hebt er ongetwijfeld goede hardware tegen aan moeten zetten (wat ook niet gratis is)
Ik las ‘t helemaal, enige waar het op neer komt is dat jij een ‘super heavy user’ bent, geen idee wat ik me daarbij voor kan stellen.

Ik heb geen bias naar een van de twee en had oprecht wel willen weten wat het beter maakt. Helaas laat je niets los en laat je reactie ook duidelijk zien dat je dat niet van plan bent iets los te laten wat jammer is.

+1tjes of zelfs +2tjes krijg je voor nuttige en informatieve reacties. Ik had je er graag een gegeven want reden waarom llama beter is kan mij overtuigen eens tijd te investeren ipv geld in een alternatief op chatgpt
Het is geen humor, het is een mening verpakt als humor. Zeg gewoon wat je bedoelt of maak een grapje.
Het kan beiden. Het is zowel humor alswel sarcasme, omdat de term / buzz woord AI vaak gebruikt wordt, en omdat men vaakt denkt dat o.a. ChatGPT 'al' intelligent is.
Tja. Wat is intelligentie? De meeste mensen zijn ook ontzettend dom, maar toch zeggen we dat ze intelligentie bezitten.
Je overschat mensen intelligentie.
Het meest idiote is nog wel dat dezelfde mensen die nu dit op -1 modereren, dat ook doen als je het over gedoogde media piraterij hebt van content gemaakt door grote, logge, prehistorische bedrijven. Terwijl "AI" de grootste copyright infringer op de planeet is en de miljoenen (miljarden) winsten van de AI bedrijven niet mogelijk waren zonder massaal copyright van niet grote bedrijven compleet te negeren.

[Reactie gewijzigd door Azenomei op 4 november 2024 14:53]

Op dit item kan niet meer gereageerd worden.