OpenAI stopt tijdelijk met aanbieden abonnement ChatGPT Plus

OpenAI stopt tijdelijk met het aannemen van nieuwe abonnees voor ChatGPT Plus. Het bedrijf zegt dat huidige abonnees te veel capaciteit gebruiken. Het is niet bekend wanneer het bedrijf weer verdergaat met het aanbieden van het abonnement.

In een post op X zegt OpenAI-ceo en medeoprichter Sam Altman: "We stoppen met nieuwe aanmeldingen voor ChatGPT voor nu. De druk op onze capaciteit sinds het DevDay-evenement is te groot." Nieuwe gebruikers kunnen zich wel nog aanmelden, zodat ze een melding krijgen wanneer OpenAI weer nieuwe abonnees aanneemt.

Het bedrijf introduceerde begin dit jaar een abonnement op de chatbot ChatGPT. Afnemers krijgen voor grofweg 23 euro per maand in de Benelux onder meer vervroegde toegang tot nieuwe functies en snellere responstijden. Ook belooft OpenAI dat afnemers van het abonnement op drukke momenten toch toegang krijgen tot de chatbot, wat vanwege de recente drukte kennelijk niet altijd meer lukt.

Door Yannick Spinner

Redacteur

15-11-2023 • 15:00

74

Submitter: Cas8

Lees meer

Reacties (74)

Sorteer op:

Weergave:

Het is al langer bekend dat het aanbod van GPU rekenkracht op dit moment nogal gehinderd wordt door slecht aanbod van Nvidia (en eigenlijk door TSMC). OpenAI gebruikt op dit moment Microsoft Azure voor de levering van H100 GPU processing waar ChatGPT en de rest van alle API's op draaien. Dit is echt ongekend, dat 1 bedrijf bijna eigenhandig het globale aanbod van Microsoft Azure's (H100) GPU processing opslokt! Nou ja, naast Microsoft zelf dan met Bing en Azure OpenAI Service.

Nu dat de H200 eraan zit te komen zal deze stress deels wel worden verlicht. Ik hoop echter wel dat Microsoft en OpenAI straks niet de volledige supply van H200 chips opkopen en dan alle competitie eruit rekenen, om het maar zo uit te drukken ;)
2e kwartaal 2024 komt die H200. Ik mag hopen dat Azure daar iets eerder bij kan.
Van wat ik lees online (https://gpus.llm-utils.or...0-gpus-supply-and-demand/) is Nvidia heel vreemd met de selectie in aan wie ze H100's verkopen, waarschijnlijk hetzelfde met de H200.

Nvidia trekt cloud providers die kunnen aantonen dat ze klanten hebben voor. Ook trekken ze bedrijven die niet concurreren voor, dus ze verkopen liever aan Azure of zelfs Meta dan aan bijvoorbeeld AWS, omdat Amazon hun eigen chips maakt (voor tranium en infernium AWS instances).

Ik verwacht niet dat Azure eerder bij die chips kan, en ik hoop ook zeker NIET dat ze voorgetrokken worden. De markt heeft absoluut GEEN grote monopoly nodig van OpenAI en Microsoft. En besides, als competitie van concurrenten van OpenAI/Microsoft sterker is dan is de vraag naar die GPU's langduriger dan als OpenAI/Microsoft nu al de hele markt kapot maken en iedereen eruit concurreren.
Wat ik wil zeggen is dat door de competitie van OpenAI/Microsoft eerlijke toegang te geven tot de benodigde hardware heeft Nvidia meer klanten voor de komende jaren, wat zeer gunstig is voor ze.

Zo voorspel ik het dan in elk geval.
Zonet op Ignite heeft Microsoft hun eigen chips aangekondigd, dus jouw verhaal gaat niet op
Anderzijds: het is ongekend, dat 1 product zoveel GPU-rekenkracht nodig heeft dat het op dit moment onpraktisch en/of onhaalbaar duur is om dat product te schalen zodat het voldoet aan de vraag.
Het is alleen niet één product, het is een hele nieuwe markt met nieuwe technologie. Dit is nog een paar stappen breder dan bijv. crypto minen, want de toepassingen van machine learning/LLMs/AI zijn vrijwel oneindig en voor nog 99% onbekend.
Bitcoin miners al vergeten?
Appels en peren.

Voor BTC is ASIC efficiënter dan GPU, wat efficiënter is dan CPU.

Voor AI is ASIC geen optie, en is GPU efficiënter dan CPU.

De enige reden waarom voor cryptocurrency GPU's populair waren, was omdat er nog geen ASIC's beschikbaar waren. Nu loont het niet meer i.c.m. de prijs van GPU's en energieprijzen. :+

[Reactie gewijzigd door The Zep Man op 22 juli 2024 16:30]

Wat een onzin.

Speciaal voor AI zijn er TPU (tensor processing units).
De aard van ASIC is je vreemd? Hoe kan je nou zeggen dat die geen optie zijn voor AI? Misschien dat je uiteindelijk het liefst verschillende ASICs voor de verschillende technieken binnen machine learning wil maar een specifieke AI toepassing in een ASIC stoppen lijkt me wel degelijk efficiënter dan een GPU gebruiken. Het wordt vast al ergens gedaan.
?

Ik zie niet in waarom je er nu ASICs bij haalt. Die bestaan trouwens ook voor AI.
Hij reageert op:
het is ongekend, dat 1 product zoveel GPU-rekenkracht nodig heeft dat het op dit moment onpraktisch en/of onhaalbaar duur is om dat product te schalen zodat het voldoet aan de vraag.
En precies dat deed bitcoin (en andere crypto) dus precies ook al eens met onbeperkte vraag naar GPUs.
H200 gebruikt dezelfde gpu alleen hbm3e geheugen ipv hbm3 dus dat gaat niet helpen.
Het zou alleen kunnen helpen als je dese workload ook op MI300 zou kunnen draaien. Al produceren die ook Bij TSMC. In dat opzicht zouden ze er goed aan doen om ook een Ai chip bij Samsung te gaan bakken. Ookal is die minder efficiënt je hebt wel meer productie capaciteit beschikbaar.
Ooh wat zal het toch een verademing zijn als AMD eindelijk kan concurreren met Nvidia op dit gebied! Nvidia heeft op dit moment een monopoly op het gebied van AI rekenkracht en bepaald de prijs van de hardware helemaal vrij. Als AMD hier een stuk vanaf kan halen zou dat prachtig zijn.

Toch ben ik niet optimistisch in dat dit ook echt gaat gebeuren. Je ziet het al met AMD EPYC CPU's. Die zijn nog steeds niet de standaard op vele grote cloud providers. Die zetten je altijd standaard op Intel chips (of je bent AWS en je pusht je eigen Graviton natuurlijk). En EPYC is het beste geval, omdat het eigenlijk geen enkel verschil maakt. Maar MI300 is uiteraard niet compatibel met Cuda code, waar vele projecten toch wel op gebouwd zijn. Begrijp me niet verkeerd, het is wel mogelijk en veel projecten ondersteunen al AMD GPU's voor AI, en zeker een hoop enthousiast projecten zoals Stable Diffusion en Llama(-achtige) language models, maar de industrie is toch wel wat anders.
Oracle Cloud to the rescue :)
sad but true, maar ontlast mss wel weer Azure(Bingchat etc) en dus meer resources voor OpenAI
https://www.theregister.com/2023/11/07/bing_gpu_oracle/
neural networks zijn gewoon zwaar inefficient in huidige staat. hopelijk komt daar snel verbetering in.
Een klein beetje extra duiding bij zo’n stelling zou leuk zijn. :)
Waarschijnlijk doelt hij op het grote energieverbruik van huidige LLM's. En op zich moet er wel verbetering mogelijk zijn aangezien het menselijk brein een paar uur kan werken op een boterham.

Ik verwacht niet dat toekomstige LLM's groter of slimmer gaan worden. Meer dat ze kleiner worden (met dezelfde functionaliteit), en efficiënter, zodat je bijvoorbeeld ChatGPT op je telefoon kan runnen.
O ja, precies dat!

Ik was mij niet bewust van het enorme beslag op rekenkracht die LLM's gebruiken en daarmee het enorme energieverbruik. Het lijkt me wel een punt van aandacht in alle hosanna over AI. Er wel gemopperd over datacentra die teveel energie zouden verbruiken maar intussen zit iedereen op zijn telefoon en speelt iedereen met ChatGPT..
Het hoge energieverbruik van LLMs is algemeen bekend. Ik zit zeker niet in de industrie maar weet het ook.
Wat is de kans dat dit is gelinkt aan de lancering van Co-Pilot en de capaciteit die daarvoor nodig is op Azure?
Die bekende hinder krijgt op de markt meestal een vertaling in kosten en winstmarge. Het bedrijf is duidelijk in de oorzaak: huidige klanten verbruiken te veel voor de door het bedrijf onderhandelde capaciteit. Aangezien je de producent niet kan verwijten een bepaalde (hoge) prijs voor schaarste te berekenen, net zo min als dat de leverancier aan het ai-bedrijf valt aan te rekenen dat te doen, ligt het probleem dus eerder bij het te makkelijk capaciteit uitdelen voor de beschikbare capaciteit. Het bedrijf weet immers dat ze niet zomaar capaciteit kunnen ophogen en dat men een maximale inkoopprijs bereid was te betalen.

Natuurlijk kun je ontevreden zijn dat een producent of leverancier graag winst op schaarste maakt door aan een ai-bedrijf te verkopen, maar dat lijkt me dan een heel andere discussie zolang je geen direct verband met de klantenstop kunt tonen.
Is minder verbazingwekkend dan je denkt. Mijn werkgever een tijd elke maand meer dan 50% van alle CPU cores van Azure Nederland gebruikt.

Ten tijde van de pandemie was er zelfs niet genoeg capaciteit (door Teams gebruik) om onze reserved capacity te leveren.

De grote cloud is soms ook kleiner dan je je realiseert.
Ah, dat verklaart waarom GTP4 de laatste dagen zo ongekend veel trager dan gebruikelijk/gemiddeld was en nog steeds is.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 16:30]

Met de nieuwe GPT-4 versie met 128k context kan ik me voorstellen dat de capaciteit verhoogd moet worden. Hadden ze zelf ook kunnen bedenken. Vraag me wel af wat de toegevoegde waarde gaat zijn van de nieuwe GPT versies, want waar de oude al behoorlijk restricted waren zijn de jongste updates vrijwel nutteloos voor veel dingen. Je krijgt gewoon 'sorry, maar hier doe ik niet aan mee' ofzo. En dan heb ik het over doodnormale verzoeken, vertaalklusjes e.d.
Is dit dan door de inhoud van hetgeen wat je wilt vertalen? Ik gebruik het dagelijks met redelijk specifieke bronnenwelke soms ook onderzoeken naar seks of andere expliciete zaken bevatten. Ik heb denk ik al sinds augustus geen enkele contentrestrictie meer meegemaakt, heel benieuwd wat je dan probeert te doen.

Ook samenvattingen van compleet gecopryrighte dingen krijg ik moeiteloos uit chat GPT met DOI nummers, van fictie zojuist zelfs per hoofdstuk.
Geef eens een voorbeeld van zo'n doodnormaal verzoek. Wij werken er een 50-tal medewerkers mee en ik heb hier niemand over horen klagen.
Heel herkenbaar, gpt4 "turbo" is trager dan ooit.

Daarbij lopen zeker 30% van de verzoeken in de soep door network errors, of omdat de tool weigert meer dan 50 rijen in een tabel te plaatsen van een veel grotere tabel, etc.
Dat kan je makkelijk omzeilen door een aantal trucs 😂🤣
Ah, dat verklaard waarom GTP4 de laatste dagen zo ongekend veel trager dan gebruikelijk/gemiddeld is.
Ik heb het al weken. Het is inderdaad niet normaal hoeveel moeite GPT4 doet om iets eruit geduwd te krijgen, en hoe kort 3.5 dat kan, met meestal het zelfde antwoord.
Ja, ik dacht dat het kwam omdat ik het ook met andere deel. Maar inderdaad had was heel erg traag.
Via de iOS app (en de appstore) kan je nog steeds een premium plan aanschaffen.
Ik zie het ja! Met Android lukt het ook nog.
Dank! Ik had een abonnement maar die was sinds vandaag gestopt, anderen met dit probleem?
Mijn abbonement was paar dagen geleden gestopt en ik dacht dat het wellicht met mijn creditcard te maken had waar OpenAI niet opd e lijst stond van automatisch geaccepteerde bedrijven. Gelukkig kon ik eergisteren verlengen en heb ik weer een abbo.

Het is inderdaad vreemd
Ik heb ooit ergens gelezen dat een simpele ChatGPT query 1500% meer energie gebruikt dan een Google query. Ik vrees dat het veelvuldig gebruik van LLM onhoudbaar ga worden.

Edit: de bron weet ik niet meer (vandaar de 'Ik heb ooit ergens...'). Je kan je misschien dan de vraag stellen of dit een nuttige bijdrage is. Ik wou dit melden omdat ik vermoed dat er hier mensen zijn met meer kennis van zaken over LLM dan ik. Op deze manier wil ik een discussie opstarten over het energieverbruik van LLM vs Google queries.

[Reactie gewijzigd door Edrek op 22 juli 2024 16:30]

Het klinkt misschien nog slechte toekomstmuziek, maar als ik lees dat alle datacentrums tezamen ongeveer 3% van de wereldwijde energie gebruiken is het eigenlijk te hopen dat dat niet (heel) veel meer wordt. Als je er over nadenkt is het best een donker scenario dat als het energieverbruik wél blijft stijgen en daar tegenover niet evenredig veel meer energie (schoon) kan worden opgewekt, je misschien in een wereld terecht komt dat computers daadwerkelijk het merendeel van de energie verbruiken op deze planeet.

Waar het ooit begon dat wij mensen de energie 'nodig' hebben je in een tijdperk komt dat datacentra zó belangrijk worden - omdat de hele maatschappij/infrastructuur daar vanaf hangt - dat die meer prioriteit krijgen als er een keuze moet worden gemaakt qua energieleverantie. En dat de mensen het maar moeten doen met wat er nog over blijft. Het moment dat computers dus van levensbelang worden en de mens op de tweede plaats staat. Is daar geen science-fictionverhaal over geschreven?
Is daar geen science-fictionverhaal over geschreven?
'The Ultimate Computer' Startrek original series1968 gaat ondermeer daarover. Een nieuwe computer moet het werk vd kapitein uit handen nemen en daarvoor heeft ie steeds meer energie nodig en besluit van alle ongebruikte delen vd enterprise de energie af te schakelen. En uiteraard protesteert ie fel tegen uitzetten na enkele foute en dodelijke beslissingen. Spoiler alert: het loopt toch goed af :P
Streamingdiensten en social media maar verbieden. Scheelt veel stroom :-)
We zitten nog wel aan de begindagen van LLM en Google is natuurlijk tot in de puntjes geoptimaliseerd. Een factor 15 sneller/efficienter lijkt me in theorie goed haalbaar.
https://lifestyle.livemin...soft-111697802189371.html

Wel fijn dat dat artikel ook echt naar de bron linkt :+

edit: dit is wellicht een iets beter artikel: https://medium.com/@zodhy...tgpt-consume-4cba1a7aef85

[Reactie gewijzigd door DdeM op 22 juli 2024 16:30]

Heb je op Reddit gelezen. Als je even Googlet is dit niet onrealistisch, al houdt dit wel vooral rekening met de zwaarste requests. De gemiddelde zou een pak lager liggen, eerder richting de 6x ipv 15x.
En hoeveel energie kost het om een mens te verwekken, op te voeden, naar school te sturen en dan na een 25 jaar eindelijk eens productief te laten zijn?
Heel veel meer energie. Maarja we gaan uiteindelijk toch een periode van onderbevolking krijgen, dus nieuwe aanwas is wel fijn
Veel mensen zijn pas echt productief rond hun 30 sommige eerder en sommige later.
Ik heb ooit ergens gelezen dat een simpele ChatGPT query 1500% meer energie gebruikt dan een Google query. Ik vrees dat het veelvuldig gebruik van LLM onhoudbaar ga worden.
Ik denk dat uw vrees ongegrond is. LLM vergt energie maar of dat nu onhoudbaar is, is een andere zaak.

Onhoudbaar duur? Onhoudbaar wat energievoorziening betreft? Het is en rimpel op het energieverbruik op aarde. Vraag/aanbod zal zich wel stellen op nieuwe noden.

De elektrificatie van het westen (verwarming, vervoer..) heeft 1000x impact op het net. LLM cloud services zullen er nog wel bijkunnen :)

Voor de duidelijkheid. Ik zeg niet dat de digitalisering en AI geen extra investeringen vergt wat energieproductie betreft. Ik zeg enkel dat de toename niet onhoudbaar maar te makkelijk te managen valt.

AI gaat de wel hele chipproductie wereld veranderen. Het onhoudbare zit hem nu eerder in de hoeveelheid benodigde chips.

De grote uitdaging zal zijn AI zo vormen dat onze economie en mensheid er beter van wordt. AI heeft de potentie om de hele kenniseconomie op zijn kop te zetten. Daar zijn geen bewijzen voor maar als je een beetje nadenkt voorspel ik daar erg veel sociale onrust met erg veel politieke debatten hoe AI, jobverlies en welvaart hand in hand zullen gaan want er komt ooit een punt dat AI in een snel tempo op vele taken waar we nu geld met verdienen efficiënter, effectiever en schaalbaarder zal zijn dan de mens.
of je wekt gewoon meer op, ik denk dat chatgpt een prima tegenhanger is om overschotten kernenergie op te slokken
Haha wat!? 'je wekt gewoon wat meer op?' Misschien dat je het hele klimaatprobleem even hebt gemist? 'Overschotten kernenergie'? Welke overschotten heb je het precies over? Nee, ik denk dat er inderdaad een flinke efficiency slag moet komen, mede gezien de verwachting dat dit soort AI modellen nog een veel grotere vlucht gaan nemen.
Laten we maar niet beginnen over onzin bitcoins en nfts dan.
De NFTs gebruiken geen energie en worden op PoS Ether beheerd. Onzin is het misschien wel, maar het vervuilt nagenoeg niet meer.
NFTs is gewoon een scam maar crypto is dat niet, alleen paar zijn stabiel en goed.
Onhoudbaar niet. Duurder wel. De waarde is voor veel mensen echter enorm. Ik zou er geen moeite mee hebben als ze de prijs verhogen naar een paar honderd euro per maand.
Ik snap dat je eigenlijk gewoon vraagt om een bron, maar je reactie vind ik op deze manier niet echt beter.

Ben wel zeker ook benieuwd naar een bron voor die info.
Chatgpt plus... wat een drama niet normaal traag en 20 usd in de maand betalen pff... heb nu de api genomen met een ander dashboard en die is gewoon vlot geen enkel probleem. Onder aan de streep nog goedkoper ook waarschijnlijk.
Ligt eraan wat je ermee doet. Die $20 per maand heb ik in de eerste maand toen Plus er was al voor de komende 3 jaar terug verdiend 😂. API heb ik kort getest en zou in de eerste week al meer kwijt zijn, dus maar snel mee gestopt en mn cc gegevens verwijderd uit m'n dev account.
Ik ben nu benieuwd hoe je het terug hebt verdiend? Ik kan paar aannames doen, maar mijn interesse heb je!

(Mijn aannames zijn dat je wellicht sneller met je werk klaar was of iets dergelijks).
Ik gebruik het voor mijn onderneming, zaken waar ik anderen nu niet voor nodig heb en het zelf kan doen. Ook heb ik met behulp van ChatGPT bepaalde diensten kunnen ontwikkelen, waar ik veel meer tijd en geld in had moeten investeren, of überhaupt niet had kunnen creëren zelf.
Aah, oké. Ik zou wel afraden om met ChatGPT iets te gaan ontwikkelen, want in de voorwaarden van Chat staat dat het auteursrecht bij hen ligt als het met Chat is ontwikkeld. Uitkijken dus.
Nadruk op "met behulp van" ;) En zo zwart-wit is het niet dat alles wat je in ChatGPT doet zij plots eigenaar van zijn. Kan ook helemaal niet.

[Reactie gewijzigd door ASNNetworks op 22 juli 2024 16:30]

Die algemene voorwaarden zijn best eng. Totdat een rechter zich over heeft gebogen is het allemaal een grijs gebied. Als ik een miljoenen project zou ontwikkelen dan zou ik al die AI tools niet gebruiken zonder een overeenkomst dat het auteursrecht wordt afgestaan.
1 bedrijf dat alle Azure H100’s opslokt. En de klimaatproblemen zijn ineens niet meer van tel. Kan me niet inbeelden wat voor resources dit opslokt.
En die 8 miljard mensen op aarde verbruiken geen resources...
De helft van de mensheid leeft onder armoede en hutje touwtje, dus dat is onzin. In het Westen wonen ongeveer in totaal 1 tot 1,5 miljard mensen. Die zijn vervuilend en de rest van de mensheid niet omdat ze simpelweg de middelen en welvaart niet hebben zoals wij.
Beetje gekke vraag misschien, maar hoe staat het met de ontwikkeling van analoge architecturen. Ik meen jaren geleden al een filmpje te hebben gezien over de potentie van analoge rekensystemen voor ai doeleinden omdat deze 'flexibeler' kunnen werken en niet alles maar in óf een 1 óf een 0 willen uitdrukken.

Edit: geen jaren geleden, maar anderhalf jaar. Video van veritasium
https://youtu.be/GVsUOuSjvcg?si=HVJraWU0lXdO4RK8

[Reactie gewijzigd door DirtyBird op 22 juli 2024 16:30]

TweakersGPT kunnen jullie samenvatten wat de belangrijkste punten zijn uit het devDay event?
TweakersGPT zegt: Het devDay event's belangrijkste punten:
- AIs hebben voortaan slechts een 36-urige werkweek.
- AIs verdienen voortaan tenminste het minimumloon.
- AIs zullen voortaan niet langer seksuele getinte fan-fiction schrijven.
- Klachten kunnen worden ingediend bij "The OpenAI Labor Union".
Excuses, deze vraag kan ik niet beantwoorden.
Uw vraag gaat in tegen onze policy. Wilt u uw vraag abstracter stellen ?

Op dit item kan niet meer gereageerd worden.