Door Arnoud Wokke

Redacteur Tweakers

OpenAI transformeert zichzelf

Van non-profit naar techgigant in spe

08-10-2024 • 06:00

102

OpenAI

Er zijn zeldzame gebeurtenissen waarbij je weet dat er iets groots in de techsector verandert: de release van Mozilla Firefox begin jaren 2000, de aankondiging van de eerste iPhone en iPad door Apple, de opkomst van de mp3 eind jaren negentig en langer geleden de eerste internetproviders. Je zou veel van zulke momenten kunnen aanwijzen.

De doorbraak van ChatGPT was ook zo'n moment. Het kwam een beetje uit de lucht vallen. Plaatjesgenerators zoals Dall-E en Midjourney waren al langer actief en kunstmatige intelligentie is al jaren een belangrijk onderdeel van de techsector: Google Now bestond al rond 2013, en digitale assistenten als Siri, Cortana en Alexa en het hele werkveld van computational photography leunen op doorbraken in kunstmatige intelligentie.

Dat er ineens een website was waar je met een geavanceerde chatbot kon praten die op veel zaken goed antwoord leek te geven, voelde als een echte doorbraak. Het was ook een belangrijk moment voor het bedrijf achter ChatGPT, OpenAI. De gevolgen daarvan zien we nu nog steeds. OpenAI ziet een kans die weinig bedrijven krijgen en lijkt die niet te willen laten schieten.

Bannerafbeelding: Just_Super / Getty Images

De opkomst van OpenAI

OpenAI Sonic
OpenAI-model speelt Sonic

Het was een simpel bericht op de Tweakers-frontpage: 'Technologiebedrijven starten onderzoeksinstituut voor kunstmatige intelligentie', uit december 2015. Het artikel richtte zich ook op de betrokkenheid van Elon Musk, maar er stond duidelijk omschreven wat het doel zou zijn. "Volgens de initiatiefnemers moet OpenAI het onderzoek naar kunstmatige intelligentie bevorderen. Het gaat daarbij om fundamenteel onderzoek, zonder de noodzaak om hier commerciële toepassingen voor te verzinnen. In plaats daarvan moet het onderzoek juist een positieve bijdrage leveren voor de mensheid, aldus de initiatiefnemers. Uiteindelijk is het de bedoeling om kunstmatige intelligentie te ontwikkelen die op het niveau van een mens kan opereren."

Door dat fundamentele onderzoek in een gezamenlijke stichting zonder winstoogmerk onder te brengen, zou het zich moeten onttrekken aan de normale wetten van het kapitalisme, aldus OpenAI toen. "Als het zover is, zal het belangrijk zijn om een leidende onderzoeksinstelling te hebben die een goed resultaat voor iedereen prioriteit kan geven boven haar eigenbelang." Immers, een bedrijf is gericht op winstmaximalisatie en zal in veel gevallen daarnaar streven, op korte of lange termijn. De initiatiefnemers zagen risico's in het ontwikkelen van kunstmatige intelligentie binnen de omgeving van een normaal, op winst gericht, bedrijf.

HAL 9000Volgens de oprichters zit het risico er onder meer in dat kunstmatige intelligentie te veel gaat kunnen. Het is onderwerp van veel sciencefiction, al sinds 2001: A Space Odyssey en daarvoor: het idee dat een computer slimmer is en meer kan dan een mens. Wat als we als mensheid de controle verliezen?

Het centrale punt is dit: als we als mensheid de controle kwijt zijn, is het heel moeilijk die terug te krijgen. Het is dus een punt waarvan je niet kunt terugkomen. Dat AI-systemen slimmer worden dan mensen, lijkt een kwestie van tijd, maar daarnaast is er de vraag hoe dat gaat gebeuren.

Dat de rol van mensen daarbij gaat veranderen, is duidelijk. We zien dit nu ook al: onder meer de eerste illustratoren hebben hun baan verloren aan AI, en critici denken dat de recente ontslagrondes bij veel grote bedrijven, in een periode zonder recessie nota bene, deels zijn toe te schrijven aan AI, schrijft onder meer Fortune. Layoffs.fyi laat zien dat hoewel de grote piek is geweest, er nog steeds veel ontslagen vallen.

Layoffs.fyi: ontslagen sinds begin 2023
Layoffs.fyi: ontslagen sinds begin 2023

Terug naar de begindagen van OpenAI: het was een non-profit, wat betekent dat het aan bepaalde regels gebonden is, maar ook bepaalde rechten heeft, zoals vrijstelling van bepaalde belastingen. Zeggen dat iets geen winstoogmerk heeft, is dus geen loze kreet; het heeft juridische en fiscale consequenties.

Het woord 'open' in OpenAI stond er ook niet voor niets: de non-profit zou zoveel mogelijk openbaar maken van het eigen onderzoek en de eigen diensten. De bedoeling was een open organisatie die AI verder ontwikkelt zonder zich druk te maken over het boeken van winst.

OpenAI kreeg later meer steun nadat de eerste toolkits en resultaten bekend werden. Die steun kwam van bekende namen in tech, zoals LinkedIn en eBay. OpenAI werkte aan onderzoek voor kunstmatige intelligentie, maar bleef ook waarschuwen voor de mogelijke gevaren, onder meer in rapporten.

OpenAI was terughoudend in het uitbrengen van diensten. Bij de release van GPT-2 in 2019 wilde OpenAI het niet uitbrengen vanwege angst voor misbruik. Dat gebeurde later ook met andere diensten, zoals onlangs met Sora voor het genereren van video.

Toch kwamen er snel tekenen dat het niet eeuwig een non-profit zou blijven: naast de non-profit kwam er een 'limited partnership', een bedrijf met de mogelijkheid om beperkte winst te maken. In 2019 nam OpenAI een investering aan van Microsoft om een platform op Azure te maken. Microsoft kreeg ook een exclusieve licentie op GPT-3. Je zou kunnen stellen dat toen al het idee van een volledige non-profit aan het verdwijnen was. Microsoft kwam met commerciële diensten op basis van GPT-3, zoals GitHub Copilot. Als je fanatiek tweaker was in 2022, kende je vermoedelijk OpenAI wel. Maar voor veel mensen was het nog onbekend. Dat veranderde eind 2022.

ChatGPT
Eerste versie ChatGPT, eind 2022

ChatGPT

ChatGPT was in feite een front-end voor GPT 3.5. Het was vooral beschikbaar via Microsoft-diensten en de api, maar nog niet als webinterface. ChatGPT was die webinterface, met een model erachter dat was geoptimaliseerd voor gesprekken.

Een api vereist moeite om te benaderen, terwijl iedereen op internet eenvoudig een website kan openen. ChatGPT trok vanaf de release eind 2022 veel aandacht, ook op Tweakers. Zoals altijd blijkt dat het niet gaat om de technologie die je ontwikkelt, maar om de manier waarop je die aanbiedt en hoe makkelijk het is.

Het bleek een doorbraak naar de mainstream. Na ongeveer een week publiceerden mainstream media, zoals in Nederland de NOS, artikelen over de populariteit van de dienst. Dit bracht ook de discussie op gang. Gaat AI beroepen overbodig maken? Kunnen leerlingen hiermee hun huiswerk maken en hoe moeten scholen daarmee omgaan? Is dit een gevaar voor de mensheid als geheel?

Dat was een verschil met eerdere AI-diensten die viral gingen, zoals Lensa om avatars te maken. Het maken van afbeeldingen op basis van foto's kan discussie oproepen over de betrouwbaarheid van beeldmateriaal, maar daar houdt de discussie dan ook weer op. Over een AI-model dat teksten kan maken, is veel meer te zeggen en te schrijven.

Bing Chat in Windows 11 Moment 2

De gevolgen binnen tech waren snel zichtbaar. Microsoft haastte zich om GPT-4 te gebruiken om de eigen zoekmachine Bing te voorzien van een chatbot. Google wilde niet achterlopen en had naar verluidt 'code rood' afgeroepen vanwege de noodzaak om te concurreren met ChatGPT.

Elk techbedrijf haastte zich om AI in eigen diensten te zetten. Snapchat, Slack, Discord ... binnen een half jaar leek elk bedrijf zijn software met AI te hebben geïntegreerd. Het was een ware goldrush. Google kwam met Bard, een naam die een half jaar later alweer verdween. Microsoft kwam met Bing Chat, een naam die kort daarna alweer verdween. Het was ook aan de buitenkant zichtbaar dat dit een chaotische tijd was.

Het zijn de momenten in de techsector waarop nieuwe giganten ontstaan. De doorbraak van pc's stuwde Microsoft omhoog, de komst van webwinkels maakte Amazon groot, uit de tijd van zoekmachines kwam Google als gigant tevoorschijn en uit 'web 2.0' en sociale media kwam Facebook, later Meta, voort. Als er een nieuwe kans ontstaat, verschijnt er vaak ook een nieuwe gigant.

Kan dat OpenAI zijn? Het was het bedrijf dat met ChatGPT generatieve AI in de schijnwerpers zette. Maar om een gigantisch bedrijf te bouwen, heb je meer nodig dan een doorbraak. Je moet zorgen dat je ongebreideld en snel kunt groeien.

Amazon Kindle in hand
Amazon Kindle, 2007

Amazon begon als webwinkel, maar is inmiddels groot met AWS en heeft hardware zoals speakers, tablets en e-readers. Google begon als zoekmachine, maar verdiende geld met gerichte advertenties en breidde zich uit naar onder meer mobiele besturingssystemen, browsers en hardware. Facebook begon als sociaal netwerk, maar kocht met Instagram, WhatsApp en Oculus bedrijven om zich uit te breiden.

Daarvoor is veel geld nodig: investeringen in een groeiend bedrijf. Microsoft zou dat nooit blijven doen, want daarmee schept het uiteindelijk een eigen concurrent. Met deze kans om uit te groeien tot groot, toonaangevend techbedrijf komt een moreel dilemma: als non-profit relatief klein blijven of wisselen naar een nieuw bedrijfsmodel en zo groter groeien?

De coup van 2023

Dat morele dilemma heeft OpenAI tot in de top verdeeld. Het bedrijf werd langzaam minder open dan het was. Bij de release van GPT-4 was lang niet zoveel documentatie beschikbaar over de training als bij voorgaande versies. De discussie over de toekomstige koers van het bedrijf kwam tot een uitbarsting ongeveer een jaar geleden, toen het bestuur oprichter en directeur Sam Altman ontsloeg. Altman is verklaard voorstander van de commerciële koers, andere bestuursleden wilden vooral een non-profit blijven.

Het ontslag bleek een begin, geen einde: volgens het draaiboek kwamen medewerkers in opstand en dreigden massaal weg te gaan. Altman zou aan de slag gaan bij Microsoft, waarna daar 500 van de 700 OpenAI-medewerkers ook heen zouden gaan. Altman keerde terug bij OpenAI onder druk van investeerders, en daarna moesten er koppen rollen. Het bestuur trad af en afgelopen jaar zijn de vocaalste voorstanders van de non-profitconstructie verdwenen, waaronder mede-oprichter Ilya Sutskever, onderzoeker Jan Leive en onlangs cto Mirei Murati.

In de producten en diensten ging het hard. In 2023 kwam GPT-4 uit en toen kwam er ook een abonnement voor enkele tientjes per maand. Dat is een duidelijk verdienmodel en de intentie leek om de focus te verschuiven van fundamenteel onderzoek naar een winstgevend bedrijf.

GPT-4
GPT-4

Er kwamen steeds meer diensten en deals bij. Zo komt ChatGPT in iOS 18, als back-up voor als Apple Intelligence het antwoord niet weet. De bedoeling is dat andere AI-diensten daar later ook op kunnen inhaken, maar de eerste deal was met OpenAI. Dat is vermoedelijk een deal met gesloten beurzen, maar dat OpenAI voor zo'n commerciële deal openstaat, zegt veel.

En nu

Voor ons als gebruikers betekent de stap van OpenAI naar een bedrijf met winstoogmerk nog niet veel. Sinds de release van ChatGPT in 2022 gedroeg OpenAI zich al een beetje zo en het aantal producten en diensten zal na het voltooien van deze stap alleen maar toenemen.

De vraag is wat dit betekent voor fundamenteel onderzoek. In grote techbedrijven is vaak ruimte voor onderzoek, maar uiteindelijk moet alles leiden tot iets wat voor het bedrijf geld oplevert. Bovendien verliest OpenAI vermoedelijk goodwill van onderzoekers die zich aangesproken voelden door het 'open' van OpenAI.

OpenAI is nu nog niet de techgigant die Google, Meta, Amazon, Apple en Microsoft zijn. Het is een bedrijf met een specialisatie in AI en de kans om groter te worden, maar een techgigant onderscheidt zich van reguliere bedrijven door meerdere divisies te hebben. Een techgigant is als een tafel: die kan niet stabiel op één poot staan. Een eerste stap heeft OpenAI al genomen: de release van een bètaversie van een zoekmachine. Het is een markt waarin veel geld omgaat en AI kan die markt veranderen, zo onderkenden Google en Microsoft ook al.

Of Altman erin slaagt om van OpenAI zo'n groot bedrijf te maken, is niet duidelijk, maar de intentie is wel helder. Telkens als tech zó in de ban is van iets zoals AI nu, biedt dat ruimte aan een nieuw bedrijf om enorm groot te worden, en Altman wil die kans grijpen. Zelfs als hij daarvoor de oorspronkelijke ideologie van zijn bedrijf moet loslaten.

Reacties (102)

102
101
56
9
0
33
Wijzig sortering
In dat kader wel interessant in hoeverre AI op dit moment niet zijn eigen ondergang gaat betekenen:

Drowning in Slop A thriving underground economy is clogging the internet with AI garbage — and it’s only going to get worse.
In the nearly two years since, a rising tide of slop has begun to swamp most of what we think of as the internet, overrunning the biggest platforms with cheap fakes and drivel, seeming to crowd out human creativity and intentionality with weird AI crap. On Facebook, enigmatic pages post disturbing images of maimed children and alien Jesuses; on Twitter, bots cluster by the thousands, chipperly and supportively tweeting incoherent banalities at one another; on Spotify, networks of eerily similar and wholly imaginary country and electronic artists glut playlists with bizarre and lifeless songs; on Kindle, shoddy books with stilted, error-ridden titles (The Spellbound Quest: Students Perilous Journey to Correct Their Mistake) are advertised on idle lock screens with blandly uncanny illustrations.

If it were all just a slightly more efficient form of spam, distracting and deceiving Facebook-addled grandparents, that would be one thing. But the slop tide threatens some of the key functions of the web, clogging search results with nonsense, overwhelming small institutions like Clarkesworld, and generally polluting the already fragile information ecosystem of the internet. Last week, Robyn Speer, the creator of WordFreq, a database that tracks word frequency online, announced that she would no longer be updating it owing to the torrent of slop. “I don’t think anyone has reliable information about post-2021 language usage by humans,” Speer wrote. There is a fear that as slop takes over, the large language models, or LLMs, that train on internet text will “collapse” into ineffectiveness — garbage in, garbage out. But even this horror story is a kind of wishful thinking: Recent research suggests that as long as an LLM’s training corpus contains at least 10 percent non-synthetic — that is, human — output, it can continue producing slop forever.
simpel gezegd ze kakken in hun eigen eetbak. dit is een effect waarvan je al vrij snel doorhebt dat deze het het hele machine learning landschap vrij snel in de vernieling zal rijden. Tegen dat de modellen misschien echt goed zijn is de data waardeloos. ik heb het idee dat bedrijven als Open-AI dat ook wel doorhebben. ik zou niet van mijn stoel vallen als de koers die Open-AI nu vaart een poging is om zo veel mogelijk geld bijeen te graaien voor alles instort.
Als ik de laatste regel lees lijkt dit dus geen probleem te zijn? Met maar 10% van menselijke input kan het systeem doorgaan. Misschien is er een zeker moment that mensen herkennen dat het vooral AI slop is en niet meer zelf dingen maken/ermee engageren. Bijvoorbeeld bij 70%, waardoor ineens de menselijke fractie wegvalt en je de >90% haalt die nodig is voor een implosie.
Maar zelfs dat noemt het artikel, voor veel consumenten is slop "goed genoeg". Mensen consumeren het als ze aan het doomscrollen zijn, en dat is goed genoeg om de spam vol te houden.
Voor ons als gebruiker betekent dit inderdaad nog niet veel, maar zal op langere termijn wel degelijk gevolgen hebben. Een non-profit maakt gewoon andere keuzes dan een organisatie met winstoogmerk. Het valt natuurlijk te zien welke keuzes OpenAI hierin gaat maken en wat de impact op de maatschappij wordt. Het zijn immers ook behoorlijke twijfelaars bij OpenAI over de ethische vraagstukken en het toekomstig potentieel van de technologie.
Op zich duidt twijfel er voor mij op dat ze trachten hun verstand te gebruiken. Stel dat je op een sleuteltechnologie zou zitten en je realiseert jezelf dat de impact op de samenleving groot zal zijn maar afgezien daarvan laat die impact zich moeilijk voorspellen. In zo'n geval kan twijfel een goede raadgever zijn om in ieder geval 3x over te nemen stappen na te denken.

Dat OpenAI nu een commercieel bebrijf wordt... Ik stelde mijzelf de vraag of dat niet een onvermijdelijkheid is in onze kapitalistische samenleving. Begrijp mij niet verkeerd: ik praat daarmee deze ontwikkeling niet goed. De druk van kapitaalverschaffers verkleint de ruimte voor twijfelen, zoeken en experimenteren. Zo kan deze ontwikkeling betekenen dat OpenAI hiermee stopt met vooruitstrevend te zijn omdat het een doelstelling moet omarmen die winst gaat opleveren. Dat doel moet haalbaar zijn (return of investment) en heeft daarom een beperkter scoop.

Om het bovenstaande lees ik dit artikel wat berustend. We kunnen beginnen met het scouten naar een nieuwe OpenAI achtige die met haar inventiviteit onbevangen ons digitale landschap op zijn kop gaat zetten. Waarschijnlijk dan met iets totaal anders als AI.
Telkens als tech zó in de ban is van iets zoals AI nu, biedt dat ruimte aan een nieuw bedrijf om enorm groot te worden, en Altman wil die kans grijpen. Zelfs als hij daarvoor de oorspronkelijke ideologie van zijn bedrijf moet loslaten.
Nou bereid je maar voor hoor, alles achter een abonnement en zoveel mogelijk geld voor de aandeelhouders. De eerste paar jaar natuurlijk alles zo veel mogelijk gratis om concurrentie kapot te maken en iedereen "afhankelijk" van je platform te maken.
Een opmerking over winstmaximalisering voor aandeelhouders kon hier natuurlijk niet uitblijven.

Voorlopig zal dat nog niet aan de orde zijn. OpenAI zal zich eerst moeten transformeren naar een commercieel bedrijf. Pas dan kunnen ze naar de beurs gaan. Dat is een proces wat minimaal een jaar of drie gaat duren. De eerste stap is natuurlijk al genomen met de onderlinge ruzie eerder dit jaar. Na de beursgang zal OpenAI nog niet direct winstgevend zijn. Daar zullen nog twee of drie jaar overheen gaan.

Of OpenAI kan uitgroeien tot een tech-gigant is maar de vraag. Er is een behoorlijke concurrentie en die zal nog verder toenemen. Er zullen ook steeds meer gespecialiseerde AI producten komen die op hun vlak beter zullen zijn als een vrij algemeen model als dat van OpenAI. Wil OpenAI blijven bestaan zullen ze concurrerend moeten blijven, anders worden ze links en rechts voorbij gelopen. Voor overstappen zit je niet met compatibiliteitsproblemen, dus klanten kunnen ook gemakkelijk overstappen.
"Daar zullen nog twee of drie jaar overheen gaan."

Wel meer dan dat. Momenteel zitten ze in een situatie waarin ze sneller geld verliezen dan ze verdienen, tot het punt waarop ze voor de volgende investeringsronde zelfs waarschuwen dat investeerders het moeten zien als een dontatie
Separately, the Financial Times reports that investors have to "sign up to an operating agreement that states: "It would be wise to view any investment in [OpenAI's for-profit subsidiary] in the spirit of a donation," and that"OpenAI "may never make a profit," a truly insane thing to sign that makes any investor in OpenAI fully deserving of any horrible fate that follows such a ridiculous investment.
https://www.wheresyoured.at/subprimeai/

In gelinkte artikel staat veel meer (met bronnen) over wat OpenAI momenteel aan het doen is. En het voelt heel erg aan als "een kat in het nauw maakt gekke sprongen.".

All-in-all AI zoals het op dit moment werkt met LLM's is niet houdbaar, financieel niet en ecologish niet. Het kost gewoon veel meer dan het ooit op een normale manier kan opbrengen en het vereist vooralsnog zoveel data dat je dat ook niet ecologisch duurzaam kan doen.
https://algorithmwatch.org/en/sustainable-ai-explained/
https://earth.org/the-gre...-harming-the-environment/
https://hbr.org/2024/07/t...ais-environmental-impacts
De kosten van OpenAI zijn inderdaad gigantisch. Winst zit er de komende vijf jaar ook zeker niet in. Wil men naar de beurs gaan, dan zal dat perspectief er wel moeten zijn. Op het moment dat men naar de beurs gaat moet dat niet veel langer duren dan twee à drie jaar.
Voor die tijd zal het zich moeten omvormen naar een commercie gericht bedrijf. Dat betekent een duidelijke toekomstvisie, een sterk hoofdproduct en een goede financiële structuur. Ruzies zoals eerder dit jaar helpen niet, maar aan de andere kant is dat wel het punt geweest waarin men duidelijk voor een meer commerciële weg heeft gekozen.

Het financieel effect van LLM's zal uiteindelijk wel houdbaar zijn. Er is gewoon vraag naar en het kan mensen vervangen. Als je één persoon één dag in de week minder kan laten werken kan een bedrijf al behoorlijk wat uitgeven om een abonnement te betalen.
Ecologisch lijkt AI een ramp, maar met gespecialiseerde chips gaat het energie gebruik omlaag. Wat nu nog drie mensen op kantoor aan het doen zijn kan straks met twee (of zelfs één) personen. Dat scheelt toch weer een auto die heen en weer moet rijden. Thuiswerken doen we hier wel, maar in Amerika is dat nog steeds niet ingeburgerd. Als je de bezuiniging op transport meerekent is het gebruik van AI ecologisch ook wel te verantwoorden.
Momenteel verliest OpenAI 5 Miljard dollar per jaar en dat is met allerlei kortingen die ze nu nog van Microsoft krijgen op de infra. Als dat weg valt stijgt het verlies richting the 10 miljard dollar per jaar. Er is zeker vraag naar, maar bij lange na niet genoeg om dat bedrag op te vangen. Daarvoor moeten de diensten die OpenAI momenteel leverd vele malen duurder worden, wat betekend dat alle bedrijven die momenteel ChatGPT AI gebruiken voor hun producten ook de prijzen voor die producten zullen moeten laten stijgen.

Dat is een groot probleem, omdat er nu al veel vragen zijn hoeveel AI nu eigenlijk echt oplevert qua business value.
Microsoft's CoPilots in diverse tooling wordt nauwelijks gebruikt, vanwege de kosten en performance die gewoonweg problematisch zijn.

Er komen steeds meer onderzoeken waaruit ook blijkt dat vele developers gewoonweg geen productiviteits verbeteringen zien met gebruik van AI en dat de gegenereerde code een stuk lagere kwaliteit heeft.

En Strawberry is ook zo ongeveer een dood geboren paard (Hiermee doel ik op de woorden van Altman, niet op het mooie grafiekje)

[Reactie gewijzigd door DdeM op 8 oktober 2024 12:19]

OpenAI heeft al aangekondigd dat een abonnement in de toekomst $ 44,00 per maand gaat kosten, mogelijk meer. Het gratis account zal ongetwijfeld verder beperkt worden.
Bedrijven die ChatGPT gebruiken betalen per token en je moet er niet van opkijken dat de prijzen daarvoor met een factor vier of meer omhoog gaan.

ChatGPT werd in het begin erg gehyped, maar het aantal echte usecases is minder dan men eerst dacht. Voor het programmeren levert chatGPT inderdaad vaak bruikbare code op, maar de kwaliteit is niet heel hoog. Voor meer ingewikkelde of specialistische zaken moet je echt zelf aan de slag. Helaas blijkt het al snel te ingewikkeld.

Voor het schrijven van teksten is AI heel geschikt. Je geeft een aantal kernwoorden op en een stijl die gebruikt moet worden en binnen een paar seconden heb je een verhaal waar je anders meer dan een uur op had zitten werken. Plaatjes genereren gaat ook heel snel. Er blijven echt wel voldoende use-cases over die baat hebben bij AI.
Of OpenAI ooit winst kan gaan maken betwijfel ik eigenlijk ook. Een tech-gigant zie ik het zeker niet worden. Als er geen winst perspectief is, dan zit een beursgang er gewoon niet in.
Voor het schrijven van teksten is AI heel geschikt. Je geeft een aantal kernwoorden op en een stijl die gebruikt moet worden en binnen een paar seconden heb je een verhaal waar je anders meer dan een uur op had zitten werken.
maar geldt hier dan niet uiteindelijk hetzelfde voor als voor code, leuk dat die een lap tekst kan genereren, maar als dat vol fouten zit die je nog moet oplossen waardoor je wellicht ook gehele zinsopbouw moet aanpassen, ben je dan niet uiteindelijk een uur bezig met tekst reviewen en aanpassen ipv het zelf te schrijven?

Zelfde met plaatjes, nog steeds zie je als je langer dan 2 seconden kijkt in de meeste gevallen dat deze gewoon gegenereerd is. Leuk voor interne aangelegenheden of om je LinkedIn post op te smukken, maar voor je marketing of reclame doeleinden?

En wat betreft de financieel geldt natuurlijk hetzelfde voor alle andere LLM's, daar is OpenAI niet uniek in.
Anoniem: 80910 @WillySis9 oktober 2024 02:39
Die tokens zijn een schijntje momenteel. Had 500.000 embeddings opgehaald (Engels woordenboek) en dat was 20 GB en nog geen 0,50 cent. Dus er is nog marge
En mensen als Andreesen, Schmidt, Altman en Huang die doelbewust claims maken over wat er allemaal kan met AI terwijl ze dondersgoed weten dat dit met de huidige technologie helemaal niet kan en dat de technologie die ze willen net zo ver weg is als cold fusion en FTL travel: het bestaat alleen in theorie.

Ze moeten wel, want ze zitten er voor miljarden in en die moeten (met winst) terug worden verdiend. Of wel op de markt dumpen via IPO, of wel door prijsverhogingen en massa ontslagen.

We moeten eens stoppen met achter charlatans aan te lopen die teveel van hun eigen supply hebben gesnoven.
Je zou de klok erop kunnen gelijk zetten. Ben zelf ook benieuwd hoe dit op de beurs gaat ontwikkelen. Volgende bubble, of continue groei...
Volgende bubble, of continue groei...
Beide ! Dat is hoe een gigant ontstaat.

Het is een wedstrijd waarbij de sterkste de kleineren verslaat. Investeerders pompen enorm veel geld in 'hun' bedrijf om maar zoveel mogelijk te zorgen dat hun bedrijf uiteindelijk die grootste zal zijn.
Maar er kan er maar eentje winnen en dat bedrijf zal uiteindelijk die ene gigant worden.

Ondertussen is er veel geld in de verliezende bedrijven gestoken ('bubbel') maar de winnaar kan na het verslaan van de concurrentie juist gaan profiteren en op z'n gemakkie verder groeien en ook gaan cashen. ('continue groei')

Op dit moment is de wedstrijd nog maar net van start gegaan. OpenAI maakt een goede kans te winnen, maar dat is nog allerminst zeker. B.v. Yahoo en Alta-Vista waren ook al groot in de tijd Google, toch hebben zij de search-engine (-advertentie) markt niet gewonnen.
De beurs is nog heel ver weg. OpenAI draait miljarden verliezen en er is (nog) geen goed verdienmodel wat de verliezen op termijn kan gaan dekken. Voor een beursintroductie moet er toch minimaal een winstperspectief binnen twee à drie jaar zijn.

OpenAI heeft wel abonnementen en verkoopt per key, maar dat verdienmodel moet heel veel veranderen (duurder worden) om de kosten te kunnen dekken. Dan kom je op een punt waar AI duurder kan worden dan HI (human intelligence).
Men komt er nu ook zo langzamerhand achter dat AI niet het wondermiddel is wat is gehyped. AI is toch minder bruikbaar als in eerste instantie werd gedacht. Eenvoudige zaken gaan prima, maar ingewikkeldere zaken leveren toch wel resultaten op waar het een en ander aan rammelt.
Je vergeet nog het stukje om vervolgens zelfs overheden proberen aan te klagen omdat ze de service verbieden. :Y)

Wereld op z'n kop. 8)7

Weet niet zo goed wat ik angstaanjagender moet vinden.....
Maar de combinatie van dit alles klinkt niet heel rooskleurig in het wilde westen zonder goede regels.
Exact dit gaat gebeuren.
Sam Altman is ook de oprichter van Worldcoin.

Dat is dat creepy crypto project waarbij mensen hun iris laten scannen met een 'orb' voor geld.
Dat is het type persoon dat nu OpenAI in handen heeft.
Ik ben benieuwd naar hoeveel het verkeer naar zoekmachines gedaald is het afgelopen jaar. Ik merk dat ik vrijwel nooit meer een zoekmachine gebruik en verbaas me erover dat ik niet-tweakers om me heen dat ook hoor zeggen.
Puur uit interesse, maar dan doel je enkel op het vergaren van informatie waar je normaal een zoekmachine voor gebruikt? Ik gebruik namelijk voor bijna alles nog een zoekmachine en ik zou niet weten hoe ChatGPT/Claude/Gemini mij een sneller/beter antwoord moet geven op de link naar mijn overheid/internet bankieren etc. Daarnaast ben ik altijd nog een beetje huiverig als het gaat over de output van AI. Als ik wat wil weten over iets uit de geschiedenis dan vertrouw ik nog niet volledig op AI.
Ik gebruik het werkelijk voor alles, voor software dev vragen, voor mijn DnD-campagne, opzet voor een mail maken, maar ook voor hoe ik bepaalde sociale situaties kan aanpakken waar ikzelf veel moeite mee heb.
Ik zie dit meer om mij heen.
En ik vind het doodeng.

een AI is geen zoekmachine. Die AI modellen zijn taalmodellen en gaan voor goedlopende taal. Of het ook klopt daar zijn ze nauwelijks op getraind. Omdat de input 'het internet' is en er veel feitelijke informatie op staat reproducerende ze ook veel feiten, maar er is geen enkele garantie dat wat een AI zegt ook klopt.

Hetzelfde geld natuurlijk enigszins voor een zoekresultaat, maar omdat dat terugverwijst naar de pagina waar het vandaan komt, en ook meestal wel terugverwijst naar meerdere pagina's die je kan vergelijken, is het makkelijker om te beoordelen of de verstrekte informatie ergens op slaat.

Bij chatGPT is het een 'black box' waar geen enkel verschil te detecteren is tussen een hallucinatie van de AI of een valide feit.

Juist het feit dat het 90% van de gevallen klopt maakt het denk ik gevaarlijk, omdat het mensen het idee geeft dat de AI betrouwbaar is.

Ook ben ik bang dat het verschijnsel 'filter bubble' nog veel sterker zal worden als mensen hun informatie laten filteren door een AI.

De huidige maatschappij kraakt al in zijn voegen doordat mensen nauwelijks met social media om kunnen gaan en wat dat betreft ben ik soms wel eens bang dat de ontwikkeling van dit soort AIs een ineenstorting van de maatschappij gaat veroorzaken. En dan niet omdat ze a-la skynet de macht overnemen, maar omdat de sociale cohesie van de maatschappij nog verder ondermijnd wordt. Een beetje een doemscenario natuurlijk en het zal vast zo'n vaart niet lopen maar toch...
Ik zie dit meer om mij heen.
En ik vind het doodeng.

een AI is geen zoekmachine. Die AI modellen zijn taalmodellen en gaan voor goedlopende taal. Of het ook klopt daar zijn ze nauwelijks op getraind.
Dit! Dit! Dit! Ik kan het niet hard genoeg roepen tegen iedereen. De huidige 'AI' is geen zoekmachine, het is geen alwetende denkmachine die al jouw uitdagingen (sociaal of creatief) kan oplossen en het is zelfs geen woordkunstenaar. Het Nederlands taalniveau is van zo'n niveau dat je het taaltje direct herkend.

Het is een chatbot. Een hele chique chatbot, een behoorlijk slimme chatbot. Maar het blijft een chatbot. En het IQ van zelfs de 'slimste' AI ligt nog onder het gemiddelde (97). Wat al aangeeft dat deze diensten niet van logica aan elkaar hangen.
De huidige maatschappij kraakt al in zijn voegen doordat mensen nauwelijks met social media om kunnen gaan en wat dat betreft ben ik soms wel eens bang dat de ontwikkeling van dit soort AIs een ineenstorting van de maatschappij gaat veroorzaken. En dan niet omdat ze a-la skynet de macht overnemen, maar omdat de sociale cohesie van de maatschappij nog verder ondermijnd wordt. Een beetje een doemscenario natuurlijk en het zal vast zo'n vaart niet lopen maar toch...
Een donker wereldbeeld, al kan ik me de gedachtegang wel voorstellen. Ga naar Facebook en kijk wat je boomerfamilieleden delen of op reageren. Heel vaak suggestieve afbeeldingen die overduidelijk met AI zijn gemaakt. Maar mensen zien het niet. En hetzelfde geldt voor overduidelijke propaganda. Natuurlijk leert de mens en leren we dit herkennen. Maar met computerkracht waar complete kerncentrales voor aangezet worden, leert echte AI wel sneller dan de mens. En dat is het risico. Want wat stoppen we erin? Oh ja, iets om onszelf voor de gek te houden.

Daarom zou iedere AI-aanbieder eigenlijk voor iedere devver ook een ethicus in dienst moeten hebben. Checken en controleren of de ontwikkelingen wel logisch zijn en of ze niet juist gebruikt kunnen worden om mensen te misleiden of de samenleving te ondermijnen.
> Maar met computerkracht waar complete kerncentrales voor aangezet worden,

Ja, het energieverbruik is nog een probleem van de opkomst van de AI waar je makkelijk somber over kan worden...
Een donker wereldbeeld, al kan ik me de gedachtegang wel voorstellen.
Er is al vaker overna gedacht Wikipedia: Dead Internet theory
Duizendmaal dit.

Een LLM is geen zoekmachine en zou het ook niet vervangen. Nu zijn er ook functies dat de AI zelf zoekmachines kan raadplegen, maar dan kan je imo beter zelf gaan zoeken.
Een aantal keer heb ik aan chatgpt en aan copilot om verheldering gevraagd voor een bepaald antwoord, verheldering dat hij maar niet wou geven, bronvermelding ging hij websites verzinnen die niet bestonden (of urls die niet over het onderwerp gaan). Uiteindelijk gevraagd een schatting te geven, in percentages hoe "gelijk" hij denkt te hebben en hoeveel hij erbij verzint. 40% zei ie. Ok, totale bullshit dus ...

Dit zou men imo vaker moeten doen, maar nog beter, stel geen vragen aan een AI die je net zo makkelijk zelf kan zoeken. Hoe makkelijk en handig het ook is, het zet gewoon een zeer gevaarlijk precedent.
Op zich deel ik je zorgen hoor, maar eigenlijk maakt het niet uit of je een AI gebruikt of een zoekmachine, aangezien beide het internet gebruiken als bron. Maakt dat de resultaten van een AI minder betrouwbaar?
Per resultaat toont het ook de bron waar het antwoord vandaan komt.
Wat het voor mij doet is een veel specifieker antwoord aangepast naar wat ik nodig heb. Ik hoef dus niet meer door een woud van reclame te waden en te beoordelen of het antwoord wat ik op een website lees wel past bij mijn vraag.
Ook ben ik bang dat het verschijnsel 'filter bubble' nog veel sterker zal worden als mensen hun informatie laten filteren door een AI.
Maar waarom maak je je daar nu pas zorgen om, die filter bubbles waren er al lang voor AI, Google, social media doen niet anders. Waarom is AI een uitzondering daarin?
De huidige maatschappij kraakt al in zijn voegen doordat mensen nauwelijks met social media om kunnen gaan en wat dat betreft ben ik soms wel eens bang dat de ontwikkeling van dit soort AIs een ineenstorting van de maatschappij gaat veroorzaken. En dan niet omdat ze a-la skynet de macht overnemen, maar omdat de sociale cohesie van de maatschappij nog verder ondermijnd wordt. Een beetje een doemscenario natuurlijk en het zal vast zo'n vaart niet lopen maar toch...
Deze zorgen deel ik heel erg, maar niet vanwege AI maar juist vanwege social media. Dat zie ik als het werkelijke gezwel van de huidige maatschappij. Daarom begrijp ik ook niet dat sommige partijen social media gebruiken om een AI te trainen. Als er iets niet betrouwbaar is gebleken de afgelopen decennia dan is het wel social media.
Op zich deel ik je zorgen hoor, maar eigenlijk maakt het niet uit of je een AI gebruikt of een zoekmachine, aangezien beide het internet gebruiken als bron. Maakt dat de resultaten van een AI minder betrouwbaar?
Ja, want veel van die informatie komt niet direct van het internet maar wordt aan elkaar gehallucineerd. Zo'n bot doet ook veel aan extrapolatie, noem een, twee, drie, en de bot gaat verder tellen met vier en vijf, terwijl die opties wellicht niet eens bestaan in de huidige context en nergens zo op het internet vermeld staat. Ik merk dit heel erg met copilot, als ik hem vragen stel over een pakket dat hij niet kent, gaat hij raden, er vanuitgaan dat het bij andere paketten zo werkt, zal hier dan ook wel. Voorlopig zet dat ding mij steeds op het verkeerde spoor. Even googlen en kom er snel achter dat er 0,0 documentatie te vinden is, maar copilot zit volmondig incorrecte suggesties te geven.

Natuurlijk kan de informatie op een website gevonden met een zoekmachine ook evengoed bullshit zijn, maar dan heb je in ieder geval een bron die eventueel op te volgen is. Zo'n AI antwoord? Moet je je maar erg afvragen hoe hij aan dat antwoord is gekomen. Dat kan je eventueel ook aan de bot vragen (en dan kan hij ook liegen), maar vrijwel niemand doet dat.

[Reactie gewijzigd door Zoop op 8 oktober 2024 10:47]

Ik merk dit heel erg met copilot, als ik hem vragen stel over een pakket dat hij niet kent, gaat hij raden, er vanuitgaan dat het bij andere paketten zo werkt, zal hier dan ook wel.
Ik beweer nergens dat een AI zaligmakend is, het is zeker niet 100% waar, maar dat zijn die zoekresultaten uit een zoekmachine ook.
En juist het voorbeeld dat je noemt vind ik juist een pluspunt van een AI, zolang het daar transparant in is.
Eigenlijk zegt ie: "Hé ik weet het antwoord niet, maar in dit pakket werkt het zo, misschien is dat een optie?"
Op zich niet zo gek, hij raadt niet hij maakt een educated guess o.b.v. info die het heeft.
Aan: "Ik heb geen idee" heb je helemaal niets lijkt me.
Even googlen en kom er snel achter dat er 0,0 documentatie te vinden is, maar copilot zit volmondig incorrecte suggesties te geven.
Zonder een concreet voorbeeld kan ik hier lastig iets mee. Maar nogmaals als er 0,0 documentatie is kan ook Google er niets mee, dus hoe is Google beter?
Natuurlijk kan de informatie op een website gevonden met een zoekmachine ook evengoed bullshit zijn, maar dan heb je in ieder geval een bron die eventueel op te volgen is. Zo'n AI antwoord? Moet je je maar erg afvragen hoe hij aan dat antwoord is gekomen.
Nou CoPilot laat gewoon linkjes zien waar hij dat antwoord vandaan heeft dus je hoeft er niet eens om te vragen...
En juist het voorbeeld dat je noemt vind ik juist een pluspunt van een AI, zolang het daar transparant in is.
Eigenlijk zegt ie: "Hé ik weet het antwoord niet, maar in dit pakket werkt het zo, misschien is dat een optie?"
Mijn punt is dus juist dat dit totaal niet transparant is. Die conclusie dat het in een pakket zo werkt en dat hij dus gokt dat het zo hier ook zal werken, is mijn eigen aanname, dat heeft hij zelf nooit vermeld. Ik bleef hem doorvragen en corrigeren en hij bleef met bullshit komen (letterlijk functies die niet bestaan) tot ik hem dus uiteindelijk die percentage vraag stelde (dat doe ik nu dus een stuk vaker).

Een antwoord "ik heb geen idee" had ik veel meer aan gehad, dan had hij mijn tijd niet zitten verspillen met onzin antwoorden.

En zoals ik al zei, iedere vorm van bronvermelding die copilot mij gaf, was dus ook onzin. Links die niet eens over het onderwerp gaan.

Dit kwam puur omdat hij 0,0 van het onderwerp afwist, zonder dat toe te geven maar wel net alsof te doen dat hij het 100% wist. En daar zit imo nou juist het grote gevaar met AI. Die hallucinatie. Nu is dit nog code, dus mijn linter en compiler gaan gelijk over de zeik als ik die suggesties van copilot overneem en weet ik gelijk dat het incorrect is. Maar wat nou als dit tekstueel is? Een student die een scriptie aan het maken is? Die heeft niet zo'n alarmbel die direct afgaat als iets niet klopt en die neemt het dus voor waar aan.

Sure, als Copilot het onderwerp wel goed kent (zeker code van github, bijvoorbeeld) dan werkt het prima. Gevaar is dus dat je er niet vanuit kan/mag gaan. Tenzij je dus altijd na en doorvraagt en dan zelf nog kritische beslissingen maakt. Want dan gebruik je AI ondersteunend, wat imo prima is, je moet het simpelweg niet leidend gebruiken. En zeker niet als een zoekmachine/waarzegger.

[Reactie gewijzigd door Zoop op 8 oktober 2024 11:28]

Maakt dat de resultaten van een AI minder betrouwbaar?
Per resultaat toont het ook de bron waar het antwoord vandaan komt.
Ja, de resultaten van een AI zijn m.i. toch wel iets minder betrouwbaar , aangezien AI's ook dingen 'verzinnen'. Inclusief niet bestaande bronnen trouwens. Het is mooi als de bron erbij getoond wordt, maar je moet die bron dan wel controleren. Bij zoekresultaten zie je toch meer in 1 oogopslag of ver verschillende bronnen zijn.


Het is idd een gradueel verschil en niet een ja/nee ding. Maar ik vind een AI zeker een verslechtering tov een zoekmachine.
Maar waarom maak je je daar nu pas zorgen om, die filter bubbles waren er al lang voor AI, Google, social media doen niet anders. Waarom is AI een uitzondering daarin?
Inderdaag, ik maak me daar al heel lang ernstige zorgen over. Ik denk dat 'de filterbubble' (mensen alleen nog maar laten zien wat ze willen zien) al behoorlijk lang een zeer negatief effect op de maatschappij heeft. Zo'n AI doet het nog een graadje erger door het in een conversatievorm te gieten waar zeer veel mensen denk ik erg gevoelig voor zijn. De 'engagement' met 'iemand' die antwoord geeft is nou eenmaal nog groter dan puur bij recommendations in een lijst.

Nou maak ik me niet direct al te grote zorgen als een tech-savvy persoon (zoals jij waarschijnlijk) dit gebruikt , wetende wat de limitaties van de techniek zijn (hoewel ik van mezelf al merk dat de invloed van filterbubbles zeker ook op mij werkt, ook al weet ik hoe ze werken). Maar als ik kijk naar hoe de gemiddelde 'digibeet' omgaat met dit soort technieken...
Daarom begrijp ik ook niet dat sommige partijen social media gebruiken om een AI te trainen. Als er iets niet betrouwbaar is gebleken de afgelopen decennia dan is het wel social media.
Zeg dat wel ja.
Klopt, ik heb als leerkracht vorig jaar een bijscholing gevolgd omtrent AI en ondermeer over de beruchte hallucinaties.
Er werd een héél eenvoudig voorbeeld gegeven, waar menig mens simpelweg overheen kijkt, maar is in principe enorm beangstigend. Hallucinaties komen er doordat het internet én de mens bol staat van vooringenomenheid. ChatGPT is een handig hulpmiddel, op voorwaarde dat de gebruiker er KRITISCH mee omgaat.

Voorbeeld vertaling NL naar FR via ChatGPT
- een danser --> un danseur
- een kleine danser --> une petite danseuse
= Eenvoudige hallucinatie die getuigt van een énorme vooringenomenheid als het over geslacht en over de vooropgestelde daaraan gekoppelde gestalte gaat. Dit is schrikbarend.
Dit is schrikbarend.
Ongeveer, maar het is volledig verwacht icm hoe LLMs werken en opereren. Niet heel raar dat ze dit soort foutieve antwoorden geven. Het verwachtingsbeeld geschept door de buzzwordbingomediahype (zie Web [nummer], Big Data, Deep Learning was dat niet het AI hoogtepunt?, etc) zorgen er voor dat dit beeld nooit aan komt bij vrijwel iedereen, inclusief diegene die beter zouden moeten weten.
Jij weet dit, ik weet dit. Laten we ervan uitgaan dat 95% van de mensheid dit niet weet vanwege gebrek aan intelligentie, gebrek aan inzicht, gebrek aan ervaring, gebrek aan motivatie om méér te weten, enzovoort.

Blijft dus schrikbarend.
Chatbots zoals GPT hebben ook erg de neiging jouw gelijk te geven als je geladen vragen stelt. De bot geeft waar je om vraagt en dat hoeft niet per se waarheid te zijn.
Vraag aan een bot een essay te schrijven waarom Trump de slechtste president ever is, en je krijgt netjes je verhaal. Vraag hem een essay te schrijven waarom Trump de beste president ever is, en krijgt evengoed netjes een verhaal.
En beide gevallen wordt er waarschijnlijk zwaar bij gehallucineerd (over dit onderwerp is heel veel tegenstrijdige informatie op het internet te vinden, dat terwijl een beetje wel-denkend mens heus wel weet hoe dit in elkaar steekt), om jouw maar te geven waar je om vraagt. En veel informatie wordt geëxtrapoleerd uit zaken waar hij "zekerder" over is om dat met een antwoord te komen dat gewoon niet klopt, zoals jouw franse voorbeeld.

Is dus simpelweg een verkeerd gereedschap voor de verkeerde taak, tenzij je intentie is om misinformatie te verspreiden.
Sta een beetje verbaasd waarvoor je het gebruikt, en dan met name voor DnD en aanpak van sociale situaties. Die eerste omdat ik bang ben dat de creativiteit aan het verdwijnen gaat, de tweede om de ironie. Zover dat het nog niet gebeurt is zal er een hoop vrranderen, en snel ook.
Ik gebruik het ook voor mijn dnd campagnes. De creativiteit bouw je zelf in, maar het is wel verdomd handig dat ai in seconden een concept voor je heeft gegenereerd.

Door door te vragen met eigen input zorg je ervoor dat je creativiteit er in komt.

Doorvragen is heel belangrijk om iets nuttigs uit ai te krijgen. Maar dan moet je ook wel weer uitkijken dat je niet te suggestief wordt, want hij praat naar jouw mond.
Juist voor creatieve dingen is het ideaal. Dan mag zo'n bot best een beetje hallucineren. Het is alleen problematisch als men direct het resultaat van zo'n bot direct gaan gebruiken, en erger nog, claimen dat ze het zelf hebben gemaakt. Maar als bepaalde onderdelen van een DnD campagne? Prima juist, laat hem een plattegrond uitwerken aan de hand van tekstuele omschrijving van de omgeving. Schrijf een groot aantal backstories voor minder boeiende NPC's, als een van je spelers een willekeurige aanspreekt, heb je voor elk direct een achtergrond waarmee je de interactie natuurlijk kan maken.
Net zoals meeste AI gebruik, het is prima als een ondersteunende tool, je zal de resultaten altijd moeten controleren, zolang je zelf de directie maar behoud.

Het is juist problematischer als je LLM's voor feitelijke dingen gaat gebruiken, dat je van de correctheid van zijn antwoorden uit gaat, dat is iets wat helemaal verkeerd gaat.
Ik gebruik het niet voor alles, maar wel voor heel veel. Powershell scriptje maken (maakt hier nog wel wat fouten, die ik er dan zelf uithaal. Gebruikt soms niet bestaande commandlets), storingsmelding opzoeken, 90% van de google zoekopdrachten is naar copilot gegaan bij mij.
Zoals ook @Vexxon gebruik ik het voor veel. Dat linkje naar mijn overheid etc daar ga je het niet voor gebruiken maar wil je een startpunt van informatie zonder dat je eerst 100 miljoen zoekresultaten door moet spitten? Daar is het juist handig voor. Moet bekennen dat ik het vooral werk gerelateerd gebruik. Dus als ik een nieuwe technologie ga gebruiken, gebruik ik ChatGPT om een primer te krijgen in wat het doet en wat het kan en hoe ik het op zou kunnen zetten. Dat neemt niet weg dat je altijd nog zelf moet nadenken echter krijg je een veel snellere start dan dat je eerst 100 blogs, howto's en manuals moet doornemen. Daar is het handig voor.
Niet alleen de zoekresultaten (en reclame) waar je doorheen moet scrollen, maar aangezien de meeste content tegenwoordig zo geschreven is om je zo lang mogelijk op de pagina te houden (wederom voor de reclame) en de irritante cookie walls (vol met dark design patterns) is het internet simpelweg niet meer gemaakt voor de gebruikers maar vooral voor de adverteerders.
AI helpt me dat omzeilen.
Maar voor hoelang helpt AI je nog dat te omzeilen? Die verliezen moeten ergens goed worden gemaakt.
Geen idee, maar betekent toch niet dat ik nu maar al die andere shit moet accepteren?
Voor nu werkt voor mij beter. Zodra dat niet meer het geval is zien we dan wel weer.
Nee absoluut, ik gebruik ChatGPT ook regelmatig, maar besef me wel dat er iets moet komen van een abbo of ads, of helemaal niet meer.
Idd, LLMs zijn vooral handig als je iets zoekt in een onderwerp dat je niet kent, dus je weet niet precies wat je in moet tikken. Op basis van je taal kan een LLM vrij goed inschatten wat je bedoelt binnen die context.

Ik gebruik het zelf ook veel voor 'templating' (of primer zoals jij het noemt). Een startpunt/basis. Met niks beginnen kost zoveel meer tijd.
Ik ken dan weer niemand die het gebruikt buiten werk-gerelateerde zaken. Dus je eigen cirkel is geen definitie van waarheid. OpenAI geeft nog steeds 2,5 zoveel uit als er binnen komt.
Ik gebruik het prive heel veel. Dingen opzoeken, recepten maken en boodschappenlijstjes. Storing in de warmtepomp oplossen.

Waarom zou je het alleen zakelijk gebruiken?
Ik ken dan weer niemand die het gebruikt buiten werk-gerelateerde zaken
Dus jij kent ook al genoeg mensen die het voor hun werk gebruiken, dat is al best aardig wat zou ik zeggen.
De cijfers liegen niet: OpenAI maakt 6 miljard verlies en de inkomsten lopen terug nu de nieuwigheid er vanaf is.

Dat wil niet zeggen dat er geen waarde zit in dit bedrijf, maar bij lange na niet zoveel als mensen als Altman, Huang en iedereen die er voor een paar miljard inzit beweert.

Het meest succesvolle AI bedrijf ter wereld verdient geen geld met AI, denk daar maar eens over na. :)

Dit gaat over 6-12 maanden een bloedbad worden. Als de IPO succesvol is, dan zitten zometeen jouw en mijn pensioenfondsen en lokale overheden met de strop. En als hij faalt dan ga je massa-ontslagen zien bij nVidia, Microsoft, OpenAI en de rest van de sector.

Maar goed het is niet de eerste industrie die kapot is gemaakt door VC/PE, en zal ook niet de laatste zijn. Zolang iedereen blind achter charlatans als a16z, Altman en Huang blijft aanlopen gaat dit niet veranderen.
De cijfers liegen niet: OpenAI maakt 6 miljard verlies en de inkomsten lopen terug nu de nieuwigheid er vanaf is.
Ik heb me er niet per sé in verdiept, maar het feit dat de inkomsten teruglopen wil niet zeggen dat het minder gebruikt wordt, maar dat er minder voor betaald wordt. Het gebruik van de service kost het bedrijf behoorlijk wat dus dat kan ook betekenen dat ze juist meer kosten hebben door meer gebruik waar niet voor betaald wordt. Maar wellicht zeg ik nu iets heel geks.

Kun je aangeven waarom die entiteiten en personen die jij noemt charlatans zijn?
Omdat ze liegen over wat hun technologie kan vandaag de dag. De dingen die ze beweren kunnen helemaal niet met de huidige generatie en de toekomst die zij voorstellen is net zover weg als cold fusion en fast-than-light travel. Bestaat alleen op papier.

En ze weten dit dondersgoed, maar zullen dit vol moeten houden want anders klappen de koersen. Dit gaat sowieso gebeuren (want geen bubbel houdt oneindig stand), maar ze zullen alles op alles zetten om die investeringen terug te halen via IPOs en/of de belasting betaler.

En je haalt een interessant punt aan: veel gebruik, maar weinig betalen. Het success in gebruikers komt vooral omdat het makkelijk en gratis is. Ik denk dat de meeste mensen gewoon stoppen met ChatGPT zodra ze moeten gaan betalen. Het is uiteindelijk een luxe product voor de meesten. Zeker nu je vandaag de dag ook prima lokaal LLMs kunt draaien. Er zit een enorm gat qua inkomsten wat ze niet kunnen dichten.
Omdat ze liegen over wat hun technologie kan vandaag de dag.
Ja goed, dat beperkt zich niet tot die partijen. Dan kun je Apple ook wel op die lijst zetten, aangezien de eerste iPhone tijdens de presentatie ook helemaal niet goed werkte en ze meerdere toestellen gebruikten.
Fake it till you make it is het mantra van Silicon Valley.
Praat ik het daarmee goed, nee zeker niet.
Maar over welke beweringen heb je het precies?

[Reactie gewijzigd door Vexxon op 8 oktober 2024 10:22]

Iedere bewering waar ze het hebben over meer dan de mogelijkheden van statistische (taal) modellen, zoals redenering, intelligentie, self-awareness, etc. Dat bestaat niet en is er ook niet binnen 5-10 jaar.

Maar een concreet voorbeeld: Eric Schmidt die beweert dat we onze klimaatdoelen niet halen en dat AI dat gaat oplossen. Dat is gewoon pertinent onwaar, die technologie bestaat niet en ook niet binnen 5-10 jaar hier.

En dit gaat wel even ietsje verder dan een consumentenproduct met wat bullshots. Niet qua kwaadaardigheid, maar wel qua schaal.
Als ik me het goed herinner, werd er ook ongeveer dit gezegd over Google, toen het richting de beurs bewoog.

Best jammer dat ik er toen veel gewicht aan gaf.
Gezien hoe vaak nog AI incorrecte informatie geeft, ga ik absoluut niet over van zelf googlen (Ik gebruik Brave Search, maar goed) naar AI prompten. En ik hoor eigenlijk niemand om mij heen die minder gebruikmaakt van Google vanwege AI.
Voor programmeertaal nakijken, tekst genereren/samenvatten is het wel handig.
Taalmodellen zijn vooral handig als je iets zoekt mbt een onderwerp dat je helemaal niet kent en wat een specifiek jargon kent. Dan weet je eigenlijk niet wat je in moet typen om te vinden wat je zoekt en daar kan een LLM helpen.

Maar zodra je bekend bent met een onderwerp en het taalgebruik dan heeft een LLM geen toegevoegde waarde (meer).

Ik zie het vooral nut hebben bij interne kennisbanken die berucht zijn om slechte doorzoekbaarheid. Onboarding van nieuwe medewerkers, etc. Maar het kan nooit een vervanging zijn van de onderliggende documenten aangzien LLM's altijd een statististch afgeleide zijn van de set waarop ze zijn getraind, een abnstractie. Daarom kun je onjuistheiden nooit elimineren.
Een deel van wat voor sommige mensen daarin misleidend is, is dat ze niet snappen dat het gaat om LLM's en dat zij een fantasie beeld hebben over wat AI is.
Misschien als de balk van Chrome automatisch AI gaat gebruiken in plaats van Google, ik gebruik AI voor het maken van modellen, afbeeldingen, videos, muziek, bijna alles, behalve als zoekmachine :+
Zou me niks verbazen als het gedaald is en misschien nog meer gaat doen. In feite schrapen de AI-giganten internet en gaat het ze alleen om de inhoud. Vraag me wel af of dat mensen nog motiveert om informatie op internet te zetten (homepage, specialistische onderwerpen enz) als de dag komt dat bijna niemand meer een zoekmachine gebruikt en we misschien allemaal alles via AI-chat doen, behalve winkelen dan misschien.

Waarom zou je nog een site hebben als tegen die tijd niemand meer bij je komt kijken? Dat betekent misschien een verarming voor internet .

Ik zie het echt nog wel gebeuren dat zoekmachines niet meer bestaan zoals wij ze kennen. Een AI-chat zal denk ik nooit naar allerlei sites verwijzen die je nu via Google nog wel kunt vinden.
Maar waar moet de ai het vandaan halen als het niet meer op sites staat?

Er is nog een gigantische uitdaging met het stroomverbruik, zolang dat niet opgelost is zie ik nog niet echt een toekomst voor ai in huidige staat. Op een gegeven moment moet er toch geld verdiend worden.
De keren dat ik mensen copilot heb zien gebruiken voor error codes te onderzoeken was het resultaat altijd lachwekkend slecht. Ik ben akkoord dat het best handig kan zijn om teksten/begincode te genereren als je geen tijd hebt ofzo, maar door te proberen troubleshooten via die LLM's merk je echt wel hoe die dingen vaak een hallucinatie zijn die vooral proberen iets dat logisch klinkt te genereren.
Ik gebruik nog steeds in meerderheid van de zoekopdrachten een zoekmachine. Naast dat ik een link naar de bron hebt vind ik persoonlijk het ook fijn om te weten dat het stroomverbruik van zo'n zoekopdracht een aantal factoren lager is dan een ChatGPT of alternatief. Ik ben van mening dat je de tools moet inzetten waar zij voor bedoeld zijn en dus het opvragen van basis zaken prima bij standaard zoekmachines kan plaatsen.
De rek om geld te vinden van VCs is er uit voor een non-profit, daarom dus for-profit. Niet alsof ze uberhaupt geld gaan verdienen de komende jaren. Het gaan niet om winst maken.
Zie het als een Uber, dat maakte pas na 14 jaar voor het eerst winst.
De route is: Non-profit -> for-profit -> IPO
Bij de IPO hopen de late investeerders hun geld terug te verdienen door een veel kleine "greater fools" te vinden.

[Reactie gewijzigd door elmuerte op 8 oktober 2024 07:50]

100% dit. OpenAI maakt 6 miljard verlies en er is nul zicht om dat gat te vullen met zakelijke of persoonlijke gebruikers. Nvidia en Microsoft zitten er voor miljarden in. En die willen ze terug via een exit.

Het is een pump&dump zoals er zovelen zijn in Silicon Valley. Met een verliesgevend bedrijf naar de beurs om de winst te privatiseren en de verliezen te socialiseren.
Bijna iedereen heeft een prijs, en principes blijken vaak niet meer dan voorkeuren. Dat gezegd hebbende vind ik GitHub Copilot wel een fijne toevoeging aan mijn werk als developer.
Ik dacht ik vraag het chatgpt zelf

Graag een kort antwoord. Kan openai beter non-profit blijven of omgezet worden naar een bedrijf met winstoogmerk?
Dat hangt af van de doelstellingen. Als non-profit kan OpenAI zich blijven richten op maatschappelijke impact en verantwoord AI-onderzoek zonder winstoogmerk. Een commerciële structuur kan daarentegen helpen om meer kapitaal aan te trekken voor groei en ontwikkeling, maar kan de druk verhogen om winstgevend te zijn, wat mogelijk invloed heeft op ethische keuzes en prioriteiten.
Wat vind jij?
Ik denk dat OpenAI als non-profit beter gefocust kan blijven op lange-termijn maatschappelijke doelen en ethisch verantwoord onderzoek. Een commerciële focus kan innovatie versnellen, maar brengt ook risico's met zich mee dat winst boven ethische overwegingen wordt gesteld. Door non-profit te blijven, kan OpenAI zijn missie centraal houden zonder de druk van aandeelhouders, wat meer vertrouwen kan wekken bij het publiek als het gaat om verantwoord gebruik van AI.
Blijf toch benieuwd hoe het juridisch in elkaar steekt. Je richt dus eerst als start up een non profit organisatie op. Je doet al je onderzoek en productontwikkeling onder fiscaal aantrekkelijke regelingen. Zodra je product een succes wordt transformeer je je tot regulier bedrijf. Dit lijkt mij heel raar als dit kan.
Kijk eens naar de startups die bijvoorbeeld uit de technische universiteiten in Nederland ontstaan. Zelfde idee.
Die startups gebruiken geen non profit structuur (in Nederland).
De wet in Californië staat dit in beperkte vorm toe (https://www.ftb.ca.gov/ab...ng-a-business-entity.html). Al je bezittingen en de omzet van het laatste jaar worden alsnog aangeslagen door de belastingdienst alsof ze zakelijk zijn, dus het is een dure grap.

Het voelt inderdaad oneerlijk dat je zou kunnen starten met tax breaks en aftrekbare giften van Microsoft en dan gauw een bedrijf kan worden. Maar bedenk wel: dit doet vrijwel niemand, ook niet in startup capital San Francisco. Dus het zal minder gunstig zijn dan het lijkt.
Dit is exact de reden waarom de tech bros en VCs massaal voor Trump gaan deze verkiezingen: nog minder regulatie, zodat het nog makkelijk wordt om geld weg te halen en vooral geen belasting te betalen.
Ik vind het eng, ze hebben erg veel macht en erg veen data van personen. Je kunt veel doen met die data ook ten slechte om extra geld te verdienen.
"Don't be evil" zei Google ooit eens..
Trok veel aandacht ook op tweakers. En dan naar een topic linken met 36 reacties :+

Een gerucht dat Apple met een extra knopje komt geeft doorgaans 5x meer reacties...

[Reactie gewijzigd door Marve79 op 8 oktober 2024 06:33]

Auteurarnoudwokke Redacteur Tweakers @Marve798 oktober 2024 07:57
Ja dit is mijn fout. Intern staan er bij artikelen viewcounters, naast de reacties, maar die zijn extern niet zichtbaar.

nieuws: OpenAI presenteert ChatGPT-AI-model waarmee gebruikers gesprekken kun... 36 reacties, 70.800 views

nieuws: Gerucht: Apple zet 'opname'-knop op iPhone 16 133 reacties, 35.200 views

De release van ChatGPT behoorde daarmee tot de beter gelezen berichten van die maand. Het Apple-gerucht van een paar maanden daarvoor deed het niet slecht, maar dat zijn bij lange na niet onze populairste berichten :)
Het mag stoppen met reclame te maken voor Apple. Hebben sommige redactieleden er baat bij dat Apple vaak in het nieuws komt met 'geruchten'? Zo kan je elke dag tientallen 'geruchten' gebruiken om je verplicht minimum aan nieuwsartikelen te halen.

PS: hier overigens erg neutraal over het electronicamerk Apple. Fanboyism is niet aan mij besteed.

Op dit item kan niet meer gereageerd worden.