'Amazon brengt in juni goedkoper en efficiënter AI-model uit dat kan redeneren'

Amazon is van plan om in juni een AI-model uit te brengen dat kan redeneren, meldt Business Insider. Het redeneermodel maakt deel uit van de Nova-modellen die de techgigant eind vorig jaar introduceerde en moet concurreren met onder meer het o1-redeneermodel van OpenAI.

Volgens Business Insider wil Amazon het nieuwe Nova-redeneermodel goedkoper en efficiënter maken dan de modellen van concurrenten, zoals het o1-model van OpenAI en Anthropics Claude 3.7 Sonnet. Het nieuwe model zou beschikken over een 'hybride' redeneringsarchitectuur waarbij het snelle antwoorden en complexer uitgebreid denken combineert binnen hetzelfde systeem.

Amazon kondigde eind februari een betaalde versie van Alexa aan die gebruikmaakt van AI. Alexa+ is deels getraind op de Nova-taalmodellen die de techgigant in december vorig jaar presenteerde. Het is niet duidelijk of Business Insider doelt op het Nova Premier-model dat Amazon eerder al noemde. Nova Premier is volgens de techgigant zijn 'capabelste multimodale model voor complexe redeneertaken'. Het model staat volgens Amazon gepland voor het 'eerste kwartaal van 2025', maar mogelijk is de release dus uitgesteld tot juni.

Steeds meer AI-bedrijven komen met hun eigen redeneermodellen. Deze modellen kunnen lastigere problemen oplossen door op meerdere manieren tot een antwoord te komen en tonen een gedachtenketen voordat ze antwoord geven.

Door Sabine Schults

Redacteur

05-03-2025 • 09:13

25

Reacties (25)

25
24
17
0
0
5
Wijzig sortering

Sorteer op:

Weergave:

Is een model ontwikkelen dan veel eenvoudiger dan aanvankelijk gedacht. Elke week komt er weer een bedrijf naar buiten met een (redeneer)model. Heeft OpenAI dan nog wel bestaansrecht als bestaande bedrijven ze links en rechts inhalen?
Welk bedrijf heeft de meeste gebruikers? En zijn de modellen van andere bedrijven echt beter?

Zolang je ChatGPT gratis kan gebruiken (of voor 2 tientjes in de maand betaald) zullen andere partijen wel echt met een significant beter product moeten komen om gebruikers te laten overstappen.

Of dat nu is op het gebied van prestaties, privacy, UX of iets anders…
Zit inderdaad al helemaal in ChatGPT, met allemaal dingen in geheugen ook waardoor de antwoorden relevanter voor mij zijn. Overstappen is dus een hoop gedoe. Speel af en toe een beetje met Anthropic voor specifieke code problemen.
Merk je een merkbaar verschil tussen ChatGPT voor gebruik in dagelijks leven (vragen over menselijke biologie, recept ideeën, fitness suggesties etc) en Claude?

En hoe merk je dat de geschiedenis van jouw gesprekken de huidige prompts verbeterd? En zou dit niet, na verloop van tijd, zoveel context zijn dat het model enorm lang doet om een reactie te genereren?
Ik gebruik Claude dus echt alleen voor werk en programmeren specifiek. Ik vindt het daarin regelmatig prettiger dan ChatGPT.

Voor persoonlijk gebruik alleen ChatGPT, had lang het betaalde model maar doe het inmiddels met het gratis model wat ook goed lijkt te werken (is flink verbeterd onder druk van Deepseek). Ik gebruik het veel voor medische vragen (heb wat onverklaarbare klachten die artsen niet kunnen achterhalen). Merk dat de memory wel echt goed werk, interpretaties van test resultaten en dat dan aanhaken op eerdere bevinden die onthouden zijn in de memory.

Verder gebruik ik het ook steeds meer voor producten die ik nodig heb, vraag gewoon wat is een goed product x voor situatie y die verkrijgbaar is in Nederland, geef me wat links. Dat werkt eigenlijk best prettig.
Bedankt voor de reactie :)
Chatgpt is wel wat duurder dan die 20euro die ze consumenten laten betalen

Doorgaans doet Amazon met hun cloud weinig met consumenten

Ik wed dat deze ai-stack vooral aangeboden zal worden aan hun AWS-klanten
Er zijn verschillende manieren waarop LLM's verbeterd worden, onder andere door nieuwe technieken, mitigerende maatregelen en simpelweg nieuwe databronnen waarop het getraind wordt. OpenAI is slechts één van de vele aanbieders, maar qua populariteit staan ze bovenaan het lijstje bij velen.
Dat begrijp ik, maar loopt OpenAi dan zoveel voor? De waardering was in januari 340 miljard dollar. Als elk bedrijf een model kan maken, waarom dan die hoge waardering?
Nee, OpenAI loopt niet zover voor. Zeker niet nu DeepSeek uit is gekomen... volledig open-source. Dat is ook de reden waarom OpenAI versneld de access van o1 en o3 heeft uitgebreid. Omdat ze schrokken van DeepSeek.

[Reactie gewijzigd door MrFax op 5 maart 2025 11:20]

Heeft OpenAI dan nog wel bestaansrecht als bestaande bedrijven ze links en rechts inhalen?
Amazon wil niet achterblijven, maar heeft nog niets: "Amazon is van plan om in juni een AI-model uit te brengen dat kan redeneren, meldt Business Insider." Dus iemand van de PR afdeling van Amazon heeft een persbericht verstuurd. "ChatGPT, write a press release about Amazon releasing a cutting edge AI soon."
Ai taalmodellen zijn niets meer dan

A! Op grote schaal datascraping
B! Vele petahertzen aan rekenkracht ertegenaan smijten om een model te trainen

taken waar bedrijven met extended kennis van largescale cloudcomputing doorgaans het best op zijn ingericht

De rest is eigenlijk gewoon de natuurlijke evolutie van software die je door bijvoorbeeld een samenwerking met een universiteit eenvoudig in huis kunt halen (als je deze al niet had door eigen onderzoek of acquisitie)

[Reactie gewijzigd door i-chat op 5 maart 2025 10:08]

Functionaliteit gaat niet boven de kwaliteit van het model. Neem daarin mee dat het model achter GPT al enkele jaren is doorontwikkeld en getraind op data waar ook al langer kwaliteitschecks op worden gedaan. Met modellen is er namelijk sprake van bullshit in - bullshit out.
Kan iemand mij uitleggen waarom een ai moet redeneren om tot een antwoord te komen? We hebben het tenslotte over een algoritme. Het denkt niet na en redeneert dan ook helemaal niet. Een gevalletje van antropomorfisme.

Misschien gebeurde het "redeneren" altijd al op de achtergrond. Mijn gevoel zegt me dat het hele redeneren eerder een marketingding is dan een noodzakelijk feature om betere antwoorden te krijgen.

Maar ik laat me graag bijpraten.
Ben je bekend met de 'Reason' functionaliteit binnen LLM's en de achterliggende technologie? Hier is een mooi artikel van OpenAI. Door bepaalde technieken toe te passen, zijn er verschillende checks die de LLM uitvoert aanwezig, waardoor de kwaliteit van de antwoorden significant verhoogd worden.
Bedankt voor de info. Qua prestaties doet dit dus echt iets. Het volgende vind ik overigens opmerkelijk:

'Therefore, after weighing multiple factors including user experience, competitive advantage, and the option to pursue the chain of thought monitoring, we have decided not to show the raw chains of thought to users. We acknowledge this decision has disadvantages. We strive to partially make up for it by teaching the model to reproduce any useful ideas from the chain of thought in the answer. For the o1 model series we show a model-generated summary of the chain of thought.'

We krijgen dus een samenvatting van het redeneerproces te zien. Niet het werkelijke redeneren.
Het is een beetje hetzelfde als dat jij een moeilijk som moet maken. Jij werkt ook eerst in stappen naar het antwoord toe, waarna je het uiteindelijke antwoord hebt. Bij zo'n moeilijke som kan jij ook niet direct het antwoord geven.

De meer primitieve LLM modellen (zoals GTP-4o) geven wel direct antwoord, en gaan vaak de mist in bij complexe vraagstukken. Maar bijvoorbeeld o1 van OpenAI doet wel aan redeneren, alleen laat die de redenering zelf niet zien.

Deepseek gebruikt ook deze chain-of-thought, en laat deze ook zien (blijkbaar).

[Reactie gewijzigd door Willem_D op 5 maart 2025 10:26]

Met al die verschillende ai modellen krijg ik inmiddels een beetje het streaming gevoel. Versplintering en iedere aanbieder zijn eigen specialisme.
Hier is concurrentie echter goed! Het innoveert allemaal lekker snel.

Verder maakt het als gebruiker ook niet zoveel uit. Je kan het allemaal centraal consumeren via een tool als open webui. Aangezien je betaald per token wordt het er ook niet duurder op.
Waarschijnlijk is dit weer een "weet alles"-model. Een model dat getraind is om zeer uiteenlopende vragen te beantwoorden. De echte revolutie zal komen van gedecentraliseerde AI waarbij een groot aantal gespecialiseerde AI modellen gezamenlijk een vraag beantwoorden. Een bepaalde vraag wordt hierbij doorgestuurd naar een AI model dat in dat gebied getraind is. Eigenlijk precies zo als mensen samenwerken. Als ik een vraag heb op bijvoorbeeld medisch gebied, dan ga ik eerst naar de dokter. Die stelt een eerste diagnose en verwijst me vervolgens naar een specialist.
En ook deze megalomane machine lekker links laten liggen. Amazon heeft al genoeg invloed in de wereld. Gebruik liever een Europees alternatief :) .
Dus de tijd van grenzeloos opschalen is voorbij en er komt nu een efficiëntieslag? Dat is bij chips toch ook altijd zo? Wat het Chinese DeepSeek R1-model toch niet allemaal teweegbrengt.
maar wat is nu de beste
Sla mij maar over.

Met dit soort onmensen jef bezos, musk, zuckerberg, en noem ze maar op wens ik niks te maken te hebben. We leven in een wereld waar de allerarmste voor 10 uren gruwelijk werk 3 euro krijgt, en de rijkste 16.000 per seconde, en dat vinden we dan normaal.

En nog hebben dat soort gasten niet genoeg, en helpen ze die wereld nog verder naar de kloten.
ik walg er van, en zal mijn uiterste best doen ze zo veel mogelijk te boycotten, en hopelijk denken velen er net zo over ( ik vrees het ergste) :(

Op dit item kan niet meer gereageerd worden.