Anthropic brengt Claude 3.5 Sonnet uit met nieuwe editfunctie in de app

Anthropic brengt Claude 3.5 voor de productklasse Sonnet uit. De nieuwe versie van het AI-model moet onder meer beter zijn in taken die beeldherkenning vereisen. Er is ook een nieuwe editfunctie om tekst direct in de app aan te passen.

Claude 3.5 Sonnet is geavanceerder dan het Haiku-instapmodel en minder geavanceerd dan de high-end Opus-versie, maar versie 3.5 Sonnet presteert volgens Anthropic beter dan 3.0 Opus. Het bedrijf claimt dat dit vooral op het gebied van visuele taken merkbaar is, bijvoorbeeld bij het analyseren van grafieken of het herkennen van tekst in afbeeldingen.

Verder introduceert het bedrijf de Artifacts-functie waarmee gebruikers gegenereerde content in de app live kunnen aanpassen. Als Claude bijvoorbeeld 'codefragmenten, teksten of websiteontwerpen' genereert, kan de gebruiker in een apart venster de content direct aanpassen. Voorheen kon gegenereerde tekst alleen gekopieerd worden vanuit de chatinterface.

claude 3.5 artifacts
Bron: Anthropic

Door Yannick Spinner

Redacteur

20-06-2024 • 19:29

17

Submitter: Frikandel

Reacties (17)

Sorteer op:

Weergave:

Fijn dat er concurrentie is voor ChatGPT. Er zou meer concurrentie mogen komen want OpenAI begint zich af en toe al als monopolist te gedragen. Zeker rondom AI moeten we dat niet willen lijkt me.
Inderdaad. Maar dan vind je het misschien ook interessant om Safe Super Intelligence in de gaten te houden. Opgericht en gisteren aangekondigd door Ilya Sutskever, mede-oprichter van OpenAI die zich beklaagde over hoe OpenAI safety zorgen telkens lager prioriteerde dan andere features. Ik ben zeer blij dat ondernemers springen in het gat van safety zorgen dat OpenAI niet serieus lijkt te nemen.

[Reactie gewijzigd door Kerfuffle op 22 juli 2024 15:45]

Artikel van Tweakers.net: nieuws: OpenAI's medeoprichter en voormalige 'chief scientist' begint nieuw A...
OpenAI security zorgen telkens lager prioriteerde dan andere features. Ik ben zeer blij dat ondernemers springen in het gat van security zorgen dat OpenAI niet serieus lijkt te nemen.
Security ≠ safety! Wat belangrijk is bij super intelligente AI's is safety: security heeft daar niets mee te maken. Verder is veiligheid absoluut geen "feature"; dat is een beetje als zeggen dat een kernbom die niet vanzelf af gaat, of een oven die niet in de fik vliegt, een feature is.
Dat is alleen zo als het een Samsung apparaat is (badum tss)

Verder is SSI op dit moment totaal niet interrassant omdat het A: nog heel klein is, en B: nog geen (GPT-x(o) concurrende) modellen heeft gepresenteerd.

[Reactie gewijzigd door DvanRaai89 op 22 juli 2024 15:45]

Sorry, maar Safe Super Intelligence is een lege huls met een paar mensen die veel kennis in hun hoofd hebben zitten. Voordat die iets in productie hebben draaien, zijn we wel even verder.
Er is genoeg concurrentie.
Er is concurrentie: Gemini, Llama, Vicuna, Coral, Mistral, en natuurlijk Claude. Het is wel zo dat GPT4o volgens de recente benchmarks als beste uit de test komt, vandaar de cognitieve bias bij velen.
Volgens de benchmarks die ik kan vinden inderdaad net. Maar persoonlijk heb ik best wat LLMs geprobeerd de afgelopen tijd ze schieten namelijk als onkruid uit de grond.
Ik gebruik nog steeds Claude over gpt4o. Ik kan het niet exact duiden maar het geeft gewoon betere antwoorden, ofwel snapt context beter of hogere kwaliteit, bijvoorbeeld code maar ook tekst schrijven/aanpassen met een voorstel of 3 voorstellen.
Volgens mij zijn er meer mensen die dit ervaren maar ben benieuwd hoe anderen hier instaan.
llama 3, zeker de 70b modellen zijn best goed. Zelf uit te proberen op huggingface:

https://huggingface.co/chat/
Er is al enorm veel concurrentie.

Llama3 van Meta is uitstekend, en er komt ook een enorm groot model met 400+ miljard parameters.
Het Franse Mistral is ook geweldig.

Mensen hemelen OpenAI een beetje teveel op vind ik. Ze hebben een lichte voorsprong maar meer niet. En er zijn ook prima Europese opties zoals Mistral.

Het is een beetje hetzelfde probleem als met Google of Chrome. Er zijn uitstekende alternatieven maar iedereen denkt dat er niets anders is omdat ze niet verder kijken dan de neus lang is.

Ik draai zelf alles lokaal met ollama en openwebui. Het werkt geweldig. Er komen echt dagelijks nieuwe integraties, modellen en meer uit. Het is echt geweldig om te zien dat je niet je hele hebben en houden aan de big data cloud hoeft te geven om van AI te profiteren. Helaas zit ik wel maar gebonden aan het 8b model van llama3 (van Microsoft's phi3 kan ik wel bijv. 13b gebruiken maar van llama3 is er niets tussen 8b en 70b). Want de hardware daarvoor is vooralsnog te duur. Komt wel zodra er steeds meer lokale AI hardware komt <3

Als het echt moet kan ik ook een request naar OpenAI sturen. Maar in de praktijk hoeft dat alleen als het om veel kennis gaat, en in die gevallen werkt het eigenlijk nog veel beter als ik gewoon de zoekmachineintegratie activeer (via searXNG). Als je pure analyses doet komt OpenAI nog steeds wat beter uit de bus maar de open source opties zijn meer dan bruikbaar en lopen slechts maanden achter op wat OpenAI biedt.

[Reactie gewijzigd door Llopigat op 22 juli 2024 15:45]

Geweldig vind ik overdreven! Llama3 doet het heel slecht op TruthfulQA en verzint gek veel!
Claude3.5 is beter op bepaalde aspecten, maar die context window is terug op na 200K, waarbij het eerder een miljoen was.

[Reactie gewijzigd door Minimise op 22 juli 2024 15:45]

Ja natuurlijk verzint het veel, het heeft minder parameters. De 400b versie komt nog. ChatGPT heeft er nog veel meer dan dat.

Maar in die gevallen kan je beter gewoon zoekmachine integratie nemen. Want dan heb je buiten een accurater antwoord, ook een bronlink om het te controleren. Een chatbot is geen orakel :)

[Reactie gewijzigd door Llopigat op 22 juli 2024 15:45]

Ook mee oppassen, Google AI samenvattingen riepen mensen een tijdje geleden nog op om rotsen te eten, lijm op pizza te plakken, en zelfmoord te plegen!

[Reactie gewijzigd door Minimise op 22 juli 2024 15:45]

Google raadde ook aan om, tijdens de zwangerschap, minstens 2 à 3 sigaretten te roken.
Als Claude bijvoorbeeld 'codefragmenten, teksten of websiteontwerpen' genereert, kan de gebruiker in een apart venster de content direct aanpassen.
Ik heb het net uitgeprobeerd maar wat ze bedoelen is dat je jouw vraag kan editen en dan wordt de output in het aparte venster gerefreshed.

Maar je kan de output niet editen ofzo en dat de AI jouw wijzigingen ziet
Dit filmpje toont het heel goed: YouTube: Claude 3.5 Sonnet for sparking creativity

Het is uiteraard deels marketing, maar wat gaaf om te zien dat dit gewoon mogelijk is.
100-300 regels code wil nog net, maar 1000 regels net niet! Het is niet slechts marketing, net het lukt niet altijd de volledig werkende demo te reproduceren bij de eerste keer (0shot)

[Reactie gewijzigd door Minimise op 22 juli 2024 15:45]

En dat hij nu Python scripts zelf kan draaien, is toch ook nieuw? Ik doe niet zoveel met Python, maar volgens stond er altijd een disclaimer dat claude geen code kon draaien.

Op dit item kan niet meer gereageerd worden.