AI-chatbot van start-up Anthropic kan nu 75.000 woorden verwerken in één gesprek

De AI-chatbot Claude van start-up Anthropic heeft een update ontvangen waarmee deze 100.000 'tokens' aan context in één gesprek kan verwerken, wat gelijkstaat aan ongeveer 75.000 woorden. De bot zou daarmee een heel boek in minder dan een minuut kunnen 'lezen', stelt de start-up.

Hiervoor had de bot een limiet van 9000 tokens. Ter vergelijking: het standaard-GPT-4-model van OpenAI heeft momenteel ook een contextlimiet van 9000 tokens, terwijl de grootste versie een limiet heeft van 32.000 tokens. Anthropic heeft de verhoging getest door de gehele tekst van The Great Gatsby als bijlage toe te voegen, met één aangepaste zin. Vervolgens werd gevraagd welke zin aangepast is. De bot vond de aanpassing binnen 22 seconden, stelt de start-up.

Volgens Anthropic kunnen bedrijven hiermee honderden pagina's aan materiaal laten analyseren door Claude. Volgens de start-up kan dit bijvoorbeeld gebruikt worden om tot ongeveer zes uur aan getranscribeerde audio te laten samenvatten, of om de voor- en nadelen van een bepaald stuk wetgeving in te schatten. Ook kunnen gesprekken hierdoor meerdere uren of zelfs dagen aan een stuk door gaan, voordat het contextlimiet wordt bereikt. De nieuwe versie van de chatbot is momenteel enkel beschikbaar voor de zakelijke partners van Anthropic via de api.

Eerder heeft Google-moederbedrijf Alphabet 300 miljoen dollar geïnvesteerd in de start-up, maar het is niet bekendgemaakt wat de reden achter die investering is. De start-up liet wel weten dat het wil samenwerken met Google Cloud voor het draaien van zijn kunstmatige-intelligentiesystemen.

Door Kevin Krikhaar

Redacteur

12-05-2023 • 18:24

75

Reacties (75)

Sorteer op:

Weergave:

Realiseer wat een bizarre technologie we nu ontwikkeld hebben: we hebben dus, ik noem het maar even een "brein", ontwikkeld, wat de mentale capaciteit heeft om een heel boek te lezen, te "begrijpen", zonder het ooit eerder gelezen te hebben. Als je dit 25 jaar geleden aan iemand verteld had hadden ze je erg hard uitgelachen. En dit is nog maar het begin.
De metaforen als "brein" en "begrijpen" gaan echter helemaal niet op. Dit ding "begrijpt" The Great Gatsby niet. Het is een (overigens super indrukwekkend en geavanceerd) taalmodel dat vergelijkingen kan maken op basis van kansberekening. Het blijft een computer, geen brein
De metaforen als "brein" en "begrijpen" gaan echter helemaal niet op. Dit ding "begrijpt" The Great Gatsby niet. Het is een (overigens super indrukwekkend en geavanceerd) taalmodel dat vergelijkingen kan maken op basis van kansberekening. Het blijft een computer, geen brein
Hoe weet je dat? Wat is een brein als je het tot de kern terugbrengt? Een hele geavanceerde "computer". Wat is begrijpen? Begrijp je iets als je het goed kan uitleggen? Dat kan een AI ook. Het menselijk brein doet vrijwel hetzelfde, kansberekeningen maken, afwegingen maken op basis van jouw levenservaring die je opgebouwd hebt. Een AI doet dat ook maar dan met een andere databron.
Het menselijk brein doet vrijwel hetzelfde, kansberekeningen maken, afwegingen maken op basis van jouw levenservaring die je opgebouwd hebt.
Een computer kan zo ingericht worden dat deze een nieuwe oplossing kan bedenken als het een nieuwe situatie tegenkomt, maar zet je een andere computer in exact dezelfde situatie dan zal deze exact hetzelfde reageren.

Je hersenen daarentegen gooien wel nog een sausje over je beslissingen heen door emoties, waardoor je soms tegen de meest redelijke afweging in gaat. Ik weet niet of dat positief of negatief is, maar het heeft in ieder geval invloed op je beslissingsvermogen en ik kan me voorstellen dat mensen soms in een staat raken waarbij ze een beslissing nemen die niet gebaseerd is op vooraf vergaarde kennis of ervaringen.
Ook emotie is niks minder dan scheikundige processen die het brein beïnvloeden in combinatie met ervaring en anatomie. Een goed voorbeeld zijn hormonen die direct, dus binnen seconden, een persoon van intens blij naar intens depressief kan brengen.

Een mens genereert unieke output omdat elk brein uniek is, maar zou je deze kunnen clonen en laten functioneren in exact dezelfde omstandigheden, dan zou de output ook hetzelfde zijn.

[Reactie gewijzigd door honey op 23 juli 2024 06:54]

Ook emotie is niks minder dan scheikundige processen die het brein beïnvloeden in combinatie met ervaring en anatomie.
Ik ga er even van uit dat je bedoeld "emotie is niks meer dan". De crux zit hem in "ervaring". Hier lijk je nogal makkelijk overheen te praten, maar dat is nou net het fundamentele punt wat mij betreft.

Hormonen en het directe effect wat die kunnen hebben op de emoties (en dus ook de ervaren emoties) worden momenteel als niet meer dan correlaties gezien (https://academic.oup.com/nc/article/2022/1/niac001/6523097). Ik snap dat het verleidelijk is om het menselijk bestaan dan vervolgens te reduceren tot de processen die correleren met onze ervaring, maar dat lijkt onterecht te zijn.
[...]


Ik ga er even van uit dat je bedoeld "emotie is niks meer dan". De crux zit hem in "ervaring". Hier lijk je nogal makkelijk overheen te praten, maar dat is nou net het fundamentele punt wat mij betreft.

Hormonen en het directe effect wat die kunnen hebben op de emoties (en dus ook de ervaren emoties) worden momenteel als niet meer dan correlaties gezien (https://academic.oup.com/nc/article/2022/1/niac001/6523097). Ik snap dat het verleidelijk is om het menselijk bestaan dan vervolgens te reduceren tot de processen die correleren met onze ervaring, maar dat lijkt onterecht te zijn.
Lijkt een leuk artikel, bedankt. Ga is straks lezen.

Over bewustzijn, je komt dan al snel in een soort wetenschappelijk filosofische discussie en iedereen kan de definitie een beetje anders opvatten. En, iedereen zal ook wel gelijk hebben. Een AI is niet bewust, maar toch vertoond het al veel kenmerken die mensen zo uniek maken. Of, misschien is een mens niet zo uniek.

Persoonlijk, als arts, kijk ik naar het menselijk lichaam, inclusief het brein, als een biomechanisch systeem waarbij alles logisch te voorspellen is. Ook gedachtes, gevoelens, ideeën, dromen, emoties, … alles wordt gegenereerd in het brein door scheikundige processes. In de 10 jaar dat ik op een neurologische afdeling heb gewerkt zag ik dat een stoornis iemands persoonlijkheid, dromen, emoties, … alles wat diegene uniek maakte als mens, in een oogwenk kon veranderen.
Een AI is niet bewust, maar toch vertoond het al veel kenmerken die mensen zo uniek maken. Of, misschien is een mens niet zo uniek.
GPT is een statistisch model dat heel erg goed is om te voorspellen wat het volgende woord is in een door mensen geschreven tekst. Nogal logisch dat de output menselijke kenmerken vertoont.
Ik die zin is GPT meer een soort papagaai met extreem goed geheugen.
Is het zoveel anders dan wat een mens doet? Misschien heb ik te lang neurologie gedaan om de mystiek van het menselijk brein nog te zien. 😉
Zeker. Ikzelf heb een stemmingsstoornis met psychotische kenmerken. Alles heeft er invloed op en als het neurologisch weer een beetje in balans is (in mijn geval dankzij Seroquel icm Wellbutrin), zijn sommige dingen door alle ervaringen nog steeds lastig, bijvoorbeeld het vinden van een partner.

[Reactie gewijzigd door HertogJan op 23 juli 2024 06:54]

Je hebt gelijk, met de slag om de arm dat we nooit een kloon van iemand door exact dezelfde omstandigheden kunnen laten gaan terwijl dit bij een computer wel mogelijk is. Zodra je gaat praten over quantumcomputers wordt dit natuurlijk weer anders, maar uiteindelijk worden alle metingen alsnog verwerkt door een traditionele computer en zou je een kloon van die computer dus een kopie van de uitkomst van het origineel kunnen voeren.
Ik denk zelfs dat een AI niet zelfbewustzijn hoeft te hebben om gevaarlijk te worden. Zie het als de grote rode knop die alle kernrakketten doet afvuren: De knop doet wel wat ie moet doen zonder vragen te stellen. Wat nu als de 'verkeerde' vraag gesteld wordt aan AI en de AI is aangesloten op cruciale systemen en de AI komt als resultaat dat dit het beste antwoord is en dus gewoon uitvoert omdat wij mensen de AI de bevoegdheid voor hebben gegeven.
Ik reageer vooral even omdat je +2 krijgt, en @Verwijderd +1. Jullie doen allebei nogal wat filosofische/metafysische aannames, die niet echt onderbouwd worden.

@Verwijderd Gaat ervan uit dat het brein en "begrijpen" fundamenteel anders werken dan een digitale computer. Jij lijkt er vanuit te gaan dat het brein daar uiteindelijk wel toe gereduceerd kan worden.

Hoe dan ook neig ik persoonlijk eerder naar @Verwijderd's visie. Ik denk dat het onterecht is om de complexe, warme, natte en ruizige hersenen, waarin quantummechanische processen een rol spelen, terug brengen tot de geordende en relatief (aan het brein) eenvoudige werking van een combinatie van 2 neurale netwerken.

Daarbij komt dat de mens bewustzijn heeft. Wat bewustzijn precies is, en welke rol het brein daarin speelt, dat weten we niet precies. Het is een sprong van jewelste om aan te nemen dat LLM's tot bewustzijn kunnen komen.

Edit: ik had de username verkeerd: @DanielChopin ipv @Verwijderd

[Reactie gewijzigd door turniphead op 23 juli 2024 06:54]

Daarbij komt dat de mens bewustzijn heeft. Wat bewustzijn precies is, en welke rol het brein daarin speelt, dat weten we niet precies. Het is een sprong van jewelste om aan te nemen dat LLM's tot bewustzijn kunnen komen.
Het grappige is dat we wel een paar dingen van bewustzijn weten. Het lijkt bijvoorbeeld een paar milliseconden áchter lopen. Dat kan erop wijzen dat wat wij bewustzijn noemen een intern narratief is: je brengt onder woorden wat je denkt. En dat is waarom een heleboel dingen in je onderbewustzijn blijven. Je brengt niet onder woorden hoe je benen bewegen als je loopt.

En als we bewustzijn zien als dat interne narratief, die introspectie, dan is het idee dat een Large Language Model een bewustzijn kan hebben opeens niet zo gek meer. Strikt genomen is het voor de hudige LLM's (anno 2023, zoals ChatGPT-4) nog niet waar. Maar dit is letterlijk een kwestie van tijd. Experimenten met ChatGPT 4 laten al zien dat je betere resultaten krijt als je 'm vraagt om eerst een paln op te stellen, en vervolgens 'm vraagt om dat plan ook uit te voeren. Als dat geautomatiseerd wordt, dan heb je de facto een AI bewustzijn.
Omdat het gepauzeerd kan worden is het geen "bewustzijn"? Interessante definitie. Lijkt er een beetje op dat je een definitie wilt maken waar een computer nooit aan kan voldoen.
Nog nooit heeft een computer zelf iets beredeneerd of initiatief genomen.
AlphaGo Zero heeft compleet op zijn eigen geleerd Go te spelen en zetten gevonden die compleet nieuw waren.
AlphaGo Zero heeft compleet op zijn eigen geleerd Go te spelen en zetten gevonden die compleet nieuw waren.
Zo'n AI heeft gewoon heel vaak het spel gespeeld en kiest de zet waarvan de winkans het grootste is.

De regels van het spel zijn d'r in voorgeprogrammeerd en het 'leren' gebeurt door in het begin gewoon maar wat aan te klooien en te kijken naar het resultaat.

Een mens zal in de eerste iteratie (net na de uitleg van de regels, het eerste spel) beter spelen dan een verse A.I.

Dat is omdat een mens de regels begrijpt en bedenkt wat de beste zet zou zijn.
Een AI die doet een zet en krijgt daarna feedback over of het wel/niet goed was.

Maar ja, na heel wat iteraties is de computer beter, juist omdat die alle voorgaande uitkomsten meeneemt in de berekening.

Een mens maakt juist fouten doordat het brein niet perfect is en we overhaaste conclusies of gevoelens hebben.
En dat heeft AI niet, dat is een 'perfecte' maar zéér gelimiteerde versie van een brein.
Zo'n AI heeft gewoon heel vaak het spel gespeeld en kiest de zet waarvan de winkans het grootste is.
Ja.... dat is ook de bedoeling he. Ik probeer dat ook.
De regels van het spel zijn d'r in voorgeprogrammeerd en het 'leren' gebeurt door in het begin gewoon maar wat aan te klooien en te kijken naar het resultaat.

Een mens zal in de eerste iteratie (net na de uitleg van de regels, het eerste spel) beter spelen dan een verse A.I.
Sommige AI's leren van andere spelers, maar dat is dan niet "creatief". Als ze tegen zichzelf leren te spellen telt dat ook niet awnt dan is het "maar wat aanklooien". Het is dus nooit goed wat een AI doet. Als je schaakt met een 3-jarige klooit die ook maar wat aan, totdat hij langzaam (in schaken of andere spellen) algemene stragetieën leert.
Dat is omdat een mens de regels begrijpt en bedenkt wat de beste zet zou zijn.
Een AI die doet een zet en krijgt daarna feedback over of het wel/niet goed was.
Die AI bedenkt ook hoe een zet zich uit zou kunnen werken. Na een tijd leren heeft hij een "gevoel" over wat al dan niet een goede spelsituatie is. Net als wij.
Een mens maakt juist fouten doordat het brein niet perfect is en we overhaaste conclusies of gevoelens hebben.
En dat heeft AI niet, dat is een 'perfecte' maar zéér gelimiteerde versie van een brein.
We zijn beter dan een AI omdat we fouten maken. Interessant. Als we extra ruis in het model toevoegen, is het dan beter? Of is er dan ook weer een reden waarom dat niet telt.

https://xkcd.com/1263/ zegt eigenlijk alles.
Romans zullen altijd lastig blijven om te begrijpen door machines. Maar naslagwerken met feitelijke informatie moet gewoon kunnen. En dat is voor chatbots best wel belangrijk.
Ze begrijpen het niet ze kunnen allen de text interpreteren. Begrijpen is echte AI en daar zijn we nog lang niet.
Bijna 25 jaar geleden kwam het boek "The Age of Spiritual Machines" van Ray Kurzweil uit met voorspellingen zoals
"in 2019 a $4,000 computer will match the power of one human brain, while in 2029 $1,000 will buy the equivalent of 1000 humans brains."

Maar alleen al die GPUs die nodig zijn om de LLMs te trainen kosten meer dan 10 keer zoveel als die $4000 per stuk, en $1000 voor het AI equivalent van 1000 mensen in 6 jaar tijd lijkt ook een beetje te optimistisch!

[Reactie gewijzigd door Weicool op 23 juli 2024 06:54]

Alleen doe je dat trainen maar één keer en kan je daarna tegen veel lagere kosten dat model opdrachten laten verwerken. Als je "het menselijk brein" meet in hoeveel beslissingen het op een werkdag maakt en dat afzet tegen de totale tijd, kan één machine die een taalmodel draait datzelfde aantal beslissingen in een minuut maken waarmee het qua output gelijk staat aan die ene persoon, met nog 479 andere minuten in diezelfde werkdag.

Ik heb het trouwens over beslissingen die bijvoorbeeld een verpleegkundige of automonteur neemt om een diagnose te stellen en een oplossing te bedenken, en niet het daadwerkelijke uitvoeren van die oplossing. Ik zie AI als een perfecte manier om mensen die ergens niet in opgeleid zijn, te helpen met het nemen van een juiste beslissing.
''mensen die ergens niet in opgeleid zijn, te helpen met het nemen van een juiste beslissing.''

Ik wil voorzichtig opperen: bepaalde politici zullen inderdaad niet goed opgeleid zijn en het is vrij beangstigend om hen dan de beslissingen van een AI te laten overnemen.
Daar is een hele simpele stelregel voor: Je kunt een AI geen politieke beslissing laten maken, juist omdat er nooit een juiste keuze is. Dat is de kern van politiek; als er wel een juiste keuze was dan zou democratie niet hoeven bestaan.
Juist, beter kunnen mensen beslissen een invasie te starten, of onzinnige prestigeprojecten uit te voeren.
Dat bedoelde je sarcastisch, maar laat AI eens bepalen welke wijk in een stad een nieuwe school krijgt? Dat kan die dan heel goed doen op basis van demografie, etc, maar het weet niet dat wat de gemeenteraadsleden weten die in die wijken wonen en dagelijks met de mensen daar praten. Of dat het huidige sentiment is dat er geld vrijgemaakt moet worden voor een nieuwe school in elke wijk, ten koste van de uitgaven aan de groenvoorziening. En ja, er wordt genoeg geld verkeerd uitgegeven maar uiteindelijk is dat gedaan door mensen uit naam van alle inwoners en wie het er niet mee eens is stemt de volgende verkiezingen anders. Wie het niet eens is met de uitslag van AI kan daar niks aan bijsturen.
Ik begrijp je punt best. Zelf zou ik voor goede beslissingen best wat democratisch gevoel op willen geven maar velen zullen liever menselijke beslissingen hebben, ook al zijn die in totaal misschien minder goed.
(als het lokale gesprek ontbreekt heeft de AI minder info, maar aan de andere kant zou hij ook met àlle bewoners elke dag kunnen chatten).
Was het niet al eens wetenschappelijk bewezen dat als je zegt dat iets door een mens gedaan is in plaats van AI er dan een bijzonder hersensignaaltje ontstaat ookal is het resultaat identiek?
Geen idee waar je het over hebt.
Makkelijke technische oplossingen voor: AI heeft alle tijd van de wereld om 24 uur per dag en 7 dagen per week alle data uit de databases van die gemeentes te absorberen en zelfs alle prive berichten op de telefoons van mensen net zoals de NSA op grote schaal te analyseren. Geen enkele mens ter wereld zou tijd hebben om al die data handmatig te analyseren!

[Reactie gewijzigd door Weicool op 23 juli 2024 06:54]

Dan gaan mensen dingen schrijven die ze niet menen, om de beslissing van de AI te beïnvloeden.
Ook geen probleem: AI kan al sarcasme en grappen herkennen.
Minder goed dan jij doet voorkomen. Daarnaast; zodra er een model is die het beter kan kun je hetzelfde model gebruiken om teksten te bedenken die niet worden aangemerkt als sarcastisch.
Eigenlijk beter dan jij zelf kan, want het kan het non-stop en herkent veel meer jargon en meer talen dan jij of welke persoon dan ook in een leven kan leren. Bovendien zijn het percentage mensen die het proberen te foppen vaak veel kleiner dan 1%, dus zal ook niet veel uitmaken bij een krachtig AI model die vele malen meer rekenkracht en veel betere aanbevelingen kan maken, die dus een groot transformatief effect zal hebben op de samenleving!

[Reactie gewijzigd door Weicool op 23 juli 2024 06:54]

Ja, GPT-4 herkent dit als sarcasme en geeft de volgende uitleg: "Ja, dit is een sarcastische zin. De spreker gebruikt ironie om zijn of haar ongenoegen te uiten over de beslissingen van andere mensen. De spreker suggereert dat die beslissingen slecht of onverstandig zijn, maar zegt het tegenovergestelde. Dit is een manier om kritiek te leveren of humor te gebruiken."
Eigenlijk beter dan jij zelf kan, want het kan het non-stop en herkent veel meer jargon en meer talen dan jij of welke persoon dan ook in een leven kan leren.
Ik herhaal even wat ik zei; als AI sarcasme kan herkennen, dan kan iemand dit ook gebruiken om sarcastische teksten te genereren die niet als sarcasme opgepikt worden.

Hoeveel mensen proberen "het systeem" te foppen weet ik niet, maar als je nu verhalen hoort over hoe in oud-Sovjetlanden mensen ja zeiden maar nee deden lijkt het me dat als er sprake is van ernstige vorm van repressie of onvrede, je met veel meer dan 1% rekening moet houden.
Meh, dat voorstel kost vele malen meer geld, dan het oplevert! Ik zie zelf bijvoorbeeld ook echt wel de meerwaarde van zo’n LLM zoals GPT-4 met veel relevantere informatie over welke keuzes je in het leven ook maakt over van alles en nog wat ten opzichte van die nutteloze filter bubbels en irrelevante ads van Google!

[Reactie gewijzigd door Weicool op 23 juli 2024 06:54]

AI is juist goed in statische oude concepten tegen elkaar af te wegen, en simulaties te maken van de mogelijke uitkomsten van iedere beslissing op basis van oude informatie
Een kleine LLaMA 7B LLM model zou je zelfs heel traag op een $55 Raspberry Pi kunnen laten draaien, maar het is daarmee nog niet vergelijkbaar met een menselijk brein. Het kan bijvoorbeeld motorisch gezien nog niet eens de basis taken van een menselijk brein overnemen zoals net zoals een mens de afwas doen met zeep en een borstel die zelfs het grootste PaLM-E model van Google dat een robot kan aansturen nog niet eens kan…

[Reactie gewijzigd door Weicool op 23 juli 2024 06:54]

Da's net zo nuttig als de conclusie dat je met een fiets niet kunt zwemmen. Het is simpelweg niet het doel.

En om maar meteen de biologische analogie te maken: het taalgebied in jouw hersens is ook separaat van het motorisch gebied. Jij kunt ook niet zwemmen met je frontale cortex.
Het nabootsen van menselijke hersenen is nou juist het doel bij AGI! Kurzweil voorspelde in 1999 dat de volledige simulatie van alle hersenen gebieden van het menselijk brein binnen handbereik zou zijn met die $4000 computer in 2019, waaronder dus ook het motorisch gebied van het menselijk brein! Maar grootste model in 2023 heeft ook maar zo rond de 1 biljoen parameters, terwijl menselijke hersenen zo'n 100 biljoen parameters hebben!

[Reactie gewijzigd door Weicool op 23 juli 2024 06:54]

Ik denk dat je nu al met dat model een robot alle denkbare taken uit zou kunnen laten voeren, mits je een manier verzint waarop die robot de omgeving waar kan nemen en hiermee interactie kan hebben. Als je het model dus iets kan voeren van "voor je staat zeep, een borstel, een stapel met drie vieze borden met daar bovenop bestek, een kraan met warm en koud water, en een afwasteil, geeft stap voor stap instructies om de afwas te doen" waarna je letterlijk "pak de teil, zet deze onder de kraan, doe de warm waterkraan aan tot de teil vol zit, doe het bestek in de teil, etc" terugkrijgt waarmee je weer een robotarm die objecten kan laten bewegen, je ver komt.
Fout! Het kan alleen de juiste tekst erbij verzinnen door de zeer grote statische correlatie tussen de woorden, want het is slechts een taalmodel!

Van al die benodigde complexe berekeningen in 3D ruimte, zal veel niet kloppen, waardoor echte robots met het model zonder verdere training dus 100% zeker keer op keer zal crashen, want het is geen rekenmodel en ook geen natuurkundig model!

Kijk bijvoorbeeld maar naar AutoGPT: het kan alleen de tekst bij de stappen verzinnen die het nodig heeft om allerlei taken uit te voeren, want daar is het taalmodel voor getraind, maar crasht keer op keer bij het daadwerkelijk uitvoeren van complexe taken, want daar is het niet voor getraind!

[Reactie gewijzigd door Weicool op 23 juli 2024 06:54]

mits je een manier verzint waarop die robot de omgeving waar kan nemen en hiermee interactie kan hebben.
Dat was het cruciale punt; je moet inderdaad al een robotarm hebben die objecten op kan pakken die door een camera worden herkend, en die bij een instructie zoals "roeren" weet dat het een draaiende beweging moet maken, etc.

AutoGPT is inderdaad verre van perfect, maar dat ligt deels aan dat de taak die je invoert niet genoeg details (kan) bevat(ten). Opzich is de methode natuurlijk enorm slim; je laat één systeem randvoorwaarden bedenken, een ander hoe je kunt bepalen of aan die voorwaarden is gedaan, een derde hoe je het uit moet voeren en een vierde die test of het uit te voeren aan alle randvoorwaarden voldoet.

Met een systeem bedoel ik hier niet een fysiek systeem, maar een methode of een proces.
Toch komt het redelijk in de buurt, voor een voorspelling van 25 jaar geleden is het vrij indrukwekkend.
Het is geen brein, het is een geheugen.
Aan Jan met de pet misschien, maar zeker niet aan de onderzoekers die er toen al mee bezig waren. AI en de mogelijkheden ervan worden al sinds de jaren 50 onderzocht. Het is een fabeltje om te geloven dat AI een recent fenomeen is. Recente ontwikkelingen in hardware hebben ons gebracht tot waar we nu kunnen zijn, en veel minder theoretische evoluties. (Al heeft de Transformer natuurlijk een giga impact gehad.)
2001: A Space Odyssey is een Amerikaanse sciencefictionfilm uit 1968 onder regie van Stanley Kubrick.
Ik kan me nog goed herinneren (opa verteld...) dat begin jaren '90 er zogenaamde 'net aristrocaten' waren die het WWW wilde beperken tot educatieve instellingen, academici en allerlei overheidsorg. en alleen gecontroleerde toegang wilden voor de burger. Omdat ze bang waren dat het qua kennis een veel te machtige informatie tool was om maar aan Jan met de pet over te laten. Die gedachten zijn er nu weer.

We staan nog maar aan de vooravond van de ai technologie - dan bedoel ik de publiek toegankelijke, de vraag en hoe dit beperkt gaat worden, komt er bijvoorbeeld een normering en wetgeving voor?
Nu zal het waarschijnlijk wel gebeuren maar niet via wetgeving maar met geld. Het is nu al zo dat als je niet betaald je flink moet wachten. Ik denk dat in 10 jaar de beste AI tools achter betaalmuren zitten waardoor iedereen die niet betaald een onoverbrugbare achterstand heeft.
Zo gek is dat ook weer niet. Voor menselijke intelligentie moet je óók betalen, en daar vinden we zelfs dat een minimumloon vereist is. Vanuit dat oogpunt valt er zelfs wat te zeggen voor een minimum-loon voor AI's, zodat mensen ook nog een kans maken en AI startup's niet weggeconcurreerd worden door de grote spelers.
Ik denk dat het wel meevalt. Over 10 jaar zit GPT-12 gewoon in je Apple/Google/Samsung Watch. Er zal vast een duur betaalde AI zijn die nog beter is, maar die zal niets extra toevoegen aan het dagelijks leven/werk van de gemiddelde persoon.
Het kan een verschil tussen twee tekst bestanden zien. Big whoop. Nog nooit je bestanden geverifieerd in steam? Zelfde idee.

Vraag het eens naar de motivatie van de karakters en sta dan NIET toe door mensen geschreven analysis te kopiëren. Laat de AI helemaal zelf een boek review te schrijven zonder af te kijken.
Van de ‘personal computer’ naar de personal assistent.
Iedereen een eigen instance in de cloud. Een combinatie van Alexa/Siri en een fileserver met al je content. Enige wat je hoeft te doen zijn je gewenste plugins te activeren. Al lijkt het me niet super makkelijk de hele dag headless te werken. Een scherm/visuele representatie geeft toch ook wel weer overzicht.
We zijn hier al mee bezig. Er zijn meerdere groepen online die dit openlijk beschikbaar ontwikkelen as we speak. De toekomst gaat gekker worden dan we ons ooit hadden voorgesteld.
als we de samenleving niet vernietigen door klimaatverandering, oorlog, etc, want dan is alles voor niets
Je kunt nog een stap verder gaan.
Waarom als mens nog uit vlees en bloed bestaan als je in nulletjes en eentjes ook kan voortleven in een soort van supercomputer, als...'digitaal organisme', scheelt een hoop stikstof...
Tot op heden is er nog geen waterdicht bewijs tegen dat we nu al niets anders zijn dan een simulatie op een of andere buitenaardse computer. Sterker nog, het zou een boel kunnen verklaren (fermi paradox oa)
Is dit dan zoals de google assistent die geen alarm meer dan 24 uur van te voren in kan stellen?

Dan ben ik niet onder de indruk.
De bron noemt toch echt 8000 tokens en geen 9000 tokens voor GPT-4.
De nieuwe versie van de chatbot is momenteel enkel beschikbaar voor de zakelijke partners van Anthropic via de api.
Slack en Quora Poe zijn zakelijke partners en ze gebruiken de api. Betekent dit hun gebruikers het dus kunnen gebruiken?

Of bedoelen ze enkel klanten zoals lawfirms en dergelijke?
“Schrijf een opstel over een kat met 75000 woorden.”

https://youtu.be/5VrjGKeNDus
> voor- en nadelen van een bepaald stuk wetgeving in te schatten

Kan erg nuttig zijn zo'n AI, maar dit is dus heel erg eng, en een domein waar AI verboden zou moeten worden
Natuurlijk niet, het is gewoon een stuk gereedschap
Och, we laten het nu doen door politieke clubjes met allemaal andere belangen.
Als je de Daily Fail citeert, dan maak je jezelf al bij voorbaat ongeloofwaardig.

Het onderzoek uit Leiden is begrijpelijker. Populistisch rechts heeft nogal last van niet-logische argumentatie, die zichzelf nogal eens tegenspreekt. "Ik ben niet racistich, maar <bewijs dat je wel racistisch bent>" kan een AI prima lezen. Maar wat moet een AI leren van die contradictie? Deze klasse van inputs is inherent ongeloofwaardig, en dat is de schuld van de auteurs, niet de AI.
Dit is gewoon next level AI
Naarmate de context en tekstomvang die AI systemen kunnen interpreteren groeit, komen er steeds meer interessante applicaties binnen handbereik.

Zelf gebruik ik sinds een tijdje 'Recap' een AI speech to text app die lange audio opnames kan omtoveren to een transcriptie, samenvatting en bullet points. Echt handig voor offline meetings.

Die app is overigens gebaseerd op OpenAI Whisper en GPT-4. Dus waarschijnlijk wordt de transcriptie opgeknipt, samengevat en dan weer aan elkaar gezet. Gezien de huidige 32k tokens limiet.

[Reactie gewijzigd door EverGreen1979 op 23 juli 2024 06:54]

Er is trouwens ook een open source versie die 75000 tokens kan verwerken - MPT-7B story writer.
Toch blijf ik heel sceptisch kijken naar de huidige ontwikkelingen van AI en je nu al toch een soort van concurrentiestrijd ziet ontstaan. In die zin dat men steeds sneller en erg geforceerd aan het proberen is om AI steeds intelligenter te laten worden. Hierdoor bestaat ook des te meer het risico dat er fouten gemaakt gaan worden waardoor verkeerde informatie verspreid kan worden. Of dat door toedoen van AI er misschien totaal verkeerde geautomatiseerde beslissingen gemaakt kunnen worden.

Op dit item kan niet meer gereageerd worden.