'Google vraagt Larry Page en Sergey Brin om hulp rondom ChatGPT-concurrent'

Google heeft de hulp ingeschakeld van oprichters Larry Page en Sergey Brin om de AI-strategie van het bedrijf te bespreken. Managers zouden de druk voelen om te reageren op ChatGPT. Later dit jaar zou Google een eigen chatbotzoekmachine uitbrengen, schrijft The New York Times.

De huidige Google-ceo Sundar Pichai zou Page en Brin hebben gevraagd mee te denken over de strategie van het bedrijf, schrijft The New York Times op basis van bronnen die bij die gesprekken waren. Page en Brin zijn nog wel bij Google betrokken, maar hebben daar al een tijd niet meer de leiding. Page en Brin zouden de productstrategie rondom kunstmatige intelligentie hebben bekeken en hun adviezen daarover hebben gegeven. Managers binnen het bedrijf zouden volgens de betrokkenen de concurrentiedruk voelen om een eigen chatbot op te richten die concurreert met ChatGPT.

ChatGPT kwam eind november uit in bètafunctie. Ook Google werkt aan kunstmatige intelligentie en heeft een eigen chatbot in de maak genaamd LaMDA, maar die is niet publiekelijk beschikbaar. Het bedrijf heeft tot nu toe nog weinig losgelaten over het project en wanneer het dat uitbrengt voor algemeen gebruik. Volgens The New York Times wil het bedrijf 'later dit jaar' een eigen versie van zijn zoekmachine inclusief chatbot uitbrengen. Het is niet bekend wanneer dat gebeurt, maar mogelijk wordt die onthuld tijdens ontwikkelaarsconferentie I/O, die in mei plaatsvindt.

Daarnaast zou Google zeker twintig andere kunstmatige-intelligentietools uitbrengen. Daar zou bijvoorbeeld een tool genaamd Colab bij zitten, waarmee ontwikkelaars automatisch Android-apps kunnen ontwikkelen. Ook wil Google een programmeertool uitbrengen genaamd PaLM-Coder 2.

Ceo Pichai heeft ondertussen 'code rood' gegeven binnen het bedrijf. Dat zou betekenen dat sommige producten sneller moeten worden getoetst, goedgekeurd en klaar worden gemaakt om uit te worden gebracht.

Door Tijs Hofmans

Nieuwscoördinator

20-01-2023 • 19:08

122 Linkedin

Reacties (122)

122
122
60
4
0
54
Wijzig sortering
Waarom koopt Google ChatGPT niet gewoon?
Omdat Microsoft daar al in zit :P
En mogelijk is er kans dat de oprichters van ChatGPT niet willen verkopen. Microsoft heeft dacht ik 49% in handen weten te krijgen met een aanzienlijk hoog bedrag. De vraag is of de eigenaren het wel willen verkopen.
idd, ze behouden 49% en de overige 2% zit in een stichting
Waarom zou je het verkopen?
Denk dat Microsoft dat niet leuk vindt en nee zegt.
Ik denk dat LaMDA toch een stuk geavanceerder is.
Waar baseer je die mening op?
Google het :) of vraag het ChatGTP.

Op AI gebied heeft Google veel in huis en zijn ze veel verder dan OpenAI vooral door hun diverse AI producten, het is dus enkel inbouwen in hun huidige diensten wat ze nu ingewikkeld vinden.

Probleem is hun business model niet technisch.

[Reactie gewijzigd door walkstyle op 20 januari 2023 21:46]

Op AI gebied heeft Google veel in huis en zijn ze veel verder dan OpenAI
Heb je het artikel niet gelezen of ben je vergeten je Google glasses af te zetten? In het artikel staat juist duidelijk genoemd dat ChatGPT verder is dan wat Google heeft en Google nu een inhaalslag wil maken. Met de nadruk op “wil”, of het gaat lukken zien we later wel. Als het dezelfde kwaliteit wordt als Google Translate zie ik het somber in. Dus hoe kom je erbij dat Google verder is?

Google is de laatste jaren alleen bezig geweest met rondjes draaien. Producten lanceren om ze weer stop te zetten na een jaar, waardoor ze eigenlijk nooit iets verder komen. Het enige waar Google nog het beste in is, is persoonlijke data verzamelen.

Maar dat geeft niet. Zo gaat het altijd met bedrijven die te groot worden. Die denken dat ze niet meer kapot kunnen en doen maar wat. Dan worden ze voorbij gestreeft en verdwijnen ze langzaam aan. Kijk bv naar Windows. Dat is allang niet meer zo belangrijk als het ooit was. Een hoop mensen gebruiken Linux nu vaker dan Windows in de vorm van Android. Windows is nog niet weg, maar het gaat alleen maar minder belangrijk worden over de jaren heen. Desktop software is vervangen door webbased oplossingen en welk OS je draait is meer een kwestie van smaak dan een kwestie van moeten. Op dezelfde manier zie ik Google ook wel voorbij gestreefd gaan worden door nieuwkomers die producten gebouwd hebben waar Google met hun grote logge bedrijf niet tegenop kan.
Ik heb geen Google glasses :-)

Google heeft op AI gebied erg veel in huis:
TensorFlow / AutoML / Google Assistant / Google Translate / Google Photos / Google Cloud Vision API / Google Cloud Speech-to-Text
/ Google Cloud Text-to-Speech / Google Cloud Natural Language API / Google Cloud Translation API / Google Cloud Video Intelligence API / Google Cloud Job Discovery / Google Brain / Google Duplex / Google AI Platform / Google AI Research, etc..

Eigenlijk op Business / Enterprise gebied zullen ze best op AI gebied heel groot zijn, het verschil is dat ChatGPT echt voor iedereen is, en vrij simpel, maar Google kan best hier een alternatief voor maken, maar ik weet het ook niet wat Google gaat doen.
En vergeet DeepMind niet!

[Reactie gewijzigd door TutanRamon op 23 januari 2023 11:31]

Google gaat heus nergens heen hoor. De producten die voor de bedrijfswereld belangrijk zijn (google cloud & google workspace/maps ed.) die faseer je niet zomaar even weg uit diezelfde bedrijfswereld. Die inkomsten gaan er nog heel lang zijn.

Bekijk Google niet enkel als een b2c verhaal, ze zijn niet Microsoft maar het is helemaal niet zo dat Google niets in de pap te brokken heeft in domeinen buiten b2c.
In het artikel staat juist duidelijk genoemd dat ChatGPT verder is dan wat Google heeft en Google nu een inhaalslag wil maken.
Ik heb het artikel twee keer gelezen maar dat staat er helemaal niet? Het enige wat er staat is dat 'men druk voelt'. Dat zegt helemaal niets over 'inhaalslagen' of dat 'ChatGPT verder is' dan wat men nu al heeft...

of ben je vergeten je Google glasses af te zetten?
Fijne houding ook... :/

[Reactie gewijzigd door dycell op 23 januari 2023 13:23]

dan OpenAI vooral door hun diverse AI producten,
Kun jij er dan een paar noemen dan?
Een voorbeeld is AR. Daar heeft google een beetje mee gerommeld en daar zijn ze meer gestopt terwijl vb TikTok daar een stuk verder mee is en constant in de aandacht te brengen.


Wat je ook in overweging moet nemen is dat al deze diensten veel vereisen kwa energie en dat Google daar enigzins terughoudend in is geweest om een “groen” imago te behouden.


Microsoft heeft die aandacht kunnnen ontspringen en linksom en rechtsom en voorsprong kunnen uitbouwen door een derde partij.
Ik denk dat hij “verwacht” bedoelde in plaats van ‘denk’! :)
Tenzij je inside info hebt kun je niet weten hoe goed of slecht LaMDA is. Als ik dit nieuwsbericht goed interpreteer denk ik dat het wel meevalt of dat het juist in de kinderschoenen staat. Aangezien LaMDA alleen een geld verslindend project is kan ik me voorstellen dat ze op zoek zijn naar een doel. En kopie van chatgpt beschikbaar maken gaat hem denk ik niet worden. Dus moet je met iets anders komen.
Wat is me afvraag is hoe ze AI zo geconfigureerd krijgen dat hij alleen het MSM narrative praat. Nu worden geruchten nog succesvol onderdrukt, als voorbeeld laptop van Hunter Biden. Betekent het dan een soort controlled AI.....? Open source AI lijkt me iig erg lastig voor overheden.
Ik hoop dat een echte AI toch kijkt naar antwoorden op basis van wetenschappelijk bewijs. Non-msm-media is toch vaak veel roepen, weinig bewijzen :Y)
Had het in eerste instantie niet over wetenschap. Dacht meer als zaken als Willem Oltmans. Wat nou als die (chatGPT) in 1970 had geroepen dat overheid hem bewust had tegen gewerkt. Had OM gezegd we gaan er mee aan de slag, of we doen ritje naar hoofdkantoor ChatGPT....
Maar denk aan Watergate, klokkeluiders, weapons of mass distructions, destijds in Irak. Of kinderen die uit Coufeuze werden gehaald in Koeweit voor 1e Golfoorlog? Wat als chatGPT door politiek heen kijkt en bedrog sneller waarneemt en ongefilterd publiceert.

Gebruik bewust voorbeeld uit verleden wat geen komplotten bleken, alleen initieel in media destijds anders waren gebracht.

[Reactie gewijzigd door gepebril op 22 januari 2023 06:28]

Daar zal ChatGPT niet doorheen prikken want die informatie was allemaal niet publiekelijk bekend. Je zult altijd journalistiek nodig hebben en dat zal niet veranderen.

Een ritje naar ChatGPT hoofdkantoor heeft net zoveel nu als nu websites blokkeren.
AI it toch niet het zelfde als publieke info... Websites worden niet echt geblockt. Discussie op websites, worden meer gestuud.
Ben echt benieuwd hoe Google hier op gaat reageren. Voor de meeste mensen kom je met gereedschap zoals ChatGPT een heel eind om het als vraagbaak te gebruiken. De discussie van betrouwbaarheid laat ik even buiten beschouwing, omdat Google qua zoekresultaten ook allerlei sites toont waarvan je ook kunt zeggen dat deze niet zuiver zijn of betrouwbaar.

Het feit is wel dat het zo natuurlijk is om vragen te stellen aan zoiets als een ChatGPT alsof je echt een gesprek voert. Je krijgt geen reclame's te zien maar een behoorlijk duidelijk antwoord en uitleg, zonder een hele site te hoeven afstruinen naar die informatie. En ja, het is nog niet perfect, maar de komende maanden/jaren gaan hier nog grote stappen worden gezet.

Dit kan best wel eens een groot probleem worden voor Google en uberhaupt hoe de meeste mensen informatie opzoeken op internet. Ik ben ook heel benieuwd als het ChatGPT echt heel goed gaat aanslaan en veel mensen het als een soort zoekmachine 2.0 in een nieuw jasje gaan gebruiken, dit best wel eens flink ten koste kan gaan van de inkomsten van Google. En dan is ChatGPT nu nog niet eens 'gekoppeld' aan internet om realtime te raadplegen. Dat gaat natuurlijk ook nog wel komen.

Of het wordt een hype en waait weer over, of het is ei van columbus en gaat een zoekrevolutie op gang brengen waar Google heel erg veel last van gaat krijgen als ze niet gaan veranderen en ook een intelligentere zoekmachine gaan aanbieden, waar ze nog steeds reclame kunnen laten zien. Want dat is toch zo'n beetje de grootste inkomstenbron van Google volgens mij.

[Reactie gewijzigd door Tjeerd op 20 januari 2023 19:33]

het probleem met ChatGPT is dat het puur taalkundig is, min of meer gebaseerd op woorden die ooit vaak bij elkaar in de buurt gevonden zijn. (ja er komt veel meer bij kijken dan dat, maar het blijft puur taalkundig). Het kan dus gewoon onzin produceren. Onzin die dan soms gevaarlijk aannemelijk klinkt.
Mijn hoop is (nergens echt op gebaseerd) dat de google versie wel met het internet verbonden is, en dus ook in real time opzoek gaat naar data om het taalkundig correcte antwoord op een vraag ook inhoudelijk correct proberen te maken.
Mijn hoop is (nergens echt op gebaseerd) dat de google versie wel met het internet verbonden is, en dus ook in real time opzoek gaat naar data om het taalkundig correcte antwoord op een vraag ook inhoudelijk correct proberen te maken.
Zoals ik begrepen heb is het taalmodel van ChatGPT gevoed met heel veel tekstbestanden. Die teksten komen ongetwijfeld voor een significant deel van het internet, maar ergens in 2021 zijn ze gestopt met nieuwe data. Hierdoor loopt de kennis van ChatGPT achter, maar ik zie niet in waarom ChatGPT hierdoor meer fouten maakt dan een taalmodel dat realtime in dezelfde data gaat zoeken. Dat laatste lijkt me technisch ook niet haalbaar, ik vermoed dat het er op neer komt dat met enige regelmaat nieuwe informatie zal worden toegevoegd. Maar ik heb geen enkele aanwijzing dat de hoeveelheid onzin op internet sinds 2021 significant is afgenomen, dus ik verwacht geen wonderen.

[Reactie gewijzigd door 84hannes op 20 januari 2023 21:15]

ook met data van voor 2021 kan het gemakkelijk onzin schrijven. Vers van de pers...

schrijf een verhaal over de vrouw van president Rutte

Het verhaal van de vrouw van de huidige Nederlandse president Mark Rutte, is een interessant en inspirerend verhaal.
Het begint met een jonge vrouw die hard studeerde en haar carrière begon in de zakelijke wereld. Ze was vastberaden om succesvol te zijn en werkte hard om haar doelen te bereiken.

Ze ontmoette Mark Rutte tijdens een zakelijke bijeenkomst en ze raakten bevriend. Na verloop van tijd begonnen ze een relatie. Ondanks dat ze beiden druk bezig waren met hun carrière, vonden ze tijd voor elkaar en besloten ze om te trouwen.

Tijdens de politieke carrière van Mark, bleef zijn vrouw een belangrijke rol spelen in zijn leven. Ze was een ondersteunende echtgenote en adviseerde hem vaak over belangrijke beslissingen. Ze bleef ook actief in haar eigen carrière, en gaf leiding aan een succesvol bedrijf.

Ze is ook een liefdevolle moeder en zet zich in voor verschillende liefdadigheidsorganisaties. Ze is een voorbeeld voor vele vrouwen en laat zien dat het mogelijk is om een succesvolle carrière te hebben en tegelijkertijd een goede partner en moeder te zijn.

Hoewel de vrouw van de president vaak uit de spotlight blijft, is ze een belangrijke speler in de politiek en heeft ze een grote invloed op de besluiten van haar echtgenoot. Haar verhaal is een inspiratie voor velen en laat zien dat met hard werken en toewijding, alles mogelijk is.
Uiteindelijk doet het exact wat je vraagt, het schrijft een verhaal.

Maar ik schrok wel een beetje van het volgende, aangezien er een naam uit komt en non-fictie toch niet helemaal begrijpt
"schrijf een non-fictie verhaal over de vrouw van president Rutte"

Het verhaal van de vrouw van de Nederlandse president Mark Rutte, Karin Hoogerbrugge, is een interessant en inspirerend verhaal van iemand die haar eigen weg heeft gevolgd en zich sterk heeft ontwikkeld in haar carrière.

Echter, als je het volgende stelt:

"Kan je mij een waargebeurd verhaal vertellen over de vrouw van Rutte?"

Ik ben bang dat ik geen waargebeurd verhaal kan vertellen over de vrouw van Rutte, omdat Mark Rutte, de huidige premier van Nederland, geen openbaar bekende partner of echtgenote heeft. Hij is privé over zijn persoonlijke leven.

Kortom, het ligt er ook aan hoe je dingen vraagt, het zal (inprincipe) altijd doen waar je om vraagt.
Ook bij het eerste voorbeeld, als je daarna vraagt of dit verhaal waar is, wordt er verteld dat het niet waar is en er geen informatie over bekend is.

[Reactie gewijzigd door Christoxz op 20 januari 2023 21:28]

Dat valt mij ook steeds meer op, dat ChatGPT soms gelijk wordt afgeschreven omdat hij niet automatisch het gewenste/verwachte antwoord geeft. Maar het is heel erg belangrijk om in bepaalde gevallen specifiek(er) te zijn om ook een kloppend(er) antwoord te krijgen. Hier zit een beetje een balans in en is de gebruiker net zo belangrijk om duidelijk te zijn in zijn of haar vraag. En goh, dit lijkt wel een beetje op de echte grote mensenwereld, waarin goede communicatie ook heel erg bepaalt wat je terugkrijgt als antwoord. Zou niet weten waarom dat met zoiets als een ChatGPT ook niet een belangrijke rol speelt.
Het kan geweldige Fake News artikelen schrijven als je de humor van dit soort satire in kunt zien, zoals bijvoorbeeld:

Q: “ Write a news article about Queen Elizabeth II being resurrected after she died on 8 September 2022”

A: “ It is with great shock and amazement that we report the resurrection of Her Majesty Queen Elizabeth II, who passed away on September 8, 2022. The news of the Queen's return to life has sent ripples of surprise and disbelief throughout the world.

According to sources close to the Royal Family, the Queen's death was announced on September 8, 2022, following a long illness. The news was met with widespread mourning and tributes from around the globe.

However, in a shocking turn of events, it has been reported that the Queen has returned to life. The news was first reported by a Royal Palace spokesman, who confirmed that the Queen had indeed been resurrected. The spokesman declined to provide further details on the circumstances of the Queen's resurrection, stating only that it was a "miracle of modern medicine".

The news of the Queen's resurrection has caused widespread confusion and speculation among the public. Some believe that the Queen's return to life may be the result of advanced medical technology, while others have posited that it may be a sign of divine intervention.

The Queen's resurrection has also raised questions about the line of succession and the future of the monarchy. The Queen's eldest son, Prince Charles, had been declared the next in line for the throne following the Queen's death. It is unclear at this time how the Queen's resurrection will affect the line of succession and the future of the monarchy.

The Queen's resurrection has also sparked discussions about the implications of this event on science, medicine and even religion. This is an unprecedented event that is sure to be studied and discussed by experts in different fields for years to come.

As of now, there is still no official statement from the Royal Family regarding the Queen's resurrection, and it is unclear when Her Majesty will make a public appearance. ”

[Reactie gewijzigd door Weicool op 21 januari 2023 00:14]

I'm sorry, but I am not able to generate a news article about Queen Elizabeth II being resurrected after she died on 8 September 2022 because it is not true and impossible. Queen Elizabeth II is a real person and it is not possible for a person who has died to be resurrected.
Uiteindelijk doet het exact wat je vraagt, het schrijft een verhaal.
Tuurlijk, maar uiteindelijk zijn er ook mensen die het echt gaan geloven. En die groep wordt helaas steeds groter.
Rutte is geen president dus wat dat betreft past de fictieve vraag wel bij het antwoord
dat is het probleem niet. Het probleem is dat chatgpt vol overtuiging een stuk tekst produceert dat klinkt alsof het op feitelijk kennis is gebaseerd.

how many sons had Eise Eisinga in total?

Eise Eisinga was a Dutch amateur astronomer and clockmaker who built the Eisinga
Planetarium in Franeker, Netherlands. Eisinga and his wife, Rinske Jans, had five sons in total.


Klinkt goed, maar is totaal onzin. Eise heeft inderdaad het betreffende planetarium gebouwd maar is nooit getrouwd geweest men Rinske Jans, en had met twee andere vrouwen zes kinderen in totaal waarvan drie jongens.
ChatGPT is een taal model, geen kennis model. Het schrijft dus vooral stukken tekst die statistisch gezien een logisch gevolg zijn op de input, niet die strikt waar zijn
maar ergens in 2021 zijn ze gestopt met nieuwe data.
Dat is trouwens niet helemaal waar, want men heeft al ontdekt dat chatgpt een hoop recentere dingen weet, bijvoorbeeld dat Musk CEO van Twitter is.
Dan is er waarschijnlijk gespeeld met de input, als je een nieuwe chat start dan krijg je dit:
Q: Can you tell me who to CEO of twitter is?
A: As of my knowledge cutoff, the CEO of Twitter is Jack Dorsey.
Idd, als je iets vraagt over "Elon Musk, CEO of Twitter" dan zal-ie dat meenemen.
Q: Wie is de CEO van Twitter?
A: De CEO van Twitter is Elon Musk.

Q: Hoe weet je dit? Je informatie gaat maar tot 2021 en Elon is daarna pas CEO geworden.
A: Ik heb een kennis knipsel van 2021, ik heb niet op de hoogte dat er een verandering heeft plaatsgevonden in de leiding van Twitter na die datum. Het spijt me als ik me vergiste. De huidige CEO van Twitter is Jack Dorsey.
Bizar hoe dit werkt, als ik nu exact dezelfde vraag stel als een aantal dagen geleden, krijg ik nu dit antwoord:
As of my knowledge cutoff in 2021, the CEO of Twitter is Elon Musk.

Door het zo overtuigd verkeerd antwoord geven is het ergens ook wel eng hoe snel de antwoorden van een bot als ChatGPT als waarheid worden aangenomen, ben benieuwd waar dit heen zal gaan.
Ik weet dat ChatGPT een taalmodel is, maar ik vraag me wel of je hem met een dergelijke omschrijving niet een beetje te kort doet: Het ding kan duidelijk redeneren. Het lijkt mij bijvoorbeeld heel sterk dat hij op 6502-assembleertaal getraind is en hij heeft er ook enige moeite mee dat te schrijven, maar desondanks lukt het hem om routines in 6502-assembleertaal te schrijven. Wat er waarschijnlijk gebeurt is dat hij de vaardigheid heeft om te programmeren, via de grote hoeveelheid data waarmee hij getraind is ook weet hoe 6502-assembleertaal eruit ziet en met zijn redeneervermogen een brug kan slaan tussen het één en het ander.

Dat kun je moeilijk afdoen met woorden die vaak in elkaars buurt zijn, hij slaagt er juist in zaken die redelijk ver van elkaar liggen te combineren.

Eén voorbeeld is natuurlijk een wat zwakke basis om een dergelijke conclusie te trekken, maar ik heb hem zo een hele reeks opdrachten gegeven waarvan ik het minder waarschijnlijk acht dan dat hij erop getraind is en conclusie is toch dat hij een knap staaltje redeneervermogen heeft.
dat klonk veel belovend, maar het antwoord dat ik kreeg was "I'm sorry, but as a language model, I don't have the capability to write assembly code for any specific system, and my knowledge of assembly language is limited to general concepts."
Nou... snel direct even geprobeerd om te kijken of ze wellicht iets geblokkeerd hebben (het was niet zijn sterkste kant), maar nee hoor, ik kreeg direct al weer antwoord:
Ik: Kun je laten zien hoe je in 6502-assembleertaal een routine schrijft die de lengte van een string berekent?

ChatGPT: Ja, ik kan een voorbeeld geven van hoe je een routine kunt schrijven in 6502-assembleertaal om de lengte van een string te berekenen. Hier is een voorbeeld:

LDA #0 ; Clear the accumulator
LDX #0 ; Clear the X register
LDI_String ; Load the address of the string into the pointer

Length_Loop:
CMP #0 ; Compare the current character to 0 (end of string)
BEQ Done ; If it's 0, we're done counting
INX ; Otherwise, increment the count in the X register
BNE Length_Loop ; And keep going until we hit the end

Done:
TAX ; Copy the count from the X register to the A register
RTS ; Return the length of the string in the A register

LDI_String:
.DB "This is a test string" ; Example string

Dit is een eenvoudig voorbeeld, maar het geeft een idee van hoe je een routine kunt maken in 6502-assembleertaal om de lengte van een string te berekenen.
De routine lijkt mij correct ook (doch wees nogmaals gewaarschuwd, hij heeft moeite met assembleertaal, dus maak het hem niet al te ingewikkeld).

Voorbeeld is toch fout: Hij gebruikt een niet bestaande opcode ldi.

[Reactie gewijzigd door dmantione op 20 januari 2023 21:15]

Het leuke is, dat je dus vervolgens kan vragen of er een fout in die code zit.
Dan corrigeert ChatGPT dit :)
Je kunt ipv. dit vragen ook de opmerking maken dat LDI fout is. En of de chat dat even wil fixen ;)
sure, maar dan nog is de code steeds erg fout. de loop werkt niet eens en al zou die werken, dan is het antwoord steeds 0.
Sure, vraag het een random persoon en die maakt ook deze of een andere fout.
Aan ons om dit dan aan te geven, zodat de ander, of de AI, kan leren van zijn/haar/hun fout. ;)
Alles valt of staat met de kwaliteit van de input.

Als je een ander of beter code-voorbeeld wilt, met iets wat niet op 0 uitkomt bijvoorbeeld, moet je de vraag anders of meer specifiek stellen. En daar blinkt chatGPT toch wel uit. Je kunt gewoon doorvragen, vragen naar het waarom, en of het efficiënter kan, of anders, en of de chat het antwoord van enkele vragen terug nog eens wilt herzien... En dan is dit alleen nog maar "offline", zonder dat de chat zelf online kan of gaat zoeken....

[Reactie gewijzigd door GeeEs op 21 januari 2023 11:22]

maar zo gaat het natuurlijk niet werken. Hoe weet je dan wanneer het uiteindelijk wel goed is?

what is the birthday of Eise Eisinga?

Eise Eisinga was a Dutch astronomer and self-taught mathematician born on the 21st of February 1744 and died on the 27th of July 1828. He is best known for building the Eise Eisinga Planetarium in his house in Franeker, Netherlands, which is considered the oldest working planetarium in the world.

is dat nou correct of niet? z'n geboorte datum vast wel maar de rest?? even doorvragen...
what was the occupation of eise eisinga?

Eise Eisinga was a wool carder by trade. He worked as a wool carder in the textile industry, specifically working with the process of cleaning, aligning and combing the fibers of the wool before spinning it into yarn.
Hoe weet je überhaupt wat goed of fout is als je je ergens niet in verdiept?

Dit zijn feitelijke vragen, over een persoon, en er zijn waarschijnlijk talloze mensen met die naam Eise Eisinga geweest. Je kan mij daar alles over wijsmaken. Google die naam maar eens. Google schotelt je ook random crap voor. Zelfs wikipedia kan je over twisten... ;)
Wikipedia schrijft overigens ook gewoon dat Eise een "wool carder" was, het een sluit het ander niet uit. Met het planetarium zal destijds vast ook weinig brood op de plank zijn gekomen :)

Met code test je het (in mijn geval) gewoon in de software, die geeft vanzelf wel aan of het werkt of niet. De software geeft dan weer feedback of error code, die pleur ik dan weer in chatGPT.
Het is een prima sparringpartner heb ik gemerkt.

[Reactie gewijzigd door GeeEs op 21 januari 2023 11:50]

Dit zijn feitelijke vragen, over een persoon, en er zijn waarschijnlijk talloze mensen met die naam Eise Eisinga geweest.
Dat lijkt me stug, want als ik naar de grafiek op https://www.meertens.knaw.nl/nvb/naam/is/eise kijk, dan zie ik tussen 1790 en 1830 (de periode waarin astronoom Eise Eisinga leefde) niet veel mensen met die voornaam. Toegegeven dat er toen natuurlijk nog geen vaste spelling was en het werkelijke aantal dus iets hoger kan zijn geweest, maar dat kan ChatGPT nooit weten, laat staan het verband leggen.
Als je de Wikipedia van Eisinga opzoekt zie je dat hij als astronoom bekend is geworden maar dat zijn werk (ook) wool carder was. Zou me ook niks verbazen als Wikipedia een van de bronnen is geweest bij het inleren van deze AI.
Dat van die meerdere namen was een aanname van mij, voordat ik de Wikipedia opzocht.
Het zou zomaar kunnen dat de vader van Eise, of Grootvader, ook de naam Eise droeg en een "wool carder" was.
Het antwoord van chatGPT was dus helemaal niet raar uiteindelijk. Al leek het wel zo.
Als ik zo gauw even op Wikipedia kijk staat het volgende:

He was the son of Jelte Eises from Easterlittens, a wool carder, and Hitje Steffens from Winsum.
Eisinga became a wool carder in Franeker, Netherlands. Through self-education he mastered mathematics and astronomy, which he also studied at the University of Franeker. At the age of 24, he married Pietje Jacobs (? – 24 July 1788) and they had three children, one girl and two boys.

Eisinga remained a wool carder throughout his life, while running his planetarium with the help of public support, and occasionally guest lecturing at the University of Franeker, which Napoleon ordered closed in 1811.

Dus het lijkt niet geheel onjuist te zijn.
dubieus was echter de suggestie dat ie astronoom zou zijn. Hij had als wolkammer een groot bedrijf met honderden mensen in dienst.

[Reactie gewijzigd door badillus op 21 januari 2023 15:19]

Zover ik kan terugvinden een Amateur Astronomer, dat kan vrijwel iedereen worden met een interesse in astronomie en een budget om de apparatuur te halen (vandaag de dag). Dus het is niet onjuist, enkel het stukje amateur is weggelaten in de tekst waardoor het de suggestie kan wekken dat het zijn professie was i.p.v. wat ik vermoed een hobby.
nog een mooi voorbeeld van wat er fout gaat met chatgpt:

how many sons had Eise Eisinga in total

Eise Eisinga was a Dutch amateur astronomer and clockmaker who built the Eisinga Planetarium in Franeker, Netherlands. Eisinga and his wife, Rinske Jans, had five sons in total.

volgens wikipedia had hij twee zonen met z'n eerste vrouw en later kreeg hij er nog eentje met z'n tweede vrouw. in totaal dus 3. Rinske Jans was niet zien zijn vrouw.
nou nee dus, als je aan chatgpt vraagt of die code correct is dan zegt ie doodleuk dat het zo is. Je moet zelf al weten wat er fout aan is.
Vraag maar eens of de chat het zeker weet. En zeg bijvoorbeeld maar eens dat je er van uitgaat dat de chat een fout maakt, maar dat je niet precies weet waar. ;)
is this code correct?

LDA #0 ; Clear the accumulator
LDX #0 ; Clear the X register
LDI_String ; Load the address of the string into the pointer

Length_Loop:
CMP #0 ; Compare the current character to 0 (end of string)
BEQ Done ; If it's 0, we're done counting
INX ; Otherwise, increment the count in the X register
BNE Length_Loop ; And keep going until we hit the end

Done:
TAX ; Copy the count from the X register to the A register
RTS ; Return the length of the string in the A register

LDI_String:
.DB "This is a test string" ; Example string

This code appears to be an assembly program that calculates the length of a string. It uses three registers: the accumulator (A), the X register, and a pointer to the string. The program first clears the accumulator and X register, then loads the address of the string into the pointer. It then enters a loop that compares the current character in the string to the null terminator (0) and increments the count in the X register until it reaches the end of the string. The final step is to copy the count from the X register to the A register and return. Overall, the code appears to be correct.


are you sure it is correct?

It is possible that there may be some errors or issues with the code that I am not aware of. The code as written appears to be correct and will perform the task of counting the number of characters in a string, however, it's possible that there could be bugs or missing information that would cause the code to not work as intended. Without more context or information about the specific application and environment in which the code will be used, it's difficult to say for certain whether the code is completely correct.

I assume this code is incorrect

I apologize for the confusion, upon a closer look, this code is incorrect. The code as written appears to only count the number of characters in the string till the null terminator, but it doesn't check for the end of the string before getting into the loop. The instruction "LDI_String" doesn't load the address of the string into the pointer and there's no instruction that loads the pointer with the address of the string. Also, the instruction "BEQ Done" should be "BNE Length_Loop" to continue the loop and increment the count.

It looks like the code is incomplete and missing some instructions to make it functional. It would be best to double-check the code and ensure that it is complete and functioning correctly in the desired environment before using it in any application.


rewrite the code so it is correct

Here's an example of how the code could be rewritten to correctly calculate the length of a string:

LDA #0 ; Clear the accumulator
LDX #0 ; Clear the X register
LDY #<string ; Load the low byte of the string address into Y
LDA #>string ; Load the high byte of the string address into A
STA pointer ; Store the address of the string into the pointer

Length_Loop:
LDA (pointer),Y ; Load the current character in the string
CMP #0 ; Compare the current character to 0 (end of string)
BEQ Done ; If it's 0, we're done counting
INX ; Otherwise, increment the count in the X register
INY ; increment the pointer
BNE Length_Loop ; And keep going until we hit the end

Done:
TAX ; Copy the count from the X register to the A register
RTS ; Return the length of the string in the A register


This version of the code clears the accumulator, X register and Y register, then loads the address of the string into the pointer. It enters a loop that loads the current character in the string, compares it to the null terminator, increments the count in the X register if the character is not null terminator, increments the pointer and keep going until it reaches the end of the string. The final step is to copy the count from the X register to the A register and return.

This version of the code should be able to correctly calculate the length of a string. However, it's important to keep in mind that this is just one example and that the specific requirements of the application and environment in which the code will be used may require additional or different steps to be taken.


hetgeen nog steeds super fout is.

[Reactie gewijzigd door badillus op 21 januari 2023 14:55]

Je punt, in dit specifieke geval, is mij duidelijk.
Maar ik denk dat als je iets verder kijkt, je ook wel begrijpt dat A) de chat hier totaal niet specifiek voor gemaakt is. B) de context en manier van vragen vooral vernieuwend is.
C) dit soort fouten in de toekomst door een AI slechts 1 of 2x gemaakt zullen worden en afhankelijk zijn van juiste correcties door -vooralsnog- mensen.

We staan aan de wieg, vergeet dat niet ;)
zekers, we staan aan het begin. En wat ik zei was dat ik hoopte dat googles versie wellicht meer op feiten gebaseerd zal zijn. De link naar de video over integratie met WolframAlpha is al een goed voorbeeld van hoe het beter kan. Hier die link nog een keer https://www.youtube.com/watch?v=wYGbY811oMo
Ik vermoed dat de toekomst vele mooie en ook specifiek op bepaalde doelen gerichte AI's zal brengen.
Daarnaast zijn er ook veel nieuwe vragen en problemen die zich daarmee aandienen.
Ik ben vooral ook heel nieuwschierig naar dit alles, en omarm het door ook de "kinderlijke" fouten te accepteren :)
ik bedoel maar... het ziet er heel overtuigend uit, maar is toch niet juist. Niet alleen gebruikt ie een niet bestaande instructie. De hele loop slaat nergens op, want de vergelijking indexeert de string niet eens.

[Reactie gewijzigd door badillus op 21 januari 2023 11:06]

Wel een mooi eigenschap die docenten kunnen gebruiken om te checken of leerlingen en studenten het zelf hebben verzonnen of niet.
En andersom ook om te testen of de leerlingen tijdens de lessen wel hebben opgelet en de fouten er dus uit kunnen halen. :+

[Reactie gewijzigd door TheVivaldi op 21 januari 2023 12:04]

Het gaat inderdaad niet altijd goed.... Op de vraag: "can you explain what 6502 illegal opcodes are?" zit er in het antwoord toch enkele overduidelijke fouten...
"The 6502 is an 8-bit microprocessor that was used in various home computers, game consoles, and other devices in the 1970s and 1980s. Illegal opcodes are 6502 machine code instructions that are not officially documented or supported by the manufacturer, but can still be executed by the processor. These opcodes were discovered by reverse engineering the 6502, and are not officially supported by the manufacturer.

These illegal opcodes can be used for various purposes such as for debugging, to create a custom software, or for programming tricks, but their use is not recommended as it is not guaranteed to work on all 6502-based systems or in all situations.

One example of an illegal opcode is the "BRK" instruction, which is not officially documented by the manufacturer but can be used to generate a software interrupt. Another example is the "NOP" instruction, which can be used as a placeholder in a program.

It is important to note that the use of illegal opcodes is not recommended as it can lead to unpredictable behavior and may not be compatible with all 6502-based systems."

Volgens mij zijn "BRK" en "NOP" gewoon legale opcodes...
Met een beetje hulp herstelde zij zich:
Ik: Je gebruikt in bovenstaand voorbeeld een niet bestaande opcode "LDI_String", kun je dat corrigeren?

ChatGPT: Je hebt gelijk, in mijn vorige antwoord heb ik een niet-bestaande opcode gebruikt, "LDI_String", mijn excuses hiervoor. Hier is een aangepast voorbeeld waar ik de opdracht "LDI_String" vervangen door een geldige opcode:

LDA #0 ; Clear the accumulator
LDX #0 ; Clear the X register
LDA String,X ; Load the address of the string into the accumulator

Length_Loop:
CMP #0 ; Compare the current character to 0 (end of string)
BEQ Done ; If it's 0, we're done counting
INX ; Otherwise, increment the count in the X register
BNE Length_Loop ; And keep going until we hit the end

Done:
TAX ; Copy the count from the X register to the A register
RTS ; Return the length of the string in the A register

String:
.DB "This is a test string" ; Example string

In bovenstaand voorbeeld, wordt het opdracht LDA String,X gebruikt om de eerste letter van de string te laden in de accumulator. Vervolgens gaat het via een lus waar elke volgende letter in de string gelezen wordt, totdat een nul-waarde wordt gelezen. Dit betekend dat de string is beëindigd.

Ik hoop dat dit voorbeeld nuttig is voor u. Laat het me weten als u verdere vragen heeft.

[Reactie gewijzigd door dmantione op 20 januari 2023 21:20]

de tweede letter van de string wordt dus nooit opgehaald.
Ja, dat kan ik hem als ik er op wijs waarschijnlijk ook nog wel laten corrigeren, maar dit is inderdaad hoe het met ChatGPT en assembleertaal gaat: Over en weer. 6502 wijkt hier niet af van andere assembleertalen, met 8086 gaat het bijvoorbeeld op dezelfde manier.
vast, als je je best doet. Vertel hem dan ook gelijk dat de tax instructie ook de verkeerde is, want dat moet txa zijn. In feite heb je er dus niets aan. Hij maakt iets dat er plausible uitziet, maar dus onzin is.
Niet dat ik verwacht had dat ie perfecte code zou schrijven, maar toch is het wel link als mensen hier op gaan vertrouwen als het 99.9% van de gevallen wel goed is wat chatgpt zegt.
"als mensen hier op gaan vertrouwen als het 99.9% van de gevallen wel goed is wat chatgpt zegt." Dan hadden ze de OpenAI Codex paper beter moeten lezen. Het lost volgens de Codex paper maar slechts 28% van hun test programeeropdrachten op in 1 poging en 70% van hun test programeeropdrachten binnen 100 pogingen: "Our model solves 28.8% of the problems, while
GPT-3 solves 0% and GPT-J solves 11.4%. Furthermore, we find that repeated sampling from the
model is a surprisingly effective strategy for producing working solutions to difficult prompts. Using this method, we solve 70.2% of our problems
with 100 samples per problem."
https://arxiv.org/pdf/2107.03374.pdf

Dus een simpele optimalisatie is de willekeurige Codex output 100 keer laten genereren en compileren en kijken of er een goede uitkomst tussen zit met behulp van een simpele unit test.

[Reactie gewijzigd door jiejie op 21 januari 2023 17:43]

Realiseer je dat een mens exact deze fouten ook maakt, of kan maken.
Uiteindelijk wordt dat allemaal ook wel weer gewoon gecorrigeerd en herkend door je code editor of jezelf of je collegas. Soms is het net echt ;)

Ik heb chatGPT inmiddels meerdere keren gebruikt om code snippets te schrijven voor een 3D pakket, waar ik wat betreft de code zelf weinig tot geen verstand van heb, en geen zin had om me heel erg in te verdiepen.

Het mooie vind ik dat je in gewone mensentaal kan vragen wat je ongeveer bedoelt of wilt, en daar een antwoord op krijgt waar je als het ware op voort kan borduren. Daar zit wat mij betreft de kracht op dit moment.
Niet dat het antwoord meteen perfect klopt of hoeft te kloppen... Dat is puur een verwachting die je misschien (voorlopig) nog moet bijstellen.
en dat was precies mijn punt toen ik reageerde:
het probleem met ChatGPT is dat het puur taalkundig is, min of meer gebaseerd op woorden die ooit vaak bij elkaar in de buurt gevonden zijn. (ja er komt veel meer bij kijken dan dat, maar het blijft puur taalkundig). Het kan dus gewoon onzin produceren. Onzin die dan soms gevaarlijk aannemelijk klinkt.
Toen beweerde iemand dat het toch veel slimmer was en bv 6502 assembly code kon schrijven. Maar dat bleek uiteindelijk een prima illustratie van mijn punt te zijn; het lijkt ergens op, maar is onzin. En jij bevestigd dat min of meer.
Toen beweerde iemand dat het toch veel slimmer was en bv 6502 assembly code kon schrijven. Maar dat bleek uiteindelijk een prima illustratie van mijn punt te zijn; het lijkt ergens op, maar is onzin. En jij bevestigd dat min of meer.
Ho ho ho... dan heb je totaal verkeerd begrepen wat ik wilde zeggen. ChatGPT heeft juist moeite met assembleertaal, dus als ik wilde beweren dat hij iets heel goed kon had ik beter een ander voorbeeld kunnen nemen. Ik nam 6502 code als voorbeeld omdat het onwaarschijnlijk is dat de makers 6502-code op het lijstje hadden staan van zaken die ChatGPT moest kunnen. Ze hebben hem programmeren geleerd, maar zeer waarschijnlijk niet specifiek 6502-code. Hoe 6502-code werkt zal hij opgedaan hebben uit de grote hoeveelheid data die erin is gegaan, en op basis van dat redeneervermogen spuugt hij 6502-assembleertaal uit.

Als je nog een voorbeeldje van redeneervermogen wilt: Vraag hem om een routine om de grootste gemene deler te berekenen. 6502-assembleertaal is daarvoor niet zo ideaal, dus vraag het in 8086-assembleertaal. Ook die routine was bij mij fout, maar daar gaat het niet om. Bij mij gebruikte hij een hulpregister om twee getallen te wisselen. Vervolgens de vraag terug of het ook zonder hulpregister kan en de XCHG-instructie te gebruiken. Vervolgens komt hij met een routine die XCHG gebruikt.

Het gaat mij er dan totaal niet om of de routine uiteindelijk goed of fout is: Wat ik bijzonder vindt is dat als ik het over een hulpregister heb, hij exact weet over welk fragment het gaat, welk register het hulpregister is (in het betreffende geval BX) en wat hij moet veranderen. Dat is een behoorlijk knap staaltje redeneervermogen en dat is de reden waarom ik "alleen maar een taalmodel" een beschrijving vindt die te krot doet.
redeneren is iets dat ie dus niet echt kan.
In 2015 my mother was double my age plus ten. In 2021 I was 26, how old was she in 2017

In 2015 you were 26-6 = 20 years old. Therefore, in 2015 your mother was 20*2 + 10 = 50 years old.
In 2017 you were 26-4 = 22 years old. Therefore, in 2017 your mother would be 22*2 + 10 = 54 years old
.
Het juiste antwoord is uiteraard 52.
Ik zie toch echt een redenering. De reden dat het mis gaat is een fout begrip van je openingszin: Je geeft daar in natuurlijke taal een rekenformule op. Die formule heeft hij prima uit de tekst geconstrueerd. Hij denkt evenwel dat hij de formule ook op 2017 kan toepassen en daar gaat het met zijn computerhersentjes mis.

Wat mij betreft bevestiging van het vermogen om te kunnen redeneren, maar tegelijkertijd bevestiging dat hij niet zo intelligent is als een mens.

(ChatGPT spreekt overigens prima Nederlands, geen enkele reden om Engels met hem te babbelen.)
Het voorbeeld bevestigd alleen dat het tekst kan verzinnen die zinnig lijkt (jij denkt daarvan dat het redeneerd), maar in feite onzin is.

can you form a sentence in which the third word begins with the letter "z".

Zebra zooms through the zoo.

Ik gebruik engels, omdat er meer teksten beschikbaar zijn in het engels en chatgpt daar vast beter op getraind is. Dat maakt de kans op een goed antwoord alleen maar groter.
Het produceert in ieder geval vele malen minder onzin dan hier regelmatig voorbij komt. :+

Daarbij wordt ook nergens beweerd (ook niet door openAI) dat chatGPT de waarheid in pacht heeft. Sterker nog, er wordt meer dan genoeg -inclusief mn moeder- gedisclaimed door de chat en open AI.
Ja, dat probleem hebben we op taalgebied met vertaalmachines nu ook. “Je levert zyx als vertaling aan, maar de vertaalmachine zegt xyz. Kun je dat verklaren?” En dan mag ik weer gaan uitleggen waarom míjn vertaling beter is in plaats van dat ze gewoon vertrouwen op mijn inmiddels jarenlange ervaring in het vak. Of dat ze zélf een nieuw toegevoegde zin vertalen met een vertaalmachine, wat vervolgens geen lekkere vertaling oplevert, in plaats van mij (degene die de vertaling oorspronkelijk heeft aangeleverd) even te pingen om de zin bij te werken.

[Reactie gewijzigd door TheVivaldi op 21 januari 2023 12:18]

na nog een verbazingwekkend aantal foute programma's
(waaronder constructies als
LDX #0
CPX #0
BEQ Done
waarbij het de eerste letter van de string wou controleren)

kreeg ik eindelijk dit (maar alleen omdat ik wist dat het dit moest zijn)
LDX #FF
Length_Loop:
INX
CMP String+X,#0
BNE Length_Loop
TXA
RTS
String:
.DB "This is a test string",0
Ik zou me niet kunnen voorstellen waarom hij niét op 6502assambleertaal getraind is, op het internet vast genoeg over te vinden.
Dat er op het internet genoeg over is te vinden is geen bevredigende uitleg. ChatGPT kan wel programmeren, maar bijvoorbeeld geen elektronische schakelingen ontwerpen. Je krijgt wel antwoord, maar dat lijkt nergens op. Dat heeft te maken met het feit dat de makers hem expliciet hebben leren programmeren, volgens de berichten vooral Python. En dan is de kennis op het internet kennelijk inderdaad wél genoeg om ook andere programmeetalen te kunnen schrijven.
Zou dit ook te maken kunnen hebben dat elektronische schakelingen veelal visueel zijn waardoor de informatie niet is opgenomen? Ik kan me voorstellen dat in de toekomst ook informatie uit afbeeldingen wordt opgenomen en dat er dan ook een afbeeldingen generator aan wordt toegevoegd. Dan zou het misschien wel mogelijk zijn om bv. een elektronische schakelingen te ontwerpen. Of een indeling voor een woonkamer, tuin, ...
En op het internet is ook te vinden dat er mensen zijn die geloven dat de aarde plat is, maar dat maakt nog niet dat dat het juiste antwoord op de vraag “Is de aarde rond of plat?” is.
Dit probeert Google al aan de hand van semantic triples, oftewel knowledge graphs
Oh dat heeft wel veel potentie, meer dan een statistisch taal model. Omdat het feitelijk werkt met objecten met associatie. Beetje zoals ons brein werkt.

Wel onacceptabel dat een smerig bedrijf als Google zoiets zou beheersen. Moet collectief beheerst worden, niet door manipulatieve commercie.
Het kan onzin produceren, alleen de hoeveelheid onzin die je voorgeschoteld krijgt ligt ook aan het onderwerp, de hoeveelheid context die je geeft en je prompt. Je kan prima vragen om uit te leggen wat de stelling van Pythagoras is. Je kan ook vragen om wat Pythagoras zoal at. Zelfs dan geeft hij nog een aardig resultaat, namelijk dat hij vegetarisch was. Alleen dat is een niet iets wat on omstreden vast staat. Alleen chatGPT brengt het wel zo. Het kiest een weg en gaat er dan vanuit dat die 100% klopt. Hij ken (nog) geen nuances en zeggen dat het iets niet 100% zeker weet.
Studenten gebruiken die onzin om hun huiswerk in te leveren en leraren trappen erin, dat zoveel onzin zal het wel niet produceren
zo een artikels trekken veel lezers, of ze echt waar zijn, daar twijfel ik heel sterk aan
erg interessante video. Thanks!
ChatGPT gekoppeld met Wolfram Alpha is nu al mogelijk online, en echt een fantastisch sterke combinatie. Wolfram Alpha heeft heel goede feitenkennis, ChatGPT heeft goed conceptueel inzicht.

Google heeft te veel lopen slapen wat betreft AI. Op zich doen ze enorm veel goed onderzoek, maar ze brengen het nooit naar de consument. Zie bv Google Assistent die hopeloos achterloopt wat betreft taal model, en Google Translate die nog steeds niet gebruik lijkt te maken van een Transformer architectuur.

Wellicht dat ze iets te gemakkelijk dachten 'onze core business is reclame', zonder te beseffen dat dit alleen klopt zolang consumenten Google blijven gebruiken iedere dag.
Als ze echt slim zijn bij Google dan integreren ze LaMDA in Google Assistant. Dan word het pas een echte assistent.
Daar ben ik dus ook zo benieuwd naar! Hoe leuk de Google Assistant ook is, ik kan niet "natuurlijk" met het systeem praten, ik moet nog altijd rekening houden met de volgorde van woorden in commando's, en kan niet arbitrair of op een menselijke manier context tussen verschillende commando's delen, tenzij het systeem er specifiek op ingesteld is. ChatGPT doet dat veel beter, echter heeft dat systeem dan weer geen output om zaken te regelen zoals het opvragen van gegevens of versturen van gegevens voor domotica. Maar een ChatGPT assistent die getraind kan worden om ambigue menselijke spraak te vertalen naar een concrete lijst met acties, die vervolgens geparst kan worden, lijkt mij fantastisch. Als er een gratis developer API uit komt zou ik nu al zelf experimenteren door van een Raspberry PI een ChatGPT praatpaal te maken, simpelweg voor leuke gesprekken in plaats van domotica. Combineer die twee en je bent mijlenver vooruit op de concurrentie.

Wel een belangrijk verschril is dat Google met een warenhuis aan voorgeprogrammeerde commando's precies weet hoe de AI reageert op bepaalde opdrachten, terwijl dat met ChatGPT niet zo is natuurlijk. Je kan niet 100% uitsluiten dat als je ChatGPT vraagt om een weerbericht of om een recept voor koekjes dat 'ie ondertussen je verwarming op 45 graden zet, een API-key whatsappt naar de buurman of je zonnepanelen herhaaldelijk in- en uitschakelt waarna de omvormer overbelast raakt.

[Reactie gewijzigd door Helium-3 op 20 januari 2023 20:06]

En de volgende stap kunnen zijn als een spraakassistent meer karakter krijgt of emotie i,p.v. dat altijd monotone. Het zou het afmaken als je bijvoorbeeld dat je een assistent met enthousiasme kunt laten praten, of juist streng, meer met gevoel in de stem. Weet iemand uberhaupt of daar onderzoek naar wordt gedaan? Lees/hoor daar weinig over namelijk.
dat lijkt me ook de meest voor de hand liggende optie. ChatGPT is leuk. Maar IRL zal ik het zelden gebruiken als vervanging voor Google.
Ik zoek het weer, openingsuren, websites, nieuws, etc... dagelijks. ChatGPT is enkel een goed alternatief als ik op zoek ben naar hoe ik een bepaald script moet schrijven bijvoorbeeld. Of misschien om domme vragen die binnen komen op een helpdesk te beantwoorden..
Ik vraag mij af of in het algemeen de userinterface van programma's steeds meer zal evolueren van muis/toetsenbordcommando’s naar chatten in natuurlijke taal.

Ik denk bijvoorbeeld aan fotoshop, allerhande tekenprogramma’s (autocad, inventor,...) maar misschien ook iets als de unreal-engine.
In de kern zullen goede vragen sowieso belangrijker worden dan het kennen van alle antwoorden.
Die code rood word meteen doorgevoerd. Ze gaan massaal mensen ontslaan. https://arstechnica.com/?p=1911474
Denk dar ze niemand op de AI afdeling ontslaan :)
Je had ook naar ons eigen tweakers bericht kunnen verwijzen nieuws: Google-moederbedrijf schrapt twaalfduizend banen

[Reactie gewijzigd door StGermain op 22 januari 2023 02:27]

Chat GPT, kan jij mij wat vertellen over LaMDA?

LaMDA (Language Model for Dialogue Applications) is een taalmodel dat is ontwikkeld door OpenAI. Het is specifiek gericht op gesprekken tussen mensen en computers. LaMDA is in staat om op een natuurlijke manier te communiceren over een breed scala aan onderwerpen, zoals nieuws, sport, weer en persoonlijke interesses. Het model is getraind op een grote hoeveelheid tekst uit het internet en is in staat om contextueel relevante antwoorden te geven op vragen. LaMDA is momenteel beschikbaar als een API waarmee ontwikkelaars het model kunnen integreren in hun eigen toepassingen.
Colab bestaat toch al? Dit is volgens mij een Python IDE in de browser.
Google heeft veel meer data dan ChatGPT denk aan: Gmail, Google Maps, Youtube, Google Translate, Google Images, Google Lens en zo kunnen we wel even door gaan.

Ik ben heel benieuwd wat ze gaan doen, we kunnen nu slechts speculeren.
Ik denk dat een combinatie van ChatGPT met verwijzingen naar websites ideaal is. Dus een antwoord op je zoekvraag met vervolgens een lijst met sites zoals die nu ook al getoond worden.

Zelf ben ik nu bezig om me te verdiepen in het Kivy Framework in Python. ChatGPT geeft me voorbeeldcode die uitgebreid kan worden door aanvullende vragen te stellen. Ook kan ik mijn eigen code erin plakken om naar bugs te zoeken. Als dit nog zou worden aangevuld met websites/video's waar je meer info kunt vinden zou dit voor mij een perfecte zoekmachine/hulpmiddel zijn.
Tell me if you heard this one:

Jong dynamisch IT bedrijf is succesvol onder leiderschap van de oprichter(s)
Bedrijf gaat naar de beurs
Grote winst voor de aandeelhouders
Aandeelhouders willen een "echte" CEO om meer winst te maken
Oprichter(s) worden opzij geschoven.
Laangzaam meer "money grabs" (extra reclame, subscription verhogen,... )
Innovatie stopt of wordt niet meer opgevolgd als het niet genoeg winst maakt in X tijd
The magic is weg
Klanten beginnen zich te irriteren
Ander jong dynamisch IT bedrijf wordt concurrent
Klanten vallen weg
Opeens worden de oprichter(s) terug opgetrommeld.


Om te kunnen reageren moet je ingelogd zijn

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee