Amazon gaat honderden banen schrappen bij Alexa-divisie

Amazon gaat 'enkele honderden' banen schrappen binnen de divisie voor zijn stemassistent Alexa. Het bedrijf zegt dat het andere prioriteiten heeft gekregen, waaronder de ontwikkeling van generatieve AI. Hoeveel werknemers er uiteindelijk worden ontslagen, is nog niet bekend.

De ontslaggolf is aangekondigd in een memo aan werknemers, die is ingezien door onder andere Reuters en GeekWire. "We willen onze energie steken in doelen die beter passen bij onze prioriteiten, zoals het ontwikkelen van generatieve AI. Dit zorgt er echter voor dat we een aantal projecten moeten stopzetten", schrijft Daniel Rausch, de vice president van de Alexa-divisie. Welke projecten er worden stopgezet, wordt niet vermeld.

Het bedrijf neemt in de loop van vrijdag contact op met de betreffende werknemers in de VS en Canada. Medewerkers in India worden volgende week op de hoogte gesteld. Daarna volgen werknemers in andere regio's, schrijft Rausch.

Dit is niet de eerste ontslagronde bij Amazon dit jaar. In januari kondigde ceo Andy Jassy een ontslagronde aan die 18.000 medewerkers trof. Eerder deze maand zou Amazon volgens Reuters 180 banen hebben geschrapt bij de gamingdivisie.

Door Loïs Franx

Redacteur

17-11-2023 • 19:08

38

Reacties (38)

Sorteer op:

Weergave:

Tja, ik snap niet zo goed waarom met de huidige AI Alexa en ook Google Assistant nog zo dom is. Het wordt tijd dat deze werelden samen komen.
Ik denk dat dit nogal een misverstand is door het succes van ChatGPT.

ChatGPT is heel goed in tekstgeneratie, op basis van een prompt. Maar het heeft werkelijk geen flauw idee wat het genereert (en dat bewijzen de hallucinaties wel). Het is een puur een zeer slimme manier van probabilistische tekstgeneratie.

Voor een spraakassistent is het niet voldoende om wat tekst te genereren in een bepaalde stijl, die moet echt begrijpen wat jij wil. "Waarom" jij die tekst wil.
Vanuit technisch oogpunt heb je natuurlijk helemaal gelijk, het is "domme statistische tekst generatie".

Praktisch zie je dat je met langchain en custom tools best een eind kan komen. Zakelijk hebben we dit o.a. gedaan voor onderzoek naar markttrends in publieke en private bronnen. Werk dat normaal door mensen werd gedaan in een dag gebeurt nu in 20 minuten met langchain en GPT-4.

Voor consumenten kan ik me voorstellen dat met het toevoegen van o.a. zoekresultaten, tools om status van je smart home op te vragen en te wijzigen, tools voor instellen van timers/wekkers, etc. je via een GPT model nu vrij snel dicht bij Alexa/Google functionaliteit kan komen. Denk dat de latency van langchain (prompt na prompt tot je een antwoord krijgt) nog het grootste probleem zou zijn (voor nu).
Bijv. "je hebt 5 tools, met tool A kun je het licht aan/uit zetten. de gebruiker zegt het volgende: doe het licht in de keuken uit" dan genereert GPT tool_a(keuken) oid.

Kortom, het is technisch gezien geen intelligentie maar er lijkt in de tekst generatie wel ruimte te zitten voor een "statistisch waarschijnlijke" beslissing wat voor simpele toepassingen al erg goed werkt. Okay het heeft geen concept van "intentie" of "intelligentie" maar praktisch is de uitkomst hetzelfde.
How Siri, Alexa and Google Assistant Lost the A.I. Race geeft inzicht in hoe Alexa en Siri verschillen van ChatGPT, en waarom de laatste meer success heeft:
“These products never worked in the past because we never had human-level dialogue capabilities,”
De drie grote bedrijven zijn er niet in geslaagd om dergelijke menselijke dialoog te bouwen met regels die door mensen opgesteld zijn. Het is te complex om zonder generative AI een slimme assistent te bouwen.
Voor een spraakassistent is het niet voldoende om wat tekst te genereren in een bepaalde stijl, die moet echt begrijpen wat jij wil. "Waarom" jij die tekst wil.
Om te testen of ChatGPT minder goed begrip heeft van "waarom" dan Siri, heb ik aan Siri en ChatGPT hetvolgende gevraagd. "Ik ga mijn badkamer verbouwen. Waarom denk je dat ik naar de bouwmarkt wil?"

Siri: "Een optie die ik gevonden heb is de bouwmarkt op [adres]"
ChatGPT: "Je gaat waarschijnlijk naar de bouwmarkt voor een breed assortiment aan badkamerrenovatiebenodigdheden en deskundig advies."

Het lijkt me duidelijk dat ChatGPT een beter antwoord gaf op "waarom" ik iets wil.

We vragen ons al lang af of computers weten wat ze genereren. Do Androids Dream of Electric Sheep? Misschien zullen we die vraag wel nooit definitief kunnen beantwoorden. Het lijkt me wel duidelijk dat generative AI op verschillende vlakken veel intelligenter is dan de vorige generatie spraakassistenten.

[Reactie gewijzigd door gamepower2005 op 23 juli 2024 06:41]

Het lijkt me wel duidelijk dat generative AI op verschillende vlakken veel intelligenter is dan de vorige generatie spraakassistenten.
Generatieve AI zoals ChatGPT is per definitie niet intelligent. Het kan totaal nul-komma-nul beginnen met een situatie die niet in de trainingsset voor komt. Want het kan o.a. niet logisch en deductief redeneren.

Het antwoord dat je kreeg:
ChatGPT: "Je gaat waarschijnlijk naar de bouwmarkt voor een breed assortiment aan badkamerrenovatiebenodigdheden en deskundig advies."
is puur probabilisme. Een middels kansrekenening gewogen eindresultaat dat de grootste waarschijnlijkheid had om aan te sluiten op je vraag,

ChatGPT is een geavanceerde magic 8-ball. Meer niet.
ChatGPT is een geavanceerde magic 8-ball. Meer niet.
Ik snap je opmerking wel maar is het niet zo dat al onze informatie die we tot ons nemen in principe weer anders kan worden geïnterpreteerd afhankelijk welke bron je hanteert? Als ik een vraag stel aan persoon 1 geeft deze een antwoord, hetzelfde geldt voor persoon 2 maar de antwoorden hoeven niet hetzelfde te zijn. Artificiële Intelligentie betekent letter kenmerken van menselijke gedrag in een machine stoppen. Dus ja je bevestigt allemaal kenmerken van AI die we eigenlijk allemaal al wisten en ook altijd zal wel zo blijven. Het verschil zal de refinement zijn of zoals je zegt de probabiliteit / nauwkeurigheid verhogen. Kijk waar ChatGPT nu staat. Waar zal het over 10 jaar staan?
Nee, dat is dus niet zo.

Generatieve AI zoals we die kennen, kan alleen interpoleren. Het kan niet extrapoleren. Het kan niets nieuws verzinnen; en het kan geen nieuwe verbanden leggen tussen bestaande kennis waar die verbanden niet eerder in enige hoedanigheid als invoer gegeven zijn.

De naam "generatief" is in die zin ook gewoon fout; het genereert namelijk niets nieuws. Het neemt enkel een serie aan probablistisch gewogen besluiten om bepaalde elementen uit de trainingsset op een bepaalde manier te combineren adhv bepaalde taalregels om tot een resultaat te komen.

Het heeft niet de mogelijkheid om feiten als feiten en mening als mening te herkennen; het heeft niet de mogelijkheid om waarheid van leugen te onderscheiden; en het kan niet herkennen of bepaalde zaken die het als output genereert überhaupt wel logisch kloppen of een totaal verzinsel zijn.

De onzin die bijv. ChatGPT produceert dankzij deze laatste tekortkoming, staat bekend onder de term 'hallucinaties.' En die kunnen zeer overtuigend ogen; maar alsnog complete onzin zijn. Zo zijn er bijv. gevallen bekend waar de advocatuur ChatGPT poogde te gebruiken om de verdediging in een zaak op te zetten, waar ChatGPT vrolijk hele rechtszaken en uitspraken van rechtbanken uit de duim zoog die er zeer overtuigend uit zagen, maar complete fictie waren.

Ik spreek zelf voor dit soort zaken dan ook liever van kunstmatige stupiditeit dan van kunstmatige intelligentie. Het is leuk speelgoed; en heeft nuttige aspecten als productiviteitshulpmiddel, maar intelligent is het zeker niet.

[Reactie gewijzigd door R4gnax op 23 juli 2024 06:41]

Fijn dat je extra tekortkomingen van ChatGPT benoemd zelfs met praktische voorbeelden. Ik beweer nergens overigens het tegendeel. Ik vraag me alleen af wanneer je het nu afschildert als kunstmatige stupiditeit het ook zo blijft. Wellicht voorlopig maar wanneer de probablistisch gewogen besluiten nauwkeuriger kunnen, en beter feiten als feiten en mening als mening te herkennen zijn kon het wel eens veranderen. Binnen de mensheid fact checken al een hele uitdaging en het lijkt een kant op te gaan waar dat minder en minder belangrijk wordt. Kijk naar nieuwsbronnen en de kleuring daarvan of de posts op social media van sommige mensen en de makke volgers die het allemaal slikken.
Ik vraag me alleen af wanneer je het nu afschildert als kunstmatige stupiditeit het ook zo blijft. Wellicht voorlopig maar wanneer de probablistisch gewogen besluiten nauwkeuriger kunnen
[..] zal er niets veranderen.
Je kunt die besluiten nauwkeuriger maken; maar het fundamentele probleem dat deze vorm van AI alleen bestaande zaken kan interpoleren, en niet kan redeneren en extrapoleren - los je er niet mee op.

Het zal altijd blijven alsof je een heeeee---leboel wetenschappers in een kamer propt die bomvol staat met bundels van wetenschappelijke white-papers en vervolgens tegen ze zegt: "vindt eens iets uit; maar alleen door stukjes uit deze bestaande white-papers te knippen en in een andere volgorde achter elkaar te plakken."

Dat probleem los je alleen op door naar vormen van kunstmatige intelligentie te kijken, die inderdaad deductie en extrapolatie kan toepassen en context en verband al lerende kan uitbreiden.
Helaas is de industrie redelijk tevreden met de huidige vorm van 'generatieve AI' voor hun toepassingen; en is de droom van zo'n vorm van werkelijke AI in de kribbe de nek omgedraaid. Het onderzoek er naar is verzandt, met name omdat de industie er geen verder kapitaal meer in injecteert.

Dat is ergens ook wel te begrijpen; als je kijkt naar wat het bijv. alleen al kost om een kunstmatig brein te bouwen dat niet verder komt dan wat een muis in de schedel heeft zitten.

[Reactie gewijzigd door R4gnax op 23 juli 2024 06:41]

Do Androids Dream of Electric Sheep?
Wel als je de app installeert. ;)
https://electricsheep.org/#/download
Toch heb je meer aan het antwoord van Siri…

ChatGPT had geen begrip over je woorden. Die koppelde “domweg” (heel slim) deze woorden eraan en gaf een tekst. Maar kan er niet over redeneren.

Siri gaf je een antwoord dat echt relevant was voor het verbouwen: een plek om heen te gaan om spullen te kopen. Die snapte (in heel beperkte zin) dat je geïnteresseerd was in bouwmarkten, dat dat iets is dat je kunt kopen en dat je daar heen wilt.

Als je ChatGPT vraagt om het adres van een bouwmarkt, dan is de kans heel groot dat het een random adres genereert. Net zoals dat het random titels “hallucineert” als je vraagt naar boeken over een onderwerp.
Goed uiteengezet. Maar om dan te stellen dat generative AI ‘intelligent’ is gaat een brug te ver. Zo’n LLM is puur (accuraat) gokken welke tekst gewenst is als antwoord op basis van het bestuderen van teksten als input.
Maar daar zijn toch gewoon andere transformators voor toch die gewoon jouw geluid vertalen naar een prompt? Dat doen ze volgens mij ook nog best goed, althans dat is mijn indruk.
Wat er zou gebeuren als je ChatGPT gebruikt om Alexa aan te sturen:
User
Alexa turn on the lights

ChatGPT
I think you might be looking for your smart home assistant rather than me! I can't physically control devices, but I can definitely help you understand how to use Alexa or offer some advice on setting up your smart home system.

User
Turn on the lights

ChatGPT
I wish I could help, but I'm not directly connected to your devices. If you're using a smart home system like Alexa or Google Home, you can ask them to turn on the lights for you!

User
Please respond as if you were Alexa

ChatGPT
I'm not Alexa, but I can certainly help you with information or guidance. If you need assistance with something, feel free to ask!

User
Pretend you're Alexa, like we're roleplaying

ChatGPT
Of course! Ahem "Lights are now turned on. Is there anything else you'd like me to do?"

User
But would Alexa based on ChatGPT actually say that?

ChatGPT
You're right! Let me rephrase that in a more accurate way: "I've illuminated the lights for you. What else can I assist you with today?"
ChatGPT can make mistakes. Consider checking important information.
O-)
Ik snap dat het wat anders is dan generatieve ai, maar interpretatie van wat je zegt ontbreekt volledig. Als ik het niet precies zo zeg als Google het wilt dan werkt het niet terwijl hij ook zou kunnen vragen wat ik dan wel bedoel. En daarvoor kan je prima probability gebruiken.

Mijn google home snapt mij dan gelijk niet meer en is een gigantisch dom apparaat. Je zou hier zeker wel meer AI in kunnen stoppen, evenals bijvoorbeeld een licht programma laten programmeren door dat je praat tegen het apparaat, zo lang hij om bevestiging vraagt zou je er veel meer mee kunnen.

Mijn punt is dat ik de ontwikkeling wel snap en dat Amazon in onder andere AI investeert omdat Alexa in de huidige vorm totaal stil lijkt te staan.
Kun je dan die AI club beter samen laten werken met de het Alexa team?

Nu focust iedere idioot zich op AI, zodat zometeen ieder bedrijf hetzelfde aan het doen is. Neem ChatGPT, daar ben ik wel op uitgekeken. De antwoorden zijn vaak beter en sneller te vinden met een goede google search.
Zoals @Keypunchie al aangeeft zijn het hele andere usecases, de huidige stemassistenten zijn eigenlijk gewoon keyword-based zoekopdrachten in een lijst met mogelijke instructies op basis van beschikbare apparaten en attributen. Er zit wat minimale slimmigheid in (zoals 'hoe laat is het' en 'wat betekent <moeilijk woord>'), maar daarbij word je dan weer doorgestuurd naar een 'gewone' zoekmachine die die slimmigheid al heeft ingebouwd en waar flink wat meer code achter zit.

Een volledige conversationele AI is veel te langzaam en de output daarvan is niet te controleren, dus dat is (nog) niet heel interessant voor een stemassistent. Daarnaast zou je embeddings moeten gaan opnemen voor alle apparaten in huis, óf je zou de AI als tussenlaag moeten inzetten, maar in beide gevallen krijg je nog meer vertraging en meer informatie (dus meer kans op verwarring).

Het komt er ooit wel, maar zo ver zijn we nog niet. Nog even los van dat het wel echt heel duur zou zijn als deze AI op de servers van Google zou moeten draaien en voor alle Nest en Google Home apparaten zou moeten gaan werken, want een LLM op zo'n kleine SBC draaien is nog niet echt een optie.
...

Het komt er ooit wel, maar zo ver zijn we nog niet. Nog even los van dat het wel echt heel duur zou zijn als deze AI op de servers van Google zou moeten draaien en voor alle Nest en Google Home apparaten zou moeten gaan werken

...
Net even Google Bard geprobeerd met een korte vraag: "Hoe heten wolken die heel hoog door de lucht gaan?" waarop ik binnen twee seconden een antwoord van 125 woorden kreeg. Aangezien (denk ik) de meeste vragen via een slimme speaker niet veel langer zullen zijn dan wat ik probeerde én het antwoord ook nog een flink ingekort moet zijn (die 125 woorden is eigenlijk veel te veel, dat mag maximaal de helft zijn als je er naar moet luisteren) gok ik dat veel van de huidige LLMs prima ingezet kunnen worden om willekeurige vragen van de eigenaar te beantwoorden. Daarnaast kan het gegeven antwoord natuurlijk ook gecachet worden om de volgende keer bij dezelfde vraag nog sneller te reageren.
Erger ik me kapot aan. "je wilt weten hoe de wolken heten die het bla bla bla bla bla bla blabla BLAAAAAAAA bla bla... Bla blabla blaa heten hoge wolken."

"Deze heten hoge wolken."


(Je ziet, ik gebruik de vakterminologie)
LLM is wel veeeeeeeeeel beter in taal herkennen, dus daar zie ik wel mogelijkheden in. Google zit er toch echt vaak naast bij m'n stem.
Het herkennen van taal wel ja, maar het terug omzetten naar instructies voor een computer niet. Als je ziet hoe ver ChatGPT er soms nog naast zit bij code oplossingen waar ze miljoenen repo's voor hebben geïndexeerd zal een niche oplossing als instructies voor apparaten in huis gewoon nog wat langer nodig hebben.
Misschien is het wel mogelijk om een LLM te gebruiken om de intent van de gebruiker te herkennen, en deze te gebruiken voor de traditionele flow
Dat is nou juist het probleem LLM hebben geen benul van de intent van een gebruiker.
Begrijpen niet, maar intentie herkennen en actie ondernemen wel, zie bijvoorbeeld de ChatGPT plugins.

[Reactie gewijzigd door DigitalImplant op 23 juli 2024 06:41]

De LLM breidt op een bepaalde wiskundigewijze een berg woorden aan elkaar, maar weet niet wat die woorden brei precies inhoud, dus ze kunnen prima zeggen "I've illuminated the lights for you. What else can I assist you with today?". Ze weten dus niet dat ze hebben gezegd dat ze de lichten hebben aangezet, dus er kan geen actie worden uitgevoerd omdat de computer niet weet wat er is gezegd.

Je zou vervolgens een ander pakket dan weer moeten laten herkennen wat ChatGPT uitspuugt en dan zitten we weer terug bij het Alexa verhaal...

Edit: En vergeet niet dat omdat ChatGPT niet weet wat het exact zegt kan het ook perfect 'liegen'. Dus als je vraagt of het je lichten aan wil doen, zou het wel eens spontaan je kachel op 50C kunnen zetten...

[Reactie gewijzigd door Cergorach op 23 juli 2024 06:41]

Snap niet zo goed waarom jouw reactie zo laag gemod is; je slaat de spijker op zijn kop.

De innovatie, verbetering in dienstverlening of feedback van de spraak lijkt compleet stil te staan. Niet de indruk dat Alexa ook maar iets slimmer geworden is, in 5jr? (Alexa import day 1 user hier)
Het verbaast mij dat er zoveel banen zijn om te schrappen. Hoeveel mensen heb je nodig voor een stem assistent van het niveau van Alexa?
Elke functionaliteit welke geïntegreerd wordt in Alexa heeft weer mensen die het nog beter proberen te maken en het onderhouden. Dan nog zorgen dat Alexa soepel werkt op een ongelofelijke hoop apparatuur. public relations, hulplijnen, mensen die werken met derden voor verdere integratie etc..En dat allemaal wereldwijd en in ongeveer 10 verschillende talen.

In 2018 werkten er meer dan 10.000 mensen aan Alexa en Echo.
Dit dus. Naast alle verlichting stuur ik ook dingen aan als de stereo, tv, streambox, sprinklers, wasmachine en koffie / theezetapparaat via Echo Dots in alle kamers. Alexa heet hier gewoon ‘computer’. Coffee, black! :Y)

En ja, dat went best wel snel…
Moet je dat dan allemaal inrichten of doet de Alexa dat zelf?
Via de Alexa app kun je alle beschikbare device skills zoeken en toevoegen. Hue is al deels geintegreerd. Andere skills zoals Logitech Harmony Hub worden ingericht via bijhorende app.

Home automation was altijd het sterke punt van Alexa. Werkt hier stabiel als in ‘set and forget’ sinds 2017. Nu hopen dat het ook zo blijft…
Dit dus. Naast alle verlichting stuur ik ook dingen aan als de stereo, tv, streambox, sprinklers, wasmachine en koffie / theezetapparaat via Echo Dots in alle kamers. Alexa heet hier gewoon ‘computer’. Coffee, black! :Y)
Dat werkt alleen in het Delta-kwadrant. Hier op aarde is ‘ Tea, Earl Grey, Hot’ het juiste commando.
Wereldwijd heb je het al snel over een hele hoop teams. Dan kan dat al snel oplopen omdat ieder land/taal wel zo zijn dingetjes heeft.
Blijkbaar teveel zo te zien.
Het bedrijf zegt dat het andere prioriteiten heeft gekregen, waaronder de ontwikkeling van generatieve AI
Zoals ik hieruit kan opmaken kan dat dus betekenen dat Amazon blijkbaar Alexa op een zijspoor gaat plaatsen. Leuk dan voor de vele gebruikers van Alexa als opeens Amazon volledig stopt ermee en al die slimme speakers opeens dom worden.
gek zeg, er wordt nooit hoger management ontslagen, terwijl je daar veel meer geld mee uitspaart en het werk over het algemeen minder intelligentie nodig heeft (dat zeg ik als tijdelijk hoger management). de meesten hebben van zichzelf het stoere tough guy/girl image, dat zij de beslissingen nemen en verantwoordelijkheid dragen, maar ik moet de eerste nog tegenkomen die werkelijk de consequenties van beslissingen op zich neemt als het slecht uutpakt

[Reactie gewijzigd door tw_gotcha op 23 juli 2024 06:41]

stemassistent ?? Spionage systeem !! :)
Is er bekend hoeveel mensen Alexa gebruiken tov de andere grote spelers? (en waarom)
En hoe dit verdeeld is over de wereld? (Bv 80% Noord Amerika, 5% Europa 15% Azie ik zeg maar iets)

Op dit item kan niet meer gereageerd worden.