Het probleem lijkt mij dat ergens het langste naar kijken gekoppeld word aan; dit wil de klant.
Ik zat in het filmpje het langste naar een ingrediënt te staren waarvan ik zo niet kon opmaken wat het eigenlijk was

... leek op een gehaktbal.
Ik keek vervolgens ook een tijd naar de garnaal, met de gedachten "wie wil dat nou op zijn pizza?"
Dus ik weet nadat ik de ingrediënten heb bekeken nog niet direct wat voor pizza ik wil, hoe weet ik dan dat ik de pizza die ik zou krijgen ook echt had gewild; ondanks dat ik pepperoni ook lekker vindt

.
Uiteindelijk kan ik mij best voorstellen dat het algoritme erachter zo slim is dat het vaker wel dan niet klopt. Met de techniek op zich is niks mis, je kan het zo zichtbaar of onzichtbaar toepassen als je wilt.
Kent iemand die Mcdonalds zuilen waar je met zelfbediening kan kiezen uit een aantal menu's? Superhandig.
Oke nu met die techniek (die opzich zelf niet verkeerd is). In het extreme geval:
1) Laat wat hamburgers zien en pas de techniek transparant toe en geef dan een x aantal suggesties en daaronder het volledige menu.
2) Laat dit eventueel vooraf gaan met een aantal vragen (wil gezond/niet gezond eten) en je komt ongetwijfeld in de buurt.
3) Scan meteen hoe fors de persoon is om de voorspelling te verbeteren!
4) Kijk meteen even naar andere gegevens, komt de persoon vaak? Wat koopt deze meestal? Wat koopt deze bij andere fastfoodketens of restaurants?
5) Koopgedrag bij andere winkels, koopt deze vaak diet shakes? Doet deze persoon aan fitness of andere sport?
6) Is de persoon vaak ziek? Medische gegevens opvragen en voorspel dan direct of de persoon een salade had gewild of niet.