Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 73 reacties
Submitter: Caayn

Microsoft stapt begin volgend jaar over op fpga's voor zijn datacenters. Dat besloot het bedrijf nadat een pilot succesvol bleek, zo schrijft Wired. Door het gebruik van fpga's zou voornamelijk zoekmachine Bing sneller moeten werken.

MicrosoftMicrosoft overwoog twee jaar geleden de overstap naar fpga's, nadat een medewerker van Microsoft Research met dat idee kwam. Het bedrijf begon een pilot met 1.600 servers en die bleek succesvol, zo weet Wired. Microsoft stapt dan ook begin volgend jaar over op de schakelingen met programmeerbare logische componenten.

Met de fpga's bouwt Microsoft een netwerk dat bestaat uit precies 1.632 servers, die allemaal beschikken over losse Intel Xeon-processors en fpga-chips van Altera. Het systeem, dat intern bekend staat als Project Catapult, zou met name de zoektermen van Bing voor zijn rekening nemen. Een van de medewerkers achter het project, Doug Burger, zegt tegenover Wired dat de fpga's Bings algoritmen veertig keer zo snel kunnen verwerken als reguliere cpu's. Doordat een deel van het werk nog wordt gedaan door de Xeon-cpu's, denkt Microsoft dat de zoekmachine al met al twee keer zo snel kan zijn als Bing nu is.

Microsoft verwacht door de aanpassing in zijn datacenters de chips net zo vaak te kunnen updaten als het doet met de software achter de Bing-zoekmachine. Burger zegt dat het niet ongebruikelijk is om wekelijks een chipupdate uit te rollen.

Moderatie-faq Wijzig weergave

Reacties (73)

To say that the performance improvements in this approach have been noticeable would be a gross understatement. Microsoft tells us that a test deployment on 1,632 servers was able to increase query throughput by 95 per cent, while only increasing power consumption by 10 per cent.
Source

En het research document van Microsoft over dit onderwerp, voor de geÔnteresseerde.
Dit is de toekomst voor moderne datacenters die specifieke algoritmes draaien. Net als bitcoins minen veel efficienter en sneller gaat op FPGA en nog sneller op dedicated ASIC's. Zo zullen sommige algoritmes alleen de beste perfomance per watt kunnen halen als de hardware er voor gemaakt is en niet allemaal onnodige onderdelen ook mee draaien (denk aan een FPU die ook stroom verbruikt maar in een algoritme dat alleen integers gebruikt nooit gebruikt zal worden).

Gezien processoren de laatste jaren niet echt veel sneller worden en performance per watt steeds meer een rol gaat spelen zullen we nog wel meer van dit soort oplossingen gaan tegenkomen voor specifieke bewerking. Denk b.v. aan Youtube video conversie, hier zou een speciaal ontworpen FPGA/ASIC veel meer streams tegelijk kunnen omzetten tegen een fractie van de stroomkosten die een CPU of GPU daar voor nodig zou hebben
Gezien processoren de laatste jaren niet echt veel sneller worden
Eindelijk iemand die dit ook door heeft ;) Te veel mensen zijn verbaasd hierover, die reageren met: "Huh!? Maar Intel heeft toch gewoon elke jaar nieuwe CPUs uitgebracht die *significant* sneller waren telkens?" 8)7
Het is ook niet waar, chips worden wel degelijk elk jaar sneller. Intel heeft net de Ivy Bridge-EX uitgebracht, die ruim 2x zo snel is als zijn voorganger. Oracle en IBM verdubbelen ook elke drie jaar weer de performance van hun server chips. Dat zijn chips voor een markt die bereid is te betalen voor meer cpu power.

In de (consumenten) PC markt wil iedereen langere accuduur en lager verbruik, kleinere behuizingen en minder fangeluid, terwijl bijna niemand beperkt is door te weinig cpu power - dus maken Intel en AMD hun chips nu steeds zuiniger ipv sneller. Er zit in de consumentenmarkt geen enkele OEM te wachten op bv een 150W chip die 3x zo snel is als de huidige Haswell - daar kan je geen laptop mee maken, geen all-in-one, geen mini-PC, geen tablet, hooguit een paar duizend grote towers voor de kleine groep enthousiastelingen die zoveel cpu performance willen hebben.

En in de telefoonmarkt is de situatie weer anders: smartphone gebruikers willen steeds snellere chips, en vinden het prima om elke dag aan de lader te hangen, en dus zien we een enorme toename van snelheid in bv de Atom, Snapdragon, Tegra en Exynos chips in dat segment. Maar zodra mensen accuduur daar weer interessant gaan vinden, zal je zien dat de performance weer stil blijft staan en alle chipmakers het verbruik omlaag brengen. Het blijft een zaak van vraag en aanbod. Wat technisch mogelijk is, is niet altijd verkoopbaar.

[Reactie gewijzigd door Dreamvoid op 17 juni 2014 12:36]

smartphone gebruikers willen steeds snellere chips, en vinden het prima om elke dag aan de lader te hangen
Sorry hoor, maar waar haal je die info vandaan? Een van de grootste klachten van smartphones is het feit dat ze net amper 2 dagen meegaan met licht gebruik. Bijna elke Tweaker hier op T.net stelt ook wel eens de vraag bij een artikel van een OS update wanneer de batterijtijd eens aangepakt wordt i.p.v. het toevoegen van allerlei (zinloze) features. De Smartphone fabrikant die het eerst een smartphone maakt die een week of langer meegaat, die is de kampioen hoor ;)
Consumenten zeggen misschien wel, maar in de praktijk staat het overduidelijk laag op de prioriteitenlijst. Dumbphones verdwijnen rap uit het straatbeeld, ondanks hun lange accuduur. Een merk als Blackberry is ten onder gegaan, ondanks hun lange accuduur. Motorola heeft de MAXX lijn, verkoopt voor geen meter. Lenovo heeft een aantal (langzame) telefoons met supergrote accu's, verkopen matig. Asus heeft een aantal phablets (Fonepad) met grote accu's, verkopen ronduit slecht. Philips verkoopt ergens nog een handvol toestellen met grote accu, niemand die er enige aandacht aan schenkt.

Aan de andere kant verkopen de iPhone 5, Nexus 4/5, Galaxy S3/4/5, One X/One/etc als warme broodjes, ondanks hun matige accuduur, en ook aan de budget/midrange kant kijkt iedereen naar performance en schermgrootte ipv accuduur. Een Moto G, een Lumia 520/630, een S4 Mini, allemaal verkoophits maar veel meer dan een anderhalve dag haal je er niet mee. Kijk maar naar de tests, de discussies op forums (zowel 'tech' sites als Tweakers, als de minder kundige gebruikers), de reclamefolders - iedereen heeft het over snelheid, ghz'en, cores, RAM, pixels-per-inch, gpu power, bouwkwaliteit, foto kwaliteit, etc. Er wordt wel geklaagd over slechte accuduur, maar een "langzame" telefoon met lange accuduur kopen ho maar. Zolang dat niet gebeurt, blijft de performance race doorgaan.

[Reactie gewijzigd door Dreamvoid op 17 juni 2014 13:01]

In de (consumenten) PC markt wil iedereen langere accuduur en lager verbruik, kleinere behuizingen en minder fangeluid, terwijl bijna niemand beperkt is door te weinig cpu power - dus maken Intel en AMD hun chips nu steeds zuiniger ipv sneller. Er zit in de consumentenmarkt geen enkele OEM te wachten op bv een 150W chip die 3x zo snel is als de huidige Haswell - daar kan je geen laptop mee maken, geen all-in-one, geen mini-PC, geen tablet, hooguit een paar duizend grote towers voor de kleine groep enthousiastelingen die zoveel cpu performance willen hebben.
Waarom zijn er dan geen losse cpu's die wel 3x zo snel zijn aan 150W? Aan de enorme reeks aan processoren die Intel in de Haswell lijn wist te stompen heeft geen enkele OEM wat, die komen gerust toe met 3 modelletjes. Dus genoeg ruimte en kans om een goede cpu te maken voor desktops ipv een die slechter is maar o zo zuinig (want ja, dat hebben we echt nodig in een krachtige desktop, zuinigheid! dat je die paar euro besparing allang weer kwijt bent in de aanschaf van de hardware wordt gewoon massaal genegeerd).

Als je al kijkt naar de groep gebruikers die de unlocked cpu's koopt, de markt voor aftermarket koelers (wat absoluut niet nodig is voor de gemiddelde consument en zelfs de gemiddelde gamer), waterkoeling, het hele benchmark gedoe, dan is er zeker wel een markt voor high performance cpu's. Nu koopt het gros ook al een Intel omdat die net iets beter presteert in sommige dingen dan de AMD equivalent. Aan dubbel de prijs. En dan denk jij dat diezelfde mensen niet graag een cpu hebben die zowaar 3 maal zo snel is?
Die markt is dan niet immens, maar ze bestaat wel. En AMD's FX lijn deed het zo slecht niet. De toplijn van Intel wordt niet gekocht voor de zuinigheid, maar performance. En voor het aantal uur dat een pc per dag echt hard draait, maakt het verschil in verbruik helemaal niets uit, al helemaal niet tegenover de performance die je ervoor terug krijgt.
En aangezien "iedereen" meent een editor te zijn en een megacpu nodig te hebben zou zo'n cpu als zoete broodjes over de toonbank gaan.

Overigens zijn in mobiele toestellen de schermen nog altijd de grote batterijverbruikers. Je haalt uiteraard wel wat winst met je zuinigere cpu's, maar betere batterij (/tech) is -imo- een betere oplossing.

Je server argument lijkt ook weer uit een of andere hoed getoverd. Server cpu's zijn al altijd duurder geweest, als die kunnen verdubbelen, kunnen consumenten cpu's dat net zo goed. Consumenten desktop cpu's welteverstaan. Die hoeven immers niet zo zuinig te zijn want je steekt er geen duizenden op 1 locatie (in tegenstelling tot een datacenter, waar je zo'n server cpu's veel tegenkomt en zowel stroom als koeling van vrij groot belang zijn).
Er zijn wel 150W chips met 3x Haswell performance, Ivy Bridge-EX.
Als je even benchmarks opzoekt dan zie je dat die in veel gevallen nog geen 10% rapper is, soms zelfs trager, en NOOIT 100% rapper is, laat staan 3x rapper. Kom zeg. En dat kost dan nog eens 1000$ ook.
Intel heeft net de Ivy Bridge-EX uitgebracht, die ruim 2x zo snel is als zijn voorganger
2x zo snel is zeldzaam hoor, in welke test was dat precies?
Vergeet niet dat de snelste serverchip "maar" de 10-core Westmere-EX was, tov de huidige 15-core Ivy Bridge met hogere klok (Intel heeft Sandy Bridge bij de serverchips overgeslagen). De transistor count is ook bijna 2x zo hoog (2.6 naar 4.2B), QPI is naar 8 GT/s gegaan, RAM naar 1600 MHz, meer cache ook - als je alleen al puur naar de basics vande chip kijkt (ruim 60% meer transistors op 30% hogere klok) is er m.i. weinig reden om aan de nummers van de server vendors te twijfelen.

[Reactie gewijzigd door Dreamvoid op 21 juni 2014 11:39]

Anderzijds: ze presteren lichtjes beter met significant minder stroomverbruik.

Als je zou aanvaarden dat een Haswell evenveel verbruikt als een Core2 of een Nehalemn zou je wel degelijk spectaculaire verschillen zien.

Alleen: waarom zou je? Voor consumenten is zowat elke processor snel genoeg tegenwoordig.
...
Alleen: waarom zou je? Voor consumenten is zowat elke processor snel genoeg tegenwoordig.
Ze zijn nog steeds te snel.
Het grootste deel van de wereldbevolking gebruikt een pc om te internetten, tekstverwerken en media. De eerste twee heb je praktisch geen CPU-kracht voor nodig, media kan prima worden afgewerkt door de gpu.
Het mooie is dat de gpu ook nog eens bepaalde taken veel makkelijker en efficiŽnter kan afwerken. Indien beide aanwezig zijn dan kun je daar ook goed gebruik van maken voor bijvoorbeeld encoderen van filmpjes, uitpakken van bestanden en nog meer intensievere taken die relatief simpel zijn maar waarvoor je wel net dat beetje extra modo hebt om er sneller af te werken. En de kleine gpu'tjes van vandaag verbruiken praktisch niets en zijn gruwelijk snel.

Zelf haal ik altijd de consoles aan, door de vaste omgevingsvariabelen ben je verplicht om het maximale uit de console te halen. Apple komt daar ook redelijk in de buurt omdat ze maar met weinig hardware rekening hoeft te houden. MS en Android is nog altijd de vraag in hoeverre de software en hardware op elkaar zijn afgestemd.
ze presteren lichtjes beter met significant minder stroomverbruik.
Dat is inderdaad wel zo.
Als je zou aanvaarden dat een Haswell evenveel verbruikt als een Core2 of een Nehalemn zou je wel degelijk spectaculaire verschillen zien.
Ik weet het niet. Ongetwijfeld zal het sneller zijn, maar spectaculair durf ik te betwijfelen. Performance gaat in zijn geheel niet linear met (toegestaan) power verbruik omhoog. Een klein beetje extra performance kost je op een gegeven moment relatief steeds meer power. Vanaf een gegeven moment is het eigenlijk niet meer te doen.
Als een FPU unit niet gebruikt wordt, zet een beetje slim powermanagement circuit dat deel toch uit? Tis vooral zonde van het dure transistorbudget. Als er in een peperdure 4-miljard-transistors Xeon maar een paar miljoen gebruikt worden voor jouw specifieke algoritme, dan heb je idd de verkeerde chip te pakken :)

[Reactie gewijzigd door Dreamvoid op 16 juni 2014 23:19]

Ja vaak wordt het FPU path geclockgate of powergate en vaak wordt het ook gebruikt voor integer operaties. Zoals NEON extensies op een ARM.
Neemt niet weg dat dedicated hardware vaak efficienter is.
Dit is de toekomst??! Zo was het in het verleden ook al hoor :-)
Mja mooie techniek en goed nieuws voor MS. Lijkt me trouwens ook wel dat ze deze techniek breder uit kunnen rollen. Bij een Google kan ik het nog begrijpen dat ze hun zoekmethode beveiligen, maar ik zie MS dit wel doorverkopen of bedrijven de mogelijkheid bieden om Bing uit te breiden (bv binnen een bedrijfsnetwerk). Lijkt me interessant om te zien wat dit voor verbeteringen kan brengen.
Ik begrijp niet goed waarom ze FPGA's gebruiken. Het hele punt van FPGA's is dat ze herprogrammeerbaar zijn, het zijn field-programmable gate arrays. ASICs lijken mij hiervoor veel meer geschikt.
Je geeft het antwoord deels zelf al: ze zijn herprogrammeerbaar. Als en ASIC eenmaal gebakken is, kan je er niks meer aan veranderen. Hoogstens andere software/settings aanbieden.
Met FPGA's kan je vrij eenvoudig functionele wijzigingen doorvoeren in het ontwerp, dus je hebt maximale flexibiliteit. Combineer dat met de voordelen van massieve parallelle operaties.
Vind het een erg interessante casus overigens. Je ziet FPGA's steeds meer gebruikt worden voor allerlei toepassingen :)

* Thedr programmeert in het dagelijks leven FPGA's en is erg blij met deze ontwikkelingen aangezien er steeds minder mensen zijn die dat kunnen }>

edit:
@lesderid

Natuurlijk zijn ASICs met hetzelfde ontwerp een stuk sneller/efficienter/combinatie van deze. Maar om dingen te testen, zoals hier gebeurd is, zijn FPGAs een stuk makkelijker.
Voor specifieke algoritmen kunnen FPGA's overigens al gigantisch veel voordeel opleveren ten opzichte van CPUs/GPUs, met name ook qua energieverbruik.
Bedenk daarnaast dat ASICs pas in heel grote oplage voordeliger worden. Onder andere de kosten om een masker te maken lopen al snel in de tonnen.
Als je dan regelmatig een update wilt doen aan je ontwerp blijft er maar ťťn keus over...
Daarnaast kan je de FPGAs ook (al dan niet tijdelijk) voor compleet andere doeleinden (algoritmen) inzetten.

Mocht je (bijvoorbeeld bij je experimenten) tegen vragen/problemen aanlopen dan mag je me altijd DM'en

[Reactie gewijzigd door Thedr op 16 juni 2014 23:12]

FPGA's hebben hier zeker voordelen, maar als ze hier net op overstappen voor performantieredenen zijn ASICs gewoonlijk toch nog altijd iets sneller. Verder lijkt het al op een vrij grote schaal getest te zijn, dus veel wijzigingen zouden ze niet moeten doorvoeren, tenzij ze op relatief korte termijn echt heel de architectuur zouden willen vervangen i.p.v. enkele waardes te tweaken, dan zijn FPGA's natuurlijk meer geschikt.

Off-topic: Ik heb zelf een FPGA board gekregen van een vriendelijke reddituser een tijdje geleden, maar heb nog niet veel tijd gehad om ermee te experimenteren. Hopelijk komt daar snel verandering in, want ik heb er wel zin in!

[Reactie gewijzigd door lesderid op 16 juni 2014 22:58]

ASICs zijn theoretisch inderdaad sneller dan een FPGA, maar niet in het geval van Microsoft. Stel je voor dat BitCoins overstapt naar een ander algoritme voor het berekenen van blocks hashes. Dan zijn in 1 klap al je ASIC processors waardeloos want je kunt ze niet veranderen. FGPA's hebben dat nadeel niet, want je kunt een nieuwe module inladen en vervolgens kun je weer verder.

ASICs kunnen maar 1 task uitvoeren, maar kunnen dat wel het meest optimaal omdat de processors alleen de instructies bevat om die task uit te voeren.

De laatste zin van het artikel geeft al aan waarom Microsoft weinig aan ASICs zou hebben. De code (algoritmes) veranderd elke week en dat gaat simpelweg niet samen met ASICs..
Je verkijkt je erop hoevaak een zoekmachine algoritme wordt bijgewerkt. Google doet dat bijvoorbeeld 40 keer per dag. Meestal zijn het tweaks in de marge maar de middelgrote en grote update's komen ook regelmatig voor (aantal keer per jaar).
Misschien omdat ze het zoek algorithm dan kunnen aanpassen en veranderen? Naar mijn weten zijn ASICs niet her-programeerbaar.. Dus dan zit je met een statische code; en de ontwikkelen op zoekmachine gebied (machine learning etc) gaan redelijk snel.. Dus ASICs lijken mij dus helemaal niet geschikt...
Het ligt eraan hoeveel vrijheid je wilt hebben. Je kan in een ASIC ook prima herprogrammeerbaarheid inbouwen. Maar hij zal nooit zo flexibel worden als een FPGA (immers anders had je net zo goed een FPGA kunnen inkopen). Op termijn als het allemaal goed loopt kunnen ze vast overstappen op ASICs, maar tot die tijd is flexibiliteit waarschijnlijk een stuk belangrijker. En het kan een stuk sneller met FPGAs, als je nu je ASIC naar de fab stuurt duurt het nog wel even voordat die terug is.

Ik kan me overigens wel voorstellen dat er CPUs gaan komen die geoptimaliseerd zijn voor zoekmachine werkzaamheden. Met alle databases die er tegenwoordig zijn en waar in gezocht moet worden lijkt me dat geen vreemde ontwikkeling.
Het ligt voor de hand dat zelfs Microsoft, als grote partij niet de meest flexibele, af en toe graag zijn algoritmen wil updaten aan nieuwe inzichten, al was het maar om bepaalde waarden te tweaken.

Dan is het best handig dat je geen order van ettelijke duizenden stuks hoeft te plaatsen, maar gewoon een update kunt doorvoeren.

Ook handig voor het uitvoeren van tests in een situatie die zoveel als mogelijk lijkt op de productieomgeving.
Om bepaalde waarden te tweaken heb je geen FPGA nodig. Dan kan een ASIC met een register ook wel. Een FPGA is nodig om hele algoritmes te kunnen wijzigen.

Aan de andere kant is het wijzigen van een Machine Learning algoritme van bijvoorbeeld Support Vector Machine naar een neuraal netwerk zo dramatisch dat je't niet red met een FPGA ontwerp. Dit is eigenlijk voor het tweaken van een vast algoritme, bijvoorbeeld door het aantal parameters van een algoritme uit te breiden.
Volgens mij gaan ze die mogelijkheid ook benutten. In het artikel staat:

"Microsoft verwacht door de aanpassing in zijn datacenters de chips net zo vaak te kunnen updaten als het doet met de software achter de Bing-zoekmachine. Burger zegt dat het niet ongebruikelijk is om wekelijks een chipupdate uit te rollen."

Aangezien ik er van uit ga dat ze niet wekelijks alle chips hardwarematig gaan vervangen, gok ik dat ze op die programmeerbaarheid doelen.

In het nieuwsbericht hierboven staat dat de chips het 40% sneller kunnen dan de Xeon's, echter in het bronartikel staat 40 keer sneller. Dat is nogal een verschil :+

"The FPGAs are 40 times faster than a CPU at processing Bing’s custom algorithms, Berger says. That doesn’t mean Bing will be 40 times faster–some of the work is still done by those Xeon CPUs–but Microsoft believes the overall system will be twice as fast as Bing’s existing system. "

[Reactie gewijzigd door Sjekster op 16 juni 2014 23:04]

ASIC = application-specific integrated circuit Dus niet meer aan te passen als het op een chip zit. Dus als je iets wilt aanpassen dan moet je hele nieuwe chip laten maken.
FPGA's aanpassen is een kwestie van flashen.
Wat ik me wel afvraag is hoe zuinig dit is, snelle FPGA's vreten ook een hoop stroom.
Leuke pilot met 1600 servers. Ik kom momenteel met een pilot project niet verder dan 1 server :O
Maar toch, beter als niets.

Ben benieuwd naar de resultaten bij Bing, al verwacht ik niet dat de klant er echt wat van merkt.
2x snellere zoekresultaten merk je echt wel?
Hoe dan? Ik doe net even een testje op bing.com en zoek op "world cup". De resultaten staan er in een flits, en zijn menselijk gezien niet te meten, alleen met een tool.

Alhoewel sneller natuurlijk meegenomen is, voelt het nu al als "instant" aan, en qua gevoelswaarde kan sneller dan instant niet.
Kijk vooral naar het voordeel voor MS. Snellere resultaten = meer queries per server = minder servers nodig. Zeker met getallen als 40% en de hoeveelheid hardware die MS nodig heeft hebben we het al snel over leuke bedragen.
Er zijn natuurlijk meer dingen die voor snellere resultaten zoeken. Misschien kost het nu bv ook minder data, dus is het ook sneller via mobiel internet. Maar je hebt gelijk, het is nu al een stuk beter dan pak em beet 3 jaar terug.
misschien vinden ze meer of gepastere resultaten omdat ze nu het dubbele van de huidige (versplinterde) index kunnen doorzoeken! :)
Of mss zelfs betere (snellere) indexering :)
En laat nou net iedereen zoeken op world cup. Ik snap ook niet waarom... Die resultaten zullen allang in cache staan. Probeer eens iets specifieker te zoeken met quotes en weet ik veel hoe Bing precies werkt. Het zal nog steeds snel zijn vanwege de capaciteit, maar als ze hierdoor minder snel servers hoeven bij te plaatsen heb je een leuk verdien moddel. En daar draait het om bij dit soort projecten.
Je krijgt niet twee keer zo snel je zoekresultaten. Je krijgt je zoekresultaten in dezelfde tijd, maar er zit twee keer zoveel rekenwerk achter.

Gezien de kwaliteit van hun zoekresultaten buiten de VS, kan Bing dit ook goed gebruiken.
Vergeet niet dat er veel dingen zijn die met bing werken ... Cortana, Facebook, zoekmachines, ...
Inderdaad. Als ik het goed heb begrepen wordt Bing zo ongeveer het hart van de Personal Assistant variant van Microsoft. Ook is het de planning om het steeds dieper in Windows te integreren. Het is dus te verwachten dat Bing in de toekomst veel meer vragen te verwerken krijgt en daar ook steeds intelligenter mee zal om moeten gaan. Dus hoe sneller hoe beter.

Ik neem aan dat Google niet anders doet.
Inderdaad. Het probleem nu is, is dat veel mensen Bing onderschatten. Veel hebben van horen zeggen dat ... En dan maar kweiken dat het slecht is, terwijl ze nog nooit Bing hebben gebruikt. Jawel, 1 keertje, en dat was tegengevallen omdat Google van hun zoekresultaten geleerd heeft en dus ongeveer wist wat de gebruiker bedoelde, terwijl Bing de gebruiker niet kent en dus niet weet waar de gebruiker in geinteresseerd is. Dus totaal nutteloze argumenten om Bing af te kraken
Wat heeft dat nu te maken met totaal irrelevante results weergeven en simpelweg de beste resultaten een heel stuk lager te plaatsen? Dat heeft helemaal niets met de gebruiker of zijn interesses te maken en ligt puur aan de search engine (werking+bronnen). Over nutteloze argumenten gesproken zeg... al is het bij jou om het ophevelen van Bing te doen.
Nuja, dat was ook al een jaar of zo geleden, op een pc waar ik voordien nog niet opgezeten had, niet op ingelogd ben (algemene pc user, op geen enkele site ingelogd) en dus geen geschiedenis of vorige queries waar een search engine ook maar iets relevants van geleerd zou kunnen hebben en toch kwam Google met relevantere resultaten.
Hetzelfde probleem bij duckduckgo trouwens, en een extreem goede reden om het niet te gebruiken. Want als je daar niet vindt wat je zoekt maar elders wel, is er absoluut geen reden om bij de inferieure resultaten te blijven plakken.

Overigens is Google er voor mij de laatste jaren ook op achteruit gegaan, zou aan hun aanpassing van zoektermen liggen waardoor spaties gebruiken een slecht idee zou zijn. Of zo heb ik mij toch laten vertellen, ik ga echt niet proberen overal een "+" ipv een spatie te typen.
Maar zolang ik bij Google vind wat ik zocht, zie ik geen reden om naar een ander te gaan, en al helemaal niet naar Microsoft.
Als hun Azure platform en Xbox live servers (jammer genoeg gebruikt Titanfall deze... waardoor ik de laatste zoveel keer ik het opgestart heb niet eens kon spelen omdat MS eruit lag, leuk) een voorbeeld zijn van kunnen, neen bedankt.

Anderzijds hoor je laatste tijd toch wel dat Bing een stuk verbeterd is en een waardig alternatief. Maar, zoals eerder gezegd, ik heb nog geen nood aan een andere search engine.

Trouwens, tenzij je op een heeeel beperkt aantal onderwerpen zoekt, gaat geen hoeveelheid aan kennis over de gebruiker ervoor zorgen dat een volledig willekeurige searchquery een beter resultaat geeft. Google gaat aan de hand van mijn zoekgeschiedenis en gelijk welke andere data ze van mij verzameld hebben een beter zoekresultaat geven wanneer ik iets over auto's opzoek (want dat doe ik zo goed als nooit). Dus hoe je dat als een argument kunt aanvoeren...
Je wilt ook dat je resultaten op je query gebaseerd zijn, niet op je geschiedenis. Daar helpt Google iig mee door wat meer suggesties te geven bij je query. Ik neem aan dat Bing iets gelijkaardigs doet. En dat heeft niets met je geschiedenis te maken maar met populaire queries.

Misschien kun je eens duidelijk aantonen hoe een search engine je relevantere resultaten kan geven bij een willekeurige searchquery door je geschiedenis te kennen?
Je moet schrijver worden, boeken krijg je wel volgeschreven. (hint: Je reactie is vťťl te lang waardoor je belangeijksre onderwerp verloren gaat)

Daarnaast is het niet mijn doel om Bing op te hevelen, maar simpelweg het te laten erkennen ipv het af te laten kraken door mensen die het nog nooit gebruikt hebben. Ik was Google beu geworden eigenlijk, en Bing gaf mij nu niet direct de nodige resultaten. Nu , enkele maanden later werkt dat gewoon zodat mijn antwoorden op de eerste plaats komen. Het lijkt alsof Bing bijgeleerd heeft. Maar ik gebruik verschillende engines om vrschillende soorten antwoorden te krijgen.
Als mensen te lui zijn om te lezen moeten ze maar TV kijken, is perfect voor hun.

Je geeft ook geen antwoord op mijn laatste vraag, die in vet, je weet wel, op het laatste van mijn post, vlak boven "Reageren".
je zal het verschil ook niet merken, de pilot draaide al, dat waren 1600 servers. Nu gaan ze het invoeren en schakelen er 32 servers bij. dat is op het geheel nauwlijks verschil
Lijkt me wel een leuke ontwikkeling. Ieder groot bedrijf moet research doen, en ook al worden niet alle projecten een succes, je zult maar net dat ene briljante idee vinden.
Beginnen met een pilot van 1600 servers om uiteindelijk een netwerk van 1632 servers te bouwen? Dat is wat je noemt.... een voorzichtig begin ;)
Dit komt door een onduidelijke vertaling. In het oorspronkelijke artikel staat dat dezelfde 1600 servers uit de pilot nu gebruikt gaan worden in een live situatie. Mogelijk met een gewijzigde configuratie, maar dat is niet op te maken uit het bronartikel.
Ik vraag me wel af welk OS er nu op dit platform gebruikt wordt.
Is dit 'gewoon' Windows met daarop een aangepaste engine, of is er sprake van een specifiek ontwikkeld besturingssysteem?
Waarschijnlijk gewoon een Windows Server variant? De zoekmachine engine zal ws gewoon een distributed applicatie zijn, ik zie niet 123 een reden om zo'n zoekalgoritme diep in het OS te integreren.
De kans is groot dat er een windows versie op draait. Of toch zeker iets dat op NT draait, en dat gebeurt op de xeons. Enkel de algoritmen voor de FPGA's draaien dan op de FPGA's. Daar zit niet echt een probleem, het is bij normale computers immers ook heel normaal dat je OS op de x86 chip draait en bepaalde algoritmen op een andere chip (GPU).
Gemist in het vertaalde artikel is de reden waarom Microsoft en de andere zoekmachineleveranciers op zoek zijn naar alternatieven voor de huidige processoren: namelijk dat er een trendbreuk is in de jaarlijkse stijging van processorsnelheid.

Processorfabrikanten ontwikkelen niet meer alleen snellere maar ook zuiniger processoren; dat zijn twee ontwikkelingen die elkaar bijten. Bij toepassing van de nieuwe ontwikkelde productie-technologiŽn met kleinere structuren kan men de keuze maken om te gaan voor snelheid, energiebesparing of een combinatie van beide. Nu voor de meeste computers snelheid niet echt meer een beperkende factor is wordt zuinigheid een steeds belangrijker verkoopargument.

In het bronartikel staat dat bijvoorbeeld Google en Facebook ARM processoren aan het testen zijn.

FPGAs kunnen heel veel sneller zijn dan generieke processoren. Ik denk bijvoorbeeld aan een simpele schakeling als een Content-addressable memory (CAM). Dit is een zeer efficiŽnte zoektabel waarbij de hardware in 1 instructie alle matches vindt.
namelijk dat er een trendbreuk is in de jaarlijkse stijging van processorsnelheid.
Is die er zo? Als ik de laatste Intel, IBM en Oracle cpu's bekijk, zit er nog steeds een behoorlijk groeitempo in. Ivy Bridge-EX is ruim 2x sneller dan voorganger Westmere-EX, SPARC T5 is bijna 2x sneller dan T4, Power 7+ bijna 2x sneller dan Power7.

Wat eerder de reden zal zijn is dat FPGA's veel efficienter met hun transistors om gaan als het gaat om deze specifieke algoritmes, en veel makkelijker te herprogrammeren zijn. Intel bakt niet elke week een nieuwe Xeon stepping met een Microsoft-specifieke "zoek unit" erin omdat Microsoft een zoekalgoritme heeft verbeterd.

[Reactie gewijzigd door Dreamvoid op 17 juni 2014 12:48]

Hier een paper over het project:

http://research.microsoft...01/Catapult_ISCA_2014.pdf

Elke server heeft een Xeon processor en een FPGA en alle FPGA's zitten weer in een netwerk met een torus topologie.
Bing is helemaal niet zo prut als de meeste mensen denken. Voor snelle dingen op te zoeken is het prima. Maar als je bijvoorbeeld een project voor school moet maken is Google een stuk fijner. Ik heb een Windows Phone dus ik kom veel in aanraking met Bing.
Hij wordt op aantal vlakken al beter dan Google, niet zozeer dat Bing beter wordt, maar Google loopt langszaam vol met reclame. Kom nu ook steeds vaker de betere resultaten tegen op Bing dan Google.
Dan begint nu dus eigenlijk echt de wedstrijd. Als Google af en toe achterop begint te raken. Ik vraag me alleen wel af wanneer de massa dan voor Bing gaat kiezen. Ik vind Bing translator ook beter dan Google translate. En het geeft veel meer overzicht.
<offtopic>dreamhack cs:go finale begint misschien leuk om even te kijken (eventjes bingen) </offtopic>
mss een mooie taak voor de EG om net als een browser-selectie-scherm bij Microsoft besturingssystemen, ook een keuzescherm voor zoekmachines te introduceren bij alle besturingssystemen. De bijna monopolist Google, die niemand kwaad wil doen, zou toch een groot voorstander hiervoor moeten zijn.
Ook in Chrome OS deze optie maar aanbieden dan?
Alleen is er niets dat je tegenhoud om naar een andere zoekmachine te surfen en deze als default in te stellen in je browser. IE had als groot probleem dat het als synoniem werd aanzien voor het internet. Van google is men zich gelukkig wel bewust dat dit een website is en dat de kans dus groot is dat er alternatieven zijn. Mensen met een default Windows (en IE) komen bijvoorbeeld al de eerste keer op de msn site en kunnen daar direct via bing zoeken.
Overheden moeten zich vooral onthouden van verdere inmenging want telkens als een overheid zich laat gelden op IT-vlak staan ze voor aap.

Dankzij Europa staat Microsoft nog altijd bekend als een monopolistische griezel omdat ze het gewaagd hadden hun browser mee te leveren en de burgers als te achterlijk werden beschouwd om een andere browser te kunnen downloaden. Maar als je een smartphone met Android koopt, dan staat daar verplicht een hele zooi Google-apps op inclusief een browser en dit kan de overheid niet schelen.

Om maar te zwijgen van het recht om vergeten te worden voor pedofielen en criminelen (althans voor werkgevers die niet verder kijken dan Google search) en de ettelijke "blokkages" van TPB door de Belgische overheid die met veel tomtom werden aangekondigd en toen mensen gewoon het IP-adres intikten stond de gerechtelijke tak erbij als een koe die naar een trein kijkt.
Zolang dat de massa geen reden vind om van search engine te veranderen, ze dat ook niet snel zullen doen. Om naar bing over te schakelen zullen ze deze eerst al een kans moeten geven. En wanneer ze hun sites nog vinden via google is er geen reden om van deze gewoonte af te stappen.
Ik denk dat het tweezijdig is. Voor velen die Google wel personaliseren, bieden de zoekresultaten ook betere items. Vooral ook omdat de engine dus leert wat jij fijne resultaten vindt. Die achterstand moet Bing dus ook snel(ler) inlopen.

Verder zal het best kunnen keren als mensen Google te vol met reclame vinden, te opdringerig van hun diensten en mogelijk te duur (voor het afnemen van extra diensten).

Ik heb zelf lang een WP toestel gehad en in het begin vond ik het wel eens irritant als ik de zoekknop aanraakte, maar op den duur waren de resultaten helemaal niet verkeerd en vooral het laatste jaar is het eigenlijk best prima. Wel is het zo dat hij in landen als de VS een stuk beter is dan in NL en er ook meer functionaliteiten bij hangen.

Toch gebruik ik nu nog vooral Google, al zou ik zo kunnen switchen.
Wordt gewoon door de strot van de massa gedouwd. In de metro interface van Internet Explorer kun je bv de standaard search engine gewoon niet wijzigen.

[Reactie gewijzigd door HakanX op 17 juni 2014 02:24]

Gelukkig is Google zo netjes dat ze dat niet doen :?

Het zijn beide bedrijven en beiden willen ze maar 1 ding en dat is niet in eerste instantie een utopia van de wereld te maken.

Ieder bedrijf wil zijn/haar ding de massa door de strot te duwen. Als we dan toch een voorbeeld moeten aanhalen van een bedrijf die dat tot vervelennds toe probeert, noem dan Apple (Jammer dat ze erg mooi spul weten te maken, maar man wat beperk als je iets buiten de visie van Apple wilt).
En Apple wordt er weer bij de haren bijgesleept 8)7
Ubisoft dan, of EA, of Valve, of de gemiddelde verzekeraar Wat jij wilt. Je mist het punt.

Het gaat er om dat alle bedrijven graag allesbeheersend willen zijn en zien graag dat iedereen hun idealen als de juiste zien.
Alle bedrijven?
Nee, een klein bedrijfje in GalliŽ ... :)

Ik ben het er zeker mee eens dat de meeste bedrijven zich alleen laten leiden door winstmaximering, maar er zijn beslist uitzonderingen (al zul je die meestal vinden bij kleine en middelgrote bedrijven).

Mijn punt was dat het lijkt of in zo'n beetje elke discussie van welk item dan ook Apple opduikt.
Als je in de Desktop Interface van Internet Explorer de zoekmachine op Google zet, verandert dat bij mij ook in de Metro Interface en kan ik ook in de Metro Interface zoeken met google vanaf de adresbalk.
Klopt. In mijn geval had ik een user ingesteld met toegang tot alleen Internet Explorer op de HTPC (aardig handig trouwens, het is mij nog niet gelukt eruit te breken) en dan lukt het dus niet omdat je alleen de metro interface hebt. Je moet eerst de gebruiker volledige rechten geven via de desktop de instellingen aanpassen en daarna pas de toegang beperken tot IE alleen. Dit is natuurlijk met opzet gedaan. En ja elk bedrijf doet het voor de mensen die denken dat het als een flame bedoelt was, dit was puur een reactie op '4bit' die zich afvroeg waarom mensen zullen overstappen.
Heeft Google misschien zelf gezocht? Yahoo is niet al te populair om de optie te geven, en Google, ja die blokkeren altijd de YouTube app voor Windows Phone (terwijl er zoveel varianten zijn die ze niet blokkeren, pesterijen van Google ?), dus waarom zouden ze dan Google als optie geven als searchengine. Ik denk dat Microsoft daarnaast de privacy van de gebruikers probeert te beschermen door Google niet aan te bieden ;)
Yahoo is powered by Bing :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True