Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Philips verkoopt zijn spraakherkenningstak

Door , 37 reacties

Philips heeft bekendgemaakt dat het zijn spraakherkenningstak van de hand doet. De technologie wordt overgenomen door de investeringsgroep Invest AG. Het is vooralsnog onduidelijk wat de nieuwe eigenaren met de technologie willen.

De beide bedrijven hebben niet bekendgemaakt wat het overnamebedrag is. Philips wil van zijn Speech Processing-tak af wegens een reorganisatie. De in Wenen gevestigde bedrijfstak gebruikte de technologie voornamelijk voor digitale spraakrecorders en was bij Philips onderdeel van de Lifestyle Entertainment-afdeling.

Het is onduidelijk wat Invest AG van plan is met Speech Processing, dat in 1954 is opgericht en 170 mensen werk verschaft. Het was al langer duidelijk dat Philips zich minder wilde bezighouden met spraaktechnologie; in 2008 zou dezelfde spraakherkenningstak worden verkocht aan Nuance, maar omdat de overname aanvankelijk niet werd goedgekeurd door de Amerikaanse autoriteiten, gingen de bedrijven in plaats daarvan een samenwerkingsverband aan.

Speech Processing-technologie ondersteunt veel verschillende talen en wordt gebruikt in duizenden instellingen in Europa, onder andere in de Benelux. Het gaat daarbij voornamelijk om medische instellingen. Er zijn zowel mobiele als vaste digitale spraakrecorders beschikbaar en daarnaast is de technologie beschikbaar als accessoire voor smartphones.

Door Bauke Schievink

Admin Mobile / Nieuwsposter

15-05-2012 • 16:36

37 Linkedin Google+

Reacties (37)

Wijzig sortering
Ze hebben bij Philips ontdekt dat Siri van Apple beter werkt?
Het is waarschijnlijker dat er technologie van Philips in Siri verwerkt zit, vermits Nuance een samenwerking met Philips heeft en Apple op zijn beurt de technologie van Nuance gebruikt voor Siri.
Ik denk meer dat Philips ziet dat het nu veel kan opbrengen omdat spraakherkenning hip is. Apple heeft met Siri wel een erg goed werkend systeem op de markt gezet (als in: de spraakherkenning werkt best goed, wat je er vervolgens mee kunt vind ik nog altijd vrij beperkt). Misschien dat andere bedrijven nu ook geïnteresseerd zijn in deze technologie? Goed moment om de boel te verkopen dan...

[Reactie gewijzigd door Grrrrrene op 15 mei 2012 16:42]

Zoals je hieronder kan lezen gebruikt Siri deze technologie al. Waarschijnlijker is het gewoon de strategie die Philips alweer een tijdje volgt. Het resultaat van deze deal zal zijn dat ze een eeuwig durende licentie krijgen, geen risico lopen (dmv bijv R&D), geen operationele kosten meer hebben en een leuk pak geld in de zak krijgen. Deze strategie volgen ze nu al jaren en het blijkt vooralsnog te werken. Al heeft het zeker niet mijn voorkeur en denk ik dat we Philips over 10/20 jaar alleen nog maar in ziekenhuizen en lampen tegenkomen. Al zie je nu welke producten Philips nog zelf doet is dat echt schrikbarend. Eerst hebben ze natuurlijk de fabricage geoutsourced (gebeurd al jaren) en tegenwoordig zijn ze steeds meer takken in licentie weg aan het geven (bekend zijn de TV's maar ik kan nog meer voorbeelden geven)
Het nadeel van die strategie is dat ze weliswaar een licentie overhouden, maar dat er voor verderontwikkeling en implementatiekennis op een gegeven moment weer een nieuwe staf moet worden aangetrokken, of dat de kennis gewoon stil blijft staan danwel niet meer goed kan meekomen met nieuwe ontwikkelingen. Het sterke punt bij Philips was vroeger juist dat R&D en productie naast elkaar zaten en er veel werd uitgewisseld. Dat wordt haast per definitie minder als je één van de twee (of allebei) uitbesteedt.

Voor de achtergrond: In Oostenrijk bouwde men vanouds dingen als bandrecorders en dicteerapparaten, maar er zat ook een afdeling van professionele geluidsapparatuur, er werden videorecorders gebouwd en ontwikkeld, en tekstverwerkers (de beroemde videowriter bijvoorbeeld). Een aantal van die activiteiten gaat uitstekend samen met spraakherkenning.

[Reactie gewijzigd door mae-t.net op 17 mei 2012 15:41]

Mee eens! Ik ben hier ook helemaal niet zo voor
Ik denk meer dat Philips ziet dat het nu veel kan opbrengen omdat spraakherkenning hip is. [...]
Dat vraag ik met af. Ze hebben carin, auto navigatie, achteraf gezien, denk ik ook veel te vroeg verkocht ...
Spraak slaat net een beetje aan, het komt net.

Andere insteek: het commercialiseren, lees een flink marktaandeel behalen, is niet het sterkste punt van Philips de laatste jaren, bij consumenten electronica. In dat opzicht is het misschien beter het te verkopen. Maar jammer is dit laatste wel.
Misschien zien ze in dat spraakgestuurde toepassingen op dit moment voor een boel werkgebieden nog totaal niet interessant zijn. Beter iets van de hand doen dat op korte termijn nog niets op levert, dan er onnodig geld in blijven stoppen. Zeker in het huidige economische klimaat.
Philips Speech Processing is al sinds 1954 bezig, "op korte termijn" is dus niet echt aan de orde :)

Het werkt prima waar het voor bedoeld is, kijk naar het uitwerken van medische verslagen wat al jaren hiermee werkt maar ook nu naar Siri, waarbij de speech engine is ingekocht en niet zelf is ontwikkeld.
Het idee achter Siri is beter.

Philips bouwt zelf de herkenningspatronen. Apple heeft met Siri een zelf-lerend systeem gebouwd dat door de gigantische hoeveelheid mensen die ervan gebruik (kunnen) maken vanzelf een stuk beter werkt dat wat je ook in een lab in elkaar kunt zetten (gebaseerd op de zelfde kennis).

Je kunt het vergelijken met zelf een vreemde taal te leren door te kijken naar TV in een vreemde taal. Als je een week kijkt, begrijp je wellicht een paar woordjes na die week. Kijk je 10 jaar aan materiaal, dan zul je veel meer begrijpen.
Dat is niet waar gebaseerde op dezelfde data kan een machine learning algoritme hetzelfde resultaat hebben, maar vaker presteert het minder dan de zelfontworpen algoritme.
Daarnaast is een zelfontworpen algoritme (net als een door ML geleerde) ook ontworpen naar echte data. Er wordt dan alleen zelf naar de data gekeken, de data zelf geïnterpreteerd en zelf een algoritme bij verzonnen ipv dat een ML algoritme dat statistisch probeert te bepalen.

Overigens denk ik zelf dat Philips net als elke ander bedrijf dat er onderzoek naar doet ook gewoon ML algoritmes gebruikt om het uiteindelijke algoritme te bepalen. Zelf een algoritme ontwerpen om spraak te kunnen herkennen is eigenlijk, denk ik, onbegonnen werk al is het wel mogelijk.

[Reactie gewijzigd door Caelorum op 15 mei 2012 17:36]

Yeah right, ze zijn sinds 1954 bezig, met ik neem aan mensen die academisch geschoold zijn, dan zal apple in een paar jaar de boel verbeteren, klinkt erg geloofwaardig.

Denk toch dat siri meer voor de consument is, zeg maar het huis, tuin en keuken gebruik en dat deze software voor professionals is, vooral als ik lees dat het in de medische wereld wordt gebruikt.
Misschien dat siri dat niveau ooit zal halen, maar je maakt mij niet wijs dat het al zover is.
Apple is erg vaardig in het combineren en implementeren van elders uitgezochte technieken. Als ze slim zijn kopen ze dus steeds het beste in dat haalbaar/nodig is voor de gebruikers die ze op het oog hebben. Dat scheelt een hele hoop op R&D-gebied maar het zal inderdaad lastig worden om de resultaten van 60 jaar onderzoek op hoog niveau te evenaren zonder er zelf gebruik van te maken. Volgens drib83 is dat dan ook het geval, ik heb het zelf niet uitgezocht verder.

[Reactie gewijzigd door mae-t.net op 15 mei 2012 23:15]

Zouden ze soms een paar patenten hebben waar je mooi mee kan trollen?
Zou me niets verbazen. Mogelijk ook wat licenties op hun technologie of patenten.
Er zijn nogal wat onderdelen bij spraakherkenning. Philips is er al decennia lang mee bezig en heeft wel redelijke goede resultaten gehaald. Echter Dragon speech recognition is altijd superieur geweest.

Met name onafhankelijke spraakherkenning (man of vrouw in 1 bepaalde taal) is altijd een te zware noot gebleken om te kraken. Ondanks dat de processorkracht (dat was het idee vroeger als we maar meer kunnen analyseren dan lukt het wel) factoren sneller zijn geworden in de afgelopen decennia.
fijn al die claims. Ik heb met allemaal onderhandeld. Ze prijzen zich allemaal eigenlijk gewoon uit de markt. Veel te duur allemaal.

Aan wat spelletjes zou ik graag 1 van deze producten wille ntoevoegen. Dus dat is dan alleen nuttig voor dat spelletje. Neemt verder geen sales weg.

Zo iets ligt voor paar tientjes in de supermarkt.

Dus licentieprijzen die oplopen PER DVD van rond de 150 euro, op een product wat een tientje opbrengt, dat is ronduit belachelijk.

Dit was de status al 10 jaar geleden van al deze producten. Sindsdien hebben ze nauwelijks progressie geboekt maar zijn nog wel evenduur.

Als ze dat van een paar doktoren weten los te peuteren, tenslotte met een gemiddeld inkomen van rond de 150k-200k euro per jaar, valt daar wel wat aan te verdienen. Maar dan nog, voor het grote publiek is het hoegenaamd NUTTELOOS al deze producten. Gewoon wegens een TE HOGE prijs.
Apart, want Siri maakt gewoon gebruik van de technologie van Philips (bron). Nuance werkte nml samen met Philips aan spraakherkenning en leverde de techniek voor Siri. Als je nu neerbuigend probeert te doen over Philips en hun spraakherkenningstechnieken, zit je dus goed fout.

Sowieso is een techneut van Philips helemaal niet bezig met allerhande afnemers van hun techniek.
Dat hoeft ook niet. Siri gebruikt zeer waarschijnlijk onder water technologie van Nuance. Technologie die voortborduurd op oa. technieken die door Philips zijn uitgevonden.

Overigens doet Google Translator afaik niet aan spraakherkenning, maar aan vertalen van teksten. Ik denk dan ook niet dat die opmerking in het kader van spraakherkenning is gemaakt.
Blijkbaar doet google translator dat tegenwoordig wel :S

[Reactie gewijzigd door Caelorum op 15 mei 2012 19:53]

Op de high-tech campus weten ze waarschijnlijk inderdaad soms niet wat andere researchafdelingen doen, dus dat verklaart jouw ervaring prima.
Verbaast me niets. Philips is al 20 jaar bezig om zichzelf stukje bij beetje te verkopen :'(
Wel erg jammer voor de medische sectie van Philips. Ze probeerden zo sterk in te zetten op de medische apparatuur en het viel me op, als co-assistent, dat als je al de MRI en CT-scanner van Philips hebt staan de logische vervolgstap ligt bij de dicteerapparatuur. Deze vind je dan ook bij veel computers van met name de radiologen. Omgekeerd kun je met zoiets ook binnen komen. Zo gooien ze toch een mooi deel van hun nameplacing in de medische sector overboord...
is er nog iets over van philips eigenlijk? lees alleen maar dat ze takken afstoten en verkopen of uitbesteden..
Medische systemen, licht, nog steeds heel veel consumentenproducten. Het is nog altijd 1 van de grootste NL bedrijven, zowel qua omzet als qua productportfolio.
Het was al langer duidelijk dat Philips zich minder wilde bezighouden met spraaktechnologie; in 2008 zou dezelfde spraakherkenningstak worden verkocht aan Nuance, maar omdat de overname aanvankelijk niet werd goedgekeurd door de Amerikaanse autoriteiten, gingen de bedrijven in plaats daarvan een samenwerkingsverband aan.
hmmm waarom heeft amerikaanse overheid het overname afgekeurd??? dat vind ik wel raar, want een Duitse (of eigenlijk Zwitserse) technologie wordt aan amerika verkocht. Amerikanen zijn "verzamelaars" van technologieen... Of heb ik iets gemist???
Hoe duur? Ik koop het!!!
Ik vind het wel heel kortzichting als je denkt dat op deze afdeling van Philips 170 man alleen maar met het spraakherkenningsalgoritme bezig zijn. Zie ook het filmpje voor een tipje van de sluier wat ze nog meer zouden kunnen doen daar. Zou me niet verbazen als de koffiejuf\secretaresse ook worden meegeteld; het artikel rept in ieder geval over mensen die door deze afdeling een baan hebben, niet wat ze doen.
Met betrekking tot de ANN researcher, heb je de naam van die vogel nog? Ik vind ANN namelijk een interessant onderwerp en heb in het verleden al verschillende varianten geimplementeerd alhoewel dan niet op het gebied van spraak.
Weet niet of het handig is om in forums over namen te beginnen.

Inderdaad is het zo dat er veel mensen door overheidslieden vaak met dit soort onzin beziggehouden worden, zonder iets voor elkaar te boksen. De core van zulke producten is vaak edoch gebaseerd op het werk van 1 persoon. Dat 'onderhouden' is simpel werk natuurlijk.

De laatste paar jaar in de A.I. en aanliggende gebieden hieraan is de progressie enorm. Alles met ANN wat heel goed werkt, daar hoor je meestal niks over. Het is niet specifiek ANN's die progressie maken maar met name de parameter tuning in het algemeen; waar in jaren 90 het nog vrij knullig was, is nu toch de overtuiging daar, dat vanalles wat de mens zelf voor elkaar krijgt, te bouwen valt ook op binaire manier, als je maar genoeg alles plattest.

Dus niet knullig zoals in de pharmaceutische wereld al bij alfa = 0.05 een medicijn toelaten, want dat is dus omgerekend 95% kans dat iets zou werken en zeg maar een 200 tal figuren waarbij het zogenaamd moet werken dan. Die crap komt echt uit jaren 50. de overheid gebruikt dat helaas nog, wat enorm mis gaat bij psychologische medicijnen, waar alles alleen op korte termijn getest wordt en maar bij een 200 tal personen meestal, terwijl er voor miljarden per medicijn verkocht wordt. Logisch dan ook dat bijvoorbeeld de laatste ADHD medicijnen voor kinderen erg lijken op synthetische cocaine en natuurlijk ook alle nare eigenschappen van cocaine hebben.

Dat loopt heel ver achter bij wat nu in de A.I. gangbaar is.

In de A.I. wat overtuigend lijkt te winnen nu zit meer op 99.99% zekerheid. Dat zijn een heleboel decimalen, maar hetgeen op DIE manier getest is, dat haalt daar stevig uit.

We praten dan niet over 1 gebiedje maar vele gebieden.

Hier is enorme CPU kracht voor nodig. Zelf probeer ik het over te zetten naar GPU's waar dat kan. Het zijn wiskundig vrij complexe operaties en waar ik er vrijelijk over vertel en weinig te verbergen heb, vergis je er niet in, dat in de meeste gevallen dit soort onderzoek in bunkers diep onder de grond gebeurt.

Ik heb nog geen investeerder in de terminator chip, om een voorbeeld te geven - investeerders vinden voor enige vorm van onderzoek die resulteert in concrete producten in Europa is bijna onmogelijk hier.

Het is ronduit triest om te zien dat iedereen die iets kan uit bittere armoe vertrekt uit Europa op dit gebied, daar men gewoon niet WIL investeren hier.

Iedereen is tenslotte gelijk en kan evenveel...

Waar veel ideeen op dit vlak dus geboren worden in Europa, gaat Noord-Amerika en Azie er in toenemende mate vaker mee vandoor.

Men wil hier gewoon NIET investeren. De overheid domineert te veel hier.
Het is dus vaak enig giswerk om te zien hoe men bepaalde producten heeft weten te fabriceren buiten Europa. Het lijkt er sterk op dat je begint met een enorme supercomputer en vandaaruit alles platrekent en plattest.

ANN's of parameter tuning in generieke zin op grond van patronen, dat maakt dan niet uit.

Dit is heel wat anders dan de 'early 90s' waar het meeste ANN werk nog behoorlijk pioneerwerk was. zo herinner ik me een Deense onderzoeker die probeerde mijn patroonkennis te verslaan. Dat met een ANN van enige tonnen (zo niet meer). Maar in die tijd was het plattesten natuurlijk nog niet echt ontdekt en ook hoegenaamd onmogelijk (niet genoeg cpu power).

De grote supercomputers die zijn pas vrij recent ontstaan.

[Reactie gewijzigd door hardwareaddict op 15 mei 2012 20:40]

Ik weet dat het testen van medicijnen (en deze op de markt brengen) tegenwoordig aan jarenlange (en meerdere) onderzoeken wordt onderworpen voordat ook maar mag worden begonnen met het testen op mensen. Er zijn 4 fasen mbt het testen op mensen in de evaluatie van geneesmiddelen, waarbij de enkele honderden aan proefpersonen die je noemt fase 1 is; deze heeft als doel te achterhalen over er overduidelijke bijwerkingen zijn. Meer mensen is in dit geval dan ook niet nodig. In fase 1 worden trouwens gezonde vrijwilligers gebruikt, dus het doel is hier dan ook niet de werkbaarheid van het middel maar eventuele toxicologische effecten\andere bijwerkingen.
Vroeger ging dit inderdaad een stuk 'nonchalanter' wat een aantal nare middelen op heeft geleverd met als meest bekende voorbeeld (in Nederland althans) Softenon. Je kunt er tegenwoordig vanuit gaan dat je 15 jaar verder bent vanaf de vondst van een stof waarvan je denkt dat deze inzetbaar is als medicijn totdat je het op de markt brengt, waarbij als kanttekening moet worden geplaatst dat verreweg de meerderheid van de stoffen nooit het daglicht zal aanschouwen. Vanwege dit alles kost het ook vele miljarden voordat een middel op de markt komt.

ontopic:
Met betrekking tot de naam van de onderzoeker. Je hebt mijn interesse gewekt en ik was benieuwd naar de naam van de onderzoeker zodat ik eventueel wat papers van het wereldwijde web kan plukken.

Het is inderdaad verstandig om de GPU te gebruiken waar mogelijk omdat deze zich veel beter leent dan de CPU. Ook zijn de algoritmen voor het bv. evolueren van neurale netwerken veel beter geworden de laatste jaren. De in de tussentijd toegenomen processorkracht helpt natuurlijk ook ontzettend mee. Een implementatie waar ik gecharmeerd van ben (en die ik uitgebreid gerefactored\geoptimaliseerd heb) is NEAT (http://nn.cs.utexas.edu/?neat). Broncode is ook beschikbaar in een aantal talen. Wellicht dat ik mijn eigen code als fork ga vrijgeven op het moment dat deze nog wat meer opgepoetst is.

[Reactie gewijzigd door pauluss86 op 15 mei 2012 21:01]

Jij praat over de politieke toelatingsfases met name.

De fase van bewijzen dat je medicijn werkt, van de 3 fases, is gebaseerd op alfa=0.05 wat ongeveer 200 invidivuen zijn waarop het werkt en dan nog wel de KORTE termijn.

Die fase is echt jaren 50.

1 / (wortel 200)

Dan kom je al snel op die alfa van 95% zekerheid uit.

Dat is echt compleet jaren 50 en totaal achterhaald, met name voor psychologische medicijnen. Alleen totale willekeur is nog erger.

Deze manier van testen is zo ongelooflijk achterhaald, dat ik er bijna geen woorde nvoor heb.

Dan staat daar tegenover een bedrijf die miljarden met maar 1 medicijn kan gaan verdienen en dat alles gebaseerd op 200 gevallen waarin het medicijn werkte. Logisch dat ze in sommige gevallen nu gewoon pure cocaine nabouwen. Dat werkt natuurlijk altijd op korte termijn!

Dat is genoeg om door die fase heen te komen.

Alle andere fases zijn bla bla fases. Veel lobbywerk en vast heel lastig, maar wetenschappelijk gesproken maakt dat de zaak er niet beter op. Want komt gewoon door de testfase heen met alfa = 0.05 wat betekent hooguit 5% onzekerheid, of te wel 95% zekerheid. Dat zijn 2 standaarddeviaties. Middelbaar school rekenwerk laat zien dat dit 200 gevallen zijn en als je dan toelatingsrapporten leest klopt dat ook.

In de A.I. zijn we veel verder dan dit GEPRUTS.

Daar wordt voor vele verschllende toepassingen het kaf van het koren gescheiden op grond van enorme supercomputers die alles compleet maar dan ook compleet platrekenen. De alfa daarvan is eerder rond de 0.0001 dan de totaal niet toereikende 0.05 die de pharmaceutische wereld gebruikt.

Maar nogmaals - overheidsregels. Het lobbywerk van de 3 fases is veel meer werk dan de toelatingseis van een medicijn.

Lobbywerk, al zou je dat in 30 fases verspreid over 50 jaar doen, dan nog wordt een medicijn daar niet beter van als de eis alfa=0.05 is, wat gewoon voor de 21e eeuw een lachwerkende norm is.

[Reactie gewijzigd door hardwareaddict op 15 mei 2012 21:15]

Dit gaat behoorlijk offtopic, maar wat je beschrijft is nogal alu-hoedje compleet uit de lucht gegrepen tenzij je met enige bronnen kan komen. Er vindt natuurlijk niet 1 onderzoek a 200 man plaats. Het klopt wel dat de onderzoeksduur beperkt is, maar anders kan je een nieuw middel nooit in dezelfde generatie nog uitbrengen. Hiernaast: je kan rekenen wat je wil, maar daarmee ga je een bijwerking die 1 op de 50 miljoen keer optreedt niet mee vinden tenzij deze al in je rekenmodel zit en dan is testen op mensen volledig overbodig geworden nietwaar? De zeer zeldzame bijwerkingen worden per definitie pas later gevonden als het middel miljoenen keren gebruikt is. Om een statistisch verschil met een alpha van 0.0001 te vinden heb je heel veel samples nodig. Dit is geen probleem in de AI waarbij je sample een reeks getallen is, wel als je sample een mens is.

Waar het mij eigenlijk omgaat: de naam van de onderzoeker (als die persoon bestaat). Mocht hij inderdaad zo geniaal zijn, dan ben ik benieuwd naar artikelen van de beste man\vrouw.

[Reactie gewijzigd door pauluss86 op 15 mei 2012 21:29]

het gaat hier om de kern van de moderne samenleving. namelijk het testen.

alpha = 0.05 is niet uit de lucht gregrepen. Als je iets van statistiek zou weten, dan zou je direct weten dat alpha al op de 0.05 (95% zekerheid) komt vanaf rond de 200 personen.

Om de error te vinden dien je te delen door de wortel van de samplegrootte.

Want 1 / wortel(200) = 0.07

Wiskundig een hard bewijs dus.

Toelatingsonderzoeken v an medicijnen staan regelmatig online. Google eens wat zelf en neem eens wat zelfinitiatief ipv anderen altijd aan 't lijntje te houden. Maar ik verzeker je, ik heb er een aantal onderzocht en allemaal hadden ze precies dit probleem. In 1950 was het heel wat als iets 95% zekerheid biedt, maar dat is natuurlijk compleet achterhaald in de 21e eeuw.

Het probleem is voor veel meer gebieden.

a) dit probleem heb ik al aan personen voorgelegd die adviezen voor de gezondheidsraad schrijven. Een ander voorbeeld is het Zwitsers onderzoekje je je,
om te verklaren dat UMTS veilig is. Dit is gebruikt door de regering om UMTS in Nederland veilig te verklaren en toe te staan.

Dit ging letterlijk over 24 uur dat onderzoek. Er werd rond de 200 proefpersonene een mobieltje in de handen gedrukt en gevraagd na 24 uur: "heb je er last van?".

Alsof je in 24 uur alles kunt bepalen, terwijl het bij EMF juist over de kans op kanker gaat op LANGE termijn en bovendien bij UMTS de echte evil zijn natuurlijk de zendstationnen, die wil je niet dicht in de buurt hebben natuurlijk van waar je leeft. Het onderzoek nam die niet in overweging natuurlijk, want ze zouden anders iets hebben kunnen meten...

Ook daar betreft het net iets boven de 200 personen waardoor ze met wat goochelwerk alpha net op 0.05 wisten te krijgen.

Toen ik dit voorlegde aan deze persoon die op DIT vlak advies geeft voor gezondheidsraad, vond hij het een prima onderzoek,want alles was goed beschreven zo vond hij dat het maar 24 uur was en t.a.v. de zendstations, het stond ergens in 1 zinnetje in het rapport dat die niet meegenomen werden!

Kijk, zo gaat het.

En nee je verborgen argument dat bij de A.I. waar het om veel minder geld gaat dat het simpeler is om die alpha te halen is vaak niet waar. De testhardware is niet zelden duurder dan mogelijke winst uit zo'n product en de tijd die het kost om het uit te voeren is er vaak niet, in tegenstelling tot de pharmaceutische wereld waar alles al jaren kost ueberhaupt en waar het om zo schofterig veel winst per product gaat, dat dit simpeltjes daarvan betaald kan worden.

Overigens is dit nog een argument voor de EU, want Nederland is veel te klein om ueberhaupt toelatingseisen te stellen; als iets in USA toegestaan wordt dan vrijwel automatisch ook in Nederland. Wat papieren eisen zijn er, maar dat zijn feitelijk hamerstukken.

Dit is ook het argument dat je continue terugkerend overal hoort: "Nederland is te klein om dit te doen en Nederland is te klein om dat te doen".

Oh ja over spraakherkenning. In 20e eeuw was dat luxe natuurlijk.
Maar nu wordt het overal serieus natuurlijk en wordt het dus ook serieus geld.

Nederland is te klein om succesvolle producten te hebben.
Dat is de harde waarheid.

Alles wat goed is en NU nuttig is, dat wordt toch altijd al weggekocht uit Nederland joh...

[Reactie gewijzigd door hardwareaddict op 16 mei 2012 08:04]

Zoveel woorden wederom en weer geen antwoord. Laatste poging want dit leidt blijkbaar nergens toe.
alpha = 0.05 is niet uit de lucht gregrepen. Als je iets van statistiek zou weten, dan zou je direct weten dat alpha al op de 0.05 (95% zekerheid) komt vanaf rond de 200 personen.
Als je zelf zou weten waar je het over hebt dan weet je dat het afhankelijk is van de opzet van het onderzoek en de vraag die je probeert te beantwoorden hoeveel samples je nodig hebt, ook al blijft de alpha op 0.05; zie ook: http://en.wikipedia.org/wiki/Statistical_power. Als je significant een verschil tussen twee groepen wilt aantonen waarbij beide groepen een kleine standaarddeviatie hebben qua meting, dan is het makkelijker om significantie te krijgen dan als beide groepen een grote standaarddeviatie hebben, all other things being equal.
Google eens wat zelf en neem eens wat zelfinitiatief ipv anderen altijd aan 't lijntje te houden.
Google gebruik ik dagelijks maar bedankt voor de tip, op welke manier hou ik mensen aan het lijntje precies?
En nee je verborgen argument dat bij de A.I. waar het om veel minder geld gaat dat het simpeler is om die alpha te halen is vaak niet waar.
Dat is niet mijn punt! Hoe moeilijk kan lezen zijn. Probeer jij eens 12 miljard samples (in de vorm van mensen) bij elkaar te schrapen voor een medicijnonderzoek, dat lukt je simpelweg niet omdat er niet zoveel mensen zijn. Voor AI is dit probleem er minder aanwezig: data != mens. Trainingdata is makkelijker te verkrijgen dan mensen over het algemeen (afhankelijk van het probleem natuurlijk). Dit geldt zeker als je trainingdata kunt genereren... Mensen genereren kan ook maar dat gaat niet zo vlot, je bent minimaal 9 maanden verder voordat je er 1 bij hebt. Mocht je meer meer mensen nodig hebben dan 7 miljard (aangenomen dat iedereen meewerkt) dan ben je ~9 maanden verder. Een nieuwe volwassene? Dat kost dat je 18 jaar en 9 maanden... snap je het punt nu?

Laatste poging: wat is de naam van de onderzoeker? Of kan ik concluderen dat die persoon een hersenspinsel van je is.
Als het gaat om betere parametertuning, zij het mbv ANN's of zij het door harde parameter tuning an sich - daar moet je heel goed in de gaten houden dat elk experiment aan die alfa = 0.0001 moet voldoen.

dus daarmee kun je bijna alles wat op het internet staat overboord gooien. Wat werkt en in 21e eeuw is ontwikkeld, dat staat niet online.

De key is edoch niet zozeer welk algoritme je gebruikt, maar de zekerheid dat *elke* test die je doet 99.99% zekerheid geeft dat je conclusie correct is of A beter is danwel B.

Continue doorevalueren werkt dus niet zo best - dat is jaren 90 nog.

Je moet dus in relatief weinig experimenten iets weten te detecteren - iets wat bijna geen algoritme dat je kent gaat lukken natuurlijk - dus zelf iets brouwen is altijd handiger daar.

Vergis je ook niet in de zinsverbanden. Een crimineel gaat nooit zeggen: "kom we gaan bank XYZ beroven". Alles wordt indirect gezegd. Alles gaat 'in code' min of meer. Komt bij dat ze elke paar dagen weer een ander mobieltje hebben.Voor de grotere bedrijven vormt dit overigens geen probleem. Die hebben gewoon hele database met alle geluiden.

Soms combineer je zo iets met de gezichtsuitdrukkingen. Dat is een database met een 100k verschillende patronen. Valt gewoon te koop, als je maar genoeg dokt.

Maar het praten 'in code' is altijd het probleem en zal dat blijven.

Naast de enorme classificatieproblemen zit je dus met een heel ander probleem daar.

Nauwkeurige parameter tuning is echter de key om alles goed te doen, want dat maakt de patroonclassificatie makkelijker en nauwkeuriger.

Het is dus van cruciaal belang dat elk patroon goed is.

[Reactie gewijzigd door hardwareaddict op 15 mei 2012 21:29]

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*