×

Help Tweakers weer winnen!

Tweakers is dit jaar weer genomineerd voor beste nieuwssite, beste prijsvergelijker en beste community! Laten we ervoor zorgen dat heel Nederland weet dat Tweakers de beste website is. Stem op Tweakers en maak kans op mooie prijzen!

Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Huawei onhult Kirin 970-soc met 'ai-chip'

Door , 50 reacties, submitter: AMD and INTEL

Huawei heeft bekendgemaakt dat het zijn nieuwe smartphones Mate 10 en Mate 10 Pro in oktober officieel zal onthullen. Het bedrijf liet daarbij ook weten dat er gebruikgemaakt wordt van de nieuwe Kirin 970-soc, die functies voor kunstmatige intelligentie zou bevatten.

Dat liet Huawei-topman Richard Yu weten in een presentatie op de IFA-beurs, zo tekent persbureau Reuters op. Volgens Yu krijgen de twee nieuwe smartphones de zelfontwikkelde Kirin 970-soc, die slimme algoritmes aan boord heeft. Huawei zelf beschrijft dat als real time artificial intelligence, waarmee de soc onder andere op slimme wijze taken en geheugen kan verdelen, graphics kan renderen en cameraplaatjes kan verwerken.

Dat doet de Kirin 970 met de zogenaamde neural processing unit, ofwel npu. Volgens Huawei kan deze chip door de slimme software taken uitvoeren waar normaal gesproken meerdere chips voor nodig zijn. Dat moet ook een compacter design mogelijk maken.

Tijdens zijn presentatie beloofde Yu dat de nieuwe Kirin 970-soc betere prestaties biedt dan de producten van Apple en Samsung, zonder daarbij specifieke modellen te noemen. Ook zou de accuduur verbeteringen tot 50 procent geven, maar wederom werd er geen referentiemodel genoemd. Omdat benchmarks ontbreken, kunnen de claims van Huawei dus nog niet worden gevalideerd.

Yu liet, op de Kirin 970-soc na, weinig los over de hardware die gebruikt wordt voor de Mate 10 en Mate 10 Pro. Waarschijnlijk volgt dat tijdens de officiële onthulling, die Huawei op 16 oktober heeft gepland. Volgens geruchten krijgen beide toestellen een scherm met zeer dunne randen. De Mate 10 krijgt vermoedelijk 64GB opslagruimte, 6GB ram, draait op Android 7.0 en zal voorzien worden van een accu met een capaciteit van 4000mAh.

Door Bauke Schievink

Admin Mobile / Nieuwsposter

03-09-2017 • 11:43

50 Linkedin Google+

Submitter: AMD and INTEL

Reacties (50)

Wijzig sortering
Na turbo, cloud en nog wat modetermen is nu ineens alles AI. Is AI het nieuwe magische marketing woord om zaken aan de man te brengen ?
Je hebt wel gelijk dat sommige mensen die eigenlijk niet weten waar ze het over hebben dit soort termen gebruiken voor marketing om mee te liften, maar achter de schermen zijn er mensen en grote bedrijven die daadwerkelijk weten waar ze mee bezig zijn. Ik weet niet wat je bedoelt met "turbo" als een marketingterm maar cloud heeft echt wel een verandering gebracht in hoe we online diensten gebruiken. Zo zijn er veel "merketing termen" die voor een verschuiving zorgen in de industrie dus is het ook logisch dat de industrie hierop gaat focussen.

AI is al een tijdje opkomst, denk aan Siri, Google Now en Samsung S Voice maar ook augmented reality, fotogalerij en sowieso de dood gewone huis, tuin en keuken on-device text search. We zijn nu op een punt aangekomen dat als je onderscheidt wil maken met je apparaten en diensten en je wil de gebruiker een betere ervaring geven dat je wel moet kijken naar dingen als AI. Dan is het niet meer als logisch dat de industrie zich hierop gaat focussen.

Het is natuurlijk weer even wachten hoe dit zich gaat uitspelen, wat de toppers en wat de floppers gaan worden maar op dn duur zal dit de standaard worden. Dat bedrijven hun onderscheidende factor aankondigen en hier een punt van maken is ook niks anders als normaal. Dat jij dit als storend ervaart, is jammer maar wen er maar vast aan want AI is de grote focus van de industrie op dit moment.
Turbo, voor jou tijd maar werd veel gebruik producten om snel aan te geven.
Ai net als cloud een heel breed begrip dus hup plak het ergens op noem het optimaliseren en je hebt ai.
Turbo wordt vandaag de dag nog steeds gebruikt om een hogere trap aan te geven. AllWinner noemt het Extremity Frequency, Broadcom noemt het Turbo, Intel/AMD/nVidia noemen het boost clock. Dat Turbo knopje van vreuger had trouwens wel degelijk een nut en was niet zomaar een buzzword.

https://www.youtube.com/watch?v=p2q02Bxtqds

Cloud is een gedistribueerd cluster welke via een transparante laag diensten aanbiedt. Het gaat dan niet meer om de hard- of software maar om de diensten, de rest zal je een worst wezen.

AI is een proces welke data kan waarnemen en zelf acties kan ondernemen om de uitkomst van zijn taak te maximaliseren.

Wat nog meer?

P.S. Ik zou voorzichtig zijn met allerlei claims op internet, zeker als je de tegenpartij niet kent. Ervan uitgaande dat 1970 je geboortejaar is, dan kom je er niet maat.

[Reactie gewijzigd door SizzLorr op 3 september 2017 23:20]

Prima uitleg en als dat zo in marketing gebruikt zou worden perfect. Realiteit is alleen heel anders en termen plakt men overal op.

Maar om te zeiken. Een turbo is feitelijk een apparaat in je auto die lucht comprimeert en met een hogere druk inspuit in je motor. Met hogere snelheid in pc heeft het feitelijk niets te maken. Je schrijft ook wel de juist naam boost.
Een turbo geeft idd ook een boost maar niet iedere boost komt van een turbo. Bij een cpu is het een stroomboost of verhoging van de kloksnelheid (niets met turbo en lucht te maken).

wikipedia zegt ook het volgende:
Turbo is een uitdrukking uit de jaren 80 van de 20e eeuw. Rondom de uitdrukking "turbo" hing een gevoel van snelheid, moderniteit, technologie en vooruitgang.

Deze uitdrukking vindt haar oorsprong in de turbocompressor waarmee rond dat tijdstip een aantal snelle en populaire auto's uitgerust werden. Door het succes van deze auto's was in de jaren 80 alles "turbo": zo heette het destijds moderne taalgebruik turbotaal, zo waren automodellen plots "turbo", speelgoed verkocht beter als er "turbo" op stond en de auto (KITT) in de populaire serie Knight Rider uit 1982 had een turbo boost.

Andere uitdrukkingen met "turbo" zijn:

De turbocompressor zorgt ervoor dat de lucht onder druk een motor in komt, zodat de motor meer vermogen levert.
Turbo's, beursjargon sinds 2005; nieuwe beleggingssoort waarbij een daling of een stijging van de onderliggende waarde versneld wordt weergegeven, waardoor er een hoger rendement behaald kan worden.
Een aantal programmeertalen van de firma Borland, waarvan Turbo Pascal de meest populaire was.
De film New Kids Turbo uit 2010.
Oh je bedoelt het cultureel fenomeen "turbotaal". Dat een hele grote groep jongeren zich identificeren met dat fenomeen en dat bedrijven dan via marketing deze groep aan wil spreken via de "taal der jeugd" is niks anders al normaal. Jan Kuitenbrouwer heeft specifiek over dit onderwerp een boek geschreven (genaamd Turbotaal), ik kan het je aanraden. Voor de rest, wat heeft dit met computertechniek te maken?

Het is helemaal niet zo moeilijk om uit te leggen, ik denk dat jij het gewoon niet snapt en dat extrapoleert naar de rest van wereld.

[Reactie gewijzigd door SizzLorr op 4 september 2017 10:15]

Ik snap het heel goed, het heet marketing en daarbij is het gebruik van termen om iets te bereiken heel normaal. Dat die termen vaak kant nog wal raken maar populair zijn in een doelgroep is de reden dat ze gebruikt worden, marketing dus.

Wist alleen niet dat ai nu ook al de taal der jeugd is.

[Reactie gewijzigd door bbob1970 op 4 september 2017 10:34]

Dit gaat niet meer over het onderwerp maar over jouw eigen mening en geloven. Buiten dat, lees het boek maar eens, je maakt er een kip/ei verhaal van maar in dit geval was het fenomeen er eerst en de marketing volgde. Vooralsnog, wat heeft dit met computertechniek te maken?

[Reactie gewijzigd door SizzLorr op 4 september 2017 10:37]

Cloud is toch niet zo breed? Gewoon een cluster dat niet van jou zelf is. Prima afgebakend begrip net als 'big data' (zoveel data dat het niet hanteerbaar is op de ’grootste' 'losse' computer die tot beschikking staat). AI is een categorie vager, net als IoT (apparaatjes met sensoren en netwerkverbinding?) maar verliest ruim van 'Industrie 4.0'. Veel buzzwoorden zijn met een simpele definitie makkelijk doorheen te prikken. Als heel de Hannover Messe volstaat met verkoopblaat over 'big data' is het vaak al genoeg om dat maatpak naar de definitie te vragen van de buzz die hij verkoopt.
Idd, ik herinner me die tijd ook nog, ik was nog jong (ben van '82) maar als kind stond de term 'turbo' nagenoeg overal op, het stond op m'n pa z'n grasmachine, op de helft van m'n speelgoed, op m'n fiets, op m'n ma haar Volvo 480ES die weliswaar een turbo(tje) had maar nog steeds niet vooruit te branden was... Je zag het bij veel wagens zelfs vaak in het groot, vet en in knallende kleuren op de zijkant en/of de achterruit staan alsof het iets wereldschokkends was.

Jaren later is men op veel dingen "Turbo" beginnen vervangen door "Elite" of "Pro" Die laatste zijn wat blijven hangen blijkbaar. ;)
Bij wagens is het nu gelukkig -op een paar uitzonderingen na- heel wat discreter geworden met een simpele aanduiding van de motortechniek en eventueel cilinderinhoud op het kofferdeksel.

[Reactie gewijzigd door EagleEye1290 op 4 september 2017 14:01]

Om de zoveel jaar krijgen we een nieuwe marketing term. Wie kent er niet al die programmas met een XP of .Net in de naam van 15 jaar geleden bijvoorbeeld. De megapixelrace op cameras of de megahertz race op CPUs. Fiber verwerken in de naam van internet abbonementen ondanks dat de 'last mile' helemaal geen glasvezel is.
Ik vind het apart dat ze er nu zo'n marketing van maken alsof AI al "vast" staat wat het precies inhoudt. Volgens mij is het nog altijd een collectie van allerlei technieken en vele technieken die nog onbekend zijn. Namelijk vele zaken betreft onze hersens zijn nog onbekend.

AI nemen ze veel te makkelijk in de mond omdat ze ťťn klein deel van het AI spectrum gebruiken, is het ineens volledig AI?

Als het gewoon hardware is dat beter Neural Networks (op laag niveau) kan versnellen ok. Maar zelfs Neural Networks zijn er in 100 en 1 smaken. De neural networks op een Von Neumann Architectuur werken niet eens goed zoals onze hersens. En een GPU is ook maar een kleine tussenstap.

Wat mij betreft is het gewoon een stukje hardware op de SoC die zorgt voor snellere en efficientere patroon herkenning wat wel weer handig is voor vele zaken. Net zoals een pheriperals dat je vind in Microcontrollers.

Niet zo heel spannend, want als je dan een applicatie maakt moet die waarschijnlijk een zeer specifieke api aanroepen welke alleen op deze telefoon werkt. Misschien leuk voor applicaties die gemaakt zijn door Huawei zelf zoals de video camera of betere gezichtsherkenning bij het unlocken van de telefoon.

Voor de rest is het opgeklopte slagroom.
Ik ben nu toch benieuwd hoe je onze hersenen in een abstracte manier ziet.

Want in essentie functioneert het als;
- Patroon herkenning
- Lerend vermogen
- Beslissingen nemen aan de hand van data (even als andere hoger niveau taken)
- Reguleren van spieren, bloedvaten en dergelijke (ofwel lager niveau taken)

In wezen is artificiŽle intelligentie dus niet meer als een emulatie van ťťn of meerdere van bovenstaande functies. Dus in wezen zou je dit wel artificiŽle intelligentie kunnen noemen, door het "slimme" gebruik van patronen in datastromen door de SoC. Gelijkwaardig aan technici die de flow aanpassen in een waternet om iets dergelijks te compenseren.

Al ben ik het wel met je eens dat marketing personen waarschijnlijk geen rekening houden met zulke feiten en observaties en veelal uit hun nek lullen betreffende dit soort technologieŽn.
Een mogelijke zienswijze is dat 80% van de huidige AI-technologie niet de I verdient.

Korte uitleg:
-Geef een computer algemene regels (programma), dan beredeneert een computer vanuit het algemene programma naar het bijzondere enkele geval (input): Deductie. Bedacht sinds de jaren '40 (o.a. Plankalkul).

-Geef een programma zo veel mogelijk data van enkele bijzondere gevallen, dan kan deze soms naar het algemene redeneren door middel van statistische inferentie: Inductie. Hier geeft de mens een hypothese (foto is wel of geen kat, schaakzet X is de beste), de computer maakt aan de hand van data een model en zoekt uit of het zo is. 80% van de AI-hype valt hieronder. Dit is iedereen die bij falen van het model om meer data vraagt; veruit de meeste AI/big data bedrijven dus. Maar zit de intelligentie dan in het gemaakte model of aangeboden data?

-Bij intelligentie kan je naast heen en terug redeneren ook zijsprongen maken: Abductie. Dit is ook omgaan met missende of foute data en hypothesen bedenken. Meeste AI kan dit niet. Vraag maar aan de Big Blue schaakcomputer, de Alpha Go computer of de slimste kattenplaatjes-herkenner waarom een person naar de bus rent: Weten ze niet. Een kind van 5 wel. De computer weet immers niet eens wat een persoon is, wat rennen is of een bus. Laat staan het simpele verband. Is die AI dan 'intelligent'?

Voorbeeld: Bij tekst AI vertelt de programmeur vaak dat woorden gescheiden zijn met spaties. Terwijl een echt intelligent algoritme dat zelf uitvindt.
Als ik het goed begrijp is in jouw opinie een drie-tal concepten essentieel voor intelligentie. Namelijk; inductie, deductie en abductie.

Waarbij deductie het enige is wat een computer daadwerkelijk echt kan.

Persoonlijk vind ik inductie een heel moeilijk concept om te vertalen naar iets dat kwantificeerbaar is. Gezien dat mensen ook een model maken van de realiteit (al is het in ons geval meer het versterken van neuronen die samen iets relateren aan een bepaalde uitkomst). Dus in mijn optiek is met velden als machine learning en system identification (en al deze bijhorende velden) al wel een stap gezet richting een inductief vermogen van computers. Dus ja, persoonlijk vind ik het wel intelligentie want wij maken zelf ook een mentaal (en mogelijk fout) beeld/model welke recursief kan worden verbeterd (ofwel meer data is een beter begrip). Dus dan zouden wij ook niet intelligent zijn.

Abductie (en in hoe jij het omschrijft ook creativiteit) is bij mijn weten niet echt mogelijk. Behalve in sommige gevallen zoals wanneer je het aantal relevante features wilt afschatten (in systeem identificatie kan dat door te kijken naar de grootte van eigenwaarden in een Hankel matrix). Maar persoonlijk vind ik inductie en deductie de start van intelligentie. Creativiteit is een zeer moeilijk concept, en ik vraag me zeer af of het echt nuttig zal zijn.
In principe kan een computer alles simuleren. Dat lukt met natuurkundige experimenten zeer goed. Het is altijd de vraag tot en met welke nauwkeurigheid die simulatie gaat, maar oerknal, water, licht, het kan met zeer grote precisie als we maar genoeg rekenkracht kunnen inzetten.

Als een computer alles kan simuleren, is ook intelligentie simuleren mogelijk. Het is dus de vraag met welke nauwkeurigheid dit moet en hoeveel rekenkracht het dan kost.

De huidige neurale netwerken zijn bijzonder eenvoudig in vergelijking van met wat in onze hersenen gebeurt en toch kunnen we daarmee al heel veel voor elkaar krijgen. Betere kankerdetectie, het voorspellen van; -waar buien gaan vallen (dat kunnen de meeste weermensen niet eens), -verkeerstromen, -waar olie te vinden is, etc.

Is het momenteel hetzelfde als wat wij doen. Nou in lange mate niet. Daar hebben we en meer rekenkracht (voorspelling ligt momenteel rond 2050) en veel meer kennis van de preciese werking van de hersens nodig. Wordt AI dan het precies hetzelfde? Waarschijnlijk niet. Maar om nou creativiteit exclusief menselijk te maken ...
Extreem misleidend.

Elk kind van 5 wordt verteld dat woorden door witruimte worden gescheiden, en een tekst AI ook. Niet dat het nodig is - we hebben al AI's gezien die Space Invaders hebben leren spelen met alleen de ruwe onbewerkte pixels.

Missende data? Een moderne AI heeft ook daar geen probleem mee. Geen idee waarom je dat aanhaalt.

Een AI die niet weet waarom iemand naar de bus rent? Nee, natuurlijk weet een schaakcomputer dat niet. Een schaakcomputer kan niet eens dammen. Het ontgaat me compleet wat je met dit statement probeeert aan te tonen. Nog even los van het feit dat je niet eens kunt vragen aan een schaakcomputer waarom iemand naar de bus rent - de input van een schaakcomputer is een schaakbord.
De tekst is niet misleidend, U laat zich misleiden, u leest dingen die er niet staan. Er zijn systemen die zelf spaties kunnen leren en die dat niet doen, ik zeg niets over kinderen. Verder geef ik al aan dat er systemen zijn die niet met missende data kunnen omgaan en die dat wel kunnen. Missende data zijn zaken buiten het domein van de applicatie, de applicatie mist dan dus intuÔtie en begrip van de wereld. Dat is het voorbeeld met 'naar de bus rennen', als de schaak computer informatie mist over de bus weet hij daar niets over, zoals een Tesla extreme verkeerssituaties die deze niet eerder heeft gezien niet snapt. Iets met een aanhangwagen, de AI van Tesla mist intuÔtie.

Eea wordt uitgelegd door Monica Anderson in de bovenstaande link (video) of hier in tekst: https://medium.com/@gk_/a...ica-anderson-1fc5962b121c

Haar mening is dat er zonder intuÔtie geen intelligentie is; systemen die alleen werken als alle data er is zijn dus maar beperkt intelligent.
Na 3D tandpasta en HD wasmachines wacht ik nog steeds op de 4K waterkoker. :*)
Ik wil toch echte die 3d Turbo ai Cloudaangesloten UHD waterkoker, met ingebouwder luidspreker en siri aansturing.
Da's voor grote gezinnen, daar kan vier kilogram (=1 liter) water in 8-)
LOL. Daar kon je weleens gelijk in hebben. We moeten blijven consumeren. Waarom geen AI PCIe kaartje die je computer optimaliseerd voor elke taak en software? Die optimaliseert voor chipset, controllers, mobo, RAM, disks etcetera. Voor computers vanaf laten we zeggen 2012. Ben benieuwd wat daar uit zou komen. :)
Ik moet zeggen Huawai is goed bezig de laatste tijd, snelle telefoons uitbrengen voor een zeer schappelijke prijs!
Vraag me af hoe lang Samsung en Apple het nog gaan volhouden tegen de Chinese (staats)bedrijven. Het lijkt erop dat Europeanen vooralsnog zonder probleem Huawei en andere Chinese high Tech producten kopen. Vraag me af wanneer China (openlijk) met zijn oorlogen begint. Als het te laat is voor westerse bedrijven of op tijd voor ons...hoe onmenselijk dat ook klinkt.
Over niet al te lang zal productie door robots worden gedaan en is wat ver komt duurder door transportkosten en import heffingen. Vergis je niet dat het westen de 1e goedkope producten golf vanuit Japan al overleefd heeft. Ook in China is het nu al zo dat kleding importeren goedkoper is; in India stijgen de lonen nu ook hard waarmee het aantal goedkope arbeiders wereldwijd snel opdroogt.
Ik zag laatst nog dat juist China... Afrika gebruikt als "hun" China. Voornamelijk ging het over schoenen. De eigenaar zei dat Chinezen te duur werden en de schoenen goedkoper geproduceerd konden worden in Afrika en ze te exporteren naar China. :D Toen ik dat zag dacht ik... en na Afrika?

Dus straks komen onze fancy mobieltjes wel uit fabriken uit Africa opgezet door Foxconn? Ik heb het gevoel dat Chinezen meer voeten aan de grond krijgen in Afrika dan het westen.... Waarom weet ik niet.
Ik heb het gevoel dat Chinezen meer voeten aan de grond krijgen in Afrika dan het westen.... Waarom weet ik niet.
VOC-mentaliteit en geen koloniaal schuldgevoel: Lak aan ethiek, milieu, wereldverbetering, lokale bevolking en geen problemen om samen te werken met een schimmige regering /plaatselijke dictator.
Wat je nu in veel Afrikaanse landen ziet is dat er Chinezen naar toe komen om bijvoorbeeld snel een weg uit de grond te stampen tussen hun fabrieken. Een heel team, inclussief materieel gaat er heen, bouwt een weg en vertrekt weer. Mooi voor de locals is dat ze opeens een goede weg hebben die zij ook kunnen gebruiken, nadeel is dat de kennis over hoe het gedaan is ook meteen vertrekt.
De westerse aanpak is voornamelijk om iemand met kennis te sturen en lokaal mensen te vinden om mee te werken. Nadeel: het werk duurt langer (je moet o.a. mensen opleiden) maar het voordeel is dat de locale vervolgens deze kennis ook weer op andere plekken kunnen gebruiken.

Wellicht is dit ook meer een aanpak op productie gebied? Lokaal faciliteiten zoeken en opzetten tegenover alles invliegen en vooral gebruik maken van slechte regelgeving en goedkope contracten met lokale overheden?
China, en Chinese bedrijven, hebben al heel lang een dikke vinger in de Afrikaanse pap.
Hele havens worden aangelegd door Chinese firma's, met Chinees beton. Chinees staal, Chinese apparatuur
Van daaruit gaan Chinese treinen over de Chinese spoorwegen het achterland in. Om grondstoffen te delven, hakken enz. Om die weer naar China te vervoeren met Chinese schepen. De in China vervaardigde producten worden later weer aan Afrikanen verkocht. Zie Afrika maar als moderne kolonie van China.
Misschien heb je het financieel overleefd, maar kijk je naar bv patenten en naar wie de productielijnen van top to bottom bezit, dan ben ik niet zo zeker dat het van lange duur is. Misschien is er nog tijd om adequaat te reageren, maar getuige onze focus op idioten die het pluche belangrijker vinden dan het landsbelang, zie ik het somber in.
Robots kunnen de redding zijn wat betreft productie. Al is het nog altijd de vraag wat werknemers daarmee winnen. Op elk ander gebied verlies je denk ik nog altijd.
@benbi Samsung is Westers in die zin dat Z-Korea je niet vijandig gezind is. Het doet constructief mee aan de relaties onderling en wereldwijd. Dat is anders met China. Met hun lieve panda's houden ze ons nog even zoet. Ik vraag me af wanneer de nu nog onverklaarbare perceptie van China als good guy veranderd. Hun misdaden worden door de consument helaas beloond. Maar zal dit veranderen zodra hun militaire inzet zich uitbreidt? Op welk moment zal China zich veilig voelen ok dit te doen? Op het moment dat ze het Westen financieel en intellectueel in de tang hebben of maken ze een (eventueel noodgedwongen) fout en gaan ze te vroeg van start?
Samsung is niet westers. iPhones worden in China gemaakt. Een revolutie zou het juist zijn als we weer westerse producten zouden gaan gebruiken.
Wat Apple betreft, wordt het design, ontwerp van de chipset en het besturingssysteem in Amerika gedaan. Het is dus een Westers product dat in AziŽ, maar evenzeer ooit in BraziliŽ, gemaakt wordt.
Wat bedoel je daar dan precies mee? Qua prijzen stijgt het alleen maar. Arbeid wordt ook in China en India steeds duurder, omdat de know-how nu bij die arbeiders ligt. Doordat componenten steeds geavanceerder worden krijg je nu dat goedkope arbeiders echt wel veel kennis krijgen over hoe deze componenten in elkaar steken (vrij logisch aangezien ze daar voor betaald krijgen) en dat ze dit heel snel kunnen maken. Het kan dan wel lopende band werk zijn, maar iemand die vanaf het begin al heel snel kan werken levert nu eenmaal meer op dan iemand die motorisch minder vaardig is. Die combinatie van kennis en kunde en het feit dat er heel veel instanties op zitten (en dat grote techgiganten steeds meer op werkomstandigheden lijken te geven) zorgt ervoor dat het geheel gewoon steeds duurder wordt.

Je kunt in China nog steeds je iPhone in losse onderdelen kopen en hem zelf in elkaar zetten, maar heel veel goedkoper ben je dan niet uit. Het enige wat je dan uitspaard zijn arbeidskosten voor assemblage van het toestel (wat al door robots wordt gedaan) en verpakkings- en transportkosten. Heffingen mag je niet meerekenen aangezien je die in principe toch wel moet betalen als je de grens over gaat.
Je hebt al jaren bij elk artikel over Huawei wel een of twee keer commentaar dat "Huawei goed bezig is" of "telefoons voor een goede prijs uitbrengt", maar ik ken geen prijscategorie waar Huawei de beste telefoon in uitbrengt eigenlijk. Ondanks soms degelijke hardware worden alle Huawei en Honor-telefoons namelijk sterk tegengehouden door een weinig geliefde Android-schil (in mijn ogen terecht weinig geliefd maar dat is persoonlijk) en een respectloos gebrek aan Android-updates. Daarnaast winnen ze het qua hardware voor de prijs vaak niet eens van de concurrentie buiten China en zėker niet van de concurentie binnen China (o.a. Xiaomi, ZTE en Lenovo).

Waar Huawei goed in is is marketing - ze hebben de goedkope Chinese telefoon bekend gemaakt onder een breder publiek. En de meem dat ze goede telefoons voor een lage prijs uitbrengen wordt blijkbaar breed gedragen nu. Maar ik kan me niet aan de indruk onttrekken dat dit meer beeldvorming en marketing is dan op de werkelijkheid gebaseerd.
Die claims zijn dus net zo handig als een grafiek zonder cijfers op de axis (gepionierd door al gore)
Maar vaak kun je dan tenminste wel soortgelijke grafieken vinden met cijfers van honderden wetenschappers. Huawei had wel wat cijfers gegeven, maar ze hadden niet gezegd hoe ze daaraan kwamen.
Een grafiek zonder cijfers is reuze handig, als je wil dat mensen je rapport moeten kopen. Dan kan je wat laten zien zonder dat het je markt meteen om zeep helpt ;-)
1.92 TFLOPs of FP16 performance
Op welk gebied? Output zegt in casu relatief weinig. Er zijn een aantal specifieke richtingen waar die output vandaag de dag nodig is,
beeld weergeven,
maar belangrijker, beeld en geluid dat wordt opgevangen verwerken.


Laatste jaren zie je steeds meer taken naar de GPU verplaatsen. CPU wordt daarbij minimaal belast.

Alleen is de GPU op een aantal vlakken zelfs te complex om simpele taken als beeld en geluid/spraak te verwerken. Vereiste is dat het supersnel moet worden verwerkt en vertaald naar iets begrijpelijks.


Alleen wordt er nog geŽxperimenteerd wat het uiteindelijk zal moeten worden. Simpele chip met meer software-schil, of een een chip die praktisch autonoom kan werken. Verschil tussen die twee is dat je met een FPGA meer ruimte hebt, maar een ASIC kan knallen.


En alle grote producenten zijn hier al mee bezig,
Intel heeft bv Altera gekocht voor meer dan 15 mld euro,
nieuws: Intel rondt overname Altera af ,
alleen maken de ontwikkelen op dit vakgebied een stroomversnelling door,
waarbij je nu afvraagt of het wel zo wijs is geweest.
Zowel FPGA als ASIC laat zich relatief makkelijk schalen.


Alleen zet uitgerekend HUAWEI het marketing-technisch leuk op de markt.
De vraag is nu meer, heeft AI nou "Virtueel" of als static silicon meer bestaansrecht?

Virtueel kun je synapses koppelen en ontkoppelen zoals onze hersens dat ook doen. Vloeibaar zeg maar.
Static Silicon kun je veel meer neuronen kwijt.. maar is niet flexibel. Wat gaat belangrijker worden voor het leren van neural networks? De hoeveelheid of flexibiliteit van de neuronen?
Tot nu toe heeft onze hersens beiden omdat onze hersens gebouwd zijn in een biologische omgeving.
Volgens mij is de hele 'vergissing' bij de commerciele AI het feit dat alles op een lager niveau gewoon weer bestaat uit een berg geschakelde transistoren. Het is gewoon computerhardware. Prestatieverbeteringen dankzij toepassing van AI is onzin. Prestatieverbeteringen door optimalere/betere architectuur van de hardware niet. En mochten er dergelijke constructies bestaan die noemenswaardige verbeteringen opleveren, dan moet dat simpelweg aantoonbaar zijn middels softwaresimulatie. AI-chips bestaan evengoed uit logische poorten, ook gewoon te simuleren op een computer die die chips niet heeft.

Eigenlijk ben ik best benieuwd of het al echt is aangetoond dat patroonherkenning e.d. daadwerkelijk sneller gaat met daarop toegespitste hardware dan met een gangbaar ALU/FPU/adresbus processormodel. En als dat dan het geval is, hoe implementeer dan je zoiets in hardware waarbij de totale computer er baat bij heeft, en niet alleen een onderdeeltje van het OS dat patronen moet kunnen herkennen voor een specifiek doel wat om een bepaalde reden sneller moet dan de CPU kan?

[Reactie gewijzigd door blorf op 4 september 2017 06:24]

Ik vind dit wel een mooie:
Tijdens zijn presentatie beloofde Yu dat de nieuwe Kirin 970-soc betere prestaties biedt dan de producten van Apple en Samsung,
Samsung kan ik begrijpen aangezien die dezelfde type SOCS bouwen (veel cores, relatief korte pijplijn). Apple bouwt echter totaal andere type chips en iedere fabrikant moet het op single core prestaties bijvoorbeeld afleggen tegen de chips van Apple sinds 2013. Dus waar vergelijk je op?

Daarnaast is het een kompleet loze uitspraak aangezien Apple volgende week waarschijnlijk weer een chip van formaat neer gaat zetten. Ze hebben met de A10 en stap gemaakt naar BIG.little en ik denk dat er nu een heel mooi stukje hardware aankomt wat ook HMP introduceerd icm nog betere prestaties per core.
Beide bedrijven zullen echt niet stilgezeten hebben qua ontwikkelingen.
Ik denk dat het meer een marketing praatje is. Het zal wel wat doen, maar ik betwijfel of het allemaal zo intelligent is. Maar AI is de hype van de dag, dus waarom niet?
AI is puur een marketing term die de oude term "fuzzy logic" vervangt. Voor geheugenindeling wordt dat al lang gebruikt, dus daar is niets nieuws onder de zon. Voor het renderen van graphics bestaan ook al lang "voorspellende" technieken, maar dat in een cpu inbakken is wel nieuw. Of de actie van Huawai ook werkelijk hogere prestaties geeft is even afwachten, maar op dit vlak is er vast nog wel wat te halen. De AI ontwikkeld zich de laatste tijd wel snel.
AI of learning algorithms hebben zeker hun plaats dat veel verder gaat dan marketing (imo) maar een groter probleem lijkt mij vooral dat er (toch op Android) vooralsnog geen echte standaarden zijn.

Veel zal afhangen van hoe toegankelijk die chip is en/of het bvb compatible is met een Tensorflow of een van de andere machine intelligence libraries. Dat laatste is wel essentieel want persoonlijk zie ik het nut niet om veel energie te steken in een specifieke implementatie met een relatief kleine userbase wat nog problematischer is dan de versnippering die je hebt bij Android.

Dat ligt anders bij Apple want daar heb je CoreML die out of the box al modellen (of conversies van) ondersteunt van diverse populaire open source libraries (keras, caffe, scikit-learn, ...) en zit je met een relatief vast platform.

Men mag wel claimen dat men HW technisch voor ligt op Apple maar het schoentje wringt toch echt aan de software kant en dat is imo altijd zo een beetje geweest met Android toestellen. Met AR zie je hetzelfde probleem.

[Reactie gewijzigd door simplicidad op 3 september 2017 12:48]

Voorlopig geen nood aan een Mate 10. Ze hadden de Mate 9 maar niet zo goed moeten maken :)
Teleurstellende chip dit. Huawei was altijd de Šllereerste met nieuwe ARM-chips na een grote aankondiging van ARM.

Eerste implementatie ARM Cortex-A72 (publiek gemaakt april 2015): Hisilicon Kirin 950 in de Huawei Mate 8.
Eerste implementatie ARM Cortex-A73 (publiek gemaakt mei 2016): Hisilicon Kirin 960 in de Huawei Mate 9.
Eerste implementatie ARM Cortex-A75 (publiek gemaakt mei 2017): niet de Kirin 970! De eer zal deze keer waarschijnlijk voor Samsung of Qualcomm zijn.

Deze gebruikt gewoon dezelfde architectuur als vorig jaar dus. Wťl een kleiner producieprocedť, maar in de aankondiging worden dezelfde kloksnelheden als de Kirin 960 aangehouden - weinig vooruitgang dus. Met die ai-coprocessor zal Huawei ook wel weer op de proppen komen met een virtuele assistent, alsof we daar niet al genoeg van hebben.
Ik word er eerlijk gezegd een beetje gek van: ongefundeerde claims, vooraankondigingen van aankondigen van producten, die waarschijnlijk pas over 3 maanden verkrijgbaar zijn, etc.
Doe de officiŽle aankondiging, en laat echte cijfers, te zien, en zorg ervoor dat het product binnen 2 weken verkrijgbaar is, na een aankondiging.
Nu is het alleen maar om te zeggen dat jij de eerste bent, of over 3 maanden een beter/sneller product hebt tov de huidige tech van een concurrent, terwijl die concurrent misschien binnen een maand ook met een nieuw product komt.
Een vorm van “ fake News “ .
Het meest waardeloze vind ik nog steeds dat de hele handel altijd aan Android blijft hangen, n.b. een stuk software. Wanneer gaan ze eens het lef krijgen om echte computers te fabriceren die met een compatibele ARM-kernel en basis I/O drivers gewoon bruikbaar zijn?
Tsja, "de Mate 10 draait op Android 7.0". Als dat zo is, haak ik bij voorbaat al af. Laat het dan minstens versie 7.1 zijn.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*