Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 143 reacties

De eerste smartphones met een dualcore-processor met een kloksnelheid van 1,5GHz liggen mogelijk al voor de kerst in de winkel. Dat meldt chipbakker Qualcomm, die zijn QSD8672 in het vierde kwartaal uitbrengt.

Qualcomm SnapdragonOm toestellen met de QSD8672 nog voor kerst uit te brengen, moet een fabrikant wel haast maken, meldt ComputerWorld op basis van citaten van Qualcomm-topman Mark Frenkel. Qualcomm zal de chip in het vierde kwartaal uitbrengen. De chip is bedoeld voor high-end smartphones en tablets, zo meldt de chipbakker. De verwachting is dat onder meer HTC met de chip zal gaan werken.

De dualcore-cpu bevat twee Scorpion-cores die op 1,5GHz geklokt kunnen worden. De QSD8672 wordt op 45nm gebakken. De huidige Qualcomm-processors in de Snapdragon-lijn, zoals de QSD8250, worden op 65nm geproduceerd. De nieuwe chipset kan beeldschermen met een maximale resolutie van 1440x900 pixels aansturen. Ook is het opnemen en afspelen van video op 1080p mogelijk en er is betere ondersteuning voor 3d-graphics dan bij de huidige Snapdragon-processors. Verder is er ondersteuning voor hspa+ met een maximale downloadsnelheid van 28Mbps.

Snapdragon is de naam voor de nieuwe generatie Qualcomm-chips. Snapdragons bevatten geen Cortex A8-core, maar Qualcomms Scorpion-core, die eveneens op de ARMv7-instructieset is gebaseerd. De Snapdragon-lijn omvat onder meer de QSD8250 en de QSD8650, en nu dus ook de QSD8672.

HTC was niet de eerste die de Snapdragon-processors van Qualcomm gebruikte: Toshiba kondigde in februari 2009 als eerste een smartphone met de QSD8250 aan. Ondanks veel beloften bereikte deze Toshiba TG01 nooit de Nederlandse markt, maar het toestel kwam wel in Duitsland uit. HTC kwam pas in oktober 2009 met zijn eerste Snapdragon-smartphone op de proppen: de HD2. Ook Sony Ericsson heeft met de Xperia X10 een smartphone met een Snapdragon-chipset.

Moderatie-faq Wijzig weergave

Reacties (143)

Ik vraag me alleen af of zoveel Ghz/Mhz/cores wel nodig is voor een telefoon.

De huidige 1ghz Snapdragon is echt bloedje snel!
Het is Łberhaupt onzin om naar technische specs te kijken. Ik bedoel er is misschien een ondergrens maar het gaat er toch om wat je er in de praktijk mee kunt doen? Een core i7 in een telefoon proppen heeft toch vrij weinig nut? Dan is hij bloedje snel en is je batterij binnen 5 minuten leeg.. Zeker met dit soort apparaten vind ik het totaal niet interessant wat ze er in stoppen, voor gebruik in de praktijk bedoel ik dan, ik blijf natuurlijk een tweaker. Ik heb liever een hele fijne telefoon op een lage kloksnelheid en single core (die daardoor IMO niet traag hoeft aan te voelen), waar ik veel mee kan en waar ik lang gebruik van kan maken dan een baksteen met veel techniek die geen toepassing vind. We moeten denk ik veel meer aandacht gaan schenken aan software dan we nu doen, hardware is niet zaligmakend. Sterker nog de grootste winst zit in de software, qua snelheid ťn energieverbruik.

Natuurlijk ben ik ook niet blind, er moet vooruitgang zijn daarom zijn dit soort ontwikkelingen natuurlijk goed. Maar ik denk dat niemand het op dit moment nodig heeft behalve als je een desktop OS op je telefoon wilt draaien. Qua ondersteuning van HSDPA vind ik dit chipje veel interessanter! Daar zit een merkbaar verschil in, mits je niet zo'n toestel hebt met onwijs traag geheugen..
Qua ondersteuning van HSDPA vind ik dit chipje veel interessanter!
Voor zover ik weet wordt HSDPA+ nog door 0,0 providers aangeboden! (en ja je schrijft HSDPA maar dat kan elke qualcomm SOC tot 2 jaar terug ook al dus vanzelfsprekend)

En waarom tellen die specs wel mee? Moeten we niet gewoon de codecs optimaliseren en met onze 1mhz cpu met 1 mb ram op gprs een hd-film kunnen streamen?

Heb je door dat die software-optimalisatie tegenover de CPU op hetzelfde slaat als internetverbruik-optimalisatie tegenover het verbindingstype staat?

Dat als het ene wordt verbeterd het andere niet meer nodig is (of andersom inderdaad)...

edit: hoewel het nodig hebben inderdaad misschien wel de beste woordkeuze is, niemand heeft tenslotte een auto nodig met 400Pk maar de meeste (mannen dan) zullen er van dromen er 1 te hebben :) Maar nee nodig is het niet! Met andere worden ik heb een dualcore niet nodig, maar als die er is heb ik binnen no time een telefoon met een dualcore cpu ;)

[Reactie gewijzigd door watercoolertje op 10 augustus 2010 13:40]

Android zou heel veel hebben aan een dual core als ze niet over gaan om de GPU te gebruiken voor het renderen van de UI. Veel minder stotteren bij een heleboel multitasking. Want de cpu moet dan verschillende dingen doen + UI renderen. En dan krijg je soms een beetje gestotter. Maar je merkt het bijna niet bij ee. Desire of galaxy s..
Je zegt zelf, onwijs traag geheugen. Geheugen is hardware. Hardware is technische specs.
Conclusie: Technische specs zijn wťl zinnig om naar te kijken.
Als je snel internet wilt dan heb je ook een snelle CPU nodig om de pagina's te kunnen renderen en om applicaties aan te sturen die gebruik maken van dat snelle internet (video streamen bijvoorbeeld).
Zeker als je aan het multitasken bent wil je niet dat het internetten traag gaat omdat op de achtergrond nog een proces bezig is en de processor daardoor niet snel je pagina kan renderen.
precies; DE bottleneck is batterij - standby duur, hardstikke tof dat ik straks PI kan uitrekenen op mijn mobiel in 1 uur, maar als de batterij niet verbeterd wordt heb ik daar ook bar weinig aan. Waar blijven die brandstof/waterstof/energie zuinige batterijen?

//edit - Overigens is de eerste dual-core reeds op de markt :Y) HTC Shift, heeft zowel een x86 als een PPC processor, maar dat is volgens mij eerder multi-core :+

[Reactie gewijzigd door himlims_ op 10 augustus 2010 12:29]

hoho hier zit je deels fout het is niet de cpu maar het scherm dat veel vreet.
Belangrijk is dat het productieproces ook verkleint wordt. Je kunt er dus vanuit gaan dat de batterij duur in stand blijft terwijl de processor dus weer een stukje sneller wordt. Voorlopig is er zeker bij smartphones wel behoefte aan zwaardere CPUs en voor tablets is het al helemaal geen vraagteken.
Je kunt er zeker niet van uit gaan dat 2x 1.5 net zo veel verbruikt als 1x 1.0. Een dieshrink scheelt wel iets, maar lang niet zo veel. Nou zal 99% van de tijd er wel 1 core uitgeschakeld blijven (tja, waarom heb je 'm dan..), dat scheelt, maar ook de huidige 1 GHz cores throttlen al netjes terug bij idle etc, en deze zal waarschijnlijk significant meer verbruiken dan de huidige.
45nm is een stuk zuiniger van 65nm en dus zal de battery ook langer meegaan.
A9 cortex is ook efficiŽnter als de A8 die nu overal in de high end zit.
je bedoelt natuurlijk multi-processor..... dualcore is al multi :+

[Reactie gewijzigd door WPN op 10 augustus 2010 16:17]

Ik heb na mijn Desire nu de Galaxy S. De hummingbird doet nog zeker een schepje bovenop.. Dat merk je toch wel weer, terwijl ik ook dacht dat die Snapdragon wel genoeg was...
Ik kan zo een lijstje maken voor leuke features (of ze zinnig zijn is vraag twee) waar een hoop rekenkracht voor nodig is:

- gezichtsherkenning
- betere tekst-naar-spraak
- betere spraakherkenning
- realtime universele vertaler (ene taal gaat erin en hij vertaalt het naar jouw taal)

[Reactie gewijzigd door Tjeerd op 10 augustus 2010 13:03]

In de SE eXperia X10 zit al gezichtsherkenning... (max 5 in totaal) foto's worden automatisch aan de betreffende contacpersoon gekoppeld....
Ja fototoestellen ook en veel andere telefoons ook daar gaat het niet om... Je zegt nu zelf al dat er een limiet (5) op zit, dat zal misschien 10 worden met een dualcore ;) Misschien kan die zelfs dieren herkennen met al die kracht ofso :D Je weet maar nooit!

[Reactie gewijzigd door watercoolertje op 10 augustus 2010 13:23]

Dieren.. herkennen..
Koppelen aan desbetreffende contactpersoon.. :?

Nee, je weet inderdaad maar nooit. :X

[Reactie gewijzigd door Daikirai op 10 augustus 2010 13:25]

Ja ik zie er wel brood in. Ik heb verschillende personen in mn werktelefoon staan die ik wel wil koppelen aan een varken en/of hyena. En niet te spreken over, dat ze er visueel
sprekend op lijken.. :X

[Reactie gewijzigd door Audione0 op 10 augustus 2010 15:07]

Die limiet is absoluut geen CPU limiet. Waarom zou een dualcore 10 foto's kunnen toewijzen en een singlecore maar 5? Dat is puur een softwarematig limiet.
Een singlecore zou er langer over doen om 10 foto's in een batch toe te wijzen aan een contactpersoon, maar zou het prima kunnen.
Ajoh, moeten ze uitbesteden aan Google Goggles :p

Dan is het in de toekomst "uuh hoe heette hij/zij ookalweer?" -> camera richten -> fb profiel bekijken whaha

Kan je gelijk een gespreksonderwerp opzoeken lol
Zo'n uitspraak doet me denken aan deze:
640K ought to be enough for anybody..
:)
denk het niet... het probleem is niet het geheugen of de snelheid maar zoals himlims_ aangeeft de accu. Laat ze eerst zorgen dat die langer meegaan.
Wow, wat een goede uitspraak. Maar wie heeft hem eigenlijk ooit echt gezegd?
Bill Gates in '81 MAAR er staat niet bij voor altijd, dus had best kunnen kloppen op dat moment!

http://imranontech.com/20...-gates-say-the-640k-line/
Bill Gates, maar hij ontkent het ooit gezegd te hebben.
Dus waarom is het dan Bill Gates? Omdat iedereen dat beweert? Ik heb nergens een degelijke bron gezien waaruit daadwerkelijk blijkt dat hij dat heeft gezegd, en als jij die wel weet te vinden dan zou ik die graag willen zien.

En 't is ook niet dat hij het ontkent omdat het een domme opmerking was. Andere domme opmerkingen (zoals dat het internet totaal niet interessant zou worden) heeft hij gewoon toegegeven. Daardoor vind ik de verklaring van Bill iig plausibel. Ook lees ik her en der dat het een IBM topman was die het gezegd heeft. Wat de waarheid is? Don't know.

[Reactie gewijzigd door .oisyn op 10 augustus 2010 13:41]

Het maakt ook niet zoveel uit wie het precies heeft gezegd.
Het is wel een feit dat MS Dos heel lang heeft aangehikt tegen de grens van 640k.
Er waren omwegen als himem nodig om geheugen boven de 640 zo goed mogelijk te gebruiken.
Hoe nuttig is dit? is het niet zo dat multi cpu's pas nuttig wordt als er echt heel veel gemultitasked wordt? Opzich zet je op een telefoon natuurlijk wel is je muziek aan terwijl je je mail aan het typen bent en tevens wordt hij wat slomer als je een applicatie aan het installeren bent. Maar is het nu echt nodig om een dual core cpu er in te zetten die waarschijnlijk net zoveel dan wel meer stroom zal gaan eten dan een standaard single core?
Ik denk dat het juist veel kan uitmaken. Als de telefoon net met iets bezig is en jij doet iets met het touchscreen dan is een kleine vertraging al voldoende om de interface 'sloom' aan te laten voelen. De tweede core zorgt ervoor dat hij toch nog snel kan reageren ookal is de processor misschien net bezig met een proces dat niet zomaar onderbroken kan worden.
Een logische redenering, maar je vergeet dat veel telefoons al een grafische chip hebben ingebouwd, die onder andere de interface voor zijn rekening neemt. Zo zijn de N900 en de iPhone 3G uitgerust met een PowerVR chip, en voor zo ver ik weet de Droid ook.

Neemt niet weg dat dualcores ook in mobieltjes hun opwachting gaan maken, je hebt gewoon veel meer rekenkracht tot je beschikking, EN: je kan 1 CPU laten idlen en de ander compleet uitschakelen. Hoe efficient een idle draaiende kern ook is, een core die uit staat verbruikt altijd minder.
Absoluut. Maar voordat die grafische chip aan de gang gaat met het weergeven van je interface, moet eerst het OS door hebben dat er iets moet gaan gebeuren. De aansturing van de actie (open nu applicatie X, of toon menu Y) gebeurt via de CPU. Het argument dat een tweede CPU kan leiden tot een meer responsief systeem is dus nog even valide.
Ah, goed punt, al kunnen we het er wel over eens zijn dat het actie ondernemen veel minder rekenkracht kost dan een complete animatie van het scherm? ;)
Het probleem is wel dat heel veel software multithreaded moet worden, of je zal alleen profijt zien als je echt 2 programma's naast elkaar gebruikt. De meeste "background" programma's zullen hier niet zo heel veel profijt van hebben.
Een MP3 speler is het eerste wat mij te binnen schiet, en dat kan praktisch elke chip moeiteloos. Even verder denkend misschien HD decoding, maar dat zou eigenlijk via de grafische chip moeten gaan (die zal vast wel h.264 ondersteunen).
Dan blijft nog over de homebrew scene, dus games, en emulators, maar dat is een redelijke niche....

Wat mis ik hier nog?
Tuurlijk. Maar het hele punt is dus: een belangrijk voordeel van een tweede core is niet de extra rekenkracht, maar de mogelijkheid om sneller te reageren op een binnenkomende taak. Met andere woorden: niet dat een taak sneller is afgerond maar dat eerder aan een taak kan worden begonnen.

En volgens mij mis je de belangrijkste applicatie waarbinnen het belangrijk is om snel te reageren: het OS zelf. DŠt is de "applicatie" die altijd klaar moet staan om bliksemsnel te reageren op user input. In die zin gebruik je juist heel vaak twee applicaties tegelijk! Het OS doet heel vaak meerdere taken door elkaar. Of je "echte" applicaties nu multithreaded zijn of niet, je hebt altijd voordeel wanneer het OS flexibeler is in het toewijzen van die taken aan meerdere cores.
Met mijn HTC Desire merk ik hooguit tijdens de installatie van een app dat de interface traag wordt. En dat is nou niet iets wat je continu doet. Geef mij liever een telefoon die de helft van het energieverbruik heeft (en dus dubbel zo lang op de batterij mee kan) dan een die dubbel zo snel is. De focus van producten van smartphones zou volgens mij eerder moeten liggen op het zuiniger maken dan op het sneller maken.

Neemt niet weg dat dual core wel degelijk voordelen heeft, als ze een dual core maken die ook de helft van de energie verbruik heeft van de huidige generatie moeten ze nog maar eens terug komen met dit idee.
Ik ben het eens dat accu's de meest verouderde techniek in een mobieltje is, maar langer dan 16 uur hoeft 'ie het voor mij niet uit te houden.
Iedereen met zo'n mobieltje is geen holbewoner meer, dus heeft elke nacht beschikking over een zogenaamd stopcontact.

Breng die draadloze oplaad-techniek eens goed op de markt en je hoeft je mobieltje niet eens meer in te steken. :)
Omdat je geen holbewoner bent heb je elke nacht beschikking over een stopcontact? Dat is sowieso al een onzin argument. Ik zit wel vaker in situaties waar ik 's nachts gewoon niet op een locatie ben om mijn telefoon te kunnen opladen. Bovendien heb je ook lang niet altijd je oplader mee en kan je lang niet altijd die van een vriend(in) lenen.
En wil je dan bij vrienden elke avond/nacht moeten vragen naar een oplader of een stopcontact? Dat is voor mij absoluut niet acceptabel bij een telefoon.
Als een draadloos oplaad-systeem overal aanwezig is, hoef je niks mee te nemen / te vragen. Dit zal later ook in je auto, in de trein etc worden aangebracht.
Hoe kom je in godsnaam bij het idee dat draadloze oplaadsystemen opeens magischerwijze allemaal compatible met elkaar zullen worden?
Anders is het systeem nutteloos.. :/
1e. Klas bij ons in de trein zit gewoon een 230v stopcontact.. Dus ff je usb lader mee..
Vergeet niet dat accu's slijten. Als je hem elke dag op moet laden zal dit alleen maar sneller gaan en gaat hij dus na verloop van tijd wel minder dan een dag mee en dan wordt het heel irritant dat iedere keer je telefoon leeg is.
Als 2 cores evenveel stroom verbruikt als 1 core, waarom niet?
Je maakt alleen tijd en prestatie winst en geen verlies.
En in tablets is het wel handig ja, want dan zit je bijvoorbeeld op msn en internet met flash.
dat vraagt ook vrij veel :).

[Reactie gewijzigd door jeantje op 10 augustus 2010 12:28]

Dat is heel nuttig bij een smartphone met bijvoorbeeld Android. Alle gebruikte widgets vragen processing power. Feitelijk zijn het gewoon hele kleine applicaties. Voor standaard gsm gebruikers is het niet nodig maar daar zal dan ook niet zo'n processor in zitten. Een smartphone daarin tegen heeft er erg veel baat bij.
Straks kunnen we projecten als Seti op ons mobieltje doen? Moet er nog wel wat aan de accu gebeuren maar dat komt ook nog wel denk.

Heb zelf nu een 533MHz cpu in mijn telefoon sinds een paar weken dan (HTC Wildfire) en dat is een budget telefoon. Ik gebruik hem eigenlijk enkel voor sms (ja weet ouderwets) en bellen (nog ouderwetser). Heb dan ook geen internet abbo erbij. Je kan dat ding prima instellen dat hij alleen Wifi mag gebruiken.

Kunnen ze niet een dual core 1,5GHz op bijvoorbeeld 750MHz laten werken? Scheelt denk aardig in verbruik en doordat het dual core is heb je toch aardig wat cpu kracht. Op mijn Wildfire heb ik het merendeel dat hij niks doet als ik ermee zit te werken.
De CPU schakelt zelf naar de desgewenste snelheid. Als je telefoon niets doet dan zal die ook warschijnelijk draaien rond 100mhz en niet op 1500mhz.
1000 zou misschien kunnen, maar zelfs erop ontworpen mobiele processoren kunnen maar beperkt terug in kloksnelheid. De transistoren werken gewoon maar in een bepaalde bandbreedte van snelheid, als je te langzaam klokt functioneert het niet.
Sterker nog in stand by draait die dual core maar op 2x100 of iets hoger hoor ;) De kracht komt pas als jij er om vraagt (apps gebruikt dus), eerder niet...
Die apps en widgets draaien ook steeds meer opd e achtergrond. En dan mag van mij zo'n app of widget iets trager zijn omdat ik hem niet gebruik. Bijvoorbeeld het updaten of herladen van een database (ImDB) ofzo. Op zo'n moment zie ik de cpu voor enige tijd toch omhoog schieten terwijl ikzelf niks doe (op kijken na).

Ja die apps installeer je zelf maar vraag me af op een normale telefoon hoevaak de cpu echt terugklokt voor langere tijd. Heb het idee dat dit eigenlijk best weinig is en meer zou kunnen zijn.

Het maakt mij bijvoorbeeld niet uit dat hij de tvgids update in 30 seconden doet inplaats van 3 seconden op dat moment. Ik gebruik mijn telefoon immers toch niet?
Voor zo ver ik weet schakelen alle Snapdragons terug naar een lagere frequentie als er minder rekenkracht nodig is. Mijn Desire schakelt terug tot minimaal 245 MHz.
Dit vergroot m'n twijfel over of ik in oktober zou moeten gaan voor de Desire HD [die naar verluidt een 1ghz processor gaat krijgen] of wťťr zou moeten wachten op een HTC met deze dual core. In het laatste geval zit je wel comfortabeler voor Android 3.0 [Gingerbread] omdat de minimumeis daarvoor al een 1ghz processor is. Moeilijk moeilijk. :P Het ergste is natuurlijk dat je altijd wel kan blijven wachten op het nieuwste van het nieuwste. Vooral bij HTC, die zoveel modellen uitbrengen binnen zo'n tijdsbestek. :D

Eerst maar eens de officiŽle aankondiging van HTC voor de Desire HD/Z afwachten. Misschien krijgt de Desire HD tůch deze processor? :)

[Reactie gewijzigd door Blite op 10 augustus 2010 12:22]

Dit vergroot m'n twijfel over of ik in oktober zou moeten gaan voor de Desire HD [die naar verluidt een 1ghz processor gaat krijgen] of wťťr zou moeten wachten op een HTC met deze dual core. In het laatste geval zit je wel comfortabeler voor Android 3.0 [Gingerbread] omdat de minimumeis daarvoor al een 1ghz processor is. Moeilijk moeilijk. :P Het ergste is natuurlijk dat je altijd wel kan blijven wachten op het nieuwste van het nieuwste. Vooral bij HTC, die zoveel modellen uitbrengen binnen zo'n tijdsbestek. :D

Eerst maar eens de officiŽle aankondiging van HTC voor de Desire HD/Z afwachten. Misschien krijgt de Desire HD tůch deze processor? :)
Precies wat ik me ook aan het afvragen ben! (en ik ben waarschijnlijk niet de enige)

Het leuke vind ik aan de nieuwe processor dat de grafische kracht blijkbaar flink op de schop wordt genomen en dat schermen met een grotere resolutie te maken zijn: 1280x720 met 4,3" bijvoorbeeld. Dan heb je ook nog wat aan je camera die 720p kan opnemen. Films op een dergelijk toestel kijken lijkt me ook best tof!

edit: dan hoef je 720p films niet eens meer te verkleinen, maar je geheugen vind 't denk ik maar niks :p

[Reactie gewijzigd door gordian op 10 augustus 2010 15:50]

Juist! Ik zit te wachten op die magische resolutie van 1280x720 op een 4,3 inch scherm.. Met bijna geen randen om het scherm. Zo word je mobiel niet veel groter dan andere mobieltjes. In combinatie met een cortex a9 dual core met een goede gpu dit keer hopelijk. Daarnaast is er een groot draatje op de google forums om eindelijk een keertje de GPU te gebruiken voor de UI. Als er namelijk CPU intensieve gebeuren gaat altijd je UI stotteren.. Ook bij een 2Ghz ARM. Ik hoop dat dit in gingerbread komt te zitten. Je UI renderen via de GPU is efficiŽnter dan met de CPU en heeft vele voordelen. Dit is een groot gemis wat al vanaf het begin in iOS zit. Als de SoC dan 1080p kan afspelen hoop ik op een HDMI uitgang. Al is dit via de USB zoals straks het geval is bij de Galaxy S.

Als je denkt dat smartphones het nu al hebben gehad dan heb je het goed mis... Er gaan nog heel veel leuke dingen gebeuren op dit gebied.

[Reactie gewijzigd door Texamicz op 11 augustus 2010 08:49]

1Ghz processor is een aanbeveling, geen minimumvereiste. Dat gerucht is namelijk door Google ontkracht.
Je moet je ook de vraag stellen wat deze zwaardere cpu jouw extra gaat bieden. Als je nu de snelheid ziet van de huidige Desirein combinatie met android 2.2 dan zit dat meer dan goed. Dus wat biedt een zwaardere cpu... filmen op 1080p, grotere resolutie, ... Als je dat belangrijk vindt dan moet je wachten, anders niet, simpel als dat ;)
Ik heb nu datzelfde gevoel, nu zal ik nog iets langer wachten doordat mijn abo iets later afloopt, maar het is dan nog maar de vraag of er dan wel 1 op de markt is en of ik die dan wil hebben.
Ik ben persoonlijk eigenlijk toch wel enthousiast over de nieuwe Windows (vooral met de gaming ideeen), en natuurlijk zal ik eerst kijken of het echt wat is tegen die tijd, maar stel dat HTC dan een Android uitbrengt met deze, ja dan moet ik toch naar een 1Ghz telefoon. Tevens spelen modellen ook nog een rol, ik vind de HD2 bijvoorbeeld wel een mooi toestel, maar toch echt net een slag te groot.
Deze Qualcomm dualcore-processor 1,5GHz gaat in de HTC HD3. Specs komen overeen met wat er al is uitgelekt.
Een HTC HD3 zal niet snel komen hoor. Voor Windows Phone 7 zal HTC wel andere namen gaan gebruiken. En kan me niet voorstellen dat HTC nog een high-end WM6.5 toestel op de markt gaat zetten.
Wat er is uitgelekt?
De enige HD3 die ik me kan herinneren is dat neppe concept met het 4.5" AMOLED scherm.
http://gizmodo.com/557858...oled-and-15ghz-snapdragon

Dit lijkt me eerder de Android mobiel met de codenaam HTC Glacier die onlangs bij de GL Benchmarks was opgedoken,
http://www.engadget.com/2...tabase-boasts-really-hig/

In ieder geval zal ik hier op wachten (contract eindigt november dit jaar), de Desire HD spreekt me niet echt aan, aangezien ik nu al de HD2 met Android gebruik, zo'n verschil zal het waarschijnlijk niet maken.
Doel je op deze geruchten? http://www.mobileburn.com/rumors.jsp?Id=9921

Ik ben nog niks over een eventuele HD3 tegengekomen dat echt lijkt. Als je iets anders bedoeld ben ik benieuwd naar ee linkje :)
Kan niet wachten tot ik over een jaartje weer een nieuwe telefoon mag uitkiezen...Heb nu een touch pro 2 met 528mhz processor, dus zon dual core zal een verademing zijn :P
Nou ja, dat gevoel deel ik, een beetje. Ik kan niet wachten of moet misschien nog even wachten :? Ik ben dan in september/okotber aan de beurt, maar er gebeurt nu zoveel op de telefoonmarkt. In september komt Android 2.2 op de Galaxy S die ik eigenlijk wil. Maar nu komt er in december de Desire HD uit.... Sja, maar dan blijkt er ineens een 1,5 GHz processor uit te komen...zucht.

Nu de zaken zo snel gaan denk ik dat je zowat eerder naar een jaar contract kan kijken en je telefoon na 1 jaar gewoon weer moet gaan verkopen. (restwaarde zeg €100 tot €150?? vs. bijbetalen van €250? omdat je een jaarcontract neemt).

Met een kort contract kan je mee blijven vernieuwen. Mijn HTC Touch HD van nu is na twee jaar namelijk ECHT verouderd. Of op zijn minst niet meer te vergelijken met de telefoons van vandaag.
Er gebeurt veel in 1 jaar.
Maar ik vraag mij toch af of ik mijn nexus one wel zou vervangen in januari (na 1 jaar dus).
zoals het er nu uitziet zou ik, tegen die tijd, een telefoon met een (iets) snellere processor/grafische chip krijgen, en waarschijnlijk een beter scherm. maar of dat het geld waard is weet ik niet.

Ik hoop dat er nog meer verandert. tot nu toe heb ik nog geen telefoon gezien waarvoor ik mijn nexus in zou ruilen.

edit: alleen de accu is naar mijn idee te snel leeg. Na 1 dag intensief gebruik is hij leeg, het moet niet gekker worden.

[Reactie gewijzigd door rp87 op 10 augustus 2010 13:22]

een telefoon met een (iets) snellere processor/grafische chip krijgen, en waarschijnlijk een beter scherm
Die is er al de galaxy s....

Dus ja reken maar dat het verschil tegen die tijd een fors stuk meer is, vooral grafisch en CPU.

[Reactie gewijzigd door watercoolertje op 10 augustus 2010 13:29]

Dat is na 1 jaar ja, maar als je in augustus 2011 hier zit te kijken, is er echt wel zůveel meer veranderd dan een "(iets) snellere processor/grafische chip, en een beter scherm."

Ik voel mezelf ook bijna verplicht een 1-jarig abbo te nemen. (Zit net als bovenstaand al bijna 2 jaar met Touch HD opgescheept).
Ik heb nu net een kleine maand geleden mijn HTC Magic verlengd met 1 jaar, dus tussen kerst en de zomer mag ik weer een keer een nieuwe uit gaan zoeken. Eigenlijk zou ik al maanden geleden een Desire hebben willen hebben, vooral omdat veel android apps op mijn toestel ontzettend sloom zijn en het dus duidelijk wel verschil maakt.

Ik heb een aantal eisen gesteld, namelijk:
Android 3.0
Retina display
720p camera
1.5Ghz dualcore

Het lijkt er op dat dat precies goed gaat komen als in de eerste helft van 2011 zo'n telefoon uitkomt, maar ik denk dat ik dan toch maar overweeg om het met een 1-jarig contract te doen...
"Retina Display" zal er nooit zijn op een non-Apple telefoon, 720p cameras beginnen inmiddels gemeengoed te worden.
Onder de naam van "retina display" inderdaad niet maar dat wil niet zeggen dat de (326) PPI ervan niet wordt benaderd...

Zowiezo is dat al gebeurt voo rde iPhone met hun schermpje kwam,310 PPI op de SE X1 of LG-LU1400 die zelfs een PPI heeft van 333, en dan heb je nog de Toshiba Portege G900 met PPI..

Een echt retina scherm bestaat nog niet voor de consumenten, ja onder de naam/type/merk maar dat woord heeft ze eigen betekenis, namelijk netvlies, en laat die nou 126 miljoen zintuigcellen hebben (oke die worden niet allemaal tegelijk gebruikt)...

[Reactie gewijzigd door watercoolertje op 11 augustus 2010 09:01]

Retina is een marketing term. Het is gewoon een lcd ips schermpje van LG met hoge pixel dichtheid. 300ppi. Dit haald je ook met 1280x720p op 4.3 inch.
Dat is het zeker denk ik..
Ik heb ook een TP2 gehad. Maar mn HD2 met snapdragon (1ghz) is toch ook al een hele verademing hoor :*)

Ik denk zelf dat die dual coretjes, voor het opnemen van 1080p en multitasking een hele verademing zal zijn.. En niet zozeer dat je win mobile 6 een stuk rapper gaat lopen (zal wel wat schelen denk ik)
Ik juich deze ontwikkeling heus wel toe.. maarr.... ik vind dit niet noodzakelijk een goeie verbetering.

Door al die snelle processors in onze lŲl-yzers bestaat er wel een kans dat software-ontwikkelaars (met name OS) gemakzuchtiger gaan worden en een OS kunnen afleveren waarvan de tekortkomingen worden verdoezeld door de pure rekenkracht van o.a. de CPU (Vista, anyone? :+ )

Het hoeft natuurlijk niet, maar het het is niet onaannemelijk. Mijns inziens zouden ze zich idd. Moeten richten op andere aspecten zoals die in de comments hierboven zijn aangehaald.

Maar eerlijk is eerlijk, ook ik vind het niet erg om een paar mhz er bij te hebben
Zo enorm groot acht ik die kans niet. Jij haalt Vista aan als voorbeeld, maar de situatie op de desk- & laptopmarkt is heel anders dan die voor Mobile devices. Er is veel meer concurrentie op de telefoonmarkt tussen verschillende OS'en. Als blijkt dat Android straks op een vergelijkbaar hardwareplatform veel slechter presteert dan Win Phone 7 of iOS, dan zal dat gevolgen hebben voor de verkopen. Bij Vista zag je iets soortgelijks, maar daar gingen mensen van Vista terug naar XP; m.a.w. van Microsoft naar Microsoft. Daar zat dus absoluut geen druk voor de ontwikkelaars.
Daar zat dus absoluut geen druk voor de ontwikkelaars.
Reken maar dat ook daar druk zat. Aandeelhouders bijvoorbeeld, omdat iemand die teruggrijpt naar z'n exemplaar van XP geen nieuwe windows 7 licentie aanschaft. Dus loop je centen mis.

Daarnaast ging het gepaard met behoorlijk wat gezichtsverlies ( men maakte zelfs de vergelijking met windows ME ), en dat is iets wat Microsoft erg slecht kan hebben.
Dit gebeurd al in organisaties, vaak zie je dat technische teams de overweging moeten maken: optimaliseren of meer ijzer tegenaan gooien. En het lijkt er op dat meer ijzer tegenaan gooien vaker de goedkoopste en snelste oplossing is. Dat dit uit technisch/programmeur oogpunt niet zo netjes is oke maar uit economisch oogpunt zeer begrijpelijk.
We zijn allemaal van mening dat programma's geoptimaliseerd moeten worden maar de snelheid waarmee nieuwe programma's geschreven moeten worden en de complexiteit er van zou wel is in de toekomst ten kosten van “software” performance kunnen gaan. De kans is dus dat deze door hardware gecorrigeerd zal worden, waardoor de software nog steeds snel is ook als is die in theorie trager.
Als je optimaal draaiende software wilt ontwerpen moet je ook gewoon in machinecode schrijven, of desnoods assembly. Een derde generatie taal als C staat al veel te ver van de hardware af. De trend is daarentegen dat steeds meer software in 4e generatie talen of zelfs 5e generatie systemen in elkaar gedraaid wordt, ook voor mobiele software.

Programmeur uren zijn veel duurder dan cpu uren, en dat geldt al helemaal voor applicaties die maar bij een beperkt aantal mensen gedraaid gaan worden.
Een C-compiler is in veel gevallen slimmer in het uitpoepen van geoptimaliseerde machinecode, dan de gemiddelde assembly programmeur. Bovendien liggen de ontwikkelingskosten veel te hoog.

[Reactie gewijzigd door 366966 op 10 augustus 2010 19:26]

Haha leuk assembly op verschillende cores.. Moet je telkens helemaal gaan nadenken hoe het nou zit met deze core..
En gaat dit "geweld" niet te warmpjes aan de handen worden ? De huidige snapdragons hebben hier ook al soms wat last mee.
De nieuwe chipsets worden op 45nm gebakken tegenover 65nm voor de huidige.
Dat scheelt al een heel stuk aan warmteontwikkeling.

Ik weet niet of het verbruik hier ook mee daalt.
Als het verbruik niet daalt zal de warmte ook niet dalen ;) Die zijn bijna 1:1 aan elkaar gelinkt...

En het antwoord is ja zowel het verbruik als de warmte is dus minder TENZIJ die hoger geclocked is of een totaal niet te vergelijken ontwerp/architectuur is natuurlijk ;)
Het verschil tussen 65 en 45 nm is niet dermate groot dat het opweegt tegen 1.0 vs 1.5, laat staan nog eens dualcore erbij.
Inderdaad. Maar wat wel meeteld is de nieuwe cpu design... Dus de oude A8 tegen de straks nieuwere A9... Schijnt veel efficiŽnter te zijn.
Het verschil is dat het ongeveer 2x zo klein (met even veel transistors) is en maar 1.5x zo snel... Lijkt me gewoon dat dat zuiniger kan zijn!

Aangezien het om oppervlakte gaat per transistor is 65nm dus ruim 2x zo groot:
65*65=4.225 nm2
45*45=2 025 nm2

Nu weet ik er verder niet zo veel van af hoe dat met stroomverbruik zit maar doen alsof 45 en 65 bijna hetzelfde is natuurlijk ;)

Net even lopen zoeken naar CPU's waar het verschil duidelijk te zien is:
Intel Pentium D900 65nm 376 Miljoen transistors op 162 mm^2
AMD Athlon 64 X2 90nm 154 Miljoen transistors op 183 mm^2
Dus meer dan 2x zo veel transistoren op minder oppervlakte ;) bij een ruime halvering van de grootte van de transistors!

[Reactie gewijzigd door watercoolertje op 11 augustus 2010 09:31]

Laten we hopen dat de 45nm technologie hier tegen helpt.... ;)
@Sjoerd helemaal meen eens. Huidige snapdragon is meer dan voldoende.

Grafische power zou opgekrikt moeten worden
Grafische power zou opgekrikt moeten worden
De grafische power is ook opgekrikt.
Uit het artikel:

"De nieuwe chipset kan beeldschermen met een maximale resolutie van 1440x900 pixels aansturen. Ook is het opnemen en afspelen van video op 1080p mogelijk en er is betere ondersteuning voor 3d-graphics"

Verder is dat ding niet alleen geschikt voor smartphones maar ook voor tablets en net/smartbooks.
De snapdragon lijkt voldoende, maar ik denk dat het over ruim een half jaar niet meer voldoende is voor de high-end smartphones.
Er moet gewoon door ontwikkeld worden. Anders kopen mensen nooit geen nieuwe telefoon.
dus een snellere processor en een betere grafische chip.
Goed nieuws, er beloofd zo in ieder geval een waardige opvolger voor de desire te zijn over 2 jaar. Het lijkt me alleen fijn als bij HTC niet al hun aandacht aan steeds maar betere processoren besteden, maar wat opslagruimte zou ook welkom zijn. Bijv net als de iphone met 16gb/32gb modellen komen. Die sd kaarten van 16gb of meer zijn aardig prijzig om ze naast je telefoon aan te schaffen.
Heb het nooit echt gemist, maar hangt ervan af waarvoor je het gebruikt. Een 16GB kaartje kost zo'n 40€, wat toch al zeer goed meevalt imho, en 32GB zijn ook ferm aan het zakken. (denk dat, als je moeite doet, je er al eentje kan vinden voor 100€).
Nou weet niet of ik daar zo blij mee zou zijn, een voorbeeld:

Iphone 16 gig = 820 euro
Iphone 32 gig = 950 euro
Verschil van 130 euro.

Een normaal 16gig kaartje kost rond 40 euro, een 32 gig kost 100 euro.
Dus als je een iphone zou hebben die net zo als alle andere telefoons gewoon stick zou accepteren zou je dus met 40 euro al klaar zijn in plaats van 130. En zelfs als het hellemaal geen memory zou hebben maar een stick zou accepteren zou je als goedkoper uitkomen.

Daarom heb ik liever dat een smartphone fabriekant geld uitgeeft aan dingen die ik niet kan aanpassen in mijn telefoon of te wel, scherm, cpu, interne memory en gpu en zorg ik zelf wel voor het opslag.
Dat lijkt me ook alles wat verwisselbaar is is namelijk onderling weer concurrentie te vinden waardoor de prijzen bijna altijd lager zullen liggen als de fabrikant er voor had gevraagd!

Samsung maakt de 16Gb versie van een Galaxy S ook bijna 100 euro duurder als de 8Gb versie, dan koop ik liever een 8Gb en voor die 100 euro stop ik er een 32Gb bij en heb ik 40Gb voor het geld dat ik anders maar 16Gb had gekocht :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True