Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 36 reacties

Nvidia gaat op de GSM World-show in Barcelona zijn nieuwe videochip voor mobieltjes demonstreren. De APX 2500 kan video met een resolutie van 720p afspelen en verbruikt daarbij slechts 200mW.

De Nvidia APX 2500 'application processor' wordt gebakken op een 65nm-procedé en bevat onder meer een ARM11-kern die een kloksnelheid van 750MHz combineert met 256 kilobyte L2-cache en daarnaast een processor bevat die beelden tot maximaal twaalf megapixels kan verwerken. De grafische kern moet volgens Nvidia dezelfde prestaties kunnen leveren als de Geforce 6-desktopchip. De productie van de APX 2500 start in juni van dit jaar. Nvidia verwacht dat de eerste modellen eind dit jaar in draagbare navigatiesystemen te vinden zullen zijn, terwijl de chip eind 2009 in mobieltjes verwerkt zal worden.

Nvidia APX 2500 mobile videochipDe benaming wijkt af van eerdere mobiele videochips van Nvidia. Deze vielen onder het Goforce-merk. Mogelijk wil Nvidia hiermee de betere prestaties van de APX 2500 benadrukken. De voorganger, de Goforce 6100, werd op 14 februari 2007 aangekondigd en beschikte over een 250MHz ARM11-processor. Onder meer Motorola gebruikt Goforce-chips in zijn mobieltjes.

Een mogelijke tegenhanger van de APX 2500 is de chip van Texas Instruments die vorige week werd aangekondigd op de International Solid State Circuits Conference in San Fransisco. Het ontwerp van TI is eveneens een 65nm-chip maar dit model heeft acht processorkernen die op 333MHz lopen en beschikt daarnaast over een 512KB L2-cache, terwijl deze chip 209mW verbruikt bij het decoderen van 720p-video met 30 beelden per seconde.

Moderatie-faq Wijzig weergave

Reacties (36)

Leuk! met dit soort chips kunnen we binnenkort aan de slag met mobile augmented reality. Dat moet je je zo voorstellen dat je het beeld van de mobiele telefoon camera ziet, met hierop virtuele informatie in 3D eroverheen gelegd.

Een iomplementatie van dergelijke techniek zou beijvoorbeeld zijn dat je TomTom overschakeld op videobeeld, waarbij je dus het beeld ziet van de wereld voor de auto. Op dit beeld zie je dan een grote pijl waar je heen moet. Dit kan veel duidelijker dan met de huidige techniek, aangezien je daar alleen een vituele representatie van de werkelijkheid ziet. Lastige kruispunten en verkeerssituaties zijn zo gemakkelijk te navigeren.

In potentie is GPS+3D+mobiel absoluut een killer belofte. 3D beelden gemixt met geografische informatie gaat zijn toepassingen vinden in veel applicaties en apparaten.
lijkt me mooi.
tekent tom tom op de weg waar ik heen moet rijden.
ipv op een kaartje.
kan dan ook nog andere nuttige info geven
lijkt me leuk.

btw even snel als geforce 6 ( 6050 dan zeker. geen 6800 neem ik aan)
anders vind ik het wel heel knap...

edit typo

[Reactie gewijzigd door freaq op 11 februari 2008 16:06]

en als et dan druk is op de weg? stel dat iedereen met zon pijltje op de weg bezig is, dat word een chaos.
Hij bedoelt volgens mij een camera in de auto, zodat 'het buitenbeeld' ook op je navigatie wordt weergegeven, met pijlen hoe te rijden. Dus bijvoorbeeld de onoverzichtelijke rotonde voor je wordt op je mobiel weergegeven in 3D waarbij pijlen aangeven hoe je moet rijden.
inderdaad. of als je een soort doorzichtig lcd screen hebt in je auto ( of hud op je autoruit a la f16 bijv) dat er een pijl over de route ligt die ik moet rijden.
lijkt mij wel handig.

bij gewone navigatie rijdt je soms nog wel eens de verkeerde weg op bij complexe punten
"De grafische kern moet volgens Nvidia dezelfde prestaties kunnen leveren als de Geforce 6-desktopchip"

Leuk, maar ben ik echt de enigste die dit zwaar overkill vind?
Als die prestaties echt gehaald worden dan ga je je toch ook afvragen waarom een moderne desktop-GPU met gemak 100W wegslurpt, dat is toch een 500x zo veel voor een prestatiewinst van misschien 4x ofzoiets. Ik heb geen idee hoeveel sneller een moderne high-end kaart van nu (laten we voor het gemak een DX9 kaart pakken om het eerlijk te houden) is dan een Geforce-6 serie kaart, maar 500x is het in de allerverste verte nog niet.
Ik heb geen idee hoeveel sneller een moderne high-end kaart van nu (laten we voor het gemak een DX9 kaart pakken om het eerlijk te houden) is dan een Geforce-6 serie kaart, maar 500x is het in de allerverste verte nog niet.
Natuurlijk is het geen 500x de performance. De belangrijkste reden is natuurlijk de niet-lineare schaalbaarheid van chips. Als een chip 1 Watt verbruikt en daarbij 100 FLOPS haalt wil dat niet zeggen dat je dus bij 100 Watt 10000 FLOPS haalt. Factoren die daarbij komen kijken zijn hitteontwikkeling, lekstroom en ontwerpproblemen die er voor zorgen dat hogere snelheid steeds meer energie kost. Om de 80/20 verhouding er bij te pakken zou het bijvoorbeeld kunnen dat de eerste 20% verhoging van het verbruik een performancewinst van 80% oplevert, terwijl de resterende 80% maar 20% winst oplevert.

Met het bovenstaande in acht genomen kan NVIDIA (of ATI) twee dingen doen. Ze kunnen een chip laag clocken en energiezuinig maken, of ze kunnen er zoveel mogelijk uit halen. De vraag is dat wat de consument wil, en de consument wil een verschroeiend snelle GPU, want hij wil toch eindelijk Crysis eens kunnen draaien, verdomme! :P
Niet linear, ok, dat geloof ik gelijk. Maar 500x zoveel vermogen is ook wel heel erg veel vind ik zelf. Ik denk toch dat het meer een kwestie van willen is dan kunnen, in principe maakt het vrij weinig uit hoeveel een desktop-GPU verbruikt, zolang ie maar gekoeld kan worden. Het zou me niet verbazen als je met extra inspanning ook een high-end GPU op minder dan de helft van het vermogen van huidige GPU's kunt draaien.
Het zou me niet verbazen als je met extra inspanning ook een high-end GPU op minder dan de helft van het vermogen van huidige GPU's kunt draaien.
Ik geloof er niks van. Stroomverbruik is namelijk ontzettend belangrijk voor chipbakkers, zeker bij CPUs en GPUs, en wel omdat stroomverbruik (grotendeels) bepaalt hoeveel hitte er vrij komt. Dit heeft weer z'n tol op de maximale clocksnelheid van de chip. Met andere woorden, hoe beter het stroomverbruik beperkt kan worden, hoe hoger de chip geclockt kan worden, en een hogere clock betekent (vrijwel) altijd meer performance.
Uiteraard zijn er ook andere zaken van belangs bij de performance van chips, en ook de prijs is een factor bij het ontwerp, maar als het stroomverbruik gehalveerd kan worden met weinig werk betekent dat automatisch dat de snelheid ook flink omhoog kan met een zelfde verbruik, en dat is natuurlijk wat NVIDIA, AMD en Intel willen. :)
dan nog ze focussen op snelheid niet energie zuinigheid.
dus om die laatste paar procent performance eruit te persen kost het toch dia aantal extra watts ( 125 ofzo :P)

maar dan nog het zal even snel zijn als de laagste versie van de 6 serie. 6050 oid.
en niet een 6800 want die is toch wel erg snel. zekere voor in een mobieltje.
en die gebruikte ook aardig wat. de 6050 was al zuinig ( en redelijk traag voor pc termen) maar voor in een mobieltje met lagere power enveloppe vrij nuttig)
dus dat zal de performance wel zijn.
Misschien is het wel een overkill, maar toch is het een goede ontwikkeling om op zo'n laag vermogen zulke prestatie te leveren.

En het wordt natuurlijk weer een hebbedingetje voor mensen om mee op te kunnen scheppen denk ik zo. Een nieuwe hype na de iPhone voor mobiele telefonie. En dat terwijl mijn nokia uit de jare 30 ook gewoon kan bellen :X

[Reactie gewijzigd door BonzO op 11 februari 2008 16:19]

Ach, nu vind je het misschien zwaar overkill, maar wieweet wat je over een paar jaar zegt. Dit soort technologische vooruitgangen zorgen er weer voor dat er nuttige toepassingen voor ontwikkeld worden. Daarbij zal je in de toekomst het telefoon idee moeten vergeten. Dit zit straks gewoon in je electronische "buddy" die dan toevallig ook nog kan bellen.

Wie zei ook al weer dat iedereen aan 100kB genoeg had :+ ?
Leuk, maar ben ik echt de enigste die dit zwaar overkill vind?
Valt wel mee. Wat ik liever zie is zo'n zuinige GPU geïntegreerd op een PCI-E kaartje/moederbord. OK, hij mag 50% meer stroom verbruiken op full load maar dan moet hij wel Purevideo HD ondersteunen voor de Media Center fans. ;)

[Reactie gewijzigd door The Zep Man op 11 februari 2008 16:45]

Op een of andere manier kwamen mijn gedachten uit bij TomTom.

über 3d omgeving bij het navigeren.

200 mW zegt mij niet zoveel. Hoelang zou een gemiddelde mobiel accu zo'n videochip kunnen voeden?
Mijn telefoonaccu is ongeveer 3000mWh, dus ongeveer 15 uur non-stop :)
dat is dan alleen voor deze grafische chip...er zullen andere zaken ook nog energie verbruiken zoals het scherm, een andere processor, de circuits van het toestel, draadloze verbindingen, noem maar op

Dus die 15 uur zit er niet in,.

[Reactie gewijzigd door jqv op 11 februari 2008 15:39]

Waar heb je nog een andere processor voor nodig? Hier zit al een ARM11 in. 200mW is redelijk standaard voor een high-end ARM. En hier zit dan ook nog eens een relatief goede "GPU" in...

Maar inderdaad, de backlight is ook een groot verbruiker.

[Reactie gewijzigd door knirfie244 op 11 februari 2008 16:03]

Dit is enkel een application processor en een grafische processor samen op 1 die. In een gewone GSM zijn er meestal 2-3 processoren en bij smartphones kan dat oplopen tot 10. Bij voorbeeld voor de baseband waarbij meerdere protocollen vaak meerdere processoren vereisen. Een audioprocessor, imagepressor(camera), input processor voor touchscreens, diskcontroller voor media apparaten met een HD,...
Dan gebruik je een amoled scherm, probleem opgelost :)
Dat is dan zonder de overige functies van de telefoon/GPS en ook min de tijd dat het in de mobiel in standby staat en dat is onder volledig onder druk gezette chip. Hij zal niet altijd volledig gebruikt worden zodat ook het verbruik wat lager ligt in idle stand.
tegen de tijd dat dit op de markt komt denk ik dat de batterijen ook wel weer aangepast zijn :P
Die mobiele processoren zullen vanaf 45 nm pas echt interessant worden in termen van energiezuinigheid, zoals die ene van Texas Instruments Dat is de eerste 45-nm cellular processor, een ARM11 processor, die draait op 840 MHz. EN nog zuinig ook! :)
zou weer wat moois worden als mijn PDA zometeen spellen zoals bijvoorbeeld world of warcraft kunnen spelen 8)7 *ben zelf geen fan van dit spel* Maar dat zijn natuurlijk wel leuke ontwikkelingen weer! De laptops worden steeds kleiner, de mobieltjes kunnen steeds meer... Wanneer zou er 1 standaart komen?? :Y)

Nee ff zonder dollen, er zou altijd onderscheid blijven tussen een computer en een telefoon (uitgezonderd de PDA's) Veel mensen willen een telefoon die zuinig is en dus gewoon doet wat ie moet doen + eventueel een navigatiesysteem of MP3 speler... Dus maar eens kijken of mensen toch niet sneller voor een LT kiezen dan voor een mega dure telefoon.
Het is wel leuk als je een oprolbaar toetsenbord en/of scherm bij je hebt. Je gaat ergens naar toe, je legt je mobieltje neer. Je sluit'm op het lichtnet en je haalt je toetsenbord en scherm tevoorschijn. Je sluit het aan op je mobieltje en werken/gamen maar!
Pff... Strax speel je nog 1080p af op je telefoon.

Zover komt het (ooit) nog wel.

Maar bij deze; mooie vinding! Keer wat anders dan al die andere standaard upgrades (cam, etc)
Het wordt helemaal mooi als er een systeem komt waarmee je dan ook nog naar deze beelden kunt kijken. Ik verwacht persoonlijk veel van de laatste ontwikkelingen mbt heads-up displays (HUDs). Een projector in bv. je zonnebril die beelden projecteert op je brillenglas waardoor je een soort van virtueel scherm voor je ziet.

Deze processor kan in ieder geval de beelden leveren die je nodig hebt.
of de nieuwe beamers in je telefoon....
1080 p projector in telefoon.. nice XD
"Hé!... koppel jouw telefoon aan de mijne, dan hebben we SLI"

8)7
leuk opmerking :P Maar goed,

Denk serieus dat telefoons dan toch wel echte game consoles kunnen worden (a la nokia Ngage) Met zwaardere applicaties en betere prestaties.
als ik hem dan maar kan connecten aan me tv. als ik groot scherm wil.
dan vind ik het leuk. wil niet alleen op dat kliene scherm kloten.;/
Oeh, dat word quaken op het navigatiesysteem.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True