Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties
Bron: The Register

Intel heeft als voorproefje op het aankomende IDF bekendgemaakt dat het volgend jaar een nieuwe feature in zijn Xeon- en Itanium-hardware zal introduceren die luistert naar de naam I/O Acceleration Technology (I/OAT). Deze techniek zal verschillende vormen van I/O kunnen versnellen, waaronder in ieder geval TCP/IP en RAID. Er zijn op dit moment nog nauwelijks technische details over de functionaliteit vrijgegeven, maar mogelijk houdt het verband met het vorig jaar gepresenteerde onderzoek naar Direct Cache Access (DCA). Met die techniek zou randapparatuur rechtstreeks in het cache van de processor kunnen werken, om zo de geheugenbus en het operating systeem te omzeilen. Uit onderzoek van het bedrijf blijkt namelijk dat een processor tijdens het verwerken van TCP/IP-pakketen 23% van de tijd aan het wachten is op het geheugen en maar liefst 58% van de tijd op het operating systeem. Met enkele tot tientallen gigabits bandbreedte is dat een serieus probleem, zelfs voor de snelste processors.

Hardwarematige versnellers voor zaken als TCP/IP en RAID bestaan natuurlijk al veel langer, maar Intel denkt het efficiënter en goedkoper te kunnen doen door het rechtstreeks in de processor te bakken. Overigens zijn ze zelfs daarmee niet de eerste (Sun en IBM zijn er al langer mee bezig), maar men verwacht wel een bredere ondersteuning aan de softwarekant te kunnen krijgen. Op het aankomende IDF - waar Tweakers.net overigens weer aanwezig zal zijn - zal het bedrijf meer details bekendmaken over deze feature.

IDF 2004 - Logo ding
Moderatie-faq Wijzig weergave

Reacties (47)

Dure netwerk kaarten hebben vaak een special purpose processor aan boord waarin je een programma kan uploaden die de netwerk packets afhandelt. Zo kan je je hele IP stack naar een externe processor verplaatsen.

Is dit nou een zelfde soort idee, maar dan goedkopere 'huis/tuin/keuken' oplossing?
Ja, maar dan ook nog generiek. Dus geschikt voor Raid, TCP/IP enz.
Tja, inbakken 'versnelt'. Inderdaad, de games voor de game-consoles bevatten ook veel info en zonder de nieuwste '6800gt ultra kaarten' daarin werkt dat toch ook prima.

Hard(de-)coding gaat vlotter dan software, wat altijd een weg van omwegen en prioriteiten is.

Idem met de videokaarten die processoren minder belasten, of welke zelf mpeg-x kunnen (de-)coderen

Op enig moment kopen we vast een gig geheugen met windows XX er op, en wederom wat momenten later als geheugen 'een cent per gigabytes kost' zijn we ook af van de bottlenecks genaamd harddisks.

In het hier en nu is het toch niet zelden een kwestie van 'minder vertragen', i.p.v. versnellen.
De reden waarom op een console alles met mindere specs net zo goed en mooi draait ligt heel ergens anders. Ten eerste word een console op een TV aangesloten die maar een resolutie van 640*480 geloof ik ondersteund (voor PAL iig) dat itt resoluties die op pc gebruikt worden als 1280*1024 en zelfs nog hoger, dat scheelt al een hoop gpu power. Ten tweede kan elke game voor die console (en dus die hardwareset) geoptimaliseerd worden terwijl je bij pc game rekening moet houden met allerlei soorten hardware. Haast geen enkele pc is hetzelfde en toch draait zowat elke game op die mix van verschillende pc's. Bij een console kun je dus véél meer optimaliseren voor die specifieke hardwareset. Denk er ook aan dat de console ook enkel en alleen maar gemaakt is voor games (tenminste...dat was ooit zo :P dat gaat langzaam aan veranderen) en een pc meer een all-round machine is die zowel games, office en andere zeut moet kunnen draaien.

Alsnog zullen we nooit tegen het punt aanlopen dat harddisks onnodig zijn vanwege de grote hoeveelheid geheugen. Ten eerste is het RAM geheugen leeg wanneer er geen stroom meer op staat (oftewel: als de pc uit is alle data kwijt) dus je hebt altijd een harddisk nodig en ten tweede hadden we 15 jaar geleden geen schijven van 1gigabyte, toch hebben ondertussen behoorlijk wat mensen 1gig aan RAM geheugen...laat dat de schijf als bottleneck verdwijnen? no way het probleem is alleen maar groter geworden omdat schijven steeds vaker achterlopen tov de rest van het systeem. Software wordt steeds complexer en uitgebreider en zal dus telkens weer meer geheugen gaan slurpen evenredig met hoe snel de hoeveelheden geheugen in de loop der jaren zal stijgen in een pc. Denk dan ook voraal aan uitgebreide GUI's enzo (denk aan Longhorn die ws veel geheugen zal gaan gebruiken helaas).

Edit: Thnx dmatione, PAL is dus 720x576 en Amerika heeft met hun NTSC slechts 640*480 :P maar het veranderd niets m'n post.
640x480 is NTSC. Wij Europeanen hebben wat scheper beeld, PAL is 720x576.
Om helemaal volledig te zijn PAL is 50Hz en NTSC 60Hz (beide zijn geinterlaced). Horizontaal is er geen resolutie (omdat het om een analoog signaal gaat) dus NTSC kan net zo goed 720x480 zijn. De verticale resolutie ligt wel vast omdat dit om het aantal lijnen gaat wat getekend wordt.

Bij NTSC gingen ze voor een hogere refresh rate zodat het beeld minder knippert. Bij PAL hebben ze de resolutie voorang gegeven (meer lijnen)
[opa vertelt]
en om helemaal te mieren####ken:

het televisiebeeld is gesynchroniseerd aan de stroomvoorziening, dus gesync'd aan 50Hz in het intelligente deel van de wereld en aan 60Hz in het arrogante deel van de wereld.
Daarom laat pal 25fps zien en ntsc 30fps - beide systemen laten wel twee keer per seconde een half frame in beeld zien (de even beeldregels, de oneven beeldregels, de even beeldregels, etc.), daardoor lijkt net alsof het vloeiend 50 fps resp. 60 fps is.

NTSC staat in de wandelgangen van het NOB ook wel voor "Never The Same Color twice" wat je thuis ook leuk kunt zien als er bijv enkele dagen na elkaar TV beelden worden overgenomen vanuit amerika.

[/opa vertelt]
ntsc ging voor 60hz omdat het stroomnet op 60hz werkt(e?)

pal was wat beter uitgedacht. betere colour scheme en hogere resolutie... maar die kwam dan ook wat later dan ntsc.
om even de America-Bashing van "increddibelly" te relativeren....

Mocht het zo zijn dat door wat voor actie dan ook jezelf aan het stroomnet koppelt, dan ben je in het "arrogante deel van de wereld" toch beter af.
Het menselijk lichaam heeft veel meer last van die 50Hz dan van 60Hz als het 220 resp. 110 te verwerken krijgt.
Da's ook wel zo'n beetje het enige voordeel dat je je kan bedenken aan een 110V netwerk, en bovendien vraag ik me af of je wel zoveel beter afbent omdat de stroom die door je lichaam knalt 2x zo hoog is.
Om dan nog even verder off-topic door te mieren, die resoluties die hier genoemd worden slaan nergens op...
Hier een overzicht:

Name     Frame/Field rate    Scan Lines
NTSC     29.97/59.94          525
PAL        25/50                  625
PAL-M    29.97/59.94         525
PALplus  25/50                  625

Horizontale resolutie maakt in principe niet uit.
@arjenhiemstra en @Puzzle Solver: Die 625 vertaalt zich dus in 576 zichtbare lijnen, zoals dmantione al zegt. Denk aan blanking interval en datalijnen. De horizontale resolutie wordt beperkt door de bandbreedte die voor het videosignaal beschikbaar is, bij de normen die daarvoor gelden (zal iets van 5MHz zijn) moet je inderdaad aan de al genoemde getallen denken. Analoog is dus niet hetzelfde als onbeperkt, of onduidelijk gedefinieerd.

@opa: de verticale frequentie is al sinds de eerste electronische TV's opkwamen (als in: televisies zonder electromotor) niet meer lichtnetsynchroon. Dat kan ook niet omdat de stroomvoorziening bij de zender niet persee in fase is met de stroomvoorziening van de ontvanger. Sterker nog, om flikkervrije opnames te maken van plaatsen die met TL verlicht zijn of van beelden van andere TV's of monitoren, moet je voorzieningen treffen om de synchronisatie daarop te 'locken'.

@Metal Baron: bij 110V is de stroom die door je lichaam knalt ook maar de helft (weerstand blijft namelijk gelijk!)
NTSC wordt dan ook wel Never The Same Color genoemd. :P
laat dat de schijf als bottleneck verdwijnen? no way het probleem is alleen maar groter geworden omdat schijven steeds vaker achterlopen tov de rest van het systeem.
Dat is niet waar. Vroeger paste de code van een app niet eens volledig in RAM. Nu heb je zoveel RAM dat het voor code en zelfs data vrijwel geen issue meer is, zelfs tien tot honderd apps tegelijk kan nog.
ja laten we 10 keer nfsu2 draaien of honderd keer
dat lukt echt maar 1 keer
kleine aps lukt natuurlijk makkelijk
Maar we kunnen echt niet zonder harddisk nog.
programma's passen vast wel in je werk geheugen maar echt niet alles tegelijk.

Nu nog wachten op betaalbare terrabyte solidstate hardeschijven (zonder schijven dus)
dan is het probleem van slijten weg jammergenoeg zijn die niet zo snel als processor cache.
Pardon?

[jaren 80]
Vroeger waren programmeurs juist zo lang mogelijk bezig om hun programma zo klein mogelijk te maken en het in minder dan 640k te laten draaien (het conventionele geheugen).

Om dat probleem te verhelpen hebben ze het XMS en EMS geheugen gemaakt, waardoor programma's ook in het hogere geheugen konden draaien.
[/jaren 80']

[jaren 90]

In deze jaren werdt het virtueel geheugen populair en werdt dan ook rijkelijk in Windows 3(.1,.11) gebruikt.

[/jaren 90]
Srry mar ik kan wel meer grote apps draaien. Ik had overlaast Rose and NFSU2 aan staan vor de loligheid was in nog een Rowe Total war aan het spelen,. Alles liep vloeiend. Was niet NFSU2 aan het spelen maar stond wel aan. Maar games heb ik niet op pc dus kan niet verder testen.
[jaren 00]
Er is zoveel geheugen beschikbaar dat het geen programmeur meer interesseert of zijn applicatie nou 10 of 100 Mb gebruikt of een geheugenlekje of twee vertoont.

Hetzelfde geldt voor rekenkracht trouwens. Optimaliseren is verheven tot kunst.
[/jaren 00]
Ja ok, er zijn minder lijntjes op te vullen kwa resoluties. En verder onderstreep je wat ik ook zeg: minder vertraging, door optimalisatie, hardware die het zelf doet onderling, less need for speed dan dus :-)
Wat de harddisks betreft: ik denk dat er hier weinig mensen zijn die met hun raid 0 disks (> 4 of zo) de bandbreedte kunnen vullen, het geheugen kunnen volstouwen met data, zo snel als het systeem dat hebben kan. M.a.w. weinigen hebben disks die 'gigabytes p/s in het systeem kunnen pompen'
nee, dat lukt niet, maar met mijn raid 10 opstelling (4 disks) trek ik toch echt de complete pci bus aan stront (110 tot 120 MBps)
Op enig moment kopen we vast een gig geheugen met windows XX er op, en wederom wat momenten later als geheugen 'een cent per gigabytes kost' zijn we ook af van de bottlenecks genaamd harddisks.
De HDD is al lang geen bottleneck meer bij de meeste taken.
hmm de meeste taken - ok. maar voor data intensieve dingen best wel hoor...

neem de 925 chipset's data throughput (http://www.hothardware.co...age=2&articleid=542&cid=1)
CPU bus: 6.4GB/s
memory bus: 8.5GB/s met ddr2-533
PCI-express x16: 8GB/s

link tussen MCh en ICH: 2GB/s

SATA: 150MB/s
SATA-II: 300MB/s
SCSI (met single disk) 320MB/s

vergeleken met sata is de cpu bus 43 keer sneller, en het geheugen zelfs 58 keer...

hoezo geen bottleneck.

Ja goed, je kan best wel een raid opzetten, maar zelfs met een raid 0 moet je wel erg veel hdd's gebruiken om ook maar ergens in de buurt te komen van de throughput op de geheugen bus...

theoretisch dan he ;-)

en ik kon het toch wel heel duidelijk merken (zelf met simpel word processing) toen ik onlangs mijn ata-66 met een sata verving... laat staan mijn games!
de games voor de game-consoles bevatten ook veel info
Wat bedoel je daar precies mee?
En wat heeft dat met het verplaatsen van functionaliteit van software naar hardware te maken?
Dat de game in een behuizing gebakken is die de data bevat. En dat de game op zich niet eens een trage, swappende, seekende enz. HDD nodig heeft.
Ik ben van voor de Xbox generatie, dus of dit ook geld voor de huidige consoles die ook op internet kunnen weet ik niet.(Of die een HDD onboard hebben)
maak er maar een euro per gig van aangezien we nou al onder de euro grens zitten voor een gig voor hd's ;)
de 6800 kaart kan veel meer dan een huidige console kan.

Een complete Xbox is slomer dan een 6800 (niet dat zoiets los werkt)

dat het prima werkt is logies de console games zijn perfect afgestemd op die console.
Hierdoor kan je in games visuele truukjes gebruiken om dingen mooi te laten lijken. Een aantal van deze truukjes kan niet op de pc omdat er zoveel verschillende videokaarten zijn. (je zou het bij een aantal kaarten kunnen zien dat het een truukje is of een vervorming) Het is nog wel mogelijk maar dan moet je voor elk type GPU de game programeren iets te veel werk daarvoor zijn api's. (en dat is soms iets meer rekenwerk)
wat denk je dan van bijvoorbeeld al netwerk kaarten!

Een Sweex Gigabit kaartje zorgt al snel voor een 60 tot 70% processor gebruik, want ja de kaart kan wel 1 GBit aan maar...dan wel via software drivers.

Terwijl een 3com of Intel kaar ook echt of hardware niveau versnelt....

Dus wat is de echt Gbit kaart..een die het door via software ( drivers ) of een die het doet via hardware!
Ik snap eigenlijk sowieso niet waarom zoveel dingen aan de processor worden overgelaten terwijl er bijvoorbeeld als iets is als SCSI, netwerkadapters en controllers moeten eens wat meer eigen rekenkracht krijgen, 't is gewoon zwaar irritant dat je computer sloom wordt als je alleen maar een beetje je harde schijf gebruikt :/ ...

Als ze er ATA-acceleratie bijdoen lijkt het me een strak plan :9
kost meer geld.

vergelijk scsi maar met ide. ide is vele male goedkoper.

ok het is ook niche maar usb en firewire is misschien een nog beter voorbeeld. firewire heeft meer offloading en is daarmee duurder dan usb.
Goede sata raid controllers zijn ook behoorlijk duur...
't is gewoon zwaar irritant dat je computer sloom wordt als je alleen maar een beetje je harde schijf gebruikt :/ ...
Wat voor computer heb jij dan?
Ik heb daar nooit last van.

En de reden dat zoveel (mogelijk) in software wordt gedaan, is dat dat veel goedkoper te ontwerpen is dan hardware.
Ik heb daar nooit last van.
Bij het laden van een beetje flinke game (HL2 bv.) merk je het verschil tussen RAID0 SATA 150 en een enkel PATA100 schijfje wel hoor.

Echt "last" heb je d'r idd niet van, maar het is wel degelijk merkbaar.
Bij het laden van een beetje flinke game (HL2 bv.) merk je het verschil tussen RAID0 SATA 150 en een enkel PATA100 schijfje wel hoor.
En hoe dacht je dat met andere controllers op te lossen?
Wedden dat jij het verschil tussen PATA100 en SATA150 niet merkt met een schijfje?
Dit om maar eventjes aan te geven dat de ATA100 limiet nog _NIET_ bereikt is wat schijfsnelheden betreft.
Met 2 schijfjes op 1 kabel kan je de limiet nog wel halen maar dat is sowieso niet aan te raden met P-ATA.
Is een beetje een kip - ei verhaal. Vroegah (toen computers nog uit gimzalen bestonden) zat inderdaad de rekenkracht bij de toegevoegde elementen zelf. Er is juist voor de kosten overweging zoals justice zegt gekozen om de "dure" reken kracht centraal te hebben.
58% van de tijd op het operating systeem
Welk OS is dat? Of is dit een gemiddelde?
Alsof dat zoveel uitmaakt dan?
Ik denk dat ze hier een gemiddelde waarde hebben gepakt. Ook hebben ze volgens mij voornamelijk naar servers gekeken omdat die voornamelijk met TCP/IP pakketen bezig zijn, en ten tweede omdat ze het in gaan bakken in Xeons en Itanium die ik voornamelijk server procs wil noemen, maar ook worden gebruikt in heavy duty workstations.
hardware is altijd sneller dan software
als het ook goedkoop is Prima

eigelijk een zelfde soort voorbeeld:
de muis en toetsenboard

een usb muis/toetsenboard is rekenkracht vernietiging
ps2 is er voor gemaakt is heeft zijn eigen buffers in het moederboard
hierdoor veel directere en snellere aansturing
Hardwarematige versnellers voor zaken als TCP/IP en RAID bestaan natuurlijk al veel langer
wat wordt hiermee bedoelt?
zijn die versnellers pci-kaartjes? zoals een netwerkkaart en een raid controller kaart?
en wil dit dan zeggen dat het beter is van een netwerkkaart te gebruiken ipv een onboard netwerkaansluiting?
TCP/IP-acceleratie zal bij de modernste netwerkcontrollers geïntegreerd zijn in één chip. Als je zo'n chip op een moederbord zet heb je dezelfde voordelen als wanneer de chip op een PCI-kaart is ondergebracht. Wat je wel vaker zult zien is dat de fabrikanten van moederborden voor de goedkoopste oplossing kiezen, bijv. een chip zonder acceleratie.

RAID-adapters met hardwarematige versnelling gebruiken vaak zoveel componenten (I/O controller, processor en geheugenchips) dat integratie op een moederbord niet aantrekkelijk is. Er zijn wel ROC (RAID-on-chip) oplossingen die een hoge mate van integratie hebben maar vaak zijn die het gevolg van een streven naar kostenbesparing die ook ten koste gaat van de prestaties.
Hoe beïnvloed dit de prijs?
Ben je nou Nederlander of niet :+
Waarschijnlijk niet zo veel. Intel heeft al een serie chips ontwikkelt die veel kunnen. Een beetje extra functionaliteit erbij zal wel wat ontwikkelkosten met zich meebrengen maar je hebt al minder ontwikkelkosten voor de rest van de chip, die is er immers al grotendeels. 't zorgt er dus hooguit voor dat de chips niet goedkoper worden.
Uit onderzoek van het bedrijf blijkt namelijk dat een processor tijdens het verwerken van TCP/IP-pakketen 23% van de tijd aan het wachten is op het geheugen en maar liefst 58% van de tijd op het operating systeem.
Welk onderzoek?
En hoe kan een processor nou op het operating system wachten?
Het OS draait toch zelf op de CPU?
De processor moet waarschijnlijk nog een keer van context veranderen voordat het os de kans krijgt om wat werk te verrichten. Daar heeft ie toch wel een paar duizend klok tikken voor nodig, en als deze techniek die switch overbodig maakt door rechtstreeks naar de cache te schrijven zonder de rest van de processen in de chip te verstoren dan is dat prachtig.
Uit onderzoek van het bedrijf blijkt namelijk dat een processor tijdens het verwerken van TCP/IP-pakketen 23% van de tijd aan het wachten is op het geheugen en maar liefst 58% van de tijd op het operating systeem.

Gaan ze dan uit van Windows© ?? Ik heb er met Ubuntu weinig last van hehe :9
goeie ontwikkeling dat alles hardware matiger word :D

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True