Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 15 reacties
Bron: X-bit Labs

Tot een jaar of vier geleden moesten gebruikers van dual-monitor systemen relatief dure grafische kaarten kopen. Deze situatie veranderde toen nVidia, Matrox en ATi in 1999 goedkopere videokaarten met ondersteuning voor twee monitors op de markt gingen brengen. Intel zal in 2004, met de introductie van de Grantsdale-G-chipset, dual-monitor-support nog goedkoper aan gaan bieden. Deze chipset kent enkele features waardoor het gebruik van dual-monitors nog eenvoudiger wordt. Intel's grafische core, de Intel Extreme Graphics 3, biedt namelijk ondersteuning voor dual-monitor systemen. Naast deze grafische core heeft de chipset onder andere de volgende features: een PCI Express x16 grafische poort (PEG x16), dual channel DDR-II SDRAM, vier SATA-150-poorten, vier PCI Express x1-poorten en Azalia-audio. Wanneer het Intel lukt om door te breken in deze markt, zal het zijn positie in de grafische industrie behoorlijk versterken:

Intel logo bij Intel gebouwIn case Intel successfully addresses markets requiring two monitors per PC, it will greatly solidify its positions in the overall graphics market and may catalyse the use of dual-display configurations by more users. Even though the majority of today’s discrete graphics cards support two monitors, the Intel Extreme Graphics 3 will be probably a lot more cost-effective – a crucial peculiarity for a lot of customers who use integrated graphics now.
Moderatie-faq Wijzig weergave

Reacties (15)

Ik weet niet of dit wel zon grote stap voorwaarts is. Mensen die 2 schermen gebruiken, zijn ook vaak degenen die grafisch zware programma's draaien, wat natuurlijk niet zo soepel loopt op een geintegreerde videokaart. Naar mijn mening is de doelgroep dus niet zo verschrikkelijk groot.
volgens mij, als je kijkt naar aantallen, worden de meeste multi monitor opstelling gebruikt in de financiele en zakelijke markt, en niet in de grafische, dus er valt zeker wel wat te halen voor intel
volgens mij, als je kijkt naar aantallen, worden de meeste multi monitor opstelling gebruikt in de financiele en zakelijke markt...
Daar heb je inderdaad gelijk in. De meeste dual-monitor opstellingen worden inderdaad in kantoren gebruikt, en in dat geval is de prijs veel belangrijker dan de prestatie. In zo een situatie heeft een geintegreerde grafische core met ondersteuning voor dual-monitor het meeste kans van slagen.

Maar vergeet niet dat de Grantsdale niet perse goedkoper zal zijn dan een losse PCI/AGP videokaart met dual-monitor ondersteuning. De Granstdale zit vrij vol met nieuwe technologieen, dus goedkoop zal de chipset niet worden. Althans, de Grantsdale versie met dual-monitor ondersteuning. Want het zal mij niks verbazen als Intel met twee of drie versies van de Grantsdale komt om zo alle markten te kunnen bedienen.

De Grantsdale zou in Q2 2004 op de markt komen, ongeveer gelijk met de introductie van DDR-II dus. Voor de aanschaf van het gloednieuwe DDR-II geheugen betaal je dan natuurlijk veel meer dan voor het oudere DDR-I geheugen. Daarnaast zullen de PCI Express x16 en de overige PCI Express x1 sloten niet helpen in het drukken van de kostprijs.

Een dual-monitor AGP videokaart heb je al voor $30, en in combinatie met een goedkope chipset heb je een goed alternatief op de Grantsdale als die eenmaal uitkomt. Het is dan ook wachten op wat de OEM's doen. Als die massaal voor de Grantsdale kiezen, dan zal dat vooral komen omdat de prijs van de chipset laag is.
Maar vergeet niet dat de Grantsdale niet perse goedkoper zal zijn dan een losse PCI/AGP videokaart met dual-monitor ondersteuning.
Op termijn zal de integrated solution waarschijnlijk wel goedkoper worden.

Nieuwe technologie is altijd duur.
Nieuwe technologie is vaak duur inderdaad, maar de dual-monitor feature van deze chipset wordt pas interessant als hij cost-effective is. In dit geval zal het dus niet geaccepteerd worden als het duur is omdat het nieuw is -- er zijn goede (goedkope) alternatieven voor, deze specifieke feature is ook niet nieuw natuurlijk!
En hoe definieer je de grafische markt dan...
Hoop niet dat er weer alleen aan heftig 3D werk wordt gedacht....

Video editting bijvoorbeeld is erg fijn met 2 of meer schermen...
Photoshop werkzaamheden zijn fijn met 2 schermen...
DTP werk in quark of indesign gaat lekker met meer schermen...

Voor die 3 toepassingen heb je nou niet een mega snelle 3D kaart nodig....
Ik heb hier thuis anders ook een dual opstelling staan (Samsung 19" CRT + HP 17" CRT op een Ati Radeon 8500 128MB) en wil niet meer zonder. Heb nou bv. T.net fullscreen (1600x1200) op me 19" en Trillian, Foobar en nog wat kleine rommel op me 17". Zo kan ik alles in de gaten houden. Zelfs tijdens het gamen kan ik op Trillian zien of iemand me lastig valt :P (Wel handig als je op online met een maatje wil gamen).
Tegenwoordig heeft praktisch iedere kaart meedere uitgangen en ik raad dan ook iedereen aan die ergens onder het stof nog een schermpje heeft staan die aan te sluiten op je 2e uitgang.
Het enige nadeel naast het extra energieverbruik dat ik kan bedenken is dat je nooit meer zonder wil 8-).
Ik ook. Ik heb gewoon een GeForce FX 5600 en met m'n Ti 4200 kon dat ook al perfect. De truuk is heel simpel:
- monitor 1 op de DVI uitgang
- monitor 2 op de VGA uitgang (die je anders toch niet gebruikt als je een leuke TFT met DVI hebt)

Het VGA beeld is wel ietsje minder scherp, maar niet opvallend. De kaart heeft maar 1 overlay, maar een video beeld wil je toch niet in 2 helften zien, ik niet tenminste.

Punt is: volgens mij is het bullshit om een speciale dual monitor kaart uit te brengen, als de gemiddelde gaming kaart dat ook al kan. Een extra PCI kaartje er bij prikken werkt ook goed trouwens, alleen beginnen die dingen een beetje uit te sterven...
Punt is: volgens mij is het bullshit om een speciale dual monitor kaart uit te brengen, als de gemiddelde gaming kaart dat ook al kan.
Nee, het punt is: het is bullshit om een gaming kaartje of oud pci kaartje in een zakelijke desktop te bouwen, puur om dual monitor te ondersteunen, als je ge´ntegreerde graphics dat al kunnen doen. En dat is waar bedrijven dan toch voor zouden kiezen, zeker als het goedkoper is ;)
Dit is namelijk een IGP chipset, en geen VGA kaart :P
Als het net zo'n succes wordt als hun vorige poging, de Intel 740 chip, dan breken ze zeker door... :Z Dat was namelijk ook al zo'n technolisch hoogstandje.

(hoewel dit natuurlijk geintegreerd is.)
Kweet niet onder welke steen jij vandaan komt, maar sinds de I740 heeft Intel al weer verschillende andere (geintegreerde) grafische oplossingen geproduceerd :)
Ik weet niet als je dit positief of negatief bedoeld maar de i740 was idd een hoogstandje voor zijn tijd, het was 1 van de eerste kaarten die de Voodoo-1 overbodig maakte.....

Op zich geen verkeerde move van Intel om een dual videokaart te maken alhoewel ge´ntegreerd in de chipset de echte performance nooit gehaald wordt.
En zoals vele onboard grafische connector een seriele poort in beslag neemt zal bij veel fabrikanten ook die 2e seriele poort gaan verdwijnen.
Tot een jaar of vier geleden moesten gebruikers van dual-monitor systemen relatief dure grafische kaarten kopen
O, wel vreemd dat ik er gewoon 2 grafische kaarten in heb geprikt. In mijn dual monitor systeem zit nu gewoon een ATi RagePro ( AGP ) en een Matrox Millennium II ( PCI ) en dat werkt feilloos. Alletwee hun eigen resolutie, eigen refresh ............

Ik snap het probleem wat dat betreft niet ...........

OK, met de aanstaande Intel oplossing is de bandbreedte een stuk ( zeg maar gigantisch ;) ) hoger, maar de stelling dat dual vroeger zo duur zou zijn, is natuurlijk niet helemaal in het juiste perspectief.
met mijn ATI radeon kan ik ook eigen res en resolutie voor beide monitors.
moet je vid kaart dat wel ondersteunen natuurlijk, maar je hebt er niet persee 2 vid kaarten voor nodig.
Ja, maar met je radeon kaart heb je geen dual overlay, en zo fantastisch vind ik de kwaliteit van de tweede uitgang van mn Radeon niet.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True