Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 69 reacties
Bron: ZDNet

Het overgrote merendeel van de internetsites van W3C-leden voldoet nog steeds niet volledig aan de standaarden die zijn uitgeschreven door het consortium. Deze conclusie kan getrokken worden na het derde tweejaarlijkse onderzoek dat gehouden is onder de leden van het World Wide Web Consortium. Hoewel het percentage dat zich aan de regels houdt is gestegen naar iets meer dan zes procent, is dit natuurlijk geen resultaat om trots op te zijn. Zelfs de internetsites van browserontwikkelaars Microsoft, AOL Time Warner en Apple behoren niet tot de zes procent geslaagden. Dit is volgens de onderzoeker meer te wijten aan de lakse houding die deze bedrijven aannemen, dan dat er sprake is van opzettelijke tegenwerking. Voor de rest ligt het probleem volgens de onderzoeker vooral bij de makers van website-applicaties. Deze hebben er nog steeds niet voor gezorgd dat hun programma's geen verouderde opmaakcodes meer genereren:

Logo W3C Now that most browsers have fallen in line with W3C recommendations, standards advocates have increasingly focused their attention on the authoring tools that produce the vast majority of the Web's pages. These tools, in an effort to produce code that works with older, nonstandard browsers, typically spit out nonstandard code.
Moderatie-faq Wijzig weergave

Reacties (69)

Het jammere is net dat veel webdevelopers wel weet hebben van de standaarden, maar ze naast zich leggen. Het argument "Dik 85% van de Internetters gebruikt Internet Explorer, dus als de site daarin goed wordt weergegeven is het goed voor mij" hoor je veel te vaak. Velen ontwerpen een site naar een browser en dat is een verkeerde aanpak.

En zolang die mentaliteit blijft bestaan, gaat er geen verandering in de situatie komen. Microsoft blijft maar eigen interpretaties maken van de standaarden en webbouwers blijven ze gebruiken. Ook Opera volgt de standaarden niet altijd even correct en durft hier en daar wel eens een eigen interpretatie maken. Mozilla is zowat de enige die de standaarden vrijwel op de voet volgt wat bij de "Internet Explorer generatie webdevelopers" natuurlijk frustraties opwekt... Of ze negeren de browser gewoon.

Wanneer men gewoon naar W3C zou ontwerpen, zou er op termijn eindelijk iets aan gedaan kunnen worden. MS zou bijvoorbeeld kunnen inzien dat een wildgroei van standaarden niet werkt en zijn browser W3C compatibel maken. Indien ze dat niet doen, dan kan IE wel eens de browser worden waarin een boel pagina's niet juist worden weergegeven.

Na het ontwikkelen van een site die aan W3C voldoet zou je normaal klaar moeten zijn. Echter, zolang de verschillen tussen de browsers bestaan is dat niet zo. Je moet de site testen in Mozilla, Opera en IE. En dan je code zo aanpassen opdat de site er min of meer hetzelfde uitziet in die browsers zonder de W3C validatie te breken.

Alleen als iedereen zich aan W3C gaat houden zal er op termijn een einde komen aan deze idiote situatie... Een utopie zo vrees ik als je naar de mentaliteit van de meeste webbouwers kijkt.
Ik denk niet dat de W3C recomendations alle functionaliteit omvat die webdevelopers NODIG hebben om volledig functionele webapplicaties te kunnen bouwen. M$ is hier juist altijd zeer goed mee bezig geweest, en heeft de vraag in de markt herkend. In een tijd waarin W3C en IE concurenten nog klungelig een soort DHTML probeerden te maken, ging het bij M$ meteen heel voortvarend.

Ook de manier waarop DHTML werkt (object model, events, enz) is bepalend of gewenste functionaliteit in een browser interface gerealiseerd kan worden. Delen van wat IE4 reeds implementeerde zijn nu gelukkig ook terug te vinden in W3C recomendations, dus er is nog hoop :).

Wat betreft CSS is ook hier M$ goed bezig, ze hebben enkele in de praktijk nuttige uitbreidingen ingevoerd en deze ook aangeboden aan W3C voor opname in de recomendations (proposed).

En hoewel IE deze niet altijd exact volgens de W3C regels renderd, is het wel logisch wat er gebeurd. De ontwikkelaars van IE hebben blijkbaar goed nagedacht en de render engine zo gemaakt dat het geen mogelijkheden uitsluit die mogelijk door een ontwikkelaar nodig zijn. Dat komt de flexibiliteit en programeerbaarheid, wat nodig is voor 'real life' applicaties, ten goede.

Dus M$ is met IE praktijk gericht bezig en dat kan ik niet altijd zeggen van W3C of met IE concurende producten! Dus petje af voor M$ op dit vlak!
Ben ik niet helemaal met je eens. Ik heb an sich geen problemen met het uitbreidingen in een browser, dat kan zeker voordelen hebben, en dat is ook de drijfveer van innovatie. Maar anderszijds vind ik wel dat, als je afspraken maakt over standaarden die je gebruikt, je ook aan die afspraken moet houden. Ik zou zeggen, zorg dat je standards-compliant websites ook volgens die standaarden rendert en wat de browser extra kan toevoegen zou niet van invloed moeten zijn op andere browsers (althans, niet ten nadele). En zorg ook dat het duidelijk is dat zo'n extra alln ondersteund wordt door je eigen browser.
Het is een menselijk proces. Hoe vaak hou jij je exact (100%) aan de verkeersregels? Dat is ook een standaard. ;)

Ik ben het met je eens dat het een utopie is dat alle webdevelopers (mensen) zich aan de W3C-standaard (regels) gaan houden. Mensen zijn nou eenmaal mensen.
Ik ben het helemaal eens met het verhaal van SatCP, maar ik denk dat het inderdaad lang kan duren voordat iedereen zich aan de W3C standaard houdt. De reden daarvoor is simpel. Als je verder wilt dan een simpele layout moet je vrijwel altijd browser-specifiek werken. Een site die aan de W3C html-standaard voldoet ziet er meestal in geen enkele browser goed uit.
Browser-specifiek betekent meestal IE-specifiek want een voor groot deel van het online-volk is een browser, internet en IE n en hetzelfde volgens mij.
IE is zich na verloop van tijd - om wat voor reden dan ook - wel iets meer aan de standaards gaan houden. Maar een W3C-standaard wordt pas breder gedragen als er meer echte concurrentie komt op de browser-markt denk ik.
Het vervelende is dat je een W3C compliant site kan bouwen, die er vervolgens zwaar beroerd uitziet in een oudere browser als netscape 4. Gelukkig worden die steeds minder gebruikt, maar vaak wordt ondersteuning door die browsers nog steeds door klanten gevraagd :'(
Nog veel vervelender is het dat het verrekte lastig is een standaard-volgende site te bouwen die er goed uitziet in IE. Zelfs de nieuwste versie van IE ondersteunt nog geen eens heel CSS1
Idd, nety een mooie site gemaakt met css (opacity en zut er door) en png's, laat mozilla/konqueror mn prima zien en IE verneukt m helemaal
Inderdaad, ik ben nu al weken aan het kloten met de standaard CSS 2 voor een nieuwe website omdat ik hem wil laten voldoen aan de standaarden, maar in IE lukt het gewoon niet om het te krijgen zoals ik dat wil. Sommige tags worden gewoon genegeerd! Maar 99% van alle bezoekers zal IE gebruiken (bij de vorige website was dat zo), dan is zo'n "standaard" behoorlijk waardeloos.
Inderdaad, Netscape 4 is de grootste ramp die je als hedendaagse webdesigner kan krijgen als eis... Echter, als je je html structureel goed in elkaar steekt, is de essentie van de pagina zeer goed te begrijpen. En daar schort het bij de meeste designers aan, <div>'s all over the place en in random volgorde.

Het mooie van html is dat een browser onbekende tags mag negeren, zo krijg je altijd de juiste informatie die je zoekt, alleen misschien niet met dezelfde layout als iemand die een moderne browser gebruikt.
Dit is echt een triest percentage. Er zijn toch wel tools die de kleine overzichtelijke sites W3C conform maken (TidyHTML). Dit is volgens mij ondoenlijk om toe te passen op sites als Microsoft.com.
De browsers moeten gewoon kieskeuriger worden en oude niet W3C niet meer ondersteunen of een melding geven dat er foute code is gebruikt.

Misschien worden de webmasters dan eens een keer wakker. Het probleem is namelijk dat browsers heel veel slikken met een onbekende uitwerking. TidyHTML moet gewoon verplicht worden.

/*edit: aanvulling
is er misschien ook een windows proggy die hetzelfde doet als TidyHTML? ik vind alleen een mac classic versie daarvan op tucows :(
UltraEdit heeft de mogelijkheid HTML te valideren. Maar dit kan uiteraard ook op validator.w3.org
Ze zeggen het wel erg makkelijk van "dan pas je die tools toch even aan". Dat gaat vaak gepaard met enorme kosten die in principe nergens voor nodig zijn, omdat alle browsers de code prima interpreteren. De voordelen wegen gewoon niet op tegen de kosten.
Ze zeggen het wel erg makkelijk van "dan pas je die tools toch even aan". Dat gaat vaak gepaard met enorme kosten die in principe nergens voor nodig zijn, omdat alle browsers de code prima interpreteren. De voordelen wegen gewoon niet op tegen de kosten.
Een dyslect leren wij schrijven/lezen zoals het hoort(het standaard) en een webpagina die laten we dus alleen maar lezen? Dat snap ik dus niet.

Daarnaast ben je minder tijd kwijt als je vanaf het begin een webpagina ontwikkeld volgens het standaard. Het is niet erg als je niet 100% gevalideerd wordt maar als de designer alle HTML-code netjes typt(zoals hij het geleerd heeft!) en ze daarna pas publiseerd of doorgeeft aan de developer is er niets aan de hand. Daarnaast hebben standaarden in browsers als Mozilla(en haar kloons) een snelheiswinst.
Dat is volgens mij het probleem, die code wordt niet meer getypt maar gegenereerd door een of ander flut programma.
De enige applicaties waar je in mijn ogen een webpagina mee mag maken zijn de standaard text-editors, met als de betere natuurlijk UltraEdit.
Zolang je alles wat er aan code is maar wel zelf getypt hebt.
Zolang je alles wat er aan code is maar wel zelf getypt hebt.
en deze post heb jij natuurlijk via Lynx via de commandline van een terminal geschreven;
immers, op dezelfde manier kun je ook beargumenteren dat enkel commands die je zelf typt correct kunnen zijn, immers interfaces die op een visuele manier het uitvoeren van command presenteren en toegankelijk maken; dat is wat visual editors als Frontpage of Dreamweaver zijn, maar ook GUI's als, windows, KDE of macOSX/Acqua.

We hebben het hier over HTML, oorspronkelijk een subset van SGML: met juist de 'loose' declaratie als grote innovatie, in de oorspronkelijke specificatie van Tim Berners Lee uit 1989 werd juist gespecificeert dat UA's die attributes of tags niet begrepen deze moesten negeren en content gewoon dienden weeer te geven (en dat is de waarde van tags als NOSCRIPT of NOFRAMES: backwards-compatibility).

Natuurlijk is er met XHTML een grotere wens voor validatie, om een einde toe te zeggen aan een wildgroei van proprietaire tags en attributes (BLINK, LAYER, SPACER, BGPROPERTIES maar daartoe behoorden ooit ook TABLE en FRAMESET)

zaken als http://validator.w3.org zijn eigenlijk in eerste instantie reclame-materiaal voor W3C, een lobby-methode voor hun standaard; maar enieder dient zelf te bepalen welke waarde hij hieraan toeschrijft.
zo is het via die site ook mogelijk je CSS te valideren, dat is natuurlijk grote onzin, CSS is geen markup-taal, en kan niet 'valideren' zoals XML.
zo is het via die site ook mogelijk je CSS te valideren, dat is natuurlijk grote onzin, CSS is geen markup-taal, en kan niet 'valideren' zoals XML.
CSS is geen XML of SGML, maar het is wel een taaltje met regels waar je aan moet voldoen. Op die regels kan gecontroleerd worden, dus heeft deze tools wel degelijk zin.

De eigen codes van bijvoorbeeld Mozilla zijn voor eigen gebruik (voor in de UI) en horen niet in een website thuis die aan de standaarden voldoet!
De enige applicaties waar je in mijn ogen een webpagina mee mag maken zijn de standaard text-editors, met als de betere natuurlijk UltraEdit.
Zolang je alles wat er aan code is maar wel zelf getypt hebt.
dat ben ik met je oneens.

er is weinig mis met bijvoorbeeld dreamweaver gebruiken, of voor mijn part frontpage om het design snel op poten te krijgen. (face it, die krengen zijn daar gewoon ernstig handig in)

als je er daarna maar gewoon met <een editor> overheen gaat en die code W3C maakt. Niets mis mee, en over het algemeen genomen een uurtje werk at most. (hangt wel van de complexiteit van het design af natuurlijk)
of CSS een taal is kan sterk betwijfel worden, maar ik denk dat als je dit als taal wilt zien, het een beperkte grammatica heeft, basic ASCII, geen loops, enkel een platte declaratie-taal, zonder diepere attributes, nesting e.d.:
NAAM[attr=value]:pseudoclass { propertie: value !important; }
is feitelijk de hele opzet (enkel de @-styles komen nog daartoe, bindings vallen weer buiten CSS, en daarbij zowel voor XBL (waarbij opgemerkt mag worden dat tussen mozilla's XBL (dat is een Note aan W3C, gn recommendation van W3C) en w3C's eigen XSLT veel incompatibiliteits-problemen zullen ontstaan) ofwel .HTC bestaat geen standaard, beiden zijn proprietair)
Op die regels kan gecontroleerd worden, dus heeft deze tools wel degelijk zin.
niet als ze zaken als 'overtreding zien die in tegenspraak zijn met hun eigen 'standaard'
onbekende properties zijn toegestaan en het gedrag van een UA bij een onbekende propertie is vastgelegd:

http://www.w3.org/TR/REC-CSS1#forward-compatible-parsing

verder ziet de validator bepaalde CSS-declaraties als 'overtreding', die het helemaal niet zijn, bv. dubbelle declaraties als
TABLE { border: 1px;}
TABLE, DIV { background-color: rgb(255, 255, 255);}
ziet de validator als onjuiste code, wegens de dubbelle declaratie van een style voor een tag, echter het is juist een optimale toepassing van efficiente declaraties en volgens de specs zelf toegestaan.
>Op die regels kan gecontroleerd worden, dus heeft deze tools >wel degelijk zin.
niet als ze zaken als 'overtreding zien die in tegenspraak zijn met hun eigen 'standaard'
onbekende properties zijn toegestaan en het gedrag van een UA bij een onbekende propertie is vastgelegd:
Maar dat is een aanwijzing voor de makers van de UserAgent (=browser). De schrijvers van websites moeten wel aan de CSS1/2 standaarden voldoen.
verder ziet de validator bepaalde CSS-declaraties als 'overtreding', die het helemaal niet zijn, bv. dubbelle declaraties als
TABLE { border: 1px;}
TABLE, DIV { background-color: rgb(255, 255, 255);}
Dan is het zeker gek dat de CSS validator van het W3C dit gewoon slikt?

Plak dit maar eens in de tekstbox op de volgende URL http://jigsaw.w3.org/css-validator/validator-text.html
klopt, de CSS-validator (jigsaw) is inderdaad verbeterd sinds ik de laatste keer er gebruik van maakte.
ook de 'warnings' (zoals het specificeren van color zonder background-color) zijn wel handig, leerzaam. (alhoewel onderdeel van WAI, Accessibility-standard).

Maar dat neemt niet weg dat het valideren van CSS onzin blijft, een goed bewijs hiervoor is dat Jigsaw je de mogelijkheid geeft te valideren volgens CSS-1 of CSS-2 normen;
echter biedt HTML alswel CSS zelf je geen mogelijkheid (DOCTYPE, headers, MIME-types oid.) de UA mee te delen of de door jouw geschreven CSS-file nu CSS1 of CSS2 is; deze weet dus nooit hoe hij de als CSS1- of CSS2-'validerende' code moet uitvoeren.
De schrijvers van websites moeten wel aan de CSS1/2 standaarden voldoen.
moeten..., moeten..., mijn dochter 'moet' altijd haar bordje leegeten, maar ik plak heus geen button 'voldoet aan PAPPA's normen' op haar shirt als ze dat ook een keertje doet.
Eerlijk gezegd ben ik zo'n softie die haar eerder gaat uitleggen waarom ze dat bordje moet leegeten (dat ze later ook een grote meid wordt);
Wat webtoepassingen betreft, hecht ik meer waarde aan bewuste omgang met standaarden en mensen die weten wrom je geen layout-kenmerken in code moet verweven (FONT-tags) en waarom pagina.cgi?name=value&name2=value2 zo geschreven moet worden en vervolgens alsnog kiezen om bepaalde methodes toe te passen die de website bruikbaar houden in oudere browsers (netscape4x bv. ook al is dat een onding, hij wordt nog gebruikt) zelfs als dat ten kostte gaat van validatie of niet.
Het gaat dus meer om bestaande sites, waar een complex CMS achterhangt. Het is het geld niet waard om die helemaal aan te passen, omdat het geen zichtbaar effect heeft.

Neem de site van AOL, Apple of Microsoft even voor je.. en bedenk je hoe je het aan zou pakken om zo'n site even onder handen te nemen. Dit kost maanden en miljoenen in sites als die.
Hmm, het betekent wel dat je bezoekers het 100% goed voor hun neus krijgen en niet gedwongen worden om een bepaalde browser te moeten gebruiken. Er is dus wel degelijk effect.

Persoonlijk geef ik de voorkeur aan Mozilla maar op enkele sites werkt ie niet goed vanwege allerlei toeters en bellen.
-=bas=-

Het is fantastisch dat je bezoekers de sites 100% goed voor hun neus krijgen. Maar als dat betekend dat je miljoenen moet gaan investeren in 5 - 10% van die doelgroep (terwijl 90%+ de site al goed ziet) dan ben je businesswise niet heel erg slim bezig.

Even verder kijken dan techniek en principes, want daar heb je natuurlijk het gelijk aan je zijde. Het gaat erom of die techniek en die principes miljoenen waard zijn (want bij de grote jongens hebben we het over dergelijke investeringen) om een relatief zeer klein deel van je doelgroep te bereiken.
Is er ook een website / tool die je site kan "scannen" of deze W3C compliant is? En las hij dan ook nog aangeeft waar het juit fout zit... :Y)

Hulde aan de mensen die W3C compliant sites bouwen trouwens...

Edit: 97 errors op mijn eigen site :Y)
Het W3C geeft deze tools ook zelf uit, en is zelfs van plan ze uit te gaan breiden. De onderzoeker in het artikel heeft ook gebruik gemaakt van n van de tools van W3C. Check http://validator.w3.org/ maar eens.

/* edit: aanvulling
Whohaa Moet je eens zien wat een errors er zitten in tweakers.net! en dan van die stomme fouten als geen alt neerzetten bij een plaatje. Jongens,jongens, dat is toch niet van deze tijd meer :z Had ik niet achter t.net gezocht.

Waarom verbaast het mij niet dat MS zich niet aan de standaard houdt? :r
W3C heeft voor CSS, HTML, XML etc mooie validator-pages. Geef je een URL op en hij zegt wat er nog aan scheelt, waar het precies zit, wat je er aan kunt doen, etc.
Ja,..hier ... http://validator.w3.org/

Hmmm te laat,...iets te lang gezocht. Bedoeling was goed
Je kan je website testen op http://validator.w3.org/

En als je dat op www.tweakers.net laat doen dan komt er ook geen goed resulaat uit.
This page is not Valid HTML 4.01 Transitional!

Below are the results of attempting to parse this document with an SGML parser.

1. Line 5, column 52: required attribute "TYPE" not specified (explain...).

<script language='javascript1.2' src='x/misc.js.dsp'></script>
^

2. Line 7, column 50: required attribute "TYPE" not specified (explain...).

<script language='javascript1.2' src='x/j.js.dsp'></script>
^

3. Line 11, column 30: required attribute "TYPE" not specified (explain...).

<script language='javascript'>
Jammer dat zoveel sites zich niet aan de standaard houden.
Tweakers.net genereert zo al tig foutmeldingen vanwege het niet gebruiken van quotes.

En dat is natuurlijk om dataverkeer te besparen. Bij 1 pagina zul je dat niet merken, maar met een paar duizend per minuut wl.
Dan heb ik liever dat ze linebreaks en tabs eruit halen en wl W3C compatible worden...
Het is overigens wel jammer dat Tweakers.net niet aan de standaard voldoet.

Volgens mij mag dat helemaal niet moeilijk zijn. Is gewoon een kwestie van een paar dagen (avonden) je tanden in zetten. En dan kun je nog een mooi 'This page is valid HTML' plaatsen ook. :+

(En als de stylesheets correct zijn, dan kun je daar ook een
valid css plaatje voor plaatsen)
Bestaat er ook een off-line & stand alone programma om te validaten?

Ik heb niet veel zin om mijn pagina's telkens door dat script te trekken...
Probeer eens CSE HTML Validator:
http://www.htmlvalidator.com/

In mijn ogen het perfecte programma :)

PS: Jeldert, je moet ook niet de 'lite' versie gebruiken :P
Gewoon de Pro, ok tis 'maar' 100 volledige html pagina's die je kunt controleren, maar menig tweaker weet hier wel raad mee...*hint hint* ;)
Ben ik ook naar opzoek, had CSE HTML Validator Lite gevonden, maar als ik daarmee check dan wordt de pagina goed bevonden, echter haal ik er op w3c nog genoeg fouten uit, dus die tool werkt ook niet echt. :(
komt et nou hierdoor dat sommige sites er zo gruwelijk nernaggelt uitzien in mozilla?? (of ligt dat aan mozilla 1.0.2) neem nou clanbase, als ik die site open in mozilla klopt er echt niks meer van de layout (met name de clan-info page, alles wat in verschillende frames naast elkaar hoort te staan staat gewoon onder elkaar (clan info gedeelte staat dus helemaal onderaan de navigatiebalk aan de linkerkant terwwijl het er gewoon rechts naast moet staan).
Talita heeft toendertijd (augustus '98) Clanbase voor IE4.0 geschreven meen ik. Later is de boel wel een beetje aangepast enzo, maar het blijft grotendeels een rommeltje dat eigenlijk op IE gemikt is.
Dit komt eerder door de verschillende manieren waarop Mozilla en IE de standaarden interpreteren dan of die site zich wel aan de standaard houdt.
Voor zover ik weet houd mozilla zich aan de standaard, en slikt IE meer baggercode. IE schijnt het zelfs te doen zonder <html> tag's.
En vage sites kom ik wel vaker tegen met IE: ga maar eens naar www.viavia.nl, en probeer vervolgens in te loggen. Komt het hoofdvenster in de reclamebalk :? |:(
Opmerking, vreemd genoeg is de <html>-tag (in HTML 4.0 in ieder geval) officieel optioneel... Zie http://www.w3.org/TR/html4/index/elements.html
Uhm je moet even de comma uit die link halen dan is ie goed.

En als ik op inloggen druk (opera) dan krijg ik gewoon een leeg scherm behalve de reclame dan.
Ik zou je toch eens aanraden up te graden naar de nieuwste versie van mozilla. Want bij mij ziet clanbase.com er prima uit in mozilla.
Het is denk ik idd verstandig om up te graden.
Ik heb 1.3b en daarbij doet hij het perfect.
Het is trouwens wel grappig want als ik hem in IE 5.50.4807.2300 bekijk dan is hij rood en in Modzila is hij blauw :+
heb em dus meteen geupgrade, maar in 1.3a is het nog steeds fucked up (en niet alleen die kleuren, met name de clan-info pagina is echt verbouwt). edit: naar nu blijkt is dit alleen bij jmijn eigen clan zo (<DoG>, tactical ops NL) en dat wordt waarschijnlijk veroorzaakt door het nogal grote plaatje wat bovenaan staat (maar IE pakt dit wel goed).
Netscape DevEdge http://devedge.netscape.com werkt voldoet overigens wel aan de standaarden. :)

Alleen betekent dit dat browsers die geen support hebben voor CSS1/2 de content niet echt meer mooi gaan tonen. Maar als je per se wilt wordt je niet tegengehouden om de site met het verouderde product te gaan bekijken.

Overigens is Netscape onderdeel van AOL TW, dus de techneuten bij de grote bedrijven (in elk geval die bij Netscape) beginnen langzaam wel in te zien dat een site die correct HTML/CSS [etc] gebruikt beter is dan een site die dit niet doet.

Wat overigens ook een ramp is, is dat IE de JavaScript (ECMAScript) standaard met voeten treedt. De meeste fouten in de web-site die ik aan het bouwen ben worden op dit moment veroorzaakt door MS Internet Exploder. |:(


edit:

URL kwam niet door als klikbare link; tikfout
't Is offtopic, maar wel leuk om eens naar te kijken. Een van de gasten die achter genoemde website zit is Standaard-prediker bij Netscape en heeft een eigen site opgezet met allerlei CSS-technieken (wel bleeding edge, dus best te zien met nieuwste browsers en gegarandeerd niet-werkend met Internet Explorer).

http://www.meyerweb.com/eric/css/edge/
Ik word toch zo ziek van het gezeik over 'standards'.

Er staat toch recommendations. Dat is even wat anders dan een standaard.

Gezien de titel van het bericht en de reacties hier lijkt het erop dat de meeste tweakers geen flauw idee hebben van wat het W3C doet. Jammer.
officieel zijn de RFC's ook maar Requests For Comments, geen standaard dus.

fout, zowel wat w3c naar buiten brengt, als wat de IETF in RFC's schrijft is regel, tenzij anders genoteerd staat.

Recommendations is een term dat men nog niet verplicht was w3c te volgen in z'n specs, maar tegenwoordig ligt dat anders.

het enige nadeel wat ik zie is nog steeds dat iedere aangesloten partij de specs iets anders intrepreteerd, Microsoft en Netscape liggen in dat opzicht vrij dicht bij elkaar, maar Netscape is strikter, Opera vat het weer anders op.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True