Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties

Onderzoekers van de National University of Ireland hebben een zoekmachine ontwikkeld die minder dan een seconde nodig heeft om meer dan zeven miljard rdf-statements te doorzoeken. Hiermee is het semantische web enkele stappen dichterbij gekomen.

Een van de pijlers van het semantische web zijn zogenoemde 'resource description framework'-statements. Met behulp van deze xml-bestanden kunnen allerlei relaties tussen stukjes informatie inzichtelijk gemaakt worden. Het voordeel hiervan is dat de rdf-statements 'begrepen' kunnen worden door software. Onderzoekers van de genoemde Ierse universiteit hebben nu een zoekmachine ontwikkeld die in een fractie van een seconde zeven miljard rdf-statements kan doorzoeken. Doordat de software kennis heeft over de beschreven informatie is het dus ook mogelijk om specifiekere zoektechnieken te gebruiken om relevantere gegevens terug te geven naar aanleiding van een zoekactie. Een deel van de filteractiviteiten die gebruikers zelf vaak toepassen nadat ze informatie gezocht hebben via een zoekmachine, kunnen dus worden overgenomen door de software.

Concreet houdt dit in dat zoekmachines bijvoorbeeld een antwoord kunnen geven op een gestelde zoekvraag, in plaats van dat ze een lange lijst met links geven naar andere informatie, aldus professor Stefan Decker. Er wordt al jaren gepraat over het semantische web en onder andere Tim Berners-Lee, die ook wel de godfather van het internet genoemd wordt vanwege zijn betrokkenheid bij het begin van het web, is er een groot voorstander van. Het wereldwijde web is oorspronkelijk ontworpen om door middel van hyperlinks relevante informatie met elkaar te verbinden. Berners-Lee had al snel door dat dit met de huidige technieken niet mogelijk is, waarna hij de ideeŽn over het semantische web verder ging ontwikkelen. Inmiddels lijkt de visie over een 'betekenisvol web van links' nu concreet vorm aan te nemen, iets waar onder meer het Ierse onderzoek aan heeft meegeholpen.

Moderatie-faq Wijzig weergave

Reacties (37)

Hoewel dit goed nieuws is, ben ik er nog niet zo zeker van dat dit het semantische web ook echt dichterbij brengt - om goed te kunnen werken moet, volgens mij, RDF eigenlijk gemengt kunnen worden met andere XML gebaseerde talen zoals XHTML.

Nu is XHTML niet zo populair omdat deze niet ondersteund wordt door de browser die het meest gebruikt wordt (IE) - omdat dit product jarenlang eenvoudigweg niet verbeterd is, want dat zou niet nodig zijn. Het gevolg is echter wel dat we nog steeds vastzitten aan good old HTML...

Persoonlijk denk ik ook dat microformats, die ook semantische informatie toevoegen aan webpagina's, wel een kans van slagen hebben om het semantische web een stap dichterbij te brengen...

* Little Penguin denkt: Of iedereen moet IE vervangen door een browser die wel XHTML ondersteund, dan kunnen we inderdaad RDF in websites gaan integreren.
@ Little Penguin's FP
Jouw POST is niet inzichtvol maar een pure flamebait tegen IE en ENKEL tegen IE.

Naast IE zijn er talloze browsers die XHTML nog niet of niet fatsoenlijk ondersteunen.

Daarnaast is het verhaal dat IE al jarenlang eenvoudigweg niet verbeterd is, pure onzin.

Maarja, zolang jij met je illegale Windows Copy zit en geen windows updates kan downloaden zul je daar vrij weinig van merken.

Daarnaast wil ik even aanstippen dat IE recentelijk nog een major version omhoog is gegaan. IE 6 -> IE 7.

Ik vind niet dat je enkel IE in deze post moet neerhalen.
Ik geef direct toe dat er een tussen de regels van dat bericht nog een extra boodschap zit :)

Het is echter absoluut geen flamebait, de andere grote browsers (Opera, Mozilla Firefox, Safari en Konquerer) ondersteunen allen wel XHTML en het is aan de non-ondersteuning van IE te wijten dat XHTML nog niet breed wordt toegepast.

Op zich heb ik daar helemaal geen probleem mee, HTML an sich voldoet op dit moment prima. In dit geval is het (voor zover ik weet) echter zo dat RDF het best werkt als het een onderdeel is van het web-document en dat is alleen mogellijk als er gebruik gemaakt wordt van XHTML.

Omdat vooralsnog het niet aantrekkelijk is om XHTML(+RDF) te gebruiken geef ik dus ook aan dat ik denk dat microformats -die gewoon in normaal HTML in te bedden zijn- een grotere kans hebben om voor een semantisch web te zorgen dan RDF.

En misschien is dat nog wel beter ook dan een semantisch web dmv RDF...

Oh ja:
* Little Penguin werkt nu op een Apple PowerBook, maar werkt beroepsmatig toch echt op een normale windows-pc met een legale xp-licentie...
Je zou kunnen zeggen dat IE, te lang heeft gewacht met het implementeren van XHTML.

Echter vanuit IE's standpunt kan ik dat ook wel begrijpen.

Browsers zoals Firefox / Safari / Opera of wat dan ook, liggen allemaal niet zoveel onder vuur.

Zodra er iets nieuws is en blijkt dat microsoft's IE het nog niet ondersteund krijgen ze gelijk weer een sh*tload van klachten.

IE doet zijn best om telkens vooruitgang te boeken en doet dat vaak ook.

Je kan echter IE niet vergelijken met een Open Source Browser waarin iedereen in principe wijzigingen kan laten toepassen.

IE is closed source om zo hun spullen beter te beveiligen.

Als IE open source was dan was het te makkelijk voor hackers en abusers om een gat te vinden in IE die misbruikt kan worden en voor je het weer is 50% van de wereld geinfecteerd. (Die IE gebruiken)

Nee, ik zeg niet dat IE de beste browser is. Verre van. Tuurlijk er zijn veel dingen die beter kunnen. Ik vind alleen niet dat IE de schuld in de schoenen geschoven moet krijgen omdat ze onder andere hun gebruikers proberen te beschermen.

Groot marktaandeel = Kwetsbaar.
@TGoC & zwaar off-topic:
[quote]
IE is closed source om zo hun spullen beter te beveiligen.
[/quote]
Security through obscurity werkt niet, juist IE is daar het grote bewijs van - diverse spy/ad/malware en virussen hebben juist van lekken in IE gebruik gemaakt om computers te besmetten.

[quote]
IE doet zijn best om telkens vooruitgang te boeken en doet dat vaak ook.
[/quote]
Noem eens een vooruitgang die dankzij IE geboekt is op het World Wide Web?

[quote]
Nee, ik zeg niet dat IE de beste browser is. Verre van. Tuurlijk er zijn veel dingen die beter kunnen. Ik vind alleen niet dat IE de schuld in de schoenen geschoven moet krijgen omdat ze onder andere hun gebruikers proberen te beschermen.
[/quote]
Het probleem is dat IE jaren lang niet ontwikkeld is omdat MSIE een marktaandeel van 90+ procent had en Microsoft eenvoudigweg geen energie meer in het product (wilde) stoppen. Pas toen het marktaandeel serieus ging afkalven en alternatieve browsers, zoals Firefox, MS' browsermonopoly stukje bij beetje afbraken is men bij Microsoft begonnen aan het verbeteren van IE6 en is men gaan werken aan IE7 en de opvolgers die er aan zitten te komen.

Diverse nieuwe ontwikkelingen, zoals RDF en andere open standaarden, worden geblokkeerd omdat Microsoft ze niet mogelijk maakt. Zo zijn zowel XHTML als CSS2 van de vorige eeuw en worden ze nog steeds niet (goed) ondersteund door IE.

[quote]
Groot marktaandeel = Kwetsbaar.
[/quote]
Onzin, waarom zijn er dan meer succesvolle aanvallen geweest op Microsoft's IIS dan op het open source Apache?

@ Little Penguin
[quote]
Zwaar off-topic:
IE is closed source om zo hun spullen beter te beveiligen.
Security through obscurity werkt niet, juist IE is daar het grote bewijs van - diverse spy/ad/malware en virussen hebben juist van lekken in IE gebruik gemaakt om computers te besmetten.
[/quote]

Onzin, als Firefox net zoveel users had als IE was er net zoveel Malware geschreven voor Firefox dan voor IE.

[quote]
Het probleem is dat IE jaren lang niet ontwikkeld is omdat MSIE een marktaandeel van 90+ procent had en Microsoft eenvoudigweg geen energie meer in het product (wilde) stoppen. Pas toen het marktaandeel serieus ging afkalven en alternatieve browsers, zoals Firefox, MS' browsermonopoly stukje bij beetje afbraken is men bij Microsoft begonnen aan het verbeteren van IE6 en is men gaan werken aan IE7 en de opvolgers die er aan zitten te komen.
[/quote]

Wederom ONZIN! Microsoft verbeterd zijn producten wekelijks/maandelijks ONGEACHT of hun browser door iedereen gebruikt wordt of niet.

IE 7 Was al lang gepland voordat firefox uberhaubt 25% van het marktaandeel bevatte.
Jij bent echt ANTI IE en ANTI MS en puur aan het trollen!

[quote]
Diverse nieuwe ontwikkelingen, zoals RDF en andere open standaarden, worden geblokkeerd omdat Microsoft ze niet mogelijk maakt. Zo zijn zowel XHTML als CSS2 van de vorige eeuw en worden ze nog steeds niet (goed) ondersteund door IE.
[/quote]
Juist, microsoft WAAROM zouden ze nieuwe open standaarden toepassen terwijl er BELANGRIJKERE dingen te doen zijn. Zolang geen enkele andere browser deze standaarden goed ondersteund, waarom zouden hun dat wel doen als hun nog VEEL MEER werk te doen hebben.

[quote]
Onzin, waarom zijn er dan meer succesvolle aanvallen geweest op Microsoft's IIS dan op het open source Apache?
[/quote]
Touche.
Vergeet wel niet dat de aanvallen vergeleken met IIS en Apache dat de aanvallen op Apache over het algemeen meer schade aangericht hebben.

Ik blijf erbij dat je gewoon een ANTI IE fan bent en je zogenaamde feiten zijn onzin.
Korte laatste reactie:
Zonder de stijgende populariteit van Firefox was er geen IE 7 gekomen, verder zijn de door mij genoemde standaarden erg relevant voor webdesigners en kunnen we betere/mooiere sites maken met die standaarden.

Ik mis verder voorbeelden van vooruitgang die geboekt zijn dankzij IE.

Apache vs. IIS: Code Red, Nimda - anyone?

Ik ben een groot voorstander van open standaarden, waardoor de gebruiker in staat gesteld wordt om zelf te kiezen welk OS/browser/office/mail client ze gebruiken, MS probeert altijd hun eigen protocollen door te drijven.

In dit geval is het dus zo dat RDF een bijdrage zou kunnen leveren aan het semantische web, maar is het niet aantrekkelijk om RDF te gaan gebruiken. Dit omdat zo'n 60-70% van de gebruikers een browser gebruikt waarmee documenten die op de correcte manier RDF embedden niet getoond kunnen worden.

Edit@hieronder: http://laurens.vd.oever.nl/weblog/items2005/closures/
Ok, dan zal ik ook nog 1 laatste reactie maken.

Hier komt tie:

[quote]
Zonder de stijgende populariteit van Firefox was er geen IE 7 gekomen, verder zijn de door mij genoemde standaarden erg relevant voor webdesigners en kunnen we betere/mooiere sites maken met die standaarden.
[/quote]

Bullsh*t als IE al zal verbeteren, zal het komen door Opera. Firefox zelf is echt niet de beste browser en studie concludes dat ook Firefox vaak grote lekken heeft.

Bewijsstuk 1: http://www.freerepublic.com/focus/f-bloggers/1327586/posts
Bewijsstuk 2: http://www.nabble.com/Fir...til.Connect-t3561792.html
Bewijsstuk 3: http://www.blakeross.com/2006/09/30/memory-leak/
Bewijsstuk 4: http://www.eweek.com/article2/0,1895,1860859,00.asp

Voor meer bewijsstukken:
http://www.google.nl/sear...l=nl&q=Firefox+Leaks&meta=

Dit toont dus aan dat ook FIREFOX NIET PERFECT IS.

[quote]
Ik mis verder voorbeelden van vooruitgang die geboekt zijn dankzij IE.
[/quote]
Google maar:
http://www.google.nl/sear...xplorer+achievements&meta=

[quote]
Apache vs. IIS:
Code Red, Nimda - anyone?
[/quote]
Laten we het eerst is houden op IE en andere browsers en niet telkens vergelijkingen maken met ander soort software. Jouw vergelijkingen zijn buitengewoon troll comments.

[quote]
Ik ben een groot voorstander van open standaarden, waardoor de gebruiker in staat gesteld wordt om zelf te kiezen welk OS/browser/office/mail client ze gebruiken, MS probeert altijd hun eigen protocollen door te drijven.
[/quote]
Als je zo'n voorstander bent van Open Source dan hoor je ook geen problemen te hebben met Closed Source.
Als jij denkt dat een ander OS beter is, dan kan je gewoon je windows eraf gooien en een linux versie eropgooien.

Vaak wordt dit niet gedaan omdat achteraf altijd blijkt dat Windows beter te gebruiken valt en / of dat Open Source Software vaak zonder goede ondersteuning komt.

[quote]
In dit geval is het dus zo dat RDF een bijdrage zou kunnen leveren aan het semantische web, maar is het niet aantrekkelijk om RDF te gaan gebruiken. Dit omdat zo'n 60-70% van de gebruikers een browser gebruikt waarmee documenten die op de correcte manier RDF embedden niet getoond kunnen worden.
[/quote]
Fout.

Dit percentage is 80 - 90%.

Daarnaast is er nog teveel MIS met het XHTML protocol om het daadwerkelijk in gebruik te nemen.

Voor meer info:
http://www.digital-web.co...ml_roadmap_for_designers/

voor nog meer info:
http://www.google.nl/sear...l&q=XHTML+Why+not%3F&meta=
KAPPEN! |:(

Doe eens even niet zo verrekte kinderachtig tegen elkaar, ik dacht dat we hier op tweakers dit soort zinloze discussies/reacties/gemopper/gekissebis wel ontgroeid waren. :(

Ga dan naar het forum toe...

edit: Dit was als reactie op een nutteloze discussie, die gelukkig is weggemod.
Misschien gaat het wat ver om te zeggen dat IE het laatste jaar helemaal niet verbeterd is, maar op het gebied van XHTML-ondersteuning - waar Little Penguin (niet de naam van een Windows-gebruiker lijkt me) het hier over heeft - heeft de ontwikkeling van IE wel degelijk jaaaaren stilgelegen. Die is er namelijk simpelweg niet. En hoewel Firefox, Safari en Opera het wellicht niet helemaal goed ondersteunen laten die wel ontwikkeling op dat vlak zien.
Overigens zijn dat ook dezelfde browsermakers die de ontwikkeling van (X)HTML 5 in gang gezet hebben en dus ook op dit vlak voor ontwikkeling zorgen.
Ben ik de enige die denkt dat op het moment dat zoekmachines dit kunnen er niemand meer de moeite neemt om allerlei informatie op internet te zetten om dat er toch niemand meer "op zijn site komt"?
Het hele semantisch web gaat alleen werken als iedereen RDF gaat opnemen. Echter er zijn zoveel huis-tuin-keuken-knutsel-leuter websitestjes waarvan de stuntelaar nooit genoeg kennis heeft om RDF te gebruiken. En het in dreamweaver / frontpage / whatever te kloppen is misschien een tool maar gemiddeld zullen maar weinig mensen het nut zien van het er in stoppen. wat voegt het zichtbaar toe?
Nog niet van RDFa gehoord? Daarmee kan je RDF Š la microformats invoegen in HTML en XHTML. Microformats on steroids, dus.

@TGoC: Mozilla, Safari en Opera ondersteunen allen XHTML. En IE krijgt daar vast ook in ťťn van de volgende versies ondersteuning voor, Microsoft is nu weer bezig met de ontwikkeling en doet mee aan HTML5 en XHTML5.

Little Penguin is naar mijn mening zeer correct in zijn opmerking dat de niet-ondersteuning van XHTML in IE de reden is voor de weinige websites die er gebruik van maken. Ik ben het eens met die mening, en ik zie niet hoe dat het een flamebait maakt.

~Grauw
Als het nodig is, komt Microsoft vast wel met een update die het WEL ondersteund!
Via het semantische web is het mogelijk om verschillende gegevens makkelijker toegankelijk te maken.
De taal hoeft geen beperkende factor te zijn, zolang de betekenis maar duidelijk is.

Eťn grote componentiŽle analyse dus aan de hand van rfd-statements en metadata.

Voor de mensen die niet weten wat semantisch betekend:
De semantiek is de wetenschap die zich bezig houdt met de betekenis van taalkundige constructies.
Krijg je dan net zoiets als James? Dat je de zoekopdracht gewoon als een normale vraag kan intypen?
Kort antwoord:
Nee.

Langer antwoord:
Aangezien computers hiervoor eerst in staaat moeten zijn om de vraag te ontleden zal het stellen van een normale vraag niet mogelijk zijn.

Vragen als 'Hoe oud is de MSX2 standaard' en 'Hoe lang geleden is het eerste prototype van de ARM processor getest' zullen dus niet mogelijk zijn.

Een computer kan de link (nog) niet leggen tussen "hoe oud", de huidige datum en het tijdstip waarop de MSX2 standaard gespecificeerd is, hetzelfde geldt uiteraard voor de andere vraag :)
Ik heb vroeger een beetje gespeeld met Prolog2. En daar kon ik gewoon dat soort simpele vragen intikken. "Wat is de langste rivier e.d." Blijkbaar kon het systeem dat ontleden.

Dat is al enorm lang geleden, dus dit onderdeel mag bij simpele vragen volgens mij geen al te grote problemen opleveren.

Ook als je eens kijkt naar de grammatica controle in wordprocessors, dan lijken computers prima in staat om zinnen te ontleden.
Met behulp van deze xml-bestanden kunnen allerlei relaties tussen stukjes informatie inzichtelijk gemaakt worden. Het voordeel hiervan is dat de rdf-statements 'begrepen' kunnen worden door software

klinkt als het principe van een neuraal netwerk.. dat dit niet eerder bedacht is :D

</sidenote>
Wat is de overeenkomst tussen het principe van een neuraal netwerk en het op een logische manier linken van informatie? Ze zijn zo verschillend als wat.
neuronen en de verbindingen er tussen. elk neuron is een stukje xml, dat functioneert door de (sterkte van) de verbindingen onderling
Dus puur omdat een neuron, welke in feite zelf geen informatie bevat, gelinkt is met een andere neuron met een bepaalde 'sterkte', lijkt dit op een graaf-structuur waar de mens zelf aangeeft welke zaken onderlinge relatie met elkaar hebben? En de stukjes xml kunnen alleen 'functioneren' doordat ze gekoppeld zijn aan een ander stukje xml?
Het principe van een beslisboom klinkt ook als die van een neuraal netwerk zeker? En die van een fiets ook als van een auto; ze hebben beide wielen..
Dit klinkt als een heel goede ontwikkeling voor de Semantic Web gemeenschap. Het is alleen jammer dat ze niet precies vertellen hoe ze het doen en hoe het dan bijvoorbeeld zit met het queriŽn van RDF paden en dingen als inferentie.

Wat Semantic Web zelf betreft: Je moet het niet overschatten in de zin dat computers echt ineens "begrijpen" wat RDF statements betekenen. In feite is RDF niet anders dan een datastructuur zoals XML, maar dan geen boom maar een graaf structuur. Er worden alleen wat semantische betekenissen aan toegevoegd door standaard-semantische relatisch te geven, waarvan de semantiek heel goed begrepen wordt en waaruit je dingen kunt afleiden, zoals overerving en subsumptie, etc. Om een voorbeeldje te geven: stel je weet dat voorwerp X een ferrari is en je weet dat ferrari een subklasse is van auto dan kun je beredeneren dat X ook een auto is. Dat soort van redenaties.

Maar aan de andere kan moet je het ook niet onderschatten, want het Semantic Web is wel degelijk heel krachtig. Het krachtige van het Semantic Web is dat je heel makkelijk dingen aan elkaar kunt knopen. Als je bijvoorbeeld weet dat in jouw schema bioscopen een locatie hebben, en je legt in Semantic Web termen uit hoe deze locatie relateert aan de locatie in Google Maps dan kun je ineens al je bioscopen weergeven in Google Maps. Verder hoef je niet alles zelf te verzinnen, maar kun je ook schema's van anderen (gedeeltelijk) overnemen en er alleen iets aan vast plakken.

Verder is het waar dat een Semantic Web taal als RDF nog niet echt lijkt door te breken binnen het Web, maar eerder dingen als tagging, die er heel erg op lijken. Het interessante is dat er nu heel veel onderzoek wordt gedaan naar hoe je dat tagging nu bijvoorbeeld kunt relateren aan het Semantic Web (grappig genoeg doe ik daar binnen mijn promotie zelf ook onderzoek naar). Als die brug eenmaal gelegd is kun je ook alle Semantic Web technieken op die tags gaan loslaten. Maar verder floreert het onderzoeksgebied vooral binnen bijvoorbeeld de overheden en bedrijven. Denk aan DigID, het aan elkaar knopen van verschillende instellingen binnen de overheid, die zelf toch allemaal heel heterogene verschillende softwaar gebruiken, om daar toch een enkele view van te geven aan de gebruikers. Denk ook aan de zorg: hoe zorgen dat de juiste instellingen precies de juiste patient gegevens krijgen, met een uitwisseling tussen wederom 1001 verschillende software applicaties. Het Semantic Web kan dat allemaal mogelijk maken en er zijn al enorm goede resultaten mee geboekt. En verder past ook een bedrijf als Google Semantic Web achtige technieken toe om steeds nieuwe services te kunnen verlenen.

Volgens mij is het dus een blijvertje (maar misschien ben ik wat biassed ;) )
Je voorbeeld van het 'taggen' van informatie, dat inderdaad ook gerelateerd is aan het semantische web, geeft al aan dat mensenhulp altijd noodzakelijk is.

Zonder hulp van mensen zal het semantische web er ook nooit komen, RDF/tags/microformats zijn slechts standaarden die er voor zorgen dat computers de semantische informatie goed kunnen indexeren...
Het oorspronkelijke punt van Semantic Web was dan ook mensen taal en machine-processable taal dichter bij elkaar te brengen. Dus ja, de informatie moet inderdaad ergens vandaan komen en dat komt vaak uit mensen handen, maar ook wel uit bestaande bronnen zoals SQL databases en er is ook voldoende onderzoek naar het automatisch extraheren van semantische informatie uit platte text.

Het meest interessante is juist dat als je die informatie hebt, je door simpele koppelingen in een klap heel veel meer functionaliteit kunt krijgen.
Semantiek blijft lastig.
Denk maar aan de zin.
"Nou, wat goed zeg".
Dit kan juist ironisch bedoeld, zijn of het kan echt als compliment bedoeld zijn.
"Taal" is ook gevoel. Dat kun je niet zomaar wetenschappelijk vastleggen.
klinkt als het principe van een neuraal netwerk.. dat dit niet eerder bedacht is
Het gaat hierbij echter niet om begrijpen, dus in dat opzicht staat er een fout in het artikel. Door dat binnen RDF een aantal afspraken gemaakt zijn kunnen we echter wel extra informatie afleiden van de meta data...

Edit: Oeps - moest een reactie zijn op bazkie_botsauto
Als op wat voor manier ook HTML en/of hyperlinks nu extra beschrijvende data gaan bevatten, dan denk ik dat het niets wordt. We hebben het reeds gezien met keywords in pagina's. Deze werden om commerciele redenen (zo veel mogelijk hits genereren) zo gekozen dat zoekmachienes niets anders konden dan deze informatie totaal te negeren.

Er zijn altijd memsen die vals spelen en als er veel geld mee is te verdienen, zullen verassend veel mensen dit doen. Het semantische web is en blijft wat mij betreft een droom, een illusie die nooit het verwachte/gewenste potentieel kan halen in de boze buitenwereld.

Voor zoekmachines verranderd er denk ik dus niets. Voor een online encyclopedie is het wel erg toepasbaar, omdat daar de kwaliteit van de informatie bewaakt wordt/kan worden.
Aangezien valsspelen zelfs mogelijk is met de bestaande HTML structuur (denk aan sites die proberen de PageRank te beÔnvloeden), denk ik dat microformats/RDF en dergelijke wel degelijk toekomst heeft.

De belangrijkste voorwaarde hiervoor is echter wel dat de meta-data op de ťťn of andere manier zichtbaar gemaakt wordt in de browser - zodat gebruikers die meta data zien en ook gaan gebruiken.

Als de meta-data namelijk zichtbaar is voor de gebruiker, dat is misbruik ook sneller te detecteren en wordt het automatisch minder aantrekkelijk om hier foutieve gegevens bij te gebruiken.

Het probleem van bijvoorbeeld de <meta keywords="..."> constructie was het feit dat deze informatie nooit zichtbaar was voor de gebruiker - microformats zullen dat wel zijn - Firefox 3.0

Als RDF inderdaad goed te gebruiken zal zijn dan zal deze uiteindelijk ook zichtbaar zijn voor de gebruiker...
Mijn ervaring is dat rdf een van de vele standaards is die leuk is in concept maar waardeloos in gebruik. Wordt rdf Łberhaupt wel gebruikt, behalve dan door een paar academici die het wiel overnieuw willen uitvinden?
Sematic web = Spam robot heaven
Leuk hoor die discussie van browser dit of dat ondersteunt wel of niet...
Onzinnig!!!
Het zijn de layoutengines die het verschil maken!!!
En layout engines gaan iets verder dan alleen je browser maar ook je mailclient maakt hier gebruik van!!!
Dus daar kan ook nog heel wat meer meer van de grond komen!!

Webcore van Apple
KHTML van het KDE team
en Gecko van Mozilla weten het allemaal wel voorelkaar te krijgen dat ze webpagina's laten zien zoals de developers het bedoelt hebben...
Alleen Microsoft heeft tot nu toe nog niet echt de moeite hier voor genomen met hun Trident... Wat nog veel kwalijker is dat ze met hun Tasman layout engine niet van de Mac naar het windows platform is geport of allicht de betere ondersteuning voor webstandaarden die daar al in aanwezig was t.o.v. de Trident engine.
Microsoft heeft genoeg programeurs rondlopen de mogelijkheden zijn er wel... overigens heeft Microsoft ook in een post eerder deze week op tweakers verbetering beloofd in IE 8 we zullen zien.

Voorlopig is het een beetje een padstelling IE = de grootste en wil niet altans zo lijkt het.
En developers gaan geen technieken toepassen welke niet door de meerderheid gebruikt kunnen worden omdat dit alleen maar meer werk kost en ze niets oplevert...

Laten we hopen dat Microsoft inderdaad daad bij woord voegd en dat de volgende IE aan de meeste of liever zelfs alle webstandaarden voldoet!!! }:O
Buiten mijn vorige reactie om wou ik nog even kwijt dat ik wel toekomst in RDF zie.
Maar dan wel samen met de tradisionele manier van zoeken op het web.
Mensen vinden het namelijk gewoon weg te leuk om zo maar wat op het web te kliken en wat rond te su(r)fen niet op zoek naar iets specifieks.
Maar daar waar het belangrijk is dat je snel een antwoord op iets hebt lijkt het me zeker een aanwinst.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True