Onenigheid over toekomstvisie semantische web

Afgelopen dinsdag heeft Sir Tim Berners-Lee, de 'Vader van het web' en tegenwoordig de hoogste man binnen het World Wide Web Consortium (W3C), tijdens een conferentie van de American Association for Artificial Intelligence een lezing gegeven over de relatie tussen het semantische web en kunstmatige intelligentie. Volgens Berners-Lee, zo gaf hij aan tijdens zijn keynote, zal de volgende stap in de ontwikkeling van het wereldwijde web eruit bestaan dat informatie en data zodanig gestructureerd zal worden dat software met behulp van kunstmatige intelligentie een en ander zelf kan begrijpen en analyseren. Dit semantische web zou het mogelijk moeten maken dat informatie geheel automatisch en zelfstandig door applicaties hergebruikt kan worden bij de ontwikkeling van nieuwe content. Om dit alles te bereiken zou Berners-Lee graag zien dat webdevelopers meer gebruik gaan maken van RDF, betere URI's en andere manieren om informatie te structureren.

Aan het einde van de lezing was er gelegenheid om met elkaar in gesprek te gaan, een mogelijkheid die Peter Norvig, bij Google verantwoordelijk voor de zoekdivisie, aangreep. Volgens Norvig zal het, in tegenstelling wat Berners-Lee graag zou zien, nog lang duren voordat het semantische web realiteit wordt. Er zijn namelijk enkele obstakels die een groei in de weg staan. Het eerste probleem is incompetentie: veel serverbeheerders weten niet goed hoe ze hun server op de juiste manier moeten instellen en een grote groep webdevelopers kan html niet op de juiste manier toepassen. Het zou voor hen dan ook te veel gevraagd zijn nog meer eisen te stellen. Een tweede vraagstuk is concurrentie, doordat commerciële providers hun eigen standaarden hanteren en die defacto opleggen. Het derde probleem ten slotte is misleiding: sites die totaal andere informatie aanbieden dan verwacht, iets wat alleen maar vaker zal gebeuren als er geen menselijke controle meer plaatsvindt.

Door Harm Hilvers

Freelance nieuwsposter

20-07-2006 • 14:35

29

Bron: silicon.com

Reacties (29)

29
29
18
3
1
8
Wijzig sortering
lol, het is me er eentje...

en een grote groep webdevelopers kan html niet op de juiste manier toepassen

Wat een kul. Ik denk dat er juist een grote groep is die (X)HTML vrij goed kan toepassen, het probleem is dat het simpelweg niet werkt. Hoeveel uren ik wel niet kwijt ben om te zorgen dat een page goed werkt in IE, belachelijk gewoon. Als het er een beetje leuk uit moet zien, of erger nog, dingen soms op de pixel precies moeten zijn, dan krijg ik al hoofdpijn als ik er aan denk. Leuke aan goed de presentation layer van de rest scheiden is dat je goed ziet hoeveel tijd je kwijt bent om te prutsen en hoe weinig met daadwerkelijk iets nuttigs doen.

Je kan rustig wat model en controller objecten schrijven in een uurtje. Gooi het in een template, zo gezegd zo gedaan. Open FireFox, hoezee het werkt. Open Opera, yup ziet er goed uit. Internet Explorer verbrast het natuurlijk, en dan moet je weer uren vage trucs en hacks uit de kast gaan halen voor het werkt, en het resultaat is een oerlelijke template.

Zolang IE een mukzooi blijft, zal het web nooit echt in de goede richting gaan, en dat gaat nog wel even duren. IE7 is ook nog steeds te bagger voor woorden - en IE7 is niet eens beschikbaar voor 'oudere' users, alleen XP SP2 en hoger, wat het resultaat heeft dat je zelfs de verbeteringen in IE7 niet kunt gebruiken tot het gros van de mensen over is op XP SP2+ en dat zal echt nog wel een aantal jaartjes duren. Voor IE8 hopelijk een echte stap in de goede richting gaat zetten zijn we NOG een aantal jaar verder.

Het is Microsoft in hoogsteigen 'persoon' die de ontwikkeling van het web tegenhoud. Als ze dan zo nodig een eigen browser moeten hebben, neem FireFox en brouw er een MozIE van. Of KOOP het bedrijf achter Opera simpelweg op en noem het IE8 (MS heeft geld zat, toch?). Et voila, heel de wereld blij, sim-pel. Maar dat willen ze niet. Het is in het voordeel van MS om het zo te houden, sites 'designed' voor IE doen het slechter in andere browsers, dus blijven mensen makkelijker bij IE (en MS). Als het web allemaal zo fantastisch zou zijn en goed zou werken, zouden de 'webapps' nog veel sneller in aantal toenemen als nu, en wordt MS steeds overbodiger (denk aan dingen als 'weboffice' bv).

Jammer genoeg weet de huis-tuin-en-keuken internetter hier allemaal niets vanaf en gebruiken die gewoon IE... En dat zal niet snel veranderen - alhoewel, het is natuurlijk mogelijk dat de 'OS eisen' aan IE7 dit wat in de hand spelen. Veel developers (mezelf incluis, sorry) doen niet eens meer aan IE ouder dan 6. Mocht dat stiekem naar IE7 gaan verschuiven, zullen vele websites niet fatsoenlijk meer werken onder IE6... grotere kans dat mensen daar geirriteerd aan raken en uiteindelijk toch FireFox of Opera gaan installeren... en tja zodra die samen boven de 50% van de gebruikers komen... dan kunnen we eindelijk IE in de prullenbak gooien.

(nu lijkt het allemaal of ik fel anti-MS ben maar zo is het niet, ik heb gewoon een hekel aan IE ;))

EDIT: Het gaat hier (voor mij iig) ook niet puur om het symantische maar de combinatie van hoe je dat kan doen en dat je layout uiteindelijk ook nog klopt. Ik gebruik bijvoorbeeld ook liever een list als, tja, list. Maar als die op de pixel moet passen in m'n layout, dan kom ik onherroepelijk in de problemen met IE, met een hoop gepruts als gevolg. Wat kun je dan doen, 2 style sheets voor echte browsers en IE bijvoorbeeld, of de ranzige tan hack. Slimme javascripts die het automatisch allemaal weer goed zetten? Wel het makkelijkst, maar dan krijg je weer dat IE bijvoorbeeld spontaan als je backgroundimages opnieuw van de server gaat trekken, totaal onafhankelijk van hoe wie wat waar cache headers etc. Het is ontzettend vaak gewoon veel praktischer om het dan maar minder symantisch correct te doen. Maar dat is geen excuus natuurlijk ;)

En natuurlijk, IE is niet de oorzaak van alle problemen, maar het draagt zeker bij - en waar ik uiteindelijk naar kijk is in hoeveel tijd ik iets kan produceren; IE verdubbelt die tijd.

(En dan heb ik nog niet eens iets gezegd over de ontieglijke brakke javascript implementatie van IE)
Een grote groep is niet in staat om XHTML elements op een symantisch correcte manier te gebruiken. Er zit heel veel kaf tussen het webdeveloper-koren. En vergeet dan niet alle lui die met CMS'en hun site beheren. Het verschil tussen <font size="4"><b>Kopje</b></font> en <h2>kopje</h2> is (bij wijze van spreken) niet te zien. Leg dan maar eens uit aan een tikmiepje dat ze toch echt headings moet gebruiken.

Je rant op IE gaat in dit geval ook nergens over. Mensen die mij kennen weten dat ik IE voor alles wat "minder plezierig is" uitscheld, maar ook met IE kun je symantisch correcte elementen gebruiken, op een kleine uitzondering na.
Jup.

Maar om nagels met koppen te slaan: hoe komt het dat Jan Modaal geeneens rekening houdt met het Semantische Web? Omdat het hem nooit werd aangeleerd!

Er bestaan talloze boeken en vage websites met snelcursussen HTML of "be a webmaster in 10 minutes". Die leren je wel wat HTML is en wat je ermee kan, maar niet hoe je het op een correcte manier kan gebruiken.

Uiteindelijk zal Jan Modaal jouw voorbeeld gewoon volgen omdat dat juist het meest logische is: "ik wil een kopje in het vet met een fontgrootte van 4..." Dan kijken ze naar de representatie niét naar de inhoud. Gevolg: verkrachtingen van HTML.

En dan zwijg ik nog over de tal van vage HTML generators en editors zoals *gasp* Frontpage!

'Tuurlijk, het feit dat IE zo eigenzinnig is maakt het probleem alleen nog moeilijker. Maar het is zeker niet dé oorzaak van alle problemen.
Inderdaad, maar moet dat veranderd worden?

Als ik een resultaat wil bereiken dan doe ik dat op de snelste manier. Ik ga heus geen cursus houtbewerking volgen om een plankje artistiek tegen de muur te zetten, noch me verdiepen in webdesign voor een wat grotere tekst op mijn pagina te zetten.
"Als het er een beetje leuk uit moet zien, of erger nog, dingen soms op de pixel precies moeten zijn, dan krijg ik al hoofdpijn als ik er aan denk."

Kan wel kloppen, want HTML kent geen pixels,.,.,.
Hypocriet.

Als je echt zo'n goede webdevver zou zijn, dan zou je Firefox niet als voorbeeld gebruiker. Want Firefox implementeerd "de standaard" ook compleet niet.

FYI: Praktisch geen enkele browser doet dat. Dus je kan je beter afvragen of de standaarden wel iets zeggen. Enige mogelijkheid dat er een "standaard" kan komen, is als ze gewoon met oa MS gaan praten over wat die vinden dat de standaard hoort te zijn.
"Om dit alles te bereiken zou Berners-Lee graag zien dat webdevelopers meer gebruik gaan maken van RDF, betere URI's en andere manieren om informatie te structureren."

Het is een heel leuk idee.. Maar internet is groot geworden door de massa. Hoeveel mensen zijn er niet die een websitetje opzetten? En voor deze mensen is RDF veel te ingewikkeld.

Daarnaast Uri's ordenen, daar doen weinig mensen aan. Onze eigen Tweakers is daarin een positieve uitzondering. Vooral die lelijke `query`-uri's zijn bagger.. daarmee geef je deels je database ontwerp vrij, laat je een scritptskiddie een hoop informatie en is het nog eens ranzig ook.

Ik ben van mening dat de relaties zoals deze binnen Web 2.0 geformuleerd worden eigenlijk door AI zouden moeten worden gevonden worden.

Daarnaast "en een grote groep webdevelopers kan html niet op de juiste manier toepassen" Daar ligt een taak voor W3C en de browsermakers. Html heeft sommige flaws in zich, om van css maar niet te spreken.

Pas als alle standaard goed zijn, content in de browsers er hetzelfde uit zijn, xml algemeen goed is binnen website, dan maakt het semantisch web een kans.. Voorlopig is het (deels) uptopie.
Ik zal het nog korter samenvatten:
"De A.I. staat nog in de kinderschoenen, we kunnen 2 dingen doen 100 jaar wachten totdat A.I. werkt of nu alles machine readable aanleveren". Hij kiest voor het laatste want dat is makkelijk voor hem.
met ander woorden: de mens aan de machine aanpassen, en dat is juist wat we eigenlijk niet willen
maar de machine aan de mens aanpassen is iets wat we op dit moment nog niet kunnen.
Anoniem: 399 @it020 juli 2006 15:40
NATUURLIJK doe ja al het mogleijke om A.I. te bereiken als je naar A.I. toe wil, zo kom je namelijk een keer bij A.I. uit. En dat groeit door gebruik en verbetering vanzelf tot iets wat je steeds minder machinetaal hoeft aan te leren.

Microsoft is ook niet gaan wachten met programmeren tot dat grafisch kon in een mooie schil met een muis en automatische code generatoren. Die zijn gewoon gaan hacken in assembly. Hadden ze wel gewacht dan had er nu nog steeds geen Windows bestaan en had je van heel Bill Gates niet gehoord. Ik denk dat het niet zo slim is om te denken dat techniek vanzelf beter wordt: die wordt beter als er mee gewerkt wordt en er aan ontwikkeld wordt, en niet door te wachten tot het helemaal perfect is voor je het in gebruik neemt. Anders had je nu nog geen Linux gebruikt en hadden ze nooit aan Windows begonnen.
"NATUURLIJK doe ja al het mogleijke om A.I. te bereiken als je naar A.I. toe wil, zo kom je namelijk een keer bij A.I. uit. En dat groeit door gebruik en verbetering vanzelf tot iets wat je steeds minder machinetaal hoeft aan te leren."

Juist, vanzelf groeit de ai tot iets bruikbaars.,

not,.,.
AI heeft vooral veel processing power nodig.,
Het duurt inderdaad nog wel even voordat we een beetje intelligente kunstmatige intelligentie hebben,.

En in de tussentijd wil ik niet echt dat mijn leven, mijn informatieaanlevering, bepaald wordt door een infirieure kunstmatige intelligentie i.p.v. mij.

"Microsoft is ook niet gaan wachten met programmeren tot dat grafisch kon in een mooie schil met een muis en automatische code generatoren. Die zijn gewoon gaan hacken in assembly. Hadden ze wel gewacht dan had er nu nog steeds geen Windows bestaan"

Windows is gewoon in c geschreven hoor.,
Sommige bijgeleverde onderdelen zijn wel zo low level dat
er wat assembly in geprakt is,. maar dat is maar een klein deel,

"Ik denk dat het niet zo slim is om te denken dat techniek vanzelf beter wordt: die wordt beter als er mee gewerkt wordt en er aan ontwikkeld wordt, en niet door te wachten tot het helemaal perfect is voor je het in gebruik neemt. Anders had je nu nog geen Linux gebruikt en hadden ze nooit aan Windows begonnen."

Laten we een geweer ontwerpen en het maakt niet uit of het goed werkt, als we er maar aan blijven ontwikkelen,.
De eerste tijd zal het soms in je gezicht ontploffen maar dat geeft niet, vul in dat geval het feedback formulier in en stuur het terug,.

Wat ik hier schrijf is natuurlijk overdreven, maar als je kunstmatige intelligentie gaat toepassen om i.p.v. jezelf te beslissen welke content je interresant vind en welke niet dan ben je dus aan het bouwen aan een big brother samenleving.
Niet jij beslist wat je te zien krijgt, maar de ontwerper van de kunstmatige intelligentie.
Het zal dan des te makkelijker zijn om van mensen kuddedieren te maken...
Iemand betaald een som geld en opeens gedraagt het symantiesch web zich een tikkeltje meer in het voordeel van degene die betaald.,

Vergeet niet dat 'content op maat' , wat de hele bedoeling is van het symantisch web, al lang en breed wordt toegepast door adverteerders., Als dit globaal wordt geaccepteerd dan hebben de reclameboeren er een hele grote speeltuin bij.,,.,,.
Wellicht ligt zouden webdevelopers in een abstractere vorm een website moeten modeleren en de implementatie details aan de webservers over laten. Immers kan er uit de headers gedistilleerd worden welke browser er wordt gebruikt door de user, dus kan de server de juiste vorm van HTML spreken.

En ja... je verlegd het probleem alleen, maar het is wel een reele optie.
Ik denk niet dat dat echt een optie is. Als je websites heb waar het om uiterlijk draait, grafische design websites etc. dan ligt de focus juist op de implementatie details, en is de term 'pixel vreter' behoorlijk van pas.
Dat zou je dan nog moeten kunnen uitdrukken. En zelfs in een abstractere vorm. Je wilt bijv. een deel van je pagina a la css gaan vormen. Net als met een CMS wil je de content qua lay-out correct hebben, zoals je het hebt designed. De inhoudt vormt zich daar binnen.
Het moet dan niet zo zijn, dat IE, Firefox, Konquerer, Opera of een ander jou lay-out design verziekt door soms wat pixels toe te voegen of weg te laten, of een iets ander font te gebruiken dat net iets breder of smaller is.

Uiteindelijk loop je altijd wel tegen een leaky abstraction aan, maar ik denk dat zo'n principe meer richting het gewilde doel werkt, in dit geval de consistente content display
Anoniem: 3747 20 juli 2006 14:52
het zou al een goed begin zijn als wetenschappelijke sites en de grote informatiesites hun informatie op deze wijze (die ik nog niet helemaal begrijp) zouden gaan ordenen.... denk hierbij aan Wikipedia etc. Dat de kleine flutsites met de vakantiefoto's en prietpraat over de kanarie niet op een dergelijke manier geordend zijn zou ook zo zijn voordelen kunnen hebben. Ik kan me namelijk niet voorstellen dat dit bijdraagt aan de kennis van een AI systeem :) dus kan het net zo goed aan de bron gefilterd worden.
Anoniem: 14124 20 juli 2006 14:45
Verder moet er wel een commerciele basis zijn om een website uit te rusten met metadata anders is het natuurlijk voor organisaties niet interessant.

Ik zie verder nog veel meer drempels, IE7 en de huidige voorzichtige vooruitzichten op een IE8 met volledige support.

De logheid van het W3 om beslissingen te nemen, en de afstand die het heeft van praktijksituaties. Het W3 denkt in utopien, en niet in realistische situaties.
Kunstmatige Intelligentie is voorlopig ook gewoonweg iets dat je niet wilt...

In de Data-verwerking is juist weinig behoefte aan 'eigen' intelligentie maar zijn computers nog altijd machines die domme handelingen uitvoeren in gecontroleerde vaste situaties...

Applicaties die enige vorm van eigen 'Intelligentie' tonen en zelfstandig handelingen nemen los van vaststaande en vooraf vastgeegde situaties die worden juist voregtijdig eruit gehaald ...

En dan is het een simpele kwetsie van normale evolutie, Kunstamtige Intelligentie kan zich vanuit de huidige dataverwerking niet ontwikelen omdat er geen behoefte aan is, deze juist bijna bewust wordt tegengegaan.

Vanuit een wetenschappelijk visie zou het natuurlijk interssant zijn, maar er is geen commercieel model aan te koppelen en dat zorgt ervoor dat juist iedere anzet ertoe toch spaak loopt, als zou de technologische kennis misschien ons verder kunnen brengen.

Zelf het idee van 'open source' ontwikkelaars staat niet los van de commercie, zelfs daar merk je dat juist de applicaties die comemrcieel aantrekkelijk zijn veel toegepast worden en een brede toepassing kennen, gewoonweg sneller en beter ontwikkeld worden, zolang er geen duidelijke toepassing is, valt ieder initiatief stil.
Applicaties die enige vorm van eigen 'Intelligentie' tonen en zelfstandig handelingen nemen los van vaststaande en vooraf vastgeegde situaties die worden juist voregtijdig eruit gehaald ...
Er zijn twee takken van sport in de AI en de tak waar jij naar verwijst (neurale netwerken e.d.) heeft (op dit moment) weinig te maken met het Semantic Web. Het SW wordt veel meer beïnvloed door de andere (minder bekende) tak binnen AI: kennismodelering. Oftewel: hoe representeer ik informatie op een voor machine toegangelijke manier. Hier is niets non-deteministich aan.
En dan is het een simpele kwetsie van normale evolutie, Kunstamtige Intelligentie kan zich vanuit de huidige dataverwerking niet ontwikelen omdat er geen behoefte aan is, deze juist bijna bewust wordt tegengegaan.

Vanuit een wetenschappelijk visie zou het natuurlijk interssant zijn, maar er is geen commercieel model aan te koppelen en dat zorgt ervoor dat juist iedere anzet ertoe toch spaak loopt, als zou de technologische kennis misschien ons verder kunnen brengen.

Zelf het idee van 'open source' ontwikkelaars staat niet los van de commercie, zelfs daar merk je dat juist de applicaties die comemrcieel aantrekkelijk zijn veel toegepast worden en een brede toepassing kennen, gewoonweg sneller en beter ontwikkeld worden, zolang er geen duidelijke toepassing is, valt ieder initiatief stil.
Volgens mij verzin je dit allemaal ter plekke, het slaat de plank in ieder geval compleet mis. Het Semantic Web is springlevend en de community groeit als kool. Ook gerenomeerde marktonderzoekers als Gartner en co voorspellen hoge groeicijfers voor meta-data gebaseerde technologie. Zelfs binnen Nederland (toch niet het meest vooruitstrevende land qua technologische vernieuwing) merk ik dat de vraag naar semantic web/RDF/meta-data technologie enorm groeit.
Ik vind dit artikel wel bij deze nieuwsbericht passen:

http://www.naarvoren.nl/artikel/betekenisvolle_xhtml.html
“Mijn site valideert bij W3C qua XHTML en CSS code, dus ik voldoe aan de standaard!” Juist, je code voldoet, maar enkel en alleen aan de syntax van de standaard. Helaas zegt dit niks over de semantiek van je code. In dit artikel wordt dieper ingegaan op het gebruik van semantiek in je XHTML code.
Anoniem: 100910 20 juli 2006 15:19
Bij W3C spelen zelf ook aardig wat problemen:
http://lists.w3.org/Archi...ublic-qa-dev/2006Jul/0011
Tja, waarom zou je met een CMS en de juiste template en een beetje disipline niet een goede XHTML page kunnen maken??

zeker het gebruik van <Hx> <Li> en styles als <EM> maken het al een stuk beter.

dan nog een teplate die logisch opgebouwd is.
Ik wil niet zeggen dat ik het goed doe, maar ik probeer wel zo veel mogelijk rekeing te houden met een aantal simpelle regels.
Het zit hem in dat stukje discipline. Het is moeite waarvoor je niet direct iets terugkrijgt, dus veel mensen doen het niet.
Anoniem: 130933 20 juli 2006 16:01
Ik heb TBL ooit een mailtje gestuurd en gevraagd naar de relatie tussen het SW enerzijds en AI/NLP anderzijds. De visie van TBL is heel simpel: het Web beschikbaar maken als 1 grote database, waarbij gestructeerde data samengevoegd of naar elkaar gelinkt kan worden. Daarbij kan AI/NLP een tool zijn om dat voor elkaar te krijgen.

En zoals uit de reacties hier blijkt, het SW blijft een moeilijk te begrijpen concept voor sommige mensen, want het heeft niks met XHTML te maken.
Zolang het mensen zijn die meta-tags toekennen en zolang mensen termen/woorden (in abstracto) verschillend interpreteren, zullen computers nooit alle inhoudelijk wel aan elkaar verwante artikelen ook als zodanig aan elkaar koppelen.

Bovendien: geen mens kent *alle* relevante meta-tags aan een artikel toe.
Daar hebben we Google toch voor ;)
Goede opmerkingen. TBL zou zeggen dat het niet noodzakelijk is om alles kloppend te maken. Het enige wat nodig is om de stukjes en beetjes die ik nodig heb kloppend te maken. Op het Web bestaan er verschillende communities. Misschien dat die communities ontologien zouden kunnen maken die hun perspectie van de werkelijkheid weergeven. Uiteindelijk zouden al die ontologien aan elkaar gekoppeld kunnen worden, met al die verscheidenheid en gelijkenissen tussen die groepen mensen. Het WWW werkte van bottom-to-top, en het SW zal ook werken volgens dit principe.

Op dit item kan niet meer gereageerd worden.