Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

YouTube gaf nepnieuwsmelding bij livestream Notre-Dame-brand

Het algoritme van YouTube zag livestreams van de Notre-Dame-brand maandagavond als nepnieuws. Bij de video verscheen bovendien een artikel over de terroristische aanval op de Twin Towers van het WTC op 11 september 2001.

Een woordvoerder van YouTube gaf aan Buzzfeed toe dat het algoritme verkeerd schatte welke video's een melding moesten krijgen. Tijdens de livestreams van de brand van de Notre-Dame kregen gebruikers een pop-up met een artikel over de terroristische aanval op het World Trade Center in 2001. YouTube verwijderde de melding na enkele minuten, maar toch was er al een aantal Twitter-gebruikers dat hierover berichtte.

De functie van YouTube waarbij gebruikers 'topical context' krijgen te zien, is onderdeel van een groter geheel om ervoor te zorgen dat mensen minder met nepnieuws in aanraking komen. De videosite wil verder het aanbod van lokaal nieuws vergroten en gebruikers meer naar publicaties van grote nieuwsuitgevers sturen.

Veel gebruikers van socialemediakanalen als Facebook en YouTube streamden beelden van de Notre-Dame-brand van maandagavond, toen een aanzienlijk gedeelte van het Franse monument in vlammen opging. De oorzaak van de brand is nog niet duidelijk, maar het lijkt te gaan om een ongeluk tijdens de renovatie van de kathedraal.

YouTube nepnieuws-melding

Door Valentijn Demandt

Stagiair nieuwsredactie

16-04-2019 • 15:34

92 Linkedin Google+

Submitter: jpsch

Reacties (92)

Wijzig sortering
Ik vraag me af of je dit nog nieuws moet noemen. Algoritmes zijn een bepaalde vorm van kunstmatige intelligentie. En dan met de nadruk op kunstmatige. En het inmiddels toch wel bekend dat als computers gaan 'nadenken', er dikwijls fouten worden gemaakt die behoorlijk dom overkomen. Dat komt gewoon omdat het een computer is en wat je er ook voor slim programma achter hangt, hij weet gewoon niet wat ie doet. Het is geen mens. Een mens is moeilijk, onze maatschappij is moeilijk en taal is ambigue. Dat is geen spelletje Sims ofzo. Dus dit soort fouten blijf je houden.
[...]
Dus dit soort fouten blijf je houden.
Alleen met dat laatste zinnetje ben ik het niet helemaal eens. AI is nog vrij nieuw en letterlijk elke paar weken verbeteren de sociale media hun algoritmes/AI's.
Mij lijkt de toekomst waarin computers dergelijke inschattingen "menselijk" maken, niet eens zo ver af!

[Reactie gewijzigd door the_stickie op 16 april 2019 16:02]

AI is niet nieuw. We zijn er al tientallen jaren mee bezig. Dat ze het ineens 'algoritmes' gaan noemen betekent niet dat het nieuw is. Het wordt alleen steeds beter omdat de computers krachtiger worden en er slimmere methoden worden gevonden om het aan te pakken.
Maar toen KI nog echt in de kinderschoenen stond, kwam men er al achter dat het niet zo simpel was. Toen is men over gegaan op expert-systemen, waar je een programma slim maakt op één gebied. Dat kan ie dan heel goed. Nu krijg je de zogenaamde slimme assistenten bijvoorbeeld die van alles moeten kunnen snappen (maar daar ook best weinig van bakken).
Alles is relatief, ik schrijf daarom ook vrij nieuw. "Tientallen jaren" geleden was een computer echt niet in staat tot wat we nu onder AI verstaan. Denk aan pentiums en alles wat er voor kwam- dat is nog maar 25 jaar geleden! Nog 30 jaar eerder waren cobol en quicksort nog nieuw...
Zover ik weet zijn algoritmes véél ouder dan computertechnologie. Een staartdeling is immers een prima voorbeeld van een algoritme! Het (electrisch of mechanisch) uitvoeren van algoritmes was de basis van de eerste computers - helemaal los van AI.

Wat mij betreft is de hele computerindustrie nog zeer jong en in volle evolutie. De beschikbare rekenkracht neemt nog steeds sterk toe, en hele universiteiten zijn nog bezig met het optimaliseren van allerlei vormen van AI. We zijn "nog maar net" het punt voorbij dat er algemene beschikbaarheid is!

[Reactie gewijzigd door the_stickie op 16 april 2019 16:42]

Tuurlijk, iets als Watson was destijds onmogelijk, maar 90+% van de 'algoritmes' stelt niet veel meer voor dan een lange verzameling 'if then else' regeltjes, evt. met een scoringmechanisme. Als mensen AI zeggen dan denk ik aan de Watsons, als mensen algoritmes zeggen dan denk ik aan die if-then-elsejes.

Zo stellen de meeste 'slimme' bots van nu feitelijk weinig méér voor dan ELIZA die we al kennen sinds 1964: http://www.manifestation.com/neurotoys/eliza.php3
Maar volgens marketeers zijn ze hélemaal de bomb hoor, hi tech AI!! :Y)
Gelukkig hebben we naast Eliza-bots ook al betere systemen ;)

Daarnaast is een algoritme inderdaad veelal if-then-else. Maar juist daaraan wordt ontkomen door bijvoorbeeld machinelearning en neurale netwerken. Er blijft natuurlijk een beslissingstructuur, maar die is er bij menselijke acties evengoed. Het verschil zijn de parameters, die niet langer afhankelijk zijn van slim programmeren, maar van grootschalige data-analyse (zoals ook ons brein heel efficiënt kan).

Net zoals het een hele uitdaging kan zijn te beschrijven wat het verschil is tussen een stoel en een kruk, en dat dus heel moeilijk in "if then else" te gieten is, maar jij wel in één oogopslag kan zien of het nu werkelijk een stoel is. (vergeef me mijn zwakke voorbeeld...)

Laat me nog stellen dat je wellicht gelijk hebt dat 90% van de "AI" tegenwoordig marketing is. Maar het soort beeldanalyse dat youtube en facebook gebruiken wat mij betreft bij de overige 10% gerekend mag worden.
Ik heb geen idee wat jou kennis is op dit terrein maar je opmerkingen doen het slechtste vermoeden.
Altijd gezellig, zo'n bal op de man.
Ik ben me terdege bewust van de computergeschiedenis. Maar als we het hebben over computers, denk ik in de tijdlijn van computers. Dus: lang geleden hadden we mainframes. Dat is op de tijdschaal van de mens niet zo heel lang geleden. Maar aangezien we al best wel snel met kunstmatige intelligentie aan de gang gingen durf ik te stellen dat het niet nieuw is. Ook niet relatief nieuw. De Turing test is beschreven in 1936 en gepubliceerd in 1950, dus dat is best lang geleden.

Maar goed, het gaat me niet zozeer om oud of nieuw, dus laten we vooral bij de les blijven. Die algoritmes zijn verre van perfect. Voorlopig zullen ze best wel eens vaker de plank mis slaan. Dat hebben ze altijd gedaan tot nu toe, dus vandaar dat ik stel dat het niet zo opmerkelijk is, en ik het niet eens echt nieuws vind. We zijn hier toch technologie georienteerd? Dan snappen we dat toch?
Ik volg je redenering, maar ik denk jij evengoed de mijne ;)
De vraag die we eigenlijk nu stellen is: wanneer zal het facebook-algoritme (of AI, toeternitoe) de Turing test doorstaan, als in wanneer zullen de analyses zo sterk op die van menselijke lijken dat dit soort nieuwsberichten niet meer zal voorkomen?

ik denk dat dat slechts een kwestie van een aantal jaren is. Facebook (en andere sociale media) bestaat amper 15 jaar en de technologie die ze gebruiken evolueert nog elke dag. De evolutie in machine learning is nog steeds gigantisch en zelfs nu beperkt door rekenkracht - niet door de gebruikte wetenschap.

Ik ben het dus -nog steeds- niet eens met je stelling dat we dit soort fouten zullen houden.

[Reactie gewijzigd door the_stickie op 16 april 2019 17:24]

Voorlopig zullen houden zeg ik ook. Ik stel juist dat het misschien wel een keer perfect zal worden, maar voorlopig nog niet. En dat ie niet eens een kwestie van een paar jaar. Wat wij mensen doen is vreselijk ingewikkeld als je het aan een computer moeten uitleggen. En van machine learning zijn er tal van voorbeelden waar de computer iets compleet verkeerds leerde terwijl wij dachten dat we het goed voor hadden gedaan. Net als een robot of androide maken: pas als we een robot willen leren lopen als een mens, zien we hoe moeilijk het is.
eens _/-\o_
maar dit schreef je niet in de reactie waar ik oorspronkelijk op reageerde ;)
Verder is dit een semantische discussie :)

[Reactie gewijzigd door the_stickie op 16 april 2019 17:28]

Een algoritme houd zichzelf niet op de hoogte van wat er gebeurd in de wereld door middel van nieuws. En zal geen eigen leven hebben met zon complex leer vermogen als een mens. Een computer zal niet gepest woorden door andere computers of what ever er gebeurd in het leven. Dat zal computers nooit de mogelijkheid geven tot sympathie begrip wanneer er een uitzondering optreed op een regel.

[Reactie gewijzigd door Zezura op 16 april 2019 23:29]

zeg nooit nooit ;)
Analyse van nieuwsbronnen doet Google News bijvoorbeeld al vrij lang... de meest betrouwbare bron, de interesses van de gebruiker, het beste plaatje.

En eigenlijk doet het er (wat mij betreft) niet toe. Wat er toe doet is hoe de computer gepercipieerd wordt voor de taak waar hij is voor gemaakt. Dat is ook waar de Turing test op gebaseerd is: resultaatgericht.

Ik ben overigens van mening dat we niet moeten streven 'volledige' menselijkheid na te bootsen. Mensen hebben we al in alle soorten en maten, en het blijken niet de meest efficiënte denkers noch werkers :+
AI vind ik ook nog steeds een overdriven omschrijving wat gewoon handig opgezette machine learning in combinatie met wat vaste regels is. Echte Artificial Intelligence zal nog een tijdje op zich laten wachten.

Met Machine learning staat en valt met de kwaliteit, diversiteit en hoeveelheid van je data. Door dit soort fouten te laten gebeuren kun je daarna je dataset beter annoteren en vervolgens de algorithmen opnieuw laten trainen en dan zien of het beter gaat.
Overigens kan ik ook niet zeggen de AI het hier "fout" deed. Ja, de melding is onjuist, maar het doel van deze AI is factchecken. Persoonlijk was het eerste wat ik deed ook het zoeken van dit bericht op meerdere nieuwsbronnen voordat ik het geloofde. Als de video op Youtube sneller was geschreven dan dat een bekende publieke nieuwsbron het kon uitschrijven, accepteren en versturen, ben je inderdaad minimaal minuten verder.
Nou ja...de reactie van de KI was niet correct. Dus is het fout.

In dit, overigens zeer indrukwekkende, stukje kunstmatige intelligentie van IBM zitten ook wat kleine foutjes. Op enig moment gaat Watson de mist in met een soort vraag welke nog niet eerder voorkwam. Dus geeft ie antwoorden die fout zijn, maar op zo'n manier die je van een mens nooit zou krijgen. Na 3 vragen gaat het weer goed, want het is een lerend systeem en dan heeft ie het weer door. Maar evengoed zie je dat als KI de mist in gaat, het resultaat echt nergens meer op slaat. Dat komt, zoals ik al zei, dat die computer gewoon niet weet waar ie mee bezig is. Het is geen mens. Misschien dat het ooit lukt om een computer écht menselijk te maken. Maar voorlopig zit dat er niet in. We komen heel ver, en het gaat heel vaak goed, maar soms ook niet. Dat moeten we gewoon (voorlopig) maar accepteren.
Dat komt, zoals ik al zei, dat die computer gewoon niet weet waar ie mee bezig is.
De computer niet, of de mens niet?
En toch....

We zijn nu een paar dagen verder, en discussies onder mensen die zich graag verwikkelen in complottheorieën gaan keihard aan de haal met dit voorval.

Google zal zn kaken op elkaar houden. Maar stel je nu eens voor dat het algoritme kon voorspellen dat dit nieuws, deze filmpjes tot een hete brij aan theoriën zou leiden? En, dat het daarmee (foutief) de relatie met 9/11 heeft gelegd - omdat het de enige uitkomst was waaraan het zijn bevindingen kon koppelen?

Ik begrijp dat het algoritme nog maar in twee landen actief is, en daarmee allicht nog in ontwikkeling. Het zou echter bijzonder interessant zijn als dat het verband blijkt te zijn. We zullen echter zeker toch 10 jaar moeten wachten voordat dit soort gegevens aan historici worden vertrouw - misschien wel langer.
Conspiracy theorists gaan overal mee aan de haal. Hoe moeilijker en onlogischer het verhaal, hoe harder ze hollen. Moeilijk te volgen, die types die overal wat achter zoeken. Ik negeer ze maar.
Niet helemaal mee eens. Het algoritme is immers geprogrammeerd. De computer doet niets anders dan wat daarin geprogrammeerd is. Dus als je het heel strict bekijkt, maakt de computer geen fout, er zit een fout in het algoritme, waardoor dit heeft kunnen gebeuren.

Dus ja, fouten blijf je houden, maar is niet te wijten aan de computer, maar aan de programmeurs die het geprogrammeerd hebben, of de klant die de eisen en wensen gewoon niet goed formuleerde. ;)

In die strekking kun je je dus afvragen in hoeverre het antwoord van YouTube daadwerkelijk 'fout' is. ;)

[Reactie gewijzigd door CH4OS op 16 april 2019 15:50]

Dus als je het heel strict bekijkt, maakt de computer geen fout, er zit een fout in het algoritme, waardoor dit heeft kunnen gebeuren.
Het gaat denk ik nog dieper.
Een algoritme kan helemaal prima zijn, maar de data kan bijvoorbeeld ruk zijn.

Als je het nog strikter bekijkt dan is het een fout van de mens die erop vertrouwt dat het algoritme zinnige dingen oplevert.
Zucht....de computer maakt nooit fouten. Het is altijd het programma. Daar gaat het ook helemaal niet om.
Op die manier maakt het programma ook geen fouten he? Altijd de developers.
Inderdaad. De computer zelf is ook geprogrammeerd. Tenzij er een fout in de chips zit oid. Maar dan maakt ie nog steeds geen fout in de zin van een vergissing zoals een mens dat maakt. Dat is gewoon onmogelijk. Een computer kan een instructie gewoon niet negeren of overslaan, tenzij zo geprogrammeerd. Of je moet er menselijk falen inprogrammeren, maar dan is het nog steeds werken volgens een programma. Er bestaan geen computers met eigen initiatief voor zover ik weet. Er zijn programma's die 'kunst' maken, schilderijen of muziek, maar dat is altijd een mix van wat ze getoond is. Dat is geen creatief denken.

AI maakt wat dat betreft ook niet echt een fout. Het heeft iets geleerd, voornamelijk allerlei zaken vergelijken tegen een lijstje van bekende dingen. Op basis van een soort statistiek (ik weet niet hoe het precies werkt) loopt ie door een beslisboom oid en komt tot een bepaalde conclusie. Wij bepalen of die klopt. Het is maar net wat de definitie van 'fout' is. Een mens kan dingen over het hoofd zien, maar die computer loopt alles af en streept weg of waardeert de mogelijke conclusies op een bepaalde manier volgens het algoritme. Ik denk dat je altijd situaties tegen kunt komen waar die computer niet goed uit kan komen. Zo is een zelfrijdende auto ook feilbaar en zal ie best wel een keer een bejaarde achter de rollator weg knallen. Jammer dan. Een mens had het waarschijnlijk niet beter gedaan, maar 100% goed is volgens mij bijzonder moeilijk.
Het interessante is juist, dat sites als Buzzfeed hier juist al zolang om schreeuwen.
Het algoritme gaat dan misschien nu in de fout, maar dit is precies waar zij zelf (vrij dwingend) om gevraagd hebben.

Het is dan ook tamelijk zuur dat zij nu juist zo boos zijn.

Tweakers moet (in mijn opinie) maar eens kappen met Buzzfeed te lezen/als bron aan te halen.

[Reactie gewijzigd door HMC op 16 april 2019 17:16]

Het is nog allemaal redelijk nieuw, dus het zal inderdaad zo zijn dat er fouten optreden. Natuurlijk wel erg apart dat dit bij zo iets groot gebeurd wat duidelijk nieuws is. Blijkt natuurlijk uit hoe jong de technologie hiervoor is.
Maar dat het in een stroomversnelling zit is iets van afgelopen jaren. Vandaar 'redelijk'. :)
Jij denkt dat het voor de mensen die nep-nieuws zomaar geloven het duidelijk is dat wat een algoritme voor hun neus tovert fout zou kunnen zijn? Dan zou er nooit behoefte aan zo'n algoritme geweest zijn he...
Wat heb ik gezegd dat deze reactie oproept vraag ik me af.
Lijkt me duidelijk uit mijn tekst, jij maakt een statement over iets wat je wel lijkt duidelijk te zijn, terwijl het hele algoritme bestaat voor een doelgroep waar je dat nu juist niet bij kunt verwachten.

Wat ik mij afvraag is waarom je het over 'deze reactie' hebt, alsof ik je aanval, of er zelfs maar iets onredelijk aan is als iemand een probleem met je statement uitwijst.

[Reactie gewijzigd door StefanDingenout op 16 april 2019 18:02]

Er is ook helemaal geen behoefte aan.
Jouw persoonlijke mening is niet automatisch de mening van de rest van de wereld...
Eerder gewoon statistiek dan kunstmatige intelligentie (al gebruikt A.i natuurlijk ook statistiek, maar niet ieder statistisch algoritme is A.i.)

In dit geval zal het wel heel banaal zijn geweest: 'Als het nieuws te ongeloofwaardig klinkt, zal het wel nep wezen.'
Dat denk ik ook. Snap alleen niet dat i.p.v. een melding te maken dat het nepnieuws is, er niet komt te staan dat het nieuws niet bevestigd is en mogelijk nepnieuws kan zijn. Het algoritme loopt dan op de achtergrond totdat het nieuws eventueel bevestigd wordt.
Alsof mensen zo goed kunnen 'nadenken'. Dan zou het hele begrip nepnieuws niet bestaan.
ik vraag mij oprecht af of deze of een gelijke fout niet gemaakt had kunnen worden door een mens.
ik bedoel je doet net alsof wij uber wezens zijn en nooit fouten maken omdat we mens zijn. maar hoe vaak gebeuren er rare dingen als mensen aan de knoppen zitten ?
Zou zomaar kunnen. Maar daar gaat het toch niet over?
nou de verwachting dat een AI alles beter, sneller en foutloos kan is verkeerd.

zelfde geld voor autonoom rijden, als autonoom rijden landelijk het aantal ongelukken en/of verkeersdoden doet afnemen met 30% is het veel beter dan de mens maar niet foutloos.
Wat het de moeite van het melden waard maakt is dat youtube wel op AI vertrouwt, en dat youtube graag heeft heeft dat wij youtube vertrouwen. Uit zoiets als dit blijkt overduidelijk dat dat vertrouwen onterecht is. Dat kan voor jou misschien geen nieuws zijn maar voor veel mensen zal het dat wel zijn.
Het grote probleem hier is dat het niet om intelligentie gaat maar enkel om een algoritme. Net als machine learning, ook onterecht AI genoemd terwijl het geen AI is.
Dit was gisteren nieuws, Tweakers loopt weer lekker achter.
Dit onderstreept voor mij het feit dat machine learning vrij onverwacht met compleet verkeerde resultaten kan komen.
Persoonlijk wordt ik dan ook best wel bang van het enthousiasme waarmee sommigen de AI revolutie verwelkomen...
Komt hier machine learning aan te pas dan?
Ja; ze scannen de video en op basis van hun machine learning model hebben ze bepaald dat het gerelateerd is aan 9/11, waar veel fake news over geplaatst wordt.

Ik wil graag geloven dat er ook een menselijk aspect bij komt kijken, dwz als het niet klopt dat iemand handmatig een correctie kan doen, en dat hebben ze ook gedaan naar een paar minuten wat volgens mij een best goeie reactietijd is.
Dus een live stream is nep, omdat een daadwerkelijke aanslag 18 jaar geleden in een ander werelddeel maanden/jaren later nepnieuws creëerde?
Het algoritme weet niet dat het live is. Het detecteert enkel dat er in delen van de stream twee verticale delen te zien zijn die afsteken tegen de achtergrond en mogelijk torens zijn en delen waarin patronen te zien zijn die lijken op vuur en rook. Dan is de link al snel gemaakt met 9-11.
Aangezien de meeste filmpjes van 9-11 inmiddels wel bekend zijn, zal een nieuw filmpje weinig nieuws bevatten en hoogstwaarschijnlijk gebruikt worden om nepnieuws te verspreiden.
Je uitleg over het algoritme is prima maar de eindconclusie slaat wal nog kant. Een nieuw filmpje over een bepaald onderwerp hoeft niet persé veel nieuwe dingen te brengen, maar dat betekent toch niet direct dat het nepnieuws is? Dat is toch pure onzin?
Dat is dan ook niet wat Google doet/zegt met het algoritme voor zover ik weet.
Het schat de kans op nepnieuws en en als het onderwerp een grote(re) kans heeft op nepnieuws zet het extra informatie bij het artikel/filmpje zodat je de kans krijg informatie in te winnen van een (ga ik vanuit) beter alternatief.
Nergens zegt Google/het algoritme dat het per definitie nep nieuws is, maar geeft dus wel extra informatie, zodat als het wel nepnieuws is, je dit direct kunt zien, omdat het dan niet strookt met de informatie die nu door Google erbij is vermeld.

Of het gelinkte artikel dan wel de juiste informatie bevat of niet zelf gekleurd is, is dan weer een andere discussie ;)
Komt hier machine learning aan te pas dan?
Dat heb ik wel begrepen uit andere bronnen.
Naja AI revolutie .... AI is de marketing term maar het is natuurlijk helemaal geen AI, het zijn hooguit wat algortimes. De gemiddelde mier is intelligenter dan de huidige stand van AI.
Een mier kan niet schaken, vragen beantwoorden of met de auto rijden, dus wat dat betreft zit je ernaast.

De vraag is eerder of het een toegevoegde waarde heeft als een AI alles zou kunnen (beredeneren) zoals een mens dat doet. Volgens mij is er veel meer waarde te vinden in opdrachtspecifieke AI's die béter zijn dan mensen in hun taken, zoals die nu al bestaan.
Maar AI betekent 'zelflerend', dus een computer die ineens iets nieuws kan zonder ingrijpen van de mens. Bijv een computer die kan autorijden en vervolgens zelf leert schaken.

En daar zijn we dus nog lang niet
Ja en Paul Joseph Watson kreeg de schuld van BuzzFeed, erg triest.

https://www.youtube.com/watch?v=B64XVAiK-9U
De definitie van AI is nogal uiteenlopend en bron van discussie. Letterlijk "kunstmatige intelligentie" en over de definitie van intelligentie discussiëren wetenschappers ook al zo lang. dat ga ik lievr uit de weg ;) :p

Wel heeft AlphaZero, bijvoorbeeld, zichzelf leren schaken (naast shogi en Go), louter op basis van bestaande games.
Dat is (nog) niet autorijden én schaken, maar wat mij betreft genoeg om het als een (krachtige) AI te bestempelen.
Maar AI betekent 'zelflerend',
Van wie is die definitie?
AI is de marketing term maar het is natuurlijk helemaal geen AI, het zijn hooguit wat algortimes.
Meh, das een discussie over de definitie van het woord intelligent. Ik denk dat er makkelijk een computersysteem te maken valt dat in een bepaalde taak veel beter scoort dan een mier.

En uiteindelijk is alles dat je op een computer doet een algoritme, dus ook elke kunstmatige intelligentie die op een computer draait zal daar onder vallen. Dus op zich zegt die kwalificatie natuurlijk niet zo veel.
Dit onderstreept voor mij het feit dat machine learning vrij onverwacht met compleet verkeerde resultaten kan komen.
Persoonlijk wordt ik dan ook best wel bang van het enthousiasme waarmee sommigen de AI revolutie verwelkomen...
Zelfde hier, ik voel me precies het zelfde als jou, zie AI niet als een goed iets, maar als een probleem die straks een grote probleem gaat woorden, vooral als straks mensen het in handen krijgen die er dingen mee gaan doen wat wij absoluut niet willen.
je bedoelt zoals mensen ook vaak genoeg extreme fouten maken? Echt verwelkomen doe ik het niet, maar het is een feit en het gaat echt niet meer weg. We zullen er zo mee te maken krijgen dat een hoop tweakers hier hun huidige baan mee kunnen verliezen, misschien nog niet binnen de komen 10 jaar, maar 20-30 jaar van nu is het een feit, dus we zullen snel een oplossing moeten zien te vinden wat al die mensen (inclusief mezelf dus) dan moeten doen.
je bedoelt zoals mensen ook vaak genoeg extreme fouten maken?
Nee, juist niet dus.
Bijvoorbeeld 20000x goed een auto classificeren maar dan opeens een keertje denken dat het een hond is.
Heu, nee,.
Ik denk dat er weinig mensen zijn die een auto classificeren als hond. :)
Is natuurlijk afhankelijk van de foto en hoeveel foto's de persoon al voorbij heeft zien komen met verschillende onderwerpen.. Vergis je niet hoor, genoeg mensen die echt fouten maken ook op dat gebied. Als je rustig de tijd krijgt dan zal het waarschijnlijk minder snel voorkomen..
Maar dat is niet helemaal het probleem waar ik het over had.
NN's kunnen soms echt een soort artefacten vertonen. Soms echt een compleet verkeerd andwoord bij een duidelijk voorbeeld dat nooit fout is gegaan. Echt totaal niet zoals een normaal mens.
Als je iets automatiseert dan gaat het ook automatisch fout. ;)
Volgens mij is dit een voorbeeld van hoeveel sociale platformen deze dagen al doen om 'fake news' en 'auteursrechtenschedingen" te weren.
En dan nog hoor je bij het minste incident (zoals die livestreaming van die shooting laatst) dat ze veel te weinig doen (of niks :/).
Je merkt bovendien op dat de menselijke interventie helemaal niet zo lang op zich liet wachten!

False positives en false negatives zijn onlosmakelijk aan elkaar verbonden. Volgens mij staan we voor een keuze: ofwel nemen we voor lief dat we realtime verslaggeving beter opbergen, ofwel leven we met occasionele mishaps in beide richtingen.

Weerom volgens mij, moeten we ervan uitgaan dat de voortschrijdende technologie dit de komende jaren beter zal gaan doen en juist daarom nu niet voluit op de rem gaan staan. We riskeren dan ook binnen 20 jaar (ofzo) nog onderworpen te zijn aan beperkingen op ons beste nieuwsmedium ooit, het internet.

Smarter Everyday is recent een reeksje gestart over wat de sociale media nu al presteren om misbruiken tegen te gaan; zeker het bekijken waard!
Dat is ook al een beetje de narigheid van nu: communicatie van van alles en niets gaat zó snel en in zó ongelooflijk grote hoeveelheden de aardbol rond een toch wordt het tegenwoordig al raar gevonden dat het meer dan een minuut duurt dat een opmerking bij een bericht verwijderd wordt 8)7
Dat die opmerking en door AI gegenereerde is, dat doet er wat mij betreft nog niet eens veel toe. Al is het natuurlijk wel frappant dat juist de wtc en 9/11 erbij worden gehaald.
Dit is toch geen nepnieuws melding, dit is een foutieve context duiding. Gisteravond had het algemeen dagblad bij gebrek aan inhoudelijke informatie de halve wikipedia over de notre-dame als context duiding in het artikel over de brand toegevoegd.Correcte context duiding maar evengoed nutteloze vulling.
Ja van een afstandje zie je ook wel dat de plaatjes op elkaar lijken. Grijs gebouw met een rookpluim die onder een hoek naar de zijkant verdwijnt. Dat zal enorm lastig zijn voor een algoritme om uit elkaar te houden. En door de hoge volumes filmpjes kan Youtube weinig anders dan dit automatiseren en enige false positives voor lief nemen.
>foutieve censuur voor lief nemen omdat men iets er koste wat het kost doorheen wil rammen

8)7 YouTube zou zich juist af moeten vragen of automatisering van dit soort onzinnige meldingen wel de juiste manier vooruit is. Dat het één keer voorkomt per 10 rampen is één keer teveel, niet 'negen keer is het WEL goed gegaan'.
Welke censuur? Is de livestream offline gehaald?
Nee. Er is een artikel over 9-11 bij geplaatst, waarvan het elke kijker duidelijk is dat het er niets mee te maken heeft. (Hooguit in de algemene zin van aanbevelingen: U heeft iets over onderwerp X gezien, dan vindt u dit waarschijnlijk ook wel interessant.)
Door de hoeveelheid uploads zou ik niet weten hoe ze dit moeten doen zonder automatisering. Helemaal nu overheden en organisaties zoals de EU steeds meer druk leggen op partijen zoals YouTube om in te grijpen voordat iets online zichtbaar is.

Probleem hierbij is mijn inziens dat mensen steeds minder zelf nadenken. Alsof er vroeger in de krant nooit een keer wat fout staat/stond?

Maar als we deze technologie gebruiken snap ik alleen niet dat Youtube niet voor een andere melding kiest. I.p.v. gelijk vermelden dat het nepsnieuws is, kunnen ze de melding ook veranderen in iets als "Dit nieuws is nog niet bevestigd, mogelijk bevat deze stream/video nepnieuws".

[Reactie gewijzigd door metaalverf op 16 april 2019 16:55]

Coördinaten van de Parijse filmpjes komen natuurlijk overeen met honderden toeristenfoto's die dagelijks geschoten worden. Om dat uit elkaar te houden met een gebouw dat al jaren weg is aan de andere kant van de wereld is moeilijk.
Dan moeten die coördinaten wel met de livestream meegestuurd worden.
En wanneer het fake news geweest zou zijn, dan hadden het de coördinaten van de computer geweest kunnen zijn waarmee het werd geüploadet.
Duur ongelukje om te maken (van de renovators, niet van youtube). Vraag me af welke veiligheidsmaatregelen hiervoor in plaats stonden.

[Reactie gewijzigd door binq1000 op 16 april 2019 15:38]

Verbouwingswerken zijn tegenwoordig snel explosief. Kortrijk, eind Maart. Gloednieuw zwembadcomplex (week erop normaal opening) in vlammen opgegaan. Men moge opnieuw beginnen (toch met de glijbanen).
Duur ongelukje om te maken (van de renovators, niet van youtube). Vraag me af welke veiligheidsmaatregelen hiervoor in plaats stonden.
Yup leuk smsje naar de chef
"Ik denk dat het een beetje fout gegaan is hier"

Maar de oorzaak zal uiteindelijk wel ergens vermeld gaan worden, al is dat alleen maar belangrijk voor de gedupeerden, niet voor de nieuwsbeluste lezers
Dat wordt wat met die uploadfilters straks.
Ach toen ik de beelden van cnn zag op 9-11 dacht ik eerst ook dat ze gehacked waren 8)7
Kerktorens of twin towers, blijft moeilijk, dat verschil. Voor KI althans.


Om te kunnen reageren moet je ingelogd zijn


OnePlus 7 Microsoft Xbox One S All-Digital Edition LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Sony PlayStation 5

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True