Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

OpenAI laat taalmodel coherente teksten schrijven maar vreest misbruik

De non-profit OpenAI heeft een taalmodel getraind dat bijvoorbeeld coherente teksten schrijft door telkens het volgende woord te voorspellen, op basis van alle voorgaande woorden in een tekst. De onderzoekers brengen het model niet uit, uit angst voor misbruik.

OpenAI noemt zijn model GPT-2. Het taalmodel heeft 1,5 miljard parameters en is getraind op een dataset van acht miljoen webpagina's. GPT-2 scoort volgens de onderzoekers beter op taken voor taalmodellen dan modellen die getraind zijn op specifieke domeinen. De onderzoekers kozen er niet voor om hun dataset te baseren op alleen nieuwsartikelen, Wikipedia-lemma's of boeken, om hun dataset zo groot en divers mogelijk te houden.

In plaats daarvan schraapten ze alle uitgaande links van Reddit die minstens drie karma hadden ontvangen. "Dit kan gezien worden als een heuristische indicator dat andere gebruikers de link interessant, leerzaam of gewoon grappig vonden", schrijven ze in hun white paper. Wikipedia-pagina's haalden ze eruit, omdat deze vaak voor andere datasets gebruikt worden. Het resultaat was een tekstbestand van 40GB dat ze Webtext noemen.

Door hun taalmodel hierop te trainen kwamen ze naar eigen zeggen op een model dat voor veel taken over verschillende domeinen in te zetten is. Ze geven als voorbeeld het beantwoorden van vragen, het maken van samenvattingen en het leveren van vertalingen, waarbij het voordeel is dat het model dit leert op basis van ruwe tekst in plaats van specifieke trainingsdata.

OpenAI demonstreert hun taalmodel met het schrijven van verschillende teksten waarbij als doel was meegegeven dat simpelweg het volgende woord voorspeld moet worden op basis van een gegeven tekst: de basis is steeds een korte door mensen geschreven tekst, die het model vervolgt. Daarbij neemt het model de stijl en de inhoud over. Dat gaat niet altijd goed, geven de onderzoekers toe en vooral bij technische onderwerpen presteert het model niet goed, maar in veel andere gevallen en soms na meerdere pogingen gaat het bij de synthetische teksten om realistische artikelen. Door GPT-2 op specifieke datasets te trainen is het model te finetunen. OpenAI geeft als voorbeeld het schrijven van reviews door te trainen op Amazon Reviews.

Tegen de Guardian zegt Jack Clark van de non-profitorganisatie dat het getrainde model niet vrijgegeven wordt om eerst duidelijk te krijgen wat het wel en niet kan doen. "Er zijn veel meer mensen dan wij die beter zijn bij het bedenken wat voor kwaadaardigs het kan doen." In plaats daarvan brengt OpenAI een kleiner model uit op GitHub waarmee onderzoekers kunnen experimenteren.

OpenAI is een organisatie die gericht is op onderzoek naar verantwoorde inzet van kunstmatige intelligentie en daarbij ondersteund wordt door onder andere Microsoft, Nvidia, GitHub en Elon Musk.

Door Olaf van Miltenburg

Nieuwscoördinator

14-02-2019 • 22:22

41 Linkedin Google+

Reacties (41)

Wijzig sortering
Naast de dingen waar we hem allemaal van kennen, heeft Elon Musk ook deze organastatie opgericht. Met als beweegreden het democratizeren van AI. Hij is namelijk best wel bang dat op de lange termijn AI dusdanig geavanceerd wordt dat wij irrelevant worden. Op korte termijn is AI echter een enorm waardevolle economisch middel, waardoor veel bedrijven dit zullen blijven ontwikkelen. Het is op veel aspecten hetzelfde probleem als klimaatverandering: op korte termijn valt er zeer veel winst mee te halen, maar op lange termijn is er een hoog risico aan gigantische onomkeerbare effecten.

Hij heeft geprobeerd bedrijven in te laten zien hoe schadelijk de lange termijn effecten kunnen zijn, en met snoeihard lobbyen geprobeerd harde regelgeving te creëren voor AI. Beide zijn mislukt, bedrijven zijn vooral gedreven door kwartaalwinsten en de politiek ziet de urgentie (nog) niet of wil er de middelen niet aan besteden.

OpenAI is het back-up plan. Als AI toch uitgevonden kan worden, is het beter dat iedereen over AI beschikt, dan slechts een of zeer select aantal partijen. Zo bijlft in ieder geval onder mensen het speelveld gelijk en voorkom je hopelijk plotselinge machtsverschuivingen. Niet ideaal, maar beter dan niets.

Deel 2 van Plan B is het vinden van een manier om met AI te kunnen communiceren. Die gaat toch waarschijnlijk links of rechts om op een halfgeleider draaien en niet op organische verbindingen zoals onze hersenen. En dus moeten we die op een manier zien te linken, om gelijkwaardig met een AI te kunnen communiceren.

Een hond zou je vermoedelijk niet zo snel vermoorden, zijn gedrag is echter erg herkenbaar. Een koe of kip heeft het grootste gedeelte van de wereld al veel minder problemen mee en een mier denk je geen eens over na. Wij beginnen als die hond, en naarmate AGI's zich verder en verder ontwikkelen worden wij langzaam zo afstandelijk als een koe, mier en uiteindelijk misschien wel een luis.

Maar wat als die mier zou kunnen praten? Het zal geen gelijkwaardig gesprek worden, het is alsof je met een 3-jarig kind praat, maar je zal wel begrijpen dat het een levensvorm is en er hopelijk enige waarde aan hechten. En hem dus minder snel dood maken.

En dat doden hoeft niet bewust. Als wij een nieuw huis neerzetten, doen we dat echt niet om die mierenhoop (~ 5.000 mieren) bewust te vernietigen, hij staat gewoon in de weg. Heeft de AGI meer van een bepaalde resource nodig en leven er toevallig 5000 mierenmensen? Boeiuh.

The AI does not hate you, nor does it love you, but you are made out of atoms which it can use for something else.

Hierbij wordt natuurlijk de aanname gemaakt dat AGI eigen doelen gaat stellen. En theoretisch is het mogelijk om AGI alleen te laten uitvoeren, maar een AGI moet fundamenteel eigen beslissingen kunnen maken om geavanceerde taken uit te voeren, daar is een bepaalde hoeveelheid autonomiteit voor nodig. En op het moment dat er net een verkeerde taak wordt gegeven, kan het catostrofaal mis gaan (zie de Paperclip maximizer).

Ik denk dat ik nog wel even door kan typen, maar slaap schijnt ook belangrijk te zijn, dus een paar laatste punten:
  • AI is niet gelimiteerd tot één fysieke host (een mens) maar kan gekopieerd worden naar meerdere instanties
  • AI is niet gelimiteerd door één fysieke host: grote computers, robots en gekke sensoren zijn allemaal mogelijk
  • Het probleem is expontieel: Aan het begin gaat process zeer langzaam, maar blifjt versnellen.
Referenties

[Reactie gewijzigd door Balance op 14 februari 2019 23:21]

@Balance: leuke bijdrage! Musk zijn betoog (en de jouwe een beetje) gaan uit dat een agi zelf doelen gaat stellen en opvolgen. Zover ik weet, bestaat dit nog niet, hebben we hier zelfs nog geen concept voor.

Als je wil dat een AI netwerk beter gaat presteren, dan moet je het vertellen wat het wel en niet goed doet. Zonder die informatie weet het netwerk niet wat het moet doen / wat er verwacht wordt.

Zelfs als je een ai de instructie geeft zoveel mogelijk macht of geld te verzamelen, kan het dat misschien doen maar het zal nooit zelfstandig tot de conclusie komen om daarmee kwaad te gaan doen. Mochten bepaalde bijeffecten zijn dat wij mensen in de verdrukking komen, kunnen we het ding gewoon uitzetten. Het heeft nooit de instructie gekregen om kwaad te doen en zal zich daartegen niet verdedigen.

Ik vind het hele ding een erg onwaarschijnlijk toekomstscenario. Hooguit dat Rusland, China, VS agi's gaan bouwen voor de bescherming van hun land.

[Reactie gewijzigd door SpiceWorm op 15 februari 2019 11:12]

Erg mooie post!

Stiekem toch een beetje Skynet-achtige taferelen (op de nuclaire apocolypse na dan ;))

Mijn vraag blijft altijd hoe snel gaat de technologie. Hoe snel is deze exponentiële vooruitgang? Gaan wij dit nog meemaken?

Edit:
Even de paperclip maximizer aan het lezen..vooral dit zinnetje vind ik eng:
A paperclipping scenario is also possible without an intelligence explosion. If society keeps getting increasingly automated and AI-dominated, then the first borderline AGI might manage to take over the rest using some relatively narrow-domain trick that doesn't require very high general intelligence.

[Reactie gewijzigd door Tusk op 15 februari 2019 08:30]

Hoe snel gaat dat...
Een paar jaar geleden (begin 2000) was er nog geen AI toen waren er algoritme die voorspelden wat jij wilde kopen op Amazon en dat was niet veel meer dan van iedereen die dit boek koopt koopt de meerderheid ook dit boek dus jij wil dat ook. Nu is er een AI die ook kijkt naar jouw leeftijd, hoeveel geld jij uitgeeft, welke andere boeken jij ook gekocht hebt als het even mee zit wat ongeveer jouw inkomen is waar jij woont of jij een partner hebt of dat een partner van het zelfde geslacht is of niet. Schrijf jij reviews voor producten die jij koopt, zijn dat goede reviews of juist niet, etc etc etc...

Uiteindelijk is het nog steeds een algoritme maar het is steeds minder iets dat door mensen gebouwd is en meer iets dat simpel weg meer data gevoerd wordt en op basis daarvan steeds een beter idee krijgt van de persoon die jij bent en wat jij wel en niet leuk zal vinden.

Als je 5 jaar geleden was verteld dat er een AI zou zijn die voor jouw een reservering bij een restaurant kan maken door simpel weg het restaurant op te bellen op het moment dat zij open zijn. Het hele gesprek te voeren om de afspraak te maken, op het moment dat er een alternatieve tijd geboden wordt even met jouw kan checken op een half uur later ook goed is en dit vervolgens in je agenda kan zetten. Dan had je me voor gek verklaard. Als ik je dan zou vertellen dat er een AI is die ook nog eens in staat is om je te vertellen dat je als je een vergadering plant tot 5 uur je op basis van de te verwachten reistijd niet op tijd in het restaurant kan zijn. Dan had je gedacht dat ik totaal gek was.

En toch zijn al deze dingen al gewoon beschikbaar, is het helemaal niet meer vreemd om tegen een computer te praten en deze bijvoorbeeld te vertellen dat je om 7 uur wilt opstaan en om even een extra pak wasmiddel te bestellen voor je. Advertenties zijn geheel op jouw gericht iedere persoon die de zelfde informatie op een website leest krijgt een totaal andere advertentie te zien op basis van zijn of haar voorkeuren. De AI weet dat jij van plan bent te gaan trouwen en zal je dan ook advertenties tonnen voor producten die bij jouw smaak en stijl passen om de trouwerij te organiseren en een pak of jurk uit te kiezen.

Hoe snel gaat het. Toen je in 1990 een computer thuis had staan kon het ding niet meer dan wat gegevens voor werk verwerken en op een diskette schrijven. Nu bestuurd het ding je hele huis, doe je je bankzaken, belastingaangifte en vind je je nieuwe liefde met behulp van het ding. In die zelfde tijd is AI van een fantasie naar een niet van menselijk te onderscheiden auteur geworden, een artiest die muziek maakt en moderne kunst, een persoonlijk assistent, een hulp middel voor doctoren om kanker te ontdekken en behandelwijze voor te stellen, een analist, een aandelen handelaar en een manier om foto's te herkennen, een methode om debatten te winnen of om mensen te vinden in een massa en verdacht gedrag te signaleren.
Dat is 30 jaar...
Denk nu nog eens 30 jaar verder en vergeet niet dat vrijwel al deze dingen in de laatste 10 jaar volwassen geworden zijn en ik denk dat je ook wel ziet dat als we met deze snelheid door gaan we er redelijkerwijs van kunnen uitgaan dat heel veel meer banen vervangen worden door een AI die simpel weg sneller slimmer en beter is dan welke professional dan ook. Of dit echt nog 50 jaar zal duren... gezien de ontwikkelingen op dit moment geloof ik daar niets van.
Maar waar komt de instructie om "over te nemen" vandaan?
Je kan een AI hebben die met verkeerde bedoelingen ingezet wordt (oorlogsvoering of terrorisme), maar je hoeft nog niet eens bewust een kwaadaardige AI te creëren. Als je een AI opzet om een bepaald productieproces te optimaliseren, maar het geen duidelijk, of een incompleet kader geeft waar het niet buiten mag treden, dan zal het altijd een uitweg vinden en onbeperkt uitbreiden. En wij als mens zijn dan slechts obstakels op weg naar zijn doel, de ultieme procesoptimalisatie.

Daarnaast kan je in de toekomst AI krijgen die een soort van zelfbewustzijn krijgt, en z'n eigen doelen gaat stellen, of een afweging gaat maken van de belangrijkheid tussen z'n geprogrammeerde doel en de beperkingen die het opgelegd zijn.
dan zal het altijd een uitweg vinden en onbeperkt uitbreiden. En wij als mens zijn dan slechts obstakels op weg naar zijn doel, de ultieme procesoptimalisatie.
Daar zijn wij als mensen toch bij? Dan zet je het ding uit! Je trekt gewoon de stekker eruit! ;) En nee, daar heeft 't ding geen beveiliging, want dat stond niet in zijn opdracht.

En ja, oprechte kwaadaardige ai kan - maar dat is nog erg lang enkel voorbehouden aan state actors. Voordat die rekenkracht bij terroristengroepjes is aanbeland...

En ik zie ook niet hoe wetten gaan voorkomen dat er een ai ontwikkeld wordt die stiekem toch mensen schade aandoet.
Ik ben, denk ik, wel een doemdenker, maar ik deel de angst die Elon Musk ook heeft: AI is een bijzonder interessante ontwikkeling, maar ook eentje die wel eens oncontroleerbaar zou kunnen worden. Je denkt dan al snel aan complexiteit, maar ik denk eerder aan snelheid. We hebben systemen gebouwd die dermate snel beslissingen nemen en handelingen doen (denk aan het verhandelen van aandelen op de beurs) dat we de controle ook moeten overlaten aan geautomatiseerde systemen. En wat te denken van militaire toepassingen. Ik voorzie een wapenwedloop waarbij beslissingen zo snel genomen moeten worden dat de mens er tussenuit gehaald moet worden.
Het artikel doet vermoeden dat we nog steeds een soort van centraal "geweten" hebben dat negatieve ontwikkelingen signaleert en corrigeert, maar AI is al lang niet meer beperkt tot onderzoeksinstellingen met verstandige mensen aan het stuur.
De opmerking: er is altijd ergens wel een aan/uit-knop is te makkelijk: die knop is er vaak niet en de gevolgen van het uitzetten van die knop kunnen dermate groot zijn dat je die knop ook misschien helemaal niet wil hebben (want: wie mag er wanneer op die knop drukken?)
Misschien ben ik te pessimistisch (we dachten jaren geleden ook dat de wapenwedloop onvermijdelijk zou leiden tot een atoomoorlog), maar erg gerust ben ik er niet op.
Ik ben, denk ik, wel een doemdenker, maar ik deel de angst die Elon Musk ook heeft: AI is een bijzonder interessante ontwikkeling, maar ook eentje die wel eens oncontroleerbaar zou kunnen worden.
Je moet het je voor de gein even voorstellen: AI die geheel automatisch lovende reviews kan schrijven voor een product geef je aan een marketeer: wat zou er ooit fout kunnen gaan? @Foritain kan wel inpakken als dat gebeurt.
Natuurlijk is het een zorg voor de toekomst, en moeten we de mogelijkheden (of gevaren) van AI niet onderschatten, maar als we op dit moment al zó blij zijn dat we AI hebben die een coherente tekst kan schrijven dan hebben we nog wel een lange weg te gaan...
(Neemt niet weg dat goede voorbereiding zeker belangrijk is!)
Het punt is alleen wel dat die vooruitgang exponentieel groeit.
In 1997 won Deep Blue van Kasparov, waarbij een soort van brute force methode werd gebruikt om te winnen.
Rond 2013 is door Stanford een deep learning algoritme gemaakt dat zonder hulp van medische kennis on par was met oncologen in het herkennen van kankercellen.
Nu hebben we systemen in zelfrijdende auto's die alle objecten, verkeerstekens, en andere zaken om zich heen kunnen herkennen, en een auto kunnen besturen. En ondanks dat ze zo nu en dan (0.09 / 1000 mi) nog hulp nodig hebben van een menselijke bestuurder, doen ze het veiliger dan een menselijke chauffeur.
Ik heb zojuist de gelinkte artikelen door gespit, de insteek van Elon op het komend probleem is naar mijn idee juist. "Can't fight them, join/ shape them."

Maar man wat een turbulente eeuw gaan we krijgen.
AI is niet gelimiteerd tot één fysieke host (een mens) maar kan gekopieerd worden naar meerdere instanties
AI is niet gelimiteerd door één fysieke host: grote computers, robots en gekke sensoren zijn allemaal mogelijk
Het probleem is expontieel: Aan het begin gaat process zeer langzaam, maar blifjt versnellen.
Wij zijn ook niet 1 brein vanuit het hoogste frame, Dat je in de illusie bent dat je 1 brein bent maakt het nog niet waar.

Wat doet je denken dat met de neurale rekenkracht die de mensenbreinen bezitten ze niet in staat zijn op een hoger meestal onbewust niveau te werken als 1 Entiteit.

Alle neurale netwerken die we artificial maken zijn ook gewoon een extensie van ons al gedeelde brein. Op een onderbewust niveau is er geen verschil tussen waar de computation gedaan word.

[Reactie gewijzigd door kajdijkstra op 15 februari 2019 10:31]

We zien het nu met Opportunity. Een computer op wielen, die een voorgeprogrammeerd zielig berichtje stuurt, en de halve wereld ligt in tranen. En het is niet eens AI.
Dat is meer antropomorfisme en heeft hier niet zo veel mee te maken.
Dat is het, maar een robot voorzien van AI zielig gaat kijken en huilgeluidjes maakt als je dreigt de stekker er uit te trekken, dan zijn mensen daar dus best wel vatbaar voor.

Dat is een reactie op:

Maar wat als die mier zou kunnen praten? Het zal geen gelijkwaardig gesprek worden, het is alsof je met een 3-jarig kind praat, maar je zal wel begrijpen dat het een levensvorm is en er hopelijk enige waarde aan hechten. En hem dus minder snel dood maken.
Wat vind je van Roko's Basilisk gedachte experiment in dat geval? (Sorry voor het verdoemen alvast)

Ja, ik denk dat het scenario van een AI die ons niet meer beschouwt als wij mieren beschouwen een van de meest plausibele is.
Ik denk niet dat AI evil is, maar vooral ongeïnteresseerd in de mensheid.
Opzich een goede zet dat ze het niet uitbrengen, ik zie namelijk direct potentie voor iets dat behoorlijk gevaarlijk kan zijn en dat is in de blackhat seo industrie waar je autobloggers hebt die hiermee lastiger van echt te onderscheiden zijn. Omdat het een coherente text is zullen mensen het sneller geloven dan als er willekeurige woorden staan en zo krijg je een zeer grote vlaag aan nep blogs die 100% computer gegenereerd zijn om geld mee te verdienen en door te linken naar sponsors of producten net als nu al het geval is, maar dan een blog die daadwerkelijk als echt over zal komen in plaats van pure spam die laag rankt.

[Reactie gewijzigd door henk717 op 14 februari 2019 22:41]

Door het publiceren van de methode zullen criminelen heel snel eigen modellen kunnen (laten) maken. Het wordt dan heel moeilijk om echt van fake te onderscheiden.
We zouden nog eens bronnen moeten gaan checken en gezond verstand gebruiken zeg.
Totdat bron op bron op bron ook nep artikelen zijn. Er is uiteindelijk maar heel weinig daadwerkelijk te controleren als je er zelf niet bij bent geweest.
De vraag is natuurlijk tot hoever ga je. Ga jij van elk artikel dat je in de krant leest uitpluizen of dat het wel waar is wat er gezegd wordt?
Daar betaal ik de redactie voor.
Er zijn tegenwoordig nog maar weinig kranten/nieuwssites die echt fatsoenlijk hun bron controleren (of de teksten die ze plaatsen) en verder dieper uitzoeken. Tweakers is bv niet anders, artikel wat smorgens geplaatst is kan vaak genoeg anders zijn dan zoals die savonds er staat, en daar hebben ze dan zelden dat er in de tekst 'update' staat, dus daarom heb je hier ook vaak dat mensen 'aangevallen' worden op hun commentaar, terwijl dat het commentaar op inhoud van het artikel was die er nu niet meer staat.
Maar zo gebeurd het op veel andere nieuwssites ook, zo snel mogelijk publiceren en we zien later wel of het klopt.
Als intelligent persoon die bronnen raadpleegt weet jij ook wel dat verreweg de meeste clickbait slaven dat niet doen... En dat heeft niets te maken met de meesten hier.

[Reactie gewijzigd door A64_Luuk op 14 februari 2019 23:14]

Het probleem wordt wel dat met deze techniek opeens veel bronnen gecreëerd kunnen worden. Als je uit 90 bronnen onwaarheden leest en uit 10 (feitelijke) waarheden, dan is er toch een hele grote groep mensen die het (begrijpelijk) ook niet meer weten wat nou echt is.

[Reactie gewijzigd door nexhil op 15 februari 2019 09:12]

Welke bronnen? hoe check je nu al een bron van een artikel dat bv bij de NOS wordt gepubliceerd? En gezond verstand gebruiken, ben ik met je eens, maar helaas gebeuren er veel te vaak ook werkelijk dingen die mijn gezond verstand niet kunnen begrijpen.
En wie zegt dan dus dat de bron zelf al niet 'deepfake' is? Combineer deze deepfake AI voor teksten met goede deepfake voor video's en zelfs iemand met gezond verstand zal het geloven, immers wat je ogen zien in de deepfake komt overeen met de deepfake tekst die erbij zit.
Wauw, dit is nu echt een voorbeeld van een draadje waarin maar 10 replies staan, waar je meer aan hebt dan draadjes met 500 (voornamelijk) holle antwoorden. Bedankt!
Aan de andere kant: een enorme hoeveelheid informatie die is samengesteld met een zeer bepaalde doelgroep in gedachten en met een heel specifiek einddoel, zo geschreven dat hele volksstammen er in geloven. Waar heb ik dat eerder gehoord? :)
hahaha.. En grote volksstammen die er in 'geloven' ;)
Je zegt wel blackhat seo maar alle content die er is wordt momenteel geschreven/bedacht door een persoon. Die persoon heeft een motivatie en een doel om een artikel te schrijven. Of het nou blackhat is of niet, men zal altijd een stempel willen drukken.
Je kan altijd bronnen raadplegen maar hoe weet je of de top hits binnen Google, of boeken in de bibliotheek, wikipedia of wat de politiek roept/aanreikt de waarheid is?
De mens heeft zich door de eeuwen heen bewezen als een manipulator
Nette keus, maar hoop wel dat de gegeven onderbouwing de enige reden was voor dit besluit. Niet dat er straks ineens commerciële belangen bij gaan spelen.
Ga er maar van uit dat er ook commerciele belangen of zelfs belangen vanuit de overheid er mee te maken hebben gehad dat het onderzoek (voorlopig) niet volledig gepubliceerd wordt.
Terechte opmerking, ik probeerde vooral niet te pessimistisch te klinken omdat je dan een min score krijgt van de community, waardoor ik de moeite van het tikken achterwege had kunnen laten ;).

Maar ik ben op die punten inderdaad net zo argwanend als jij en vrees dat er met dit besluit een precedent is ontstaan waaruit je kunt concluderen dat hun openheid beperkt is en hun doel ouderwetse kennisacquisitie betreft.
"Er zijn veel meer mensen dan ons..." _/-\o_
Dit komt zeker uit die Webtext :)
"Er zijn veel meer mensen dan ons..." _/-\o_
Dit komt zeker uit die Webtext :)
haha,
jij was me voor: ik had die tekst al geknipt om 'm onder in een Reactie te kunnen plakken (bewijs: ""Er zijn veel meer mensen dan ons die beter zijn bij het bedenken wat voor kwaadaardigs het kan doen." ;-) ).

"Dan wij" is wel correct.
Zou in de oorspronkelijk Engelse tekst "than us" gestaan hebben? Of heeft de vertaler toch net onvoldoende kennis van de Nederlandsche taal?
Ik heb het niet gecheckt, ben niet zo goed in bronnen checken...
Wow, vergeleken met het BERT model van Google dat getraind was op 345M parameters begrijp ik best waarom ze het niet zomaar releasen. BERT was tot hiertoe het grootste model. Het model dat wel gereleased wordt is blijkbaar getraind met 117M parameters.

Best wel benieuwd hoe beide tegenover elkaar staan gezien ze beiden op Transformer architectuur gebaseerd zijn.
Dus openAI is niet zozeer open?
Naast dat het onvermijdelijk is dat AI dominant gaat worden en ons, de mens irrelevant zal maken, blijf ik me toch een ding afvragen... Nou en? Wat is daar zo erg aan?

Iedereen is in rep een roer, want stel je voor dat we niet meer de baas zijn... Nou en?
Stel u voor dat Trump dit produkt ontdekt - hij zou geen wartaal meer uitslaan, en de humoristen zouden zonder werk vallen. Dat zou pas een ramp zijn... :+

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True