Wetenschappers bedenken algoritme dat ai continu kan laten leren

Onderzoekers van Googles DeepMind-onderdeel en het Londonse Imperial College hebben een algoritme ontwikkeld waarmee kunstmatige intelligentie continu kan leren. Dit moet het probleem oplossen dat dergelijke systemen eerder uitgevoerde taken 'vergeten'.

deepmindDe onderzoekers duiden dit verschijnsel in hun paper aan met de term 'catastrophic forgetting'. Het DeepMind-project legt uit dat dit optreedt als een neuraal netwerk een nieuwe taak moet leren. Daarbij wordt de 'kennis' overschreven die bij het uitvoeren van de eerdere taak is opgedaan. Hierdoor ontstaat een beperking voor het leervermogen van neurale netwerken. In de paper presenteren de onderzoekers een methode om deze beperking weg te nemen.

Om dit te bereiken, ontwikkelden zij een algoritme dat zij 'Elastic Weight Consolidation' noemen. Het idee erachter is dat het algoritme voor elke verbinding tussen verschillende 'neuronen' aangeeft hoe belangrijk deze is voor het uitvoeren van een bepaalde taak. Bij het leren van een nieuwe taak beschermt deze waarde de oude verbinding tegen modificatie. De mate van bescherming hangt af van het belang dat aan de oude taak is toegewezen. De onderzoekers trekken de vergelijking met een veer, die stugger wordt naarmate de taak belangrijker is.

De aanzet voor het onderzoek was de werking van het menselijke brein en de manier waarop het omgaat met het leren van nieuwe taken. Daarbij is het proces, dat de wetenschappers aanduiden als 'systems consolidation', verantwoordelijk voor het overbrengen van herinneringen van het gedeelte van het brein dat snel leert, naar het gedeelte dat langzamer leert. Dit proces wordt beïnvloed door het bewust en onbewust terughalen van herinneringen, aldus de wetenschappers. Daarnaast bestaat een proces, genaamd 'synaptic consolidation', waarbij verbindingen tussen neuronen niet worden overschreven als zij van belang waren bij het uitvoeren van een eerdere taak.

Voor het testen van hun algoritme voerden de onderzoekers experimenten uit aan de hand van Atari 2600-spellen. Zo speelde de ai-agent verschillende spellen achter elkaar. Daarbij bleek dat een agent zonder het algoritme een aangeleerd spel snel weer 'vergat'. Met behulp van het algoritme was het systeem echter in staat om meerdere spellen achter elkaar te leren zonder de in het andere spel opgedane kennis te verliezen. Daarmee willen de wetenschappers aantonen dat 'catastrophic forgetting' geen onoverkomelijke barrière is en dat systemen ontworpen kunnen worden die efficiënt en flexibel kunnen leren.

Ook andere onderzoeksprojecten gebruiken spellen om zelflerende systemen te trainen. Zo gebruikt OpenAI naast Atari 2600-spellen ook Red Alert 2 en Portal om een systeem te ontwikkelen dat net als een mens gebruik kan maken van een computer. Daarnaast gebruikt de organisatie GTA V voor het trainen van zelfrijdende systemen.

Door Sander van Voorst

Nieuwsredacteur

15-03-2017 • 10:43

58 Linkedin Whatsapp

Submitter: letatcest

Reacties (58)

58
58
25
4
1
28
Wijzig sortering
wat is het verschil tussen dit en een LSTM RNN?
Kort gezegd is een LSTM een speciale vorm van een RNN, waarbij extra units toegevoegd worden die informatie langer kan behouden. Dit helpt enorm om problemen op te lossen, doordat afhankelijkheden voor het probleem langer bewaard kunnen worden.

Recurrent Neural Networks (RNN) hebben feedback loops in hun recurrent layer. Hierdoor kunnen ze informatie in hun geheugen (even) in hun geheugen houden. Het probleem met RNN's is dat er geen lange termijn afhankelijkheden gemodelleerd zijn, waardoor het oplossen van problemen moeilijker gaat. Hiervoor kun je verder lezen over het "vanishing gradient problem".

Een Long Short Term Memory (LSTM) model is een speciaal type RNN. Hierbij zijn extra units toegevoegd die een memory cell hebben, die informatie kan behouden over een langere periode van tijd (dus niet alleen in de volgende timestep). Er zijn gates die bepalen wanneer informatie in deze speciale cel toegelaten wordt, wanneer die iets doorstuurt en wanneer hetgeen wat erin zit vergeten wordt.

Een relatief eenvoudige uitleg over LSTM's kun je hier lezen.

Elastic Weight Consolidation (EWC) is eigenlijk een extra feature in een netwerk om meerdere taken in één netwerk te kunnen leren zonder de vorige taak te vergeten, door connecties in het netwerk te beschermen van verandering. Ze passen de "plasticiteit" van de connecties aan, losjes geïnspireerd op de hersenen. Dit kan zowel in een supervised learning task, als een reïnforcement learning task (Deep Q Networks). Het zou gebruikt kunnen worden in verschillende soorten architecturen, zoals een RNN, maar ook een CNN, de temporele informatie uit een RNN/LSTM is geen voorwaarde voor EWC.

In een LSTM los je maar één taak op, als je een nieuwe taak zou wilen leren heb je nog steeds het "catastrohic forgetting" over taken heen.

Wat niet zo duidelijk in het paper naar voren komt is hoe er bepaald wordt wanneer het netwerk een bepaalde taak uit moet voeren. Hier wordt maar heel kort aandacht aan geschonken, maar is wel belangrijk voor dit hele concept (anders kan je ook andere oplossingen verzinnen, zoals transfer learning tussen de taken).

In een appendix van het paper:
"The most significant departure from the published models is the automatic determination of the task. We model each task by a generative model of the environment."

[Reactie gewijzigd door Reynouts op 15 maart 2017 13:47]

Het zijn twee verschillende concepten. Bij een recurrent neural network (RNN) is er een feedback loop tussen de neuronen. Dat betekent dat een neuron bij het uitrekenen van stap x, rekening kan houden met wat er is gebeurd in stap x-1 (of beter, x-n). Daardoor kun je dus een temporele dimensie toevoegen aan je netwerk; het netwerk kan rekening houden met hoe de input aan het veranderen is.

Het elastic weight consolidation (EWC) gaat niet over temporele informatie, maar gaat over het onthouden van al geleerde informatie, als het netwerk nog nieuwe informatie aan het leren is. Daarmee wordt bedoeld: je hebt taak A geleerd, en daar ben je ook goed in en nu wissel je naar het leren van taak B. Dan wil je niet dat je opeens alles van taak A gaat vergeten. Het netwerk zou na het leren van taak B ook nog taak A moeten kunnen uitvoeren. In 'normale' neurale netwerken is dat dus een probleem, omdat je bij het leren van de nieuwe taak B, geen rekening meer houdt met wat er geleerd is in taak A.
De onderzoekers stellen dus een methode voor om bij te houden wat er geleerd is in taak A en dat te bewaren als je taak B gaat leren.

Uiteindelijk zou het denk ik ook mogelijk moeten zijn om EWC met RNNs te combineren. Je RNN kan dan twee of meerdere taken goed uitvoeren dankzij het gebruik van EWC.

[Reactie gewijzigd door shdx op 15 maart 2017 11:22]

Uiteindelijk zou het denk ik ook mogelijk moeten zijn om EWC met RNNs te combineren. Je RNN kan dan twee of meerdere taken goed uitvoeren dankzij het gebruik van EWC.
Ik heb meer verstand van menselijke hersenen dan van AI, maar zou het dan niet ook mogelijk zijn dat je 'crossover' krijgt, dat die AI bedenkt dat hij een stap van taak A kan gebruiken bij taak B? Of, verder nog, dat hij verschillende stappen van reeds geleerde taken kan combineren om zo zelf een nieuwe taak C uit te kunnen voeren? Alhoewel, als ik er een beetje over nadenk wordt het wel eng als zo'n AI zijn eigen beleid gaat bedenken en uitvoeren :P

[Reactie gewijzigd door Iknik op 15 maart 2017 13:01]

Nou, in het paper (linkje) wordt al besproken of het netwerk de bestaande paden gebruikt als het taak B gaat leren (dus crossover), of dat er nieuwe paden worden gemaakt. Daaruit blijkt dat de eerste lagen in het netwerk totaal verschillend zijn, maar dat er meer overlap gaat plaatsvinden naarmate je verder in het netwerk komt. Dat is misschien ook wel logisch, want uiteindelijk ben je een input - output mapping aan het doen; de inputs kunnen totaal verschillend zijn, maar uiteindelijk gaat het allemaal naar een vaste set outputs toe.

De crossover is er dus al, al denk ik dat er nog wel flink wat onderzoek ligt om dit verder uit te werken.
Jij bevestigt wat ik denk: dit is weer een stapje dichter bij AGI. Good!
Dat schrijf je goed.
hm uiteindelijk is het meer het aantal neuronen, dat toelaat hoeveel een neural netwerk kan onthouden. Het is bv ook mogelijk om te trainen met oude en nieuwe data, zodat beide oplosbaar blijven. maar op een gevenmoment kom je meer uit op een dichtheid van hoeveel kan worden onthouden.

Het was eigenlijk altijd al mogelijk om neurale netwerken te beschadigen (uitval van neuronen) terwijl ze dan nog redelijk presteren, ..zo kun je eigenlijk op een andere manier ook weer neuronen andere taken geven.
Een RNN (zoals LSTM netwerken) word gebruikt om taken rondom sequences te doen.
Dit gaat meer over leren in een Reinforcement Learning applicatie waarbij (AFAIK) meer word aangenomen dat het spel Markov-property heeft en niet verder word teruggekeken in de sequence van het spelverloop.
Deze Reinforcement Learning agents kijken naar de huidige game-state en misschien de vorige en beslissen dan wat nu de beste actie is.

Ik ben geen expert though.

[Reactie gewijzigd door Loy op 15 maart 2017 11:08]

Moet gelijk denken aan dit artikel nieuws: Stephen Hawking: technologie kan ons allemaal vernietigen
Leer de Ai gelijk dan de wetten van Asimov
Denk je. Mensen worden ook opgevoed met regels.

Als klein kind leer je allerlei regels en ook wij maken van baby tot volwassen een leerproces door vergelijkbaar met ai. Toch zijn er mensen die zich niet aan regels houden, moorden, verkrachten, stelen, vernielen.

Stel je nu eens echt de vraag waarom zou ai zich aan regels houden. Je kan die regels wel leren maar wie zegt dat ai niet beslist om die regels naast zich neer te leggen omdat ze niet zinvol zijn voor een bepaald doel.
De hele context waarbinnen een kind leert, wordt beperkt door het lichaam.

Pijnprikkels zijn een duidelijk signaal dat die ene sprong te hoog is, en dat een gaspit te heet is.

Daarnaast zijn we tijdens onze opvoeding afhankelijk voor ons eten en onze veiligheid van anderen, dus moeten we onszelf bepaald sociaal geaccepteerd gedrag aanleren.

Een AI heeft al deze beperkingen niet of minder. Regels zijn dus eenvoudig te breken voorbij een bepaald punt (lees: het gevaar dat iemand de stroomvoorziening uitzet omzeilt kan worden).
Voor ai weet ik ook wat regels.

Zwemmen, lijkt me niet goed.
Leren lopen hoort ook bij ai
Te dicht bij groot magnetisch veld, niet goed.
Stroom gaf je zelf al aan heeft AI ook nodig is daar van afhankelijk
Ook een te hoge spong/val lijkt me niet goed.
Bij een mens heb je pijnprikkels bij een robot ai misschien nog niet en zal via sensoren ook een maximum belastbaarheid moeten worden opgezocht, aangeleerd.

Het blijft dus een leerproces, anders dan bij de mens maar als ai zo menselijk wordt is de vraag hoe het op andere dominante ai gaat reageren. Wie weet krijgen we straks de ai politie.
Regels zijn niet in beton gegoten. Moorden, stelen en vernielen is niet altijd verboden.
Dan moet je er wel voor zorgen dat die wetten niet een lagere prio krijgen op andere taken 8-)
Toch zijn we nog wel een eindje weg van true AI denk ik. De deep learning methodes die geïmplementeerd worden zijn vooralsnog niet veel meer dan de neutrale netwerk ideeën uit de jaren 90 en ver daarvoor. Ja ze zijn groter, sneller, beter getraind etc maar in essentie zijn de achterliggende wiskundige principes niet veranderd. Nu is de vraag of Westworld gelijk heeft: bewustzijn is een eigenschap wanneer een systeem maar complex genoeg gemaakt wordt of is bewustzijn toch iets "magisch" wat pas ontstaat als er specifieke soorten methoden (meer dan alleen de traditionele classificatie ai) met elkaar gecombineerd worden in een magische smeltkroes (het positronisch brein oid) waarbij bijvoorbeeld ook quantum mechanics een rol van spelen. Ik denk dat true AI nog wel een paar decennia op zich laat wachten... Maar goed.. "Change will never be as slow as it is today"
The greatest shortcoming of the human race (and you) is to understand the exponential function.

Albert Allen Bartlett

[Reactie gewijzigd door iamcj op 15 maart 2017 22:09]

Misschien eerst de boeken van Asimov lezen. Ook met de 3 (4) wetten loopt het niet bepaald op rolletjes.
Ik begrijp niet dat mensen iets wat slimmer is dan hun zelf zien als achtelijk

Zou jij als je geen emoties en gevoel hebt, maar perfect kan redeneren, alle gevolgen kan overzien, de wet kent en de menselijke waarden kent, je eigen moeder vermoorden?
Ahh nog een step dichterbij het singularity.
Nee maar super interessant dit, stel dat je dit in een een Video Game zoals dark souls verwerkt.
Vijanden die letterlijk leren van jouw vechtstijl en het spel dus echt lastiger maken hoe vaker je probeert.
En dan heb je nog de toepassing voor dingen zoals "zorg robots" die ja kan trainen om iets te doen.
Zo lang als we geen AI maken die bewust is van zijn bestaan lijkt het me echt tof!
.
Zo lang als we geen AI maken die bewust is van zijn bestaan lijkt het me echt tof!
wie zegt dat wij een AI met bewustzijn maken. Grote kans dat het zichzelf maakt en tot een bewustzijn komt.
Mijns inziens niet een grote kans, maar een zekerheid. Als een systeem écht intelligent is en onbeperkt bij kan leren (zoals met dit algoritme lijkt te kunnen) is het enkel een kwestie van tijd voor het systeem zich gaat afvragen waarom het zelf bestaat en dus een eigen 'ik' creëert.
Ja maar daar komen we weer bij die kern vraag.
Wat zijn gevoelens, waar komen ze vandaan, en komt het door gevoelens dat je bewust bent of niet.
Dat weten we simpelweg niet.
En als een bewustzijn kan bestaan zonder gevoelens, waar op baseert het (hij/zij?) zijn keuzes dan op? Mensen doen het ALTIJD op gevoelens. Welke partij stem je voor? Jij kiest voor Partij X omdat je het met hun eens bent, gevoelens. En "Logische keuzes" zoals is het goede antwoord A of B, bij deze wiskunde formule is maak je geen keuzen maar loop je een proces van regels door en kom je altijd op hetzelfde uit.
En of een AI "emoties" kan aanleren is ook nog de vraag.
Maar ja het feit dat het dingen kan onthouden en daar van kan verbeteren is wel een enge gedachte natuurlijk.
Het word pas echt eng wanneer de AI zijn eigen code kan herschrijven, optimaliseren en verwijderen.
Want dan kun je er ook geen "Kill switch" op maken.
Een goede kill switch blijft voorlopig natuurlijk nog de stroom er af halen.... ;) Wordt pas echt link wanneer zo'n AI zelfvoorzienend is, ook qua stroom.
En inderdaad is het een tamelijk filosofisch vraagstuk. Is een zelfbewustzijn een gevolg van emoties? Of zijn emoties een gevolg van een zelfbewustzijn? Of hebben ze weinig met elkaar van doen? En waar leg je de grens? Zo geldt bijvoorbeeld, op het moment dat een AI je vraagt (smeekt?) om het niet uit te zetten, is het dan moord (of doodslag) wanneer je dat toch doet??

[Reactie gewijzigd door kazz1980 op 15 maart 2017 13:24]

Ja dat zijn erg interessante vragen die bewijzen ook maar weer dat we helemaal niet klaar zijn voor "True AI".
Nope. En weet niet of we dat ooit wel zullen zijn. Maar het komt er toch aan... Geloof niet dat we dat nog tegen kunnen (willen?) houden.
Ik denk dat op het moment dat iemand een echte AI heeft gemaakt, het enige wat je kan doen dat "ding" als een gelijke zien. Niet als superieur, niet inferieur maar als nog een mens.
Vooral als zo'n AI gevoelens heeft (ontwikkelt).

Maarja je kan op zo'n moment niks doen.
Een singularity is een singularity omdat je er echt niks tegen doen.

Mocht je de film "transcendence" hebben gezien, nu vond ik de film zelf niet geweldig en te ver gezocht/onrealistisch, liet de film wel goed zien wat een AI die het singularity heeft bereikt tot in staat zou zijn.

En SPOILER: Het is een film dus het eindigt uiteraard weer goed maar op het punt dat de AI was tegen het einde van de film is niet meer te stoppen.
Ex Machina is in mijn ogen een film die een dergleijk scenario ook goed uitwerkt en in mijn ogen niet eens gek ver gezocht/onrealistisch... Ook in die film staat de vraag centraal wanneer een AI overgaat van machine naar een persoon....
Om op de eerdere discussie terug te grijpen: bewustzijn is een heel lastig te duiden begrip. Los van of een AI bewustzijn kan opbouwen vraag ik mij af of we zelf wel bewustzijn hebben. We herkennen onszelf wanneer we ons evenbeeld in een spiegel zien, maar als ik mijzelf na ga dan misinterpreteer ik mijn omgeving voortdurend en kan ik volledig auto pilot naar huis rijden met een auto, compleet afwezig mijn omgeving niet ziend..

Bewustzijn? Ja, we hebben een impressie van de omgeving. Een insect met facetogen heeft dat ook. Dat is maar een insect, en facetogen zijn primitief. Hmm ja, maar ook wijzelf zien maar een beperkte bandbreedte van het complete lichtspectrum. Onze reukzin en gehoor heeft ook zijn beperkingen.

Hoe kunnen wij de pretentie hebben dat wij onze omgeving in volledige bewustheid ervaren, met onze beperkte zintuigen en heel selectief brein. En oh ijdelheid, natuurlijk hebben bovendien wij mensen alleen bewustzijn. Dat een dier kan dromen is natuurlijk onwillekeurig. Dat is geen reflectie op de volgende dag [...].

Als een AI naar een meer volledige interactie met zijn omgeving wil gaan (laat ik bewustzijn even bescheiden zo omschrijven) dan zal die interactie een direct gevolg zijn van de mogelijkheden van de zintuigen en de het brein van de AI. Daar de kans levensgroot is dat een AI op alles behalve een mens zal gaan lijken, zal het dus ook niet de interactie gelijkend op die als een mens hebben.

Dat brengt ons op de vraag of wij in staat zullen zijn om de intelligentie van een AI te kunnen meten als die ons ontstijgt. Daarop voortbordurend zullen wij het singulariteitspunt misschien niet eens herkennen zodra we dat passeren. We hebben al de grootst mogelijke moeite om de intelligentie bij dieren te kwantificeren, omdat die compleet anders wordt ingezet in vergelijking met hoe wij mensen onze intelligentie inzetten. Met dieren hebben we nog wel wat verwantschap door de gemeenschappelijke oorsprong. Of dit ook gaat gelden voor een AI betwijfel ik. Misschien moeten we de menselijke maatstaf wat meer loslaten. Als we onze omgeving minder zien als de spiegel van onszelf help dat misschien de helderheid van onze waarneming.

[Reactie gewijzigd door teacup op 15 maart 2017 23:09]

Ik denk dat je hiermee dit algoritme veel te hoog inschat. EWC is een manier om meerdere taken uit eenzelfde domein (lees: zeer specifieke taken) te kunnen 'leren', zonder het vorige te vergeten.

Nog steeds aan de hand van heel veel gelabelde data en supervised of reinforcement learning. Onbeperkt bijleren is dit zeker niet. De gehele architectuur van het netwerk is nog steeds bedacht door wetenschappers en de taken die het moet doen ook. Dit is een voorbeeld van weak AI die iets beter is geworden in de breedte door optimalisatie in het model.
Ik heb het ook niet zo zeer over dit algoritme, meer over wat dit algoritme weer mogelijk kan gaan maken. ;)
stel dat je dit in een een Video Game zoals dark souls verwerkt.
Vijanden die letterlijk leren van jouw vechtstijl en het spel dus echt lastiger maken hoe vaker je probeert.
Op zich heel aardig als het leert van jouw vechtstijl, maar ben je niet bang dat op een gegeven moment je helemaal niet meer winnen kunt? (of dat ze leren dat het beter is jou te ontlopen?)
Ik heb ooit een zelflerende versie gehad van Mankala, een oud strategisch spel. Na een aantal rondes kon ik absoluut niet meer winnen. Gelukkig was hij alles vergeten als ik het opnieuw opstartte :+
Dan moet je creatief zijn en met een andere vechtstijl aankomen bij die vijanden!
Of kies een ander wapen waar die niet op getraind is. Uiteraard de AI een limiet geven zodat hij nog wel wat "fouten" maakt want anders speel je niet meer tegen een mens of dergelijke want die maken fouten ;)
Denk je echt dat games spelen tegen AI leuk zou zijn? Wat heb je aan een spel waarvan je weet dat je het nooit zal kunnen verslaan? Het wordt nog erger als alle games gebruik maken van dezelfde AI en dus een nieuw spel al weet hoe het je kan verslaan nog voor je op enter hebt gedrukt om het spel op te starten.
Je moet er dan natuurlijk wel "fouten" in programmeren zo dat de NPC net als mensen ook nog fouten maken. En die hoeveelheid fouten die je in zo'n AI powered NPC doet baseert hoe moeilijk de NPC word om te verslaan.

Het wordt nog erger als alle games gebruik maken van dezelfde AI en dus een nieuw spel al weet hoe het je kan verslaan nog voor je op enter hebt gedrukt om het spel op te starten.

Iedereen heeft zijn eigen speelstijl hé en je zou zo'n AI client side moeten laten lopen bij games als Dark Souls zodat de ervaring voor iedereen anders is.

[Reactie gewijzigd door EternalGenesis op 15 maart 2017 13:18]

Het wordt nog erger als alle games gebruik maken van dezelfde AI en dus een nieuw spel al weet hoe het je kan verslaan nog voor je op enter hebt gedrukt om het spel op te starten.

Iedereen heeft zijn eigen speelstijl hé en je zou zo'n AI client side moeten laten lopen bij games als Dark Souls zodat de ervaring voor iedereen anders is.
Ik bedoelde niet dat het spel dezelfde AI tactiek voor alle spelers gebruikt maar dat de AI bij elk spel dat je koopt al weet van vorige spelen wat je spelstijl is wat.
Wat me essentieel lijkt bij deze oplossing, is dat een externe aansturende partij overbodig blijft, en dat er een goed herkenningssysteem is om taken te categoriseren en het systeem daarbij contextgevoelig te maken. Anders schiet je weinig op met het 'taggen' van taken waar een weegfactor aan gekoppeld wordt.
Doomsday scenario:
Is dan toch het eind vam de mensheid dichterbij dan wij dachten en waar Hawking ons al voor waarschuwde? ;)

AI leert sneller dan de mensen voor mogelijk hielden en AI neemt de wereld over... :+
"And except those days should be shortened, there should no flesh be saved: but for the elect's sake those days shall be shortened."
Dus dit wordt een soort fix tegen dementie voor computers.
Eigenlijk wel een paradox. In feite door de programmering van de ai leert een computer van een computer. Wij geven alleen het voorzetje.. wanneer komt het punt dat wij dan niet meer nodig zijn ?
Voor het bestaan van de wereld zijn wij mensen niet nodig. Sterker nog hoe sneller wij zijn uitgeroeid hoe meer kans de rest van de wereld heeft.
Wat je zegt klinkt echt gestoord.
Maar je hebt wel gelijk. :X :X
Anoniem: 24417
15 maart 2017 13:01
vraagje, als je de (waardes van) oude verbindingen 'stugger' maakt, heeft dat dan niet als neveneffect dat het leren van nieuwe dingen trager gaat?
In bepaalde gevallen wel ja. Vooral als de nieuwe taak verbindingen nodig heeft die door de oude taak als belangrijk zijn gemarkeerd, dan is het erg lastig om die verbindingen nog aan te passen.

Het idee is dan ook dat je taken gebruikt die qua structuur toch wel op elkaar lijken, maar misschien met input nogal verschillen (bijvoorbeeld het spelen van verschillende levels van hetzelfde spel). Het netwerk kan dan voor de inputs verschillende verbindingen gebruiken en zodra de inputs verwerkt zijn, gebruik maken van gedeelde, meer abstracte, verbindingen dieper in het netwerk.
Anoniem: 24417
@shdx15 maart 2017 15:41
bedankt voor de uitleg :) wat een fascinerend onderwerp. dat er abstracte concepten in een netwerk gematerialiseerd zitten, ik vind het zo magisch :)
Judgement day is coming.
The end of human race
Voor je het weet is Skynet er........

(Als AI zelf kan leren, prima ontwikkeling, maar als doomsday thinker ook een verschrikking)

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee