DeepMind richt afdeling op voor onderzoek naar ethiek kunstmatige intelligentie

DeepMind, het zusterbedrijf van Google dat werkt aan kunstmatige intelligentie, heeft een nieuwe afdeling opgezet die zich bezig zal houden met onderzoek naar de ethiek van de technologie. Begin 2018 worden de eerste resultaten verwacht.

De afdeling heet DeepMind Ethics & Society, of afgekort DMES. In een blog schrijft het team van onderzoekers dat de nieuwe afdeling is opgericht omdat ze geloven dat kunstmatige intelligentie de wereld kan verbeteren, maar alleen als daarbij de hoogste ethische standaarden worden gehanteerd.

Het doel van de onderzoekers is om de wetenschappers te helpen die aan kunstmatige intelligentie werken, maar ook om het publiek voor te bereiden op de gevolgen die kunstmatige intelligentie zal hebben. Volgens The Verge bestaat het team momenteel uit acht fulltime medewerkers, maar moet dat nog dit jaar ongeveer verdrievoudigen. Het team kan ook aanspraak maken op een groep van fellows. Dat zijn zes onafhankelijke experts, waaronder professoren. Ze zijn niet in dienst van DeepMind maar geven de onderzoekers advies.

Belangrijke ethische thema's rondom kunstmatige intelligentie zijn bijvoorbeeld de beslissingen die zelfrijdende auto's moeten maken bij een onvermijdelijke crash. Ook verwijzen de onderzoekers naar een studie die racisme aantoonde in een algoritme dat criminaliteit voorspelt. Vorig jaar werd door vijf grote technologiebedrijven, waaronder Google, het Partnership on AI opgericht. Ook deze organisatie buigt zich over de ethische aspecten van kunstmatige intelligentie.

DeepMind is een Brits bedrijf dat volledig in handen is van Alphabet. Het is onder andere de maker van AlphaGo, de kunstmatige intelligentie die 's werelds beste go-speler heeft verslagen. Het winnen van het complexe Chinese bordspel door een kunstmatige intelligentie werd gezien als een grote doorbraak. In augustus publiceerde het bedrijf samen met Blizzard tools om te experimenteren met kunstmatige intelligentie in StarCraft II.

Door Julian Huijbregts

Nieuwsredacteur

04-10-2017 • 14:57

33 Linkedin Whatsapp

Lees meer

Reacties (34)

34
34
20
6
2
12
Wijzig sortering
Ook verwijzen de onderzoekers naar een studie die racisme aantoonde in een algoritme dat criminaliteit voorspelt.
Nou, ik heb die studie even gelezen, en daar zijn toch echt wel wat kanttekeningen bij te plaatsen. Ik vind "aantonen" een sterke term. Ze vinden een correlatie tussen ras en risk profile, min of meer dezelfde trends die je in data kan vinden helaas. Ik snap dat een machine learning algoritme dat oppikt.

"the algorithm was somewhat more accurate than a coin flip. Of those deemed likely to re-offend, 61 percent were arrested for any subsequent crimes within two years."

Nee, dat is niet bijna een coin flip. Als er van de duizend mensen 10 recidiveren en er daar 6 van correct voorspeld worden is dat helemaal niet zo gek gedaan bijvoorbeeld.

"The coefficient on high scores for black defendants is almost statistically significant" (i.e. het zgn racisme)

"almost statistically significant" :')

Het vervelende aan AI op basis van statistiek en correlaties is dat ze bruut eerlijk zijn en niet verder kijken dan hun neus lang is, i.e. de input data en learning sets. Spurious correlations gaat het vaak op mis. Maar ze zullen geen moeite hebben met data te gebruiken die eigenlijk niet netjes is om te gebruiken. Wat dat betreft zal zo'n werkgroep met "verboden data" moeten komen -- maar is dat ethisch?
"the algorithm was somewhat more accurate than a coin flip. Of those deemed likely to re-offend, 61 percent were arrested for any subsequent crimes within two years."

Nee, dat is niet bijna een coin flip. Als er van de duizend mensen 10 recidiveren en er daar 6 van correct voorspeld worden is dat helemaal niet zo gek gedaan bijvoorbeeld.
Dat staat er natuurlijk niet. Van de mensen die het systeem aanwijst als likely to re-offend, komt dat in 60% van de gevallen uit. Al vervelend voor die 40%, maar dat zegt ook nog eens niets over de mensen die niet aangewezen werden en wel re-offenden.
"the algorithm was somewhat more accurate than a coin flip. Of those deemed likely to re-offend, 61 percent were arrested for any subsequent crimes within two years."
Goed lezen wat er precies staat: "were arrested". Dat betekent niet dat ze daadwerkelijk iets fout gedaan hebben; de VS heeft een gigantisch probleem met racistische politie! Als je simpelweg voor alle niet-blanke misdadigers voorspelt dat ze in twee jaar tijd vast nog wel een keer (mogelijk volkomen onterecht) worden opgepakt, dan doe je het waarschijnlijk nog "beter" dan deze AI. Daarnaast staat er "any subsequent crime". Bij mijn beste weten is recidive normaal gesproken voor dezelfde (of in elk geval, een soortgelijke) overtreding. Maar hier meten ze alles. Dus bijvoorbeeld een moordenaar die binnen twee jaar nog een keer wordt opgepakt omdat ie weed rookte, telt ook gewoon mee. Oftewel, de data waarop ze de evaluatie baseren is bagger (en wordt, net als de oorspronkelijke trainingsset, vertekend door racistische agenten). Geen wonder dat er weinig zinnige conclusies uit te trekken zijn.

Een AI is zo goed als de dataset (en de bijbehorende ground truth) waarop ie getraind is. Op dit moment is het dus vragen om problemen om een AI te trainen op (in feite) het gedrag van hun huidige agenten...
"The coefficient on high scores for black defendants is almost statistically significant" (i.e. het zgn racisme)

"almost statistically significant" :')
Waarbij je wel even moet opmerken dat "statistically significant" in feite neerkomt op "dit kan geen toeval zijn, dit moet wel met elkaar te maken hebben", waardoor "almost statistically significant" iets is in de trant van "ik weet het niet zeker, maar dit ziet er echt ontzettend verdacht uit" (het betekent dus niet "net ietsje meer dan ruis").
Helemaal mee eens.

Laatst werd er ook een beauty contest AI systeem bestempeld als racistisch omdat volgens Motherboard er 1 zwarte, 6 aziatische en 37 witte winnaars waren. Motherboard schaart echter een paar Turkse mensen, iemand die Pakistaanse roots lijkt te hebben, en mensen uit Zuid Amerika, ook onder de witte winnaars. In mijn optiek zijn die '37 winnaars' dus iets diverser dan dat er wordt voorgedaan. Wanneer Motherboard het later over Westers heeft omtrent de aanmeldingen (Noord-Amerika, Europa, Australie) lijkt het dus consister om +- 33 witte winnaars te stellen. Dit komt neer op ongeveer 75%

Met de overdreven telling van Motherboard komt het dus neer op 2.3% zwart, 13.6% aziatisch en 84.1% wit.

De applicaties voor de wedstrijd zijn als volgt: 1% Afrika, 7% India, en 75% Westers Europees (Europa en Noord-Amerika). De rest vermeld Motherboard niet, maar we kunnen uit gaan van 15% Aziatisch en 2% overig.

De verhoudingen die we terug zien in de winnaars, komt aardig overeen met de verhoudingen van de aanmeldingen. Ervan uitgaand dat schoonheid een normaalverdeling is, zijn de resultaten dus vrijwel in lijn met wat er statistisch verwacht kan worden. Nu is het zo dat een systeem alsnog natuurlijk voorkeuren kan hebben (en met de huidige training sets zal hebben), maar om meteen te gaan roepen dat een AI systeem racistisch is, gaat te ver.

EDIT: En nog even verder op jouw ingaand. Ik vind het jammer dat wetenschap en daadwerkelijke verbetering voor de maatschappij door dit soort bestempelingen tegen wordt gewerkt. Mensen zeggen amper; okay er is een maatschappelijk probleem, deze statistieken zijn niet wenselijk, laten we iets ondernemen om die percentages omlaag te halen. Het is makkelijker om racisme te roepen. Alleen schieten we hier niets mee op. Etnisch profileren is simpelweg statistisch verantwoord. Het wordt ook gedaan op basis van leeftijd, gender, tot welke kleren gedragen worden. Dit is nu eenmaal hoe mensen werken; pattern recognizers. Het is goed dat etnisch profileren als een probleem wordt gezien, maar om de verkeerde redenen. Het is niet een probleem omdat het racistisch is, het is een probleem omdat er blijkbaar meer criminaliteit is in bepaalde leeftijdsgroepen en achtergronden en hier moeten we mee om gaan.

Ook de minderheid die gediscrimineert wordt schiet er niets mee op. Wanneer we de statistiek niet erkennen, en proberen te ontdekken hoe we problemen tegen kunnen gaan, zal criminaliteit niet perse dalen. Dit is niet fijn voor deze minderheid, zij zitten bovendien echt met de problemen van etnisch profileren (onterecht staande worden gehouden). We helpen deze minderheid pas echt door te proberen de problemen aan te pakken waardoor deze statistieken worden gevonden, dan dat we het bestempelen als racistisch en verder gaan met de orde van de dag.

[Reactie gewijzigd door Tikkels op 4 oktober 2017 18:03]

Ja inderdaad, goed voorbeeld. Wel ook hier een kanttekening, beetje als devils advocate, maar je moet ook uitkijken dat je geen statistical reinforcement ingaat. Stel bijvoorbeeld dat het strafsysteem in de VS zwaar rascistisch is (hier wil ik verder niet te diep op ingaan) en daardoor worden er veel meer zwarte mensen veroordeeld en komen zo in de gevangenis, dan laten vervolgens de cijfers en statistiek dit ook zien. Als je vervolgens je veroordelingen gaat baseren puur op die statistiek en machine learning, dan ga je weer meer zwarte mensen veroordelen. Je neemt dan de ingebouwde bias in de cijfers mee. Of bijvoorbeeld bij de schoonheidswedstrijd, dat mensen uit afrika de cijfers zien en daardoor besluiten niet mee te doen omdat ze toch niet winnen en zo de cijfers nog verder omlaag gaan. Een soort negative reinforcement.

Dus ik denk zeker niet dat de AI die onafhankelijk oordeelt op basis van cijfers rascistisch te noemen is, maar er kan een impliciet ingebouwd rascisme in de cijfer zelf zitten op basis waarvan de AI leert. Goede bedoelingen van de AI, maar helaas leert hij van mensen... :)

Hah, Google, ik krijg nu deze post op mn linkedin feed: https://www.technologyrev...as-is-the-real-ai-danger/

dus ze zien dit zelf ook al in gelukkig :) "“The real safety question, if you want to call it that, is that if we give these systems biased data, they will be biased,” Giannandrea said before a recent Google conference on the relationship between humans and AI systems.""

[Reactie gewijzigd door Zoijar op 4 oktober 2017 20:51]

Inderdaad, het beschrijven van een logaritme, die op grond van statistische gegevens gemaakt wordt door een artificiële intelligentie, als rascistisch is gewoonweg emotie aan de kant van de persoon die dergelijke uitspraken doet en zegt niets over het algoritme of de artificiële intelligentie...

[Reactie gewijzigd door DeArmeStudent op 4 oktober 2017 17:03]

Anoniem: 233686
@Zoijar4 oktober 2017 17:33
Software is niet racistisch, hooguit de programmeur en de gebruikers zijn dat. Ze kan inaccuraat zijn en het patroon daarvan kan overeenkomen met gedrag dat bij mensen racisme zou kunnen zijn. Maar voor racisme is een emotionele bias nodig. Helaas was er wel nog veel te verbeteren aan deze software. In de toekomst zal deze software beter dan mensen kunnen inschatten wat de kans op recidive is. Grote kans dat de software zelfstandig tot de conclusie komt dat er een statistisch verband tussen huidskleur en de potentie tot crimineel gedrag is, waar mensen die conclusie liever niet trekken. Dan vervalt ook de mogelijkheid om te wijzen naar menselijk racisme en zullen we de grondoorzaken onder ogen moeten gaan zien. Overigens lijkt dat verband mij voornamelijk sociaal cultureel van aard en niet biologisch, maar dat terzijde.

Edit:
Overigens verwacht ik weinig goeds van een ethische commissie onder leiding van Google. Ze hebben de afgelopen tijd laten zien dat het gelijk slechts één kant op gaat: diversiteitswensdenken. Feiten en afwijkende meningen worden als zeer ongewenst beschouwd.

[Reactie gewijzigd door Anoniem: 233686 op 4 oktober 2017 17:40]

Het vervelende aan AI op basis van statistiek en correlaties is dat ze bruut eerlijk zijn en niet verder kijken dan hun neus lang is, i.e. de input data en learning sets.
Dat is een gevaarlijke aanname die in voor veel mensen hun leven op de kop kan zetten.
"Als een algoritme iets aangeeft moet het wel waar zijn." Veel mensen zien algoritmen als objectieve, onafhankelijke methoden. Dat zijn het echter nooit, want elk algoritme is gebouwd door mensen, met menselijke kennis, aannamen, vooroordelen, etc., en eventueel getraind op data die soms niet onafhankelijk is, misschien niet normaal verdeeld, en vaak vergaard door een instantie die er zelf belang bij heeft. Een algoritme is slechts zo goed als de aannamen die eraan ten grondslag liggen.
Zelfs statistiek is niet objectief. Zie bijvoorbeeld de rechtzaak tegen Lucia de B.

Disclaimer: Ik heb een achtergrond in AI, en werk hier dagelijks mee.
Het is goed dat hier over nagedacht wordt, maar tevens is het ook een beetje interessant doenerij.
De AI tech die Deepmind laat werken is een reinforcement learning neural network. Dat komt er eigenlijk op neer dat er een beloningsstructuur wordt gegeven en het neurale netwerk gaat op zoek naar de hoogste beloning binnen de mogelijkheden van bijvoorbeeld een spel als Starcraft 2 of Go. Er is sprake van een duidelijke constraint aan de mogelijkheden, namelijk de spelregels. Iets vergelijkbaar is Mari/o de beloning is daar hoe ver Mario naar rechts beweegt. Je hebt dan bij Mari/o generaties die uiteindelijk samen weer het volgende beste patroon bepalen binnen de gegeven context.

De clou van AI ethiek is dus: wat genereerd de beloning en wat zijn de constraints van 'het spel'? Als mario echt een mens was, dan is het niet zo cool als hij in een piranhaplant loopt, in een gat valt en dood gaat. Dat is de training van je netwerk dan niet waard. Je zou ook een beloning kunnen zetten op het aantal muntjes, levens of aantal sprongen. Maar als Mario echt was, zou die dan een bank gaan overvallen/hacken? Bovendien wil je ook niet dat Mario door je huiskamer gaat bouncen en al je meubels sloopt. Binnen een spelomgeving is de ethiek niet zo spannend, omdat deze eigenljk buiten het speldomein valt. Daarbuiten wel.

Het ethische vraagstuk waar deepmind voor staat is eigenlijk al bepaald in de universal act of human rights, lokale wetgeving en common sense. Ik denk dat de denktank zich vooral moet wenden tot de hoge raad e.d. instanties om te bepalen wie verantwoordelijk is voor (dodelijke) slachtoffers door het direct/indirect handelen van AI. Er zit namelijk nog wel een juridisch hiaat in aansprakelijkheid m.b.t. AI die opereerd in de rëele wereld (ipv in de virtuele wereld). Mijns inziens moet de aansprakelijke degene zijn die eigenaar is van de AI, dus de rechtspersoon die de AI heeft aangekocht. Men heeft dan dus een impliciete verantwoordelijkheid om AI goed te testen.
Anoniem: 636203
4 oktober 2017 15:27
Lijkt mij niet aan een commercieel bedrijf om dit soort regels te maken, maar de politiek.
DeepMind is Brits. En om je een idee te geven van het nivo waar we het dan over hebben, Amber Rudd gaf toe dat ze cryptografie niet snapt, maar dat ze het desondanks wil verbieden. Niet alleen een probleem daar; de Australische regering maakte zichzelf belachelijk door te stellen dat Australische wetten boven wiskundige wetten staan.

Nee, ik denk dat het verstandig is om ethiek over te laten aan een samenwerking van bedrijven. bijvoorbeeld in ISO verband.
Want je vertrouwt erop dat overheden te allen tijde de hoogste ethische en morele standaarden hanteren?
Juist niet overheden, daar spelen perverterende belangen zoals macht kunnen uitoefenen. Maar ook niet commerciële bedrijven waar geld de belangrijke drijfveer is. Zoals eerder gezegd, een mix van ethici, filisofen, technologen en futurologen lijkt mij meer op zijn plaats.
Ik ben benieuwd of dit 32 filosofen worden, of mensen uit de tech wereld.
En/of marketing professionals

edit: ik hoop dat het een mix wordt, lijkt me goed dat de filosofen weten hoe het in elkaar zit, en de mensen uit de tech wereld de filosofische ideeën goed begrijpen. Daarnaast ook nog een stukje marketing waarmee het duidelijk naar buiten wordt gebracht.

[Reactie gewijzigd door cornedor op 4 oktober 2017 15:14]

Iemand kan in beide werelden thuis zijn. Een ethicus heeft doorgaans een specialisme; dat kan best technologie zijn.
Als ik kijk naar de Ethiek van google als bedrijf voorspelt dat niet veel goeds.

Hoe wil je Ethiek in AI systemen brengen als je zelf als bedrijf het niet altijd even ethisch neemt.
Daarnaast is het weer de vraag wat is ethisch verantwoord en wat niet. In het ene land is iets ethisch maar in het andere niet, zelf de ene bevolkingsgroep verschilt van de ander evenals verschillen tussen de ene of andere persoon.. Leg dat een ai systeem maar eens uit.
Wie beslist er welke ethiek goed is en welke niet? De kunstmatige intelligentie of de programmeur?
uiteindelijk de grote massa en wat en-masse geaccepteerd wordt.
De lijnen hiervoor worden door knappe koppen als filosofen, technici en politici gezet.
Bepaald de massa dat ?

Volgens mij zijn het wetten en regels die grenzen bepalen.
Voorbeeld leraar die met meerderjarige leerling relatie begint is voor sommigen niet ethisch maar strafbaar is het niet.
De massa kan wel bepalen dat iets niet ethisch is maar als een kunstenaar een omstreden kunstwerk maakt is dat zijn/haar vrijheid. Zolang er niet tegen een wet wordt ingegaan mag dat.

Ethiek is vooral een persoonlijke mening of grens die je stelt. De massa als leidraad nemen is leuk maar ik ben daar geen voorstander van.
binnen de lijnen van wat ethisch wordt opgelegd door regels en wetten is het de grote massa die bepaald wat algemeen wordt geaccepteerd. Dat er altijd anderen zijn die binnen de regels en wetten anders doen/denken, heeft dus niets te maken met wat men als goed of fout beschouwd in zijn algemeenheid.
Bepaald de massa dat ?

Volgens mij zijn het wetten en regels die grenzen bepalen.
Wetten en regels worden uiteindelijk (zij het indirect) democratisch (dus door de massa) bepaald.
Klopt maar neem vrijheid van meningsuiting. Je kan dingen zeggen en roepen die voor vele niet ethisch zullen en kunnen zijn. Zolang ze echter niet tegen een andere wet ingaan, geweld oproepen heb je een boel vrijheden.
Ik vind persoonlijk dat het zich nogal beperkt. Het zou interessanter zijn als men onderzoekt wat men doet mocht een AI denken dat het een ziel heeft. Is het etisch gezien dan nog verantwoord om de knop om te draaien en het systeem uit te zetten? Dit is een vraag die ik mijzelf wel eens stel na het spelen van de originele Mass Effect-Trilogy...
Behalve dan dat moderne 'artificial intelligence' helemaal niks heeft te maken met daadwerkelijk zelf denkende machines.
Niet te hard roepen. Dit is pas een stap in die richting, en hoewel ze nog steeds niet op zichzelf denken is het toch iets om rekening mee te houden.

[Reactie gewijzigd door D3F op 4 oktober 2017 15:41]

Nee, Avalaxy heetf gelijk. Een eigen "taal" is vrij betekenisloos. Als je het een "eigen communicatie-protocol" had genoemd, dan had het de media niet gehaald maar was het wel een betere beschrijving geweest.
Verkeerd voorbeeld inderdaad, op zich blijft dan het punt van 3DF nog wel staan. AI heeft het punt misschien nog niet bereikt dat het de menselijke intelligentie evenaart, maar heel ver in de toekomst ligt dat niet.

Dan nog blijft de vraag die 3DF stelt een menselijke projectie op wat er in die AI zou kunnen omgaan. Alsof wij ons kunnen voorstellen wat er zich in een machinebrein omgaat. Alsof denken bewust te zijn een logisch gevolg is van een intelligentieniveau. Ook dat is een aanname.

Weten wat voor denkprocessen in een AI plaatsvinden is natuurlijk wel interessant om te onderzoeken. Los van de invulling die wij mensen er weer aan geven was het experiment dat 3DF aanhaalt een onverwacht resultaat. Waarbij onverwacht minder zegt over de intelligentie van die AI en meer over ons gebrek om te adapteren aan wat voor een ander brein logisch is.

Voor AI onderzoek zie ik ook een uitdaging om AI te leren interactie met ons mensen te hebben. Dat experiment had daar ook alles mee te maken. AI moet dus leren zich naar ons toe te buigen, omdat wij mensen daar blijkbaar niet toe in staat zijn. Bereikt de AI op een zeker moment dat punt dan zou je dat al bijna als een soort superioriteit kunnen uitleggen.

Bewustzijn is een mensending. Ik ben echt benieuwd of wij in de toekomst in staat zijn machineintelligentie die complexer is als ons eigen brein te begrijpen. Met de beperkte experimenten die we nu uitvoeren hebben we al best wel moeite. En dat bewustzijn? Dat is voor ons eigen brein al moeilijk grijpbaar.
Dat artikel klopt van geen kanten. Was pure clickbait die door alle media is overgenomen maar uiteindelijk bleek dit een effect te zijn wat al vele malen was geobserveerd en helemaal niet de reden om de boel uit te zetten. Het experiment was al beëindigd en daarom waren de AI's uitgezet.
Het zou interessanter zijn als men onderzoekt wat men doet mocht een AI denken dat het een ziel heeft. Is het etisch gezien dan nog verantwoord om de knop om te draaien en het systeem uit te zetten?
Aangezien de huidige wetenschap het hebben van een ziel als religieuze onzin beschouwt en daarom nooit grondig onderzocht heeft, zal een artificiële intelligentie die iets dergelijks beweert, afgedaan worden als foutje bedankt, verkeerd geprogrammeerd...En wordt het niet gezien als ethisch probleem om hem uit te schakelen.

Net zoals onderzoekers de artificiële intelligentie met een realistische, statistisch correcte risico-analyse van de bevolking ineens als 'racisme' beschrijven:
Ook verwijzen de onderzoekers naar een studie die racisme aantoonde in een algoritme dat criminaliteit voorspelt.
Lijkt mij geen makkelijke job. Ethiek is iets dat zeer maatschappelijk beïnvloed is en moeilijk dingen laat categoriseren in True of False. Wel een bijzonder interessant onderwerp om over na te denken en te debatteren.
Ethiek in Saudi-Arabië is inderdaad heel iets anders dan bij ons.
En daarom wil je juist AI voor inzetten dan een stukje software met booleaanse logica. Een goede AI denkt juist niet in true of false (anders zou je bij Go nooit winnen).
DeepMind had al een ethische commissie, met daarin vooraanstaande namen, voordat ze door Google werden overgenomen. En de rol van ethiek in het bedrijf was belangrijk in de overnamestrijd die Google en Facebook om DeepMind gevoerd hebben. Dit heeft dus altijd al aandacht bij ze gehad. Wat natuurlijk niet wil zeggen dat ze geen techniek ontwikkelen die per ongeluk de wereld vernietigd }>
Anoniem: 978917
4 oktober 2017 19:46
Ik ben op zoek naar een jongen voor communicatie, in toekomstige relaties) http://mataxya.tk/kate_cl

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee