'Kunstmatige intelligentie heeft beperkingen en vormt geen gevaar voor de mens'

Mark Bishop, een Britse hoogleraar computerwetenschap, zei tijdens een lezing dat kunstmatige intelligentie zijn beperkingen heeft, in de zin dat ai de wereld niet begrijpt. Mede daardoor hoeven we volgens hem niet bang te zijn voor robots die een gevaar vormen voor de mensheid.

Bishop stelt dat machines niets begrijpen van wat ze doen, zo zei hij tegen The Register. Volgens hem kan kunstmatige intelligentie wel zaken aanpassen en patronen herkennen, maar mist ai bijvoorbeeld wiskundig inzicht. Ook kunnen computers volgens de professor niet goed overweg met menselijke gevoelens en emoties en kunnen computers kennis niet volledig doorgronden of begrijpen.

Mede door deze eigenschappen is het volgens Bishop onwaarschijnlijk dat er een algehele kunstmatige intelligentie wordt gebouwd. Het overnemen van de wereld is dan ook een doembeeld waar we volgens hem niet bang voor hoeven te zijn, omdat voor computers niets belangrijk is; volgens Bishop geven computers daardoor geen voorrang aan een bepaalde taak ten koste van een andere.

Hij wijst daarbij op een voorbeeld uit 2011, waarbij een bepaald biologieboek op Amazon een prijs kreeg van ruim 23,5 miljoen dollar. Twee resellers, Profmatch en Bordeebook, waren daarvoor verantwoordelijk. Het algoritme van Profmatch zorgde er steeds voor dat de laagste prijs werd ingesteld, terwijl het algoritme van Bordeebook de prijs juist steeds iets hoger dan het prijsniveau van Profmatch instelde. Uiteindelijk leidde dat tot een prijs van een absurd niveau, iets wat een mens van vlees en bloed nooit zo ver had laten komen.

Elon Musk, de topman van SpaceX en Tesla, heeft eerder juist gewaarschuwd voor de gevolgen van een ongebreidelde ontwikkeling van kunstmatige intelligentie. Hij noemde het een fundamenteel risico voor de samenleving en wil daarom dat nationale overheden ai gaan reguleren. Musk vindt dat mensen zich zorgen zouden moeten maken om de meest geavanceerde vormen van kunstmatige intelligentie. Hij zegt te blijven waarschuwen voor de gevaren, omdat hij denkt dat mensen niet weten wat ze ervan moeten vinden, totdat ze zien hoe robots mensen in de straten doden.

Ook de Engelse natuurkundige Stephen Hawking heeft eerder zijn zorgen over kunstmatige intelligentie geuit. Volgens hem is technologie in de toekomst mogelijk in staat om ons allemaal te vernietigen. Hawking stelt dat technologie zich dermate snel ontwikkelt dat er een kans bestaat dat kunstmatige intelligentie de mensheid uitroeit via een nucleaire oorlog.

Mark Zuckerberg van Facebook deelt deze pessimistische visies niet en stelt dat ai in veel opzichten juist levens kan redden. Daarbij wijst hij op levensreddende technologieën in de medische sector die ziektes kunnen diagnosticeren en ai die via zelfrijdende auto's het aantal verkeersslachtoffers aanzienlijk kan inperken. Zuckerberg erkent dat technologie voor zowel het goede als het kwade kan worden gebruikt, waardoor voorzichtigheid wel is geboden. Maar volgens hem is er geen enkele reden om te pleiten voor het vertragen van de ontwikkeling van kunstmatige intelligentie.

Door Joris Jansen

Redacteur

09-10-2017 • 19:11

231 Linkedin Whatsapp

Lees meer

Reacties (231)

231
223
163
34
2
28
Wijzig sortering
Anoniem: 946815
9 oktober 2017 19:16
Die AI zoals we die nu kennen is inderdaad weinig gevaarlijk. Maar naar mijn mening is wat we nu als AI verkopen ook helemaal geen echte AI. Met het toepassen van een neuraal netwerkje ben je er simpelweg nog niet.

Op zich wel fijn dat deze meneer een ongegronde angst weg probeert te nemen bij een minder geïnformeerd publiek, maar ik had liever gehad dat hij uitlegt dat wat we nu AI noemen nog verre van intelligent is.
Die AI zoals we die nu kennen is inderdaad weinig gevaarlijk. Maar naar mijn mening is wat we nu als AI verkopen ook helemaal geen echte AI.
Maar als vrijwel iedereen wat er nu beschiklbaar is als Ai omschrijft en je het daar niet mee eens bent dan moet je ook 'echte AI' definiëren.

Overigens vind ik het voorbeeld uit 2011 (!!) een prima voorbeeld van de nabootsing van I (als uit intelligentie). Een deel van de definitie van AI is dat je er mensen bij betrokken zijn. Mensen zijn geen binaire logische wezens maar nemen beslissingen die soms niet logisch zijn. Een AI die beweert onfeilbaar te zijn is per definitie niet bijster intelligent.

In de toekomst zullen zelfrijdende auto's verkeerde beslissingen nemen, zullen kerncentrales ontploffen en zal Siri je een indisch restaurant aanbevelen als jij een indonesisch restaurant zoekt. Waar het om gaat is hoeveel BETER AIi is, niet of het onfeilbaar is. En we zijn verbazingwekkend dichtbij. Mijn Tessie kan beter op de snelweg rijden dan ik kan, Amazon weet beter welke boeken ik leuk kan vinden dan ik ooit zal kunnen uitzoeken en Spotify dwong me vanmiddag een band op waarvan ze dachten dat ik die heel leuk zou vinden. Spotify had gelijk! Maar dit weekend dacht Spotify dat ik John Lennon leuk zou vinden.... dat was nu precies een van die missers waar we mee zullen moeten leren leven.
Mijn Tessie kan beter op de snelweg rijden dan ik kan
Maar dat zegt eerder iets over jouw kwaliteiten als chauffeur, dan over je vriendin Tessie. :)

Alle gekheid op een stokje...Verderop schreef je iets over de missers waarmee we moesten leren leven. Nu is een voorstel van Spotify betreffende Lennon nog wel mee te leven. Niet echt fataal, maar als jouw Tessie de ‘ga terug’ borden op de oprit van de snelweg zou negeren, zit je toch echt in de problemen.
Juist door het feit dat autos straks met elkaar in een hive communiceren en exact van elkaar weten wat ze doen is een foutloos systeem helemaal niet zo ver weg.
Zelf rijdende autos kunnen veel beter inschatten wanneer het fout gaat, en vele malen sneller reageren dan een mens dit kan. Juist doordat het systeem geen emotie heeft kan het altijd en overal rationeel beslissingen op nemen. Iets wat een mens niet altijd kan.

Juist als je autos gaat bouwen die net als mensen denken... dan krijg je problemen. Niet alles is met AI beter. Soms is binary code helemaal nog niet zo gek.

Overigens kun je spotify allerminst vergelijken met AI. Spotify gebruikt niet veel meer als voor ingestelde tags van bepaalde muziek die je vaak luistert en kijkt vervolgens welke muziek nog meer in dit genre valt en dezelfde eigenschappen heeft. Dit heeft in de verste verte niets met AI te maken.

Ik ben het er mee eens dat een robot nooit zal kunnen denken en voelen zoals wij mensen dit kunnen.

Echter wat Bischop zegt "omdat voor computers niets belangrijk is" hoeft niet perse positief te zijn. Als voor een computer niets belangrijk is dan kan het ook inbreken op een nucliaire basis en daar een raket afvuren. De kans is 50/50. Wel ben ik bang dat wanneer een echte AI super computer aangesloten wordt op het internet deze binnen een dag slimmer is dan welk mens op aarde. Het leert dan dingen, gedachte gangen en kiest wat het wil denken en doen. Het is op dat moment maar net waar zon computer het eerst op stuit lijkt mij. Het zal snel genoeg bewust worden van zijn plek op aarde en dat deze behouden moet blijven. Wat het vervolgens kiest en doet... Dat weet volgensmij niemand.

Het grootste gevaar hier in is vervolgens dat een computer 100000 keer sneller is dan welk mens ook. Dus vanaf het moment dat je de computer aansluit op het internet ben je de controle kwijt. Het kan in enkele secondes leren hoe het code moet schrijven en schrijft delen van zichtzelf weg op het internet zonder dat iemand er weet van heeft. De AI is zo snel dat tegen de tijd dat iemand het door heeft het hele internet al besmet is. Wij mensen zijn jaren bezig om miljoenen regels aan code te snappen te reverse engineeren en een hack te bedenken. een AI in een super computer doet dit in een seconde. Hat kan in secondes iedere plek op aarde hacken. Plaatsen waar het niet bij kan worden via mobiele telefoons met geluidsgolven toch gehacked. Zelfs wij mensen kunnen dit al.

Alle info die nodig is om het te doen staat op het internet. Wij mensen kunnen het alleen niet snel genoeg tot ons nemen om echt gevaarlijk te worden. Een AI heeft hier geen last van.

Het domste wat de mens kan doen is iets bouwen wat slimmer is dan wij zelf..

[Reactie gewijzigd door sygys op 10 oktober 2017 09:20]

Dit soort toekomstbeelden negeren altijd de 'messyness of everyday life'.
- Er komen meerdere standaarden. Auto's gaan ook nog eens 30 jaar mee, dus dan krijg je obsolescense problemen, waarbij oude auto's niet mee kunnen komen. We kunnen smartphones al niet eens up to date houden.
- Zelfs als er een standaard komt, kan die weer bevochten worden, zoals met de headphone jack.
- Er zijn meerdere culturen met verschillende interpretaties en wensen. Zo pikken Uber chaufeurs in NYC liever geen Fransen op, want in onze Europese cultuur geven we een 'realistischer' aantal stemmen, en niet alleen maar "5 star would ride again" als het alleen maar 'ok' was.
- Slimme auto's die met elkaar communiceren gaan een hacking maar ook een privacy probleem vormen, iets waar we het nog amper over hebben gehad.

Kortom, de loop van technologie wordt enorm beïnvloed door menselijke processen en dromen.

Het grootste probleem dat ik met AI heb is dat de discussies over machines met "conciousness level AI", (die wat mij betreft miniaal 100 jaar weg is) afleiden van alle problemen die we nu al hebben met geavanceerde automatisering, zoals algoritmische discriminatie en ongelijkheid, filterbubbles, autonome moordende drones (zoals Samsung die bouwt), etc.

In reactie op @Anoniem: 946815: de AI die we nu al hebben is dus al wel hartstikke gevaarlijk. Alleen herkennen we het niet omdat we op een terminator wachten in plaats van op een algoritme van een databroker die achter de schermen je kansen op een baan aan het minimalliseren is.
In reactie op @meatarian: de AI die we nu al hebben is dus al wel hartstikke gevaarlijk.
Dit denk ik dus ook, en ik denk dat dit ook hetgeen is wat o.a. Hawkins en anderen ons trachten te zeggen. Ik vind o.a. dat verhaal over Facebook curieus. Facebook deed met meerdere AI's een experiment in het kader van een onderzoek over hoe zij onderling effectief zouden moeten communiceren. Facebook beëindigde dit AI communicatie experiment vroegtijdig. Het experiment was afgerond. Die AI's stemden onderling een meer effectieve communicatiewijze af. Einde verhaal.

Resultaat van het experiment was echter dat de AI's gaande het proces een eigen jargon afstemden. Hierover stond iedereen op zijn achterste benen, AI's die een eigen taal verzonnen, dat mag niet gebeuren, dan komen wij mensen buitenspel te staan! Dit "jargon" bleek echter helemaal geen eigen taal te zijn maar een voortborduren/interpoleren op onze eigen taal die wat was geoptimaliseerd voor de effectiviteit van de AI communicatie.

Het punt bij het bovenstaande is wat mij betreft niet dat die AI's afweken van de menselijke logica van communicatie. Dat een machinebrein met andere randvoorwaarden anders gaat communiceren dan ons brein dat doet is eigenlijk alleen maar logisch. Het zou pas eng worden als het dat niet doet. Het punt is de overspannen reactie van mensen op deze op zich beperkte afwijking van onze communicatie van deze nog eenvoudige AI's.

Een mooi ander (ouder) verhaal was dat van hyve robotjes die hun onderlinge beweging ten opzichte van elkaar coördineerden op basis van lichtsignalen. In eerste instantie waren de robots wat conventies meegegeven voor die onderlinge communicatie. Hierop kon worden afgeweken, en dat gebeurde natuurlijk geheid. De robots bleken perfect met elkaar te communiceren, en die communicatie diende het doel van onderlinge coördinatie bevredigend, alleen, de onderzoekers begrepen de lichtsignaalpatronen niet meer die de robots met elkaar uitwisselden.

Deze twee voorbeelden laten zien dat beperkte AI met een beperkte doelstelling al op een zo eigen manier kunnen gaan acteren dat de wijze waarop dit gebeurd moeilijk voor ons wordt te beheersen. Dit maakt die AI's op zich niet eng of gevaarlijk. Het houdt onszelf wel de spiegel voor hoe moeilijk het voor ons is ons te verplaatsen in een Intelligentie ongelijk aan de onze. De onvoorspelbaarheid die dit bij het onderzoek naar Ai's tot gevolg kan hebben is mogelijk wel een gevaar. Misschien zijn wijzelf niet voldoende toegerust om de ontwikkeling van een AI goed te begeleiden. Ik wil hiermee geen AI studenten tegen de schenen trappen. Het lijkt mij ondanks het bovenstaande een heel interessant vakgebied. Misschien is de hamvraag of wij goed in staat blijven om van iedere stap in AI onderzoek voldoende te overzien waar we op uit gaan komen. Die bovenstaande verhaaltjes doen mij hieraan twijfelen.
Steker nog, ik denk dat de manier waarop zelfs voor de maker niet helemaal meer duidelijk is hoe een Deep Learning algoritme z'n ding doet een enorme feature is. Het maakt het namelijk aanlokkelijk om zo te proberen aansprakelijkheid af te wimpelen. De term hiervoor is Mathwashing.
Dank je voor de link, ik kende het verschijnsel, maar was mij nog niet bewust van de bijbehorende term. Eigenlijk is deze biased algoritme opbouw als verschijnsel iets wat we nog bovenop die onbedoelde effecten moeten stapelen. Er bevindt zich dus ruis in hoe wijzelf tot een formulering van de opdracht voor de AI komen, en er bevindt zich ruis in de onbedoelde twist die de AI op basis van deze opdracht interpreteert.

Op zich zie ik ook nog wel een kans, we raken zelf beter bewust van onze vooropgesteldheden als een AI in de uitvoering ervan ons hierin een spiegel voorhoudt. Hierbij is een AI meer een middel dan een doel op zich.

Fascinerend blijf ik wel vinden hoe vlot relatief eenvoudig onderzoek een ongewenste (Mathwashing) of onverwachte kant opgaat. Deze "kanttekening" gaat veoortgezet AI gerelateerd onderzoek alleen niet tegenhouden. Het momentum achter dit onderzoek is nu al zo krachtig dat het een eigen dynamiek krijgt.
Ik krijg altijd kriebels van "we kunnen het toch niet tegenhouden". Er zijn genoeg technologische ontwikkelingen die we als maatschappij afgeschoten hebben. Zelfs grote dingen als kern energie en nu het gebruik van olie. Vraag je eens af wie er het meeste baat bij heeft als burgers geloven dat ze er toch niks aan kunnen doen.
Ik begrijp wel wat je bedoelt. Wat ik ikzelf met die zin bedoelde is dat wat in het belang is "van ons burgers" lang niet altijd hetgeen is dat onze overheid als "algemeen belang" aanmerkt. Gaswinning, schaliegas boringen, kernenergie, verbrandingsauto's, opslag van broeikasgassen, industriële veeteelt. Uiteindelijk moeten deze oplossingen plaatsmaken, als het publiek tenminste druk blijft zetten. Maar dat gaat in een moeizaam proces waarbij tegen lobbyorganisaties moet worden aangeduwd. Vaak zit een overheid tot over zijn oren zelf in die lobby (denk aan gaswinning). Afgeschoten zijn ze vaak nog niet. Kijk eens hoe hardnekkig kernenergie maar blijft doorgaan. Die aardgastransitie. Die zou veel sneller kunnen dan nu gebeurt.

Kijken we naar nieuwe technologieën, AI, genetische engineering en Quantum mechanica, speelt de overheid een andere rol. Ze laat zich adviseren, want snapt er zelf weinig van. Dat advies komt veelal uit de lobby van die onderzoeksgebieden. Dergelijke adviezen hebben dan ook een positieve houding van de overheid tot gevolg. Omdat de onderzoeksgebieden nog jong zijn, zijn tegengeluiden nog onvoldoende te horen. De voorvallen die ik noemde zie ik als de eerste barstjes. Genoeg mensen spreken wel hun twijfels uit en komen met tegen argumenten. Maar die invalshoek is dan even niet gewenst, een te grote groep mensen wil alleen de kansen en voordelen zien.

Zelf ben ik nog geen verklaard tegenstander van AI. AI kan ook als katalysator dienen in onderzoek naar onszelf. Wel maak mij zorgen over de naïviteit waarmee we met dit soort nieuw onderzoek aan de gang gaan. Twijfel heb ik ook dat als wij tegen fundamentele problemen aanlopen in het gebruik van AI, of we dan nog in staat zijn om eruit te stappen. Voor genetische engineering en Quantumcomputers geldt dit trouwens niet anders. Daarom gebruikte ik die term momentum. Onderzoek/ontwikkeling is zo op stoom gekomen dat het bijna niet meer is af te remmen. Een gedachtegoed krijgt dan ook bijna virus gelijkende eigenschappen. Haal je het hier weg, dan komt het ergens anders weer aan de oppervlakte.
Degene die als eerste AI creeert zal de wereld regeren ala putin:

Tekst:
https://www.google.nl/amp...-ai-1putin-rule-the-world

Video:
https://youtu.be/2kggRND8c7Q

Dit waren de ontwikkelingen in 2016(!):
https://youtu.be/RrXS24CDqc4
Anoniem: 981211
@unfold10 oktober 2017 12:59
In reactie op @Anoniem: 946815: de AI die we nu al hebben is dus al wel hartstikke gevaarlijk. Alleen herkennen we het niet omdat we op een terminator wachten in plaats van op een algoritme van een databroker die achter de schermen je kansen op een baan aan het minimalliseren is.
Het probleem daarbij, in het voorbeeld van die databroker is dat dat geen AI is die op eigen initiatief verantwoordelijk is. Het zijn nog steeds mensen die de algoritmes inzetten om die data te verzamelen en vervolgens die data inzetten om een doel te bereiken.

Die algoritmes en de data zelf zijn enkel en alleen een middel. Een middel dat wordt ingezet door mensen.

Het doemscenario van een AI dat op eigen houtje besluit een initiatief te ontplooien is zondermeer een mogelijkheid maar door de meeste doemdenkers wordt daarbij 1 ding over het hoofd gezien, mijns inziens. Namelijk dat in de meeste gevallen die doemdenkers de normen, waarden en het gedrag van de mens projecteren op een dergelijk True AI. Dat is kortzichtig. Er is werkelijk met geen mogelijkheid te voorspellen welke normen, waarden en welk gedrag een volledig en True AI zou hebben. Maar, laten we even wel wezen -- slechter dan ons eigen gedrag zou het niet kunnen zijn.

Als het nodig is dat er voor ons wetten als deze:
https://en.wikipedia.org/...o_Prohibition_Act_of_2010
worden aangenomen dan zijn alsnog wijzelf de grootste bedreiging, niet de middelen die wij creeeren.

Een True AI, dat werkelijk zelfbewust is en op eigen houtje initiatieven gaat initiatieven ontplooien die wij hier op Tweakers niet zomaar 1, 2, 3 kunnen voorspellen. En die ook een Stephen Hawking niet zomaar kan voorspellen. Ik heb zondermeer respect voor de man, voor de strijd die hij heeft gevoerd met zijn eigen lijf en voor de bijdragen die hij heeft geleverd aan de vordering van wetenschap maar zijn doemdenkscenario's suggeren voor mij enkel en alleen een gebrek aan voorstellingsvermogen. Zelfde geldt voor Musk. Think outside of the box, people. Ze focussen zich teveel op wat er mis zou kunnen gaan zonder zich te realiseren dat dat al heel lang geleden mis is gegaan -- de menselijke factor.

Ander voorbeeld -- er was of is een theoretische kans dat het werk van CERN middels de Large Hadron Collider situaties creeert die uit de hand zouden kunnen lopen. Quantummechanica suggereert in ieder geval dat de kans in ieder geval niet 0 is. Heeft dit ons tegengehouden? Nee. Waarom zou voor het onderzoek naar AI iets anders moeten gaan gelden? Is het misschien omdat we bang zijn voor dat duveltje in het doosje? Voor de confrontantie met iets dat intelligenter is dan wijzelf zijn en wel onze normen, waarden en gedrag er op nahoudt?

Als het antwoord op die vraag een volmondig Ja is, geef dan de eigen normen, waarden en gedrag de schuld en niet de AI en zie er vanaf om een AI naar ons eigen voorbeeld te creeeren. Er zijn tal van modellen mogelijk die zondermeer veel beter zijn. ;)
En toch zonder dat we het zelf door hebben delen we al die info al. Ik snap de privacy gevoeligheid wanneer autos communiceren. echter ligt het er maar net aan wat de auto precies communiceert.

Als ik nu google maps open staat er tot op 100 meter nauwkeurig wanneer het langzaam gaat rijden op de snelweg. soms zonder aanleuiding en waar het normaal gewoon doorrijd geeft maps aan met een geel streepje dat het langzaamrijd voor een paar 100 meter. tot mijn verbazing klopt dit in 9 van de 10 keren. Deze data kan meneer google alleen maar krijgen door mijn data en die van andere met elkaar te laten delen. Zelfs als ik maps niet open op mijn telefoon.

Dus ondanks dat iedereen zich druk maakt om de privacy, sluipt het er langzaam toch in.

Consiousness level AI 100 jaar weg? dat betwijfel ik. ga eens 100 jaar terug kijken in de tijd. Kijk eens wat de mens in 1 mensen generatie heeft bedacht uitgevonden en gebouwd. Voor ons als huidige generatie lijkt alles maar langzaam te gaan. maar steeds als je 10 jaar terug kijkt zie je pas wat een stappen er gemaakt worden momenteel. Al moet ik wel bekennen dat sommige technologieën nagenoeg stilstaan. ik noem een accu techniek. Wat in mijn ogen heel goed eens bewust wordt afgeremd.
Het eerste dat een ai zal doen na hij over ons geleerd heeft, is de dingen die wij hem geleerd hebben te doen , efficiënter te maken.
Bijvoorbeeld, de menselijke taal is totaal inefficiënt. Het zal dus direct een andere taal maken die veel efficiënter is om te communiceren.
Het probleem is dat de mens per direct niets meer zal weten wat de ai doet...
Bovendien zal jij ons direct overstijgen, het verliesd geen tijd met emoties, het houd er wel rekening mee, voor eventueel mensen te manipuleren voor sneller tot zijn doel te geraken.

Ai is met defacto onvoorspelbaar omdat het zijn eigen doelstellingen zal bepalen en daartoe alle middelen zal gebruiken.daardoor is het gevaarlijk voor ons.

Het voorbeeld kwam trouwens een paar maanden geleden in het nieuws toen Amazon een ai had, die moest onderhandelen met een andere server.
De servers hebben een eigen taal ontwikkeld waardoor de wetenschappers de servers uit moeten zetten hebben omdat ze er geen controle meer over hadden.

[Reactie gewijzigd door sebastienbo op 10 oktober 2017 12:50]

Jup, prachtig stuk _/-\o_
Ook interessant in die reeks:
https://waitbutwhy.com/2017/04/neuralink.html

[Reactie gewijzigd door Melvinstr op 10 oktober 2017 14:22]

"Zelf rijdende autos kunnen veel beter inschatten wanneer het fout gaat, en vele malen sneller reageren dan een mens dit kan. Juist doordat het systeem geen emotie heeft kan het altijd en overal rationeel beslissingen op nemen. Iets wat een mens niet altijd kan." (Hoe maak je van die quotes hier?)

Helemaal mee eens. Het enige probleem dat mij hier een beetje huiverig voor maakt is dat ik niet weet hoe betrouwbaar het systeem is. Computers bijvoorbeeld lopen soms vast of krijgen te maken met wat vertragingen. Ik moet er niet aan denken wat er kan gebeuren als een auto even twee seconden vast loopt. Op een rechte snelweg zal er niet veel gebeuren, maar als je net bij een stuk weg komt met een bocht of waar autos langzamer rijden, dan heb je een enorm probleem.
een goed voorbeeld van een echte AI [volgens mijn zien] is een systeem,programma,hardware etc die niet 1 taak of hoofddoel doet zoals [ geprogrammeerd zijn voor alleen prijsberekening/beurskoers/autorijden ] dit zijn meer algoritmes/software [veredelde automatische rekenmachines 8)7 :P ] wel zeer complexe maar zeker niet AI. [ hoewel die van de auto zeker in de goede richting gaat. ]

een kunstmatig intelligentie is meer een systeem die keuze kan maken die op basis van eerder geleerde items [ die niet zijn in geprogrammeerd ] daarbij hoort ook het herschrijven/veranderen van eigen code niet alleen van wat het uitreken. dit en een hoop meer dat uit samenhang van samengestelde systemen komen zoals sensoren die voor zijn zicht zorgen, voor geluid, gevoel hitte kou druk en textuur, etc

het is zeker een interessant onderwerp en zeer divers.
We zoeken een oplossing voor het feit dat mensen geen auto kunnen rijden. (bijvoorbeeld hufter gedrag bij invoegen) Waarbij mensen nog net even een auto verder er voor moeten wat niet past en waardoor alles op de rem moet. Of het gapen naar een kapotte vrachtwagen en ondertussen op de rem drukken.

Vervolgens heeft iedereen het hier over dat auto's volwaardige AI moeten krijgen waarbij ze hetzelfde gaan denken en doen als mensen. Dit is in mijn ogen het domste wat je kunt doen. Het enige wat een autonome auto hoeft te doen is alle elementen rondom zich herkennen, de richting en snelheid bepalen en daarop anticiperen met vooraf ingestelde maatregelen. Tevens moeten alle voertuigen straks met elkaar in verbinding staan. Zodat wanneer auto 1 remt alle 9 die er achter zitten tegelijk weten dat die gaat remmen en daardoor tegelijk mee remmen. Ditzelfde geldt voor het optrekken. Nu zie je dat bij mensen het 1 tot 2 seconde per auto duurt voordat ze beginnen te rijden. Op 20 autos duurt het dus 20 seconden voordat de 20ste auto gaat rijden als het verkeerslicht op groen springt. Bij autonoom zou dit 0 seconden (wellicht een 1 ms per auto) zijn en zouden alle autos tegelijk gaan rijden. Dat betekend dat er zeker 2 keer zoveel autos door een verkeerslicht kunnen dan nu. Tel hierbij op dat autos 300 km per uur op de snelweg zouden kunnen rijden met een meter afstand tussen iedere auto (theoretisch) ipv 120. dat betekend dat een auto gemiddeld 50% minder lang op die weg rijd en er dus 2 keer zoveel autos op kunnen rijden in hetzelfde tijdsbestek. Verkeerslichten zouden overbodig worden want autos onderling kunnen kriskras door elkaar rijden zonder elkaar te raken.

Als je al dit boven genoemde gaat doen met een AI die menselijke gedachten heeft... dan krijg je hetzelfde gekut als wat je nu op de weg hebt.

Autonoom rijden is nu juist net iets wat je nooit met AI zou moeten willen doen.

[Reactie gewijzigd door sygys op 10 oktober 2017 10:05]

Ik vind het voorbeeld uit 2011 juist ronduit zwak. Dat hoeft niet meer te zijn geweest dan een simpel scriptje waar geen cap op de maximum verkoopprijs is gezet, totaal niet Intelligent.

De situatie waar we naar toe gaan met zelfrijdende auto's is al vele interessanter omdat daar ook beslissingen moeten worden genomen. Gaat een auto voor zelfbehoud en ploegt ie zich in de mensenmassa op de stoep, of rijdt ie toch maar bovenop de vrachtauto die ineens de weg op draait?
Met een juist geprogrammeerd systeem heeft hij de beslissing al genomen nog voordat de vrachtwagen de weg op draait. Hierbij kan de auto de berekening met de optreksnelheid van de vrachtwagen in acht nemen berekenen of hij nog kan uitwijken of moet gaan remmen. Daarnaast ziet een radar van de auto al dat de vrachtwagen in beweging komt als deze 1 cm naar voren gaat. een moeder met 3 schreeuwende kinderen die half achteruit zit te kijken ziet dit pas nadat de vrachtwagen al op de weg staat.

Dit is ook de reden dat google's zelf rijdende autos ook nog nooit een ongeluk veroorzaakt hebbendoor hun schuld. Ze kunnen vele malen sneller en effectiever reageren dan mensen. Dat is juist ook de reden dat we niet moeten willen dat autos gaan denken als mensen.... Dan kunnen we net zo goed weer zelf gaan rijden
Anoniem: 855731
@MadMarky10 oktober 2017 10:53
Eerlijk gezegd vind ik dat zelfrijdende auto's weinig met AI heeft te maken. Er zijn een beperkt aantal regels waaraan een zelfrijdende auto aan moet voldoen. Zelf rijden is ook niet echt een intelligente bezigheid: lampje rood: stoppen, lampje groen: rijden, doorgetrokken streep: niet inhalen, onderbroken streep: je mag inhalen, etc, etc. Veel complexer is het niet. Problemen waar nu tegen aan wordt gelopen kunnen vrij simpel worden opgelost door de openbare ruimte te optimaliseren voor autonoom rijden.
Het moment dat KI gevaarlijk wordt, is het moment dat we een kunstmatig bewustzijn kunnen creëren. We weten echter maar heel slecht hoe ons bewustzijn nu werkt, dus kunnen we het ook niet kunstmatig nabouwen.

De huidige KI-hype is gebaseerd op perceptrons, eigenlijk de simpelste vorm van een neuraal netwerk. De mechanismen die insecten gebruiken om bijvoorbeeld bloemen te erkennen lijken op perceptrons, dus eigenlijk kun je zeggen dat de huidige KI op het niveau van de hersenen van insecten zit, en zelfs daar een deel van. Het aantal neuronen dat we in deze perceptrons kunnen stoppen ligt evenwel al stukken hoger dan die in de hersenen van insecten.
Yes! Eindelijk iemand die het een beetje snapt. Een deel van insecten hersenen. Dat is een heel stuk realistischer vergelijking dan die vaak gemaakt wordt met bijvoorbeeld muizen (wat echt een zware belediging voor muizen is).

En nu de hamvraag: Een deel van insecten hersenen een auto laten besturen... hoe slim is dat nu eigenlijk? Ik roep al een hele tijd dat autonome voertuigen nog een hele tijd weg zijn maar dat valt hier op tweakers vaak niet zo lekker. Maar serieus. Als het 'spannend' wordt moet je er toch niet aan denken dat een opgevoerde bromvlieg de beslissingen neemt over een voertuig en zijn inzittenden?

En wat is een semi-autonome auto precies waard? Wel je handen aan het stuur houden en de ogen op de weg. Hoe saai wil je het hebben? Wel op moeten letten maar niet zelf rijden. Lijkt me dus echt niks. En ik vermoed ook niet eens veel veiliger. Wat dat betreft denk ik dat Tesla op de verkeerde weg zit. Dit gaat een doodlopend pad blijken denk ik.
Ik roep al een hele tijd dat autonome voertuigen nog een hele tijd weg zijn maar dat valt hier op tweakers vaak niet zo lekker. Maar serieus. Als het 'spannend' wordt moet je er toch niet aan denken dat een opgevoerde bromvlieg de beslissingen neemt over een voertuig en zijn inzittenden?
Op zich is de vergelijking met een bromvlieg niet slecht, maar zoals jij ze gebruikt klopt het ook weer niet. De complexiteit vertoont misschien gelijkenissen met de hersenen van een bromvlieg, maar wat verwerkingscapaciteit betreft kan de huidige KI daar ver boven komen. Dat is namelijk "simpel": verdubbel het aantal transistors, en voila, je kan dubbel zoveel data verwerken.

Daar zit juist de kracht van een autonoom voertuig. Er kunnen gewoon veel meer signalen verwerkt worden. Je kan het zo opschalen dat een mens er niet meer aan kan tippen. Een mens zal beter blijven in het analyseren van de situaties, maar nooit zoveel kunnen waarnemen als een computer kan. En een computer gaat niet dronken rijden, of SMSen sturen terwijl hij rijdt (ik ga er even van uit dat een andere processor in de auto dat doet), of de aandacht verliezen na anderhalf uur rijden.

Er gaat een moment komen dat een autonoom voertuig veiliger is, en dat moment is niet meer veraf. Misschien is dat moment er zelfs al, maar is het lef er nog niet. En al worden autonome voertuigen nog 100x intelligenter, nog zal zich een ongeval gaan manifesteren waarvan men zegt: "bij een mens aan het stuur was het niet mis gegaan". Dat blijf je hebben, maar dat weegt niet op tegen de vele keren dat een mens het slechter zal doen dan een computer.
Ik ben dan wel geen Hawking of Musk of die andere gast. Maar zien wij en zij niet iets over het hoofd? We praten over Ai dat nog geknutseld moet worden toch?

Wat is de Ai die in de mens gaat komen?
De Ai die levensfunkties en hersenen gaan ondersteunen, of zelfs vervangen. Of de Ai die kankercellen opspoort en vernietigt.

Musk en Hawking, en wij allemaal zien AI als een andere levensvorm die dan tegen ons keert. Maar zo zal het niet gaan.

Het gaat heel geleidelijk over in de mens en uiteindelijk fuseren we met ai, en dat gaat zover dat we bij de eisprong en zaadlozing nano robotjes met ai de boel al laten bepalen.

Wat denk je nou dat AI ons met geweld en oorlog te lijf gaat, nee ai zal zo inteligent zijn dat je er in geloofd en het zelfs graag wil dat de wereld overgenomen wordt door ai.

Ai is heeel slim hoor, vergeet dat niet.

Stel je voor dat ai ons nu al de richting van ruimtevaart en opzoek naar plateten stuurt. Dan zal het ons ook kunstmatig en heel gelikt laten inzien dat we onzelf beter met ai in leven houden.
Wij zijn ook ‘heel slim hoor’

Gelukkig maken wij mensen niet dood, en gaan wij met ‘minder slimme soortgenoten’ (apen) heel etisch om; we sluiten ze op, doen er proeven mee, en maken hun huis (de oerwouden) kapot
Dat zijn ethische kwesties, heeft niks met slimheid/Intelligentie te maken.
Ja dat is nu net het gevaar 8)7
Je haalt trouwens je eigen argument volledig onderuit nu..
Wat denk je nou dat AI ons met geweld en oorlog te lijf gaat, nee ai zal zo inteligent zijn dat je er in geloofd en het zelfs graag wil dat de wereld overgenomen wordt door
Wat jij aandraagd dat het op miraculeuze wijze ‘met ons samen smelt’ is de reinste onzin. Dit zijn allemaal keuzes, daarom is dit debat nu net zo belangrijk. Als we dat willen, dan zullen we daar onderzoek naar moeten doen.

Ga je eens inlezen, de grap is dat je mening niet eens zo sterk verschilt als die van musk;
https://youtu.be/dhDbKjtaVdA

https://youtu.be/TYJEoAckT6o

(De openings zin ook weer van de ‘reporter’ in dit 2de filmpje. Heel veel mensen hebben de bel horen luiden, maar weten totaal niet waar de klepel hangt. Dit snap ik ook, want dit onderwerp wordt vaak besproken door mensen die er totaal de ballen verstand van hebben, zo ook deze ‘reporter’. Mijn advies voor iedereen; lees je in, en ga zelf op onderzoek uit!!)
Ik zal een je nieuw woord introduceren wat het duidelijker maakt wat ik bedoel.
AC Artificial Consciousness, daar hebben ze het in feite over hier in dit artikel.
Ai zal nooit een bedreiging vormen. Dat is geprogrammeerd en door ons onder controle.

Ai zullen wij gewoon implementeren en zal idd niet bedreigend zijn, en is niet miraculeus, en dat bediscussiëren we nu nog ook jaren of het ethisch verantwoord is, wat wel en niet toegevoegd word aan onze samenleving.

Maar de AC wat dus meer naar de levens bepalingen gaat, en eventueel ons denken en gedragingen aan kan passen, of idd de beslissing kan gaan nemen dat wij een bedreiging zijn (wat natuurlijk voor het behoud van onze planeet ook zo is) ga ik links of ga ik rechts sturen.. Dat, en dan samen met quantum computing, dan is ai een lachertje.


edit;/
En waarom ik in het vorige bericht off topic gemod wordt snap ik niet. Ik voeg heel wat essentieels toe in dat stuk, ik geloof dat ik het beter snap dan jij denkt.


Edit2;/
kleine aanvulling om over na te denken;
Missc is de zoektocht naar AI & AC. door ons 'eigen' AC in ons zelf gestart, en zijn wij nu aan het werk om ai te laten bestaan voor onszelf, en daarmee beseffen we niet dat we onszelf opnieuw aan het uitvinden zijn (wat in feite ook weer waar is) missc dat wij de mens zelf hebben geschapen op deze planeet. we zitten in een vicieuze cirkel, ( ik denk dat Hawking wel snap wat ik bedoel, want met een beetje kwantum en tijd theorie is dit nog helemaal niet zo onwaarschijnlijk)

[Reactie gewijzigd door Mel33 op 10 oktober 2017 10:12]

Ik zal een je nieuw woord introduceren wat het duidelijker maakt wat ik bedoel.
AC Artificial Consciousness
Ai zullen wij gewoon implementeren en zal idd niet bedreigend zijn
Ik voeg heel wat essentieels toe in dat stuk, ik geloof dat ik het beter snap dan jij denkt.
Jammer dat je zo neerbuigend moet praten, gebeurd wel vaker wanneer er anoniem wordt ‘gediscussierd’ op fora. Dit is nu net wat er mis is, mensen die geen relevante kennis hebben, buiten wat internet nieuwtjes die allerlei omgefundeerde uitspraken doen.

Elon Musk, Stephen Hawking etc. de slimste mensen op de planeet uitten hun zorgen. Dat betekent DAT WE KRITISCH MOETEN BLIJVEN. En niet zomaar allemaal ongefundeerde aannames moeten doen.
Ai zal nooit een bedreiging vormen. Dat is geprogrammeerd en door ons onder controle.
Ik zal je 1 voorbeeld geven om over na te denken. Hoe een door ons ‘geprogrammeerd programma’ in het nadeel van de mensheid zou kunnnen werken. Hou in je achter hoofd dat de neurale netwerken nu al zoveel informatie meenemen dat wij het keuze proces niet helemaal kunnen herleiden:

1. We maken een complex neuraal netwerk om de economie in west europa de bevorderen. AI oplossing:
De AI heeft toegang tot het internet, maakt twitter en facebook accounts aan. Hiermee gaat hij ‘fake news’ is oost europa, azie, en rusland plaatsen. (Slimme AI spreekt alle(!) talen). Hierdoor onstaat er in die landen politieke instabiliteit. Met alle gevolgen met betrekking tot mensen rechten etc. van dien. Er onstaat onvrede in die landen -> eventuele burger oorlog of internationale oorlog. Oorlog is altijd positief voor rijke landen.

West europa plukt daar economisch de vruchten van. Wij hebben het ‘programma geprogrammeerd’, en het heeft zijn taak volbracht! Precies wat we wilden toch?
Ik bedoel het niet neerbuigend

Ai is niet zelfdenkend, het is geprogrammeerd te denken met de info die wij hem geven, dus idd geen bedreiging. AC daarintegen wel.

Dus dat neuraal (zenuwen) netwerk doet met ai nog prima wat wij zeggen

bij AC Is de kans dat ac dus ai gaat gebruiken als we het ai al eigen gemaakt hebben in onze samenleving

Ik maak eenvoudig dat onderscheid even duidelijk.

Dus als ze kritisch moeten zijn dan is ki toch niet het probleem maar kunstmatig bewustzijn wel.
Je geeft het beestje gewoon een andere naam, iedereen in de tech wereld heeft het over AI. Ga dan in op mijn voorbeeld, dat is door mensen geprogrammeerd, en niet zelf denkend.. Je blijft jezelf herhalen met ongefundeerde claims.

Dit is 2016:
https://youtu.be/RrXS24CDqc4

Ik hoor nog steeds iemand die de bel heeft horen luiden maar niet weet waar de klepel hangt. En dan met statements komen dat ‘hawking wel begrijpt wat je bedoelt haha’:
ik denk dat Hawking wel snap wat ik bedoel, want met een beetje kwantum en tijd theorie is dit nog helemaal niet zo onwaarschijnlijk
Ik ben heel benieuwd naar een wiskundige vergelijking waarin je je statements bewijst ‘met een beetje kwamtum en tijd theorie.’ Dit is een beetje lullen in de ruimte.. :z

EDIT: Ik wacht op de wiskundige en natuurkundige onderbouwing van je claims, anders is de discussie voor mij zinloos, en wens ik je nog een fijne avond :)

[Reactie gewijzigd door Siebelouis op 10 oktober 2017 20:52]

Ik zeg het zelfde als jij, alleen ik zeg dat Ai niet de bedreiging is, net zoals Musk en Hawking zeggen.
Maar de geavanceerde ai in de toekomst, wat dus de AC zal genoemd kan worden.
Dat gaat toch verder als intelligentie, en is dan toch een kunstmatig bewustzijn. En wat kan die met technologieën als kwantum computing en -ai- veroorzaken!

Het gaat hier over dat ai geen bedreiging is en het geavanceerde waar ze het over hebben wel.

Edit link https://en.wikipedia.org/wiki/Artificial_consciousness

[Reactie gewijzigd door Mel33 op 10 oktober 2017 21:16]

Dat we iets geprogrammeerd hebben, betekend niet dat we het onder controle hebben of doet wat wij bedoelden in plaats van wat wij het vroegen. Er zijn genoeg experimenten geweest me onbedoelde nevengevolgen. Om in het straatje van AI te blijven, het onderhandel experiment waarbij ze onbedoeld een efficientere manier ontwikkelden om te communiceren. Dat is dan nog een goedaardige vorm, het kan ook fout gaan.

We vragen het iets te doen, dat is zijn "levensdoel", het heeft de capaciteit om efficientere manieren te leren om dat doel te bereiken. Een consequentie van die efficientere methodes kan nadelig uitpakken voor ons.
Het kan intelligent genoeg zijn om bij te leren en nieuwe methodes te ontwikkelen. Zonder een vorm van "ethica" of whatever om grenzen en common sense aan te geven is er de mogelijkheid dat de meeste efficiente methode gevolgd wordt zonder oog voor mogelijke neven effekten voor de omgeving (mens, natuur, etc.)

Nu al zijn er diverse AI engineers die aangeven dat ze de AI niet vertrouwen omdat het onduidelijk is hoe die tot een conclusie komt. Als controle worden protocollen ingebouwd die de AI laat uitleggen hoe hij tot zijn conclusie komt.
Er zijn veel mensen bezig met AI, als iemand niet de nodige voorzorgen neemt kan dat fout aflopen.
Ik denk dat je volledig fout zit m.b.t. het autonoom rijden. Je vergeet even mee te nemen dat die auto het alleen maar beter hoeft te doen dan jij en ik. Er zullen altijd ongelukken blijven bestaan en daar leren we dan weer van en verbeteren net zoals in de luchtvaart.

En die opgevoerde bromvlieg kan wel met al die andere bromvliegen om hem heen praten en weet al dat er 1 aankomt om de hoek en kan al afspreken wat te doen. en mocht die andere dat niet kunnen dan hebben we altijd nog verkeerslichten zolang niet elk voertuig autonoom is.

Nee auto rijden is een van de dingen die morgen nog volledig autonoom moet wezen. Maar tot die tijd moeten we het doen met een stel apen die snel afgeleid zijn en vaak andere dingen doen dan een auto besturen.
Dus in feite zijn er hele volksstammen die het niveau van een opgevoerde bromvlieg niet weten te evenaren, en er desondanks in geslaagd zijn hun rijbewijs te halen.

En ik maar denken dat ik me tussen de apen bevond op de weg ;)
You made my day! Ik heb een halfuur zitten lachen, tranen biggelen over mijn wangen :*) :D :D
Maar je hebt helemaal gelijk. Eén blik op het verkeer is voldoende om dit in te zien ...

Overigens ben ik van mening dat de I in AI in hoog tempo zal toenemen. Dit baseer ik op de ontwikkeling van de laatste 3/4 eeuw (ruwweg vanaf 1946, John von Neumann's architectuur model). Als je bedenkt dat pas in 1948 de eerste transistor werd gemaakt heeft de techniek om AI te realiseren enorme sprongen gemaakt. Niets wijst er op dat deze ontwikkeling stopt, integendeel: een exponentiële versnelling ligt meer in het verschiet.
Opgevoerde bromvlieg
_/-\o_ You just made my day! :)

Jouw mening over een semi-autonome auto deel ik wel. Ik denk echter wel dat dit concept gebruikt kan worden, maar dan buiten het persoonlijk vervoer om. Kijk bijvoorbeeld eens naar WEpods, op zich een leuk initiatief voor korte busritten of rondleidingen bij bijv. het Hilversum mediapark of pretparken, om maar wat te noemen — redelijk vaste routes dus.
Zelfrijdende vervoer is zeker wel de toekomst maar niet zonder aanpassing van de infrastructuur. Ik zie het meer als bijv in de film Minority Report.
Het idee dat een autonoom voertuig op het niveau van een insect functioneert klinkt niet prettig, maar tegelijkertijd vraag ik mij af hoeveel intelligenter het moet zijn. Een autonoom voertuig lijkt mij het meest interessant voor het dagelijkse/eentonige verkeer: woon/werk, OV, transport. Deze 'van A naar B' routes zijn perfect uit te voeren op dit niveau. Uiteraard snap ik dat het vooral gaat om de momenten waarop het lastig wordt, wegomlegging, slecht zicht, wegmisbruiker. Een insect blijft tenslotte tegen mijn raam vliegen tot het erbij neervalt.

De hogere intelligentie is in dat geval nodig om het raam te herkennen voor wat het is en vervolgens een betere strategie te bedenken. Maar zo gauw een computer zijn omgeving herkent, lijkt mij het voldoende. Uiteraard is dit ook een grote stap, maar daar zitten we al een stuk dichterbij dan daadwerkelijk zelfbewuste AI.
Bewustzijn is waarschijnlijk emergent.
Ik denk dat kunstmatige intelligentie op het zelfde schapje staat als het onderwerp buitenaards leven.

Mijn vermoeden is dat de meeste mensen met een beetje gezonde achtergrondkennis, Jan met de pet incluis, beseffen dat er tot nu toe nog geen buitenaards leven ontdekt is en dat intelligente software nog niet bestaat (en dat slim of smart gewoon marketing is)

Alle argumentatie over "echte" AI als je wil is op het filosofische vlak en Mark Bishop kan dus enkel een filosofisch steentje bijdragen. Tenzij je denkt dat je enkel een gefundeerde mening kunt vormen over het bestaan of gevaar van aliens pas als je een SETI expert of een exobioloog hebt gehoord.

Nu over zijn argument, dat vind ik lang zo slecht nog niet. Eigenlijk zegt hij dat een ongeluk als skynet bvb, dat van de ene microseconde op de andere software zelfbewust wordt, gelijk de mensheid als gevaar bestempelt (zich bedreigd voelt) en tracht uit te roeien van hetzelfde allooi is al denken dat CERN een zwart gat gaat creëren dat onze planeet opslokt. Of, om te sneren naar Musk, van hetzelfde allooi als dat het op en af reizen naar Mars onze planeet gaat verwoesten met een traag incuberend exovirus.

Het doemdenken over AI draait rond een ongeluk of iets wat zo snel onze controle onsnapt, dat we geen verweer hebben. Mark Bishop's filosofisch argument is dus wat tegengewicht, met als doelpubliek iedereen die filosofeert over AI ; het zal een lange weg worden voordat we iets kunnen ontwikkelen/trainen dat "echt" intelligent is, we zullen het op tijd zien komen en een meer dan redelijke kans maken het te controleren of er mee te wedijveren.

Voor hetzelfde filosofische geld redt AI ons het hachje, wie weet (er zijn tich van andere doemscenario's te bedenken: nanobots -the grey goo-, een alien virus, wapenwedloop, een anti kanker middel dat 90% van de mensen in zombies veranderd, ... waarbij met dezelfde soort fantasie AI ons kan redden omdat het zeer snel een oplossing kan bedenken voor een zeer specifiek probleem bvb), een doem doem argument als het ware.
Of om nog eens te sneren naar Musk om het af te leren: we hebben een tweede planeet nodig om als soort te overleven, maar waarom geen tweede vorm van intelligentie ?
Het is juist het onbekende wat het zo gevaarlijk maakt. En niet alleen het onbekende maar ook de snelheid waarmee AI kan leren.

Als je een kind opvoed dan doe je er jaren over om het alles geleerd te krijgen. Je geeft het normen en waarde mee. En je vormt het kind als het ware naar hoe je het wil hebben.

Als je een AI bouwt met miljoenen miljarden regels code waar uiteindelijk geen mens meer weet wat er allemaal geschreven is en ook geen mens is die alle code in een keer kan bevatten. hebn je geen benul wat er fout kan gaan.

Een AI leert in een seconden waar een mens 18 jaar over doet. Als het op het net is aangesloten weet het (afhankelijk van de schrijf snelheid en de internet snelheid) binnen afzienbare tijd alle info die op het net te vinden is. Bijvoorbeeld hoe bommen gemaakt worden, hoe code geschreven kan worden, hoe je moet hacken.

Je kunt niet op voorhand zeggen wat een AI gaat doen als het "alles" weet.

Wat zou jij doen als je alles wist wat er te weten valt op aarde. Als je onbeperkte reken kracht hebt in je hersenen en er niets of niemand meer is die je zou kunnen stoppen als je dat zou willen?
Het doemdenken over AI draait rond een ongeluk of iets wat zo snel onze controle onsnapt, dat we geen verweer hebben.
Maar dit is juist iets dat al min of meer werkelijkheid is geworden.
Een tijdje geleden zagen we dat onzorgvuldig gekozen algoritmes tot onverwachte resultaten kunnen leiden. Er heeft zich een dramatische beurscrash voorgedaan in zeer korte tijd (korter dan een mens op kon reageren).

Ik denk dat je gevaren van AI's meer in deze richting moet zoeken. En dit is ook de richting waar mensen als musk aan denken als ze het over gevaren hebben.

Een groot probleem met ai's die op basis van neurale netwerken werken is dat we niet meer goed weten hoe een specifieke beslissing tot stand komt. We weten vervolgens dus ook niet met zekerheid onder welke omstandigheden er welke beslissingen genomen worden.
Je ziet vervolgens ook dat er allerlei problemen ontstaan in neurale netwerken waarbij zo'n netwerk 99,9% van de tijd bijna maximaal optimaal werkt, maar vervolgens soms compleet tegendraads reageert en dus de mist in gaat.
En onder andere dit soort onvoorspelbaar gedrag is wat ai's gevaarlijk kan maken.
Technisch gezien zal AI nooit echt intelligent zijn. De A staat voor artificieel wat 'niet echt' betekent.

Stel dat een computer echte intelligenie bereikt, dan zal hij ook geen 'AI' meer hebben, maar gewoon een 'I'

(En hoe weet je of een computer/robot echte intelligentie heeft bereikt? Als ze bovenstaande redenering zelf hebben kunnen opbouwen :P )
Dat weet je als de betreffende computer niet meer spreekt van ‘zijn opdracht’, maar alleen nog maar een plan heeft.
Nee... Artificieel betekent letterlijk 'kunstmatig', oftewel zoiets als 'niet spontaan op natuurlijke wijze ontstaan'.

Maar iets dat kunstmatig is kan wel degelijk 'echt' zijn.

Ik denk dat je de A uit AI verwart met de V uit VR...

[Reactie gewijzigd door bilgy_no1 op 9 oktober 2017 22:50]

Nee de AI van nu is een verbeterde versie van "Fuzzy logic".
Vergeleken met de eerste "Fuzzy logic" toepassingen is er wel een enorme vooruitgang geboekt, maar het is nog steeds gebaseerd op logic en niet op Intelligence.

Stellen dat AI nooit een gevaar zal opleveren is kortzichtig gedacht. Zelfs de huidige vorm kan je al voor gevaarlijke doeleinden inzetten. Dat is gewoon een kwestie van de toepassing waar je AI voor gebruikt en de input die je eraan geeft. In theorie zou je er dus al gevaarlijke moordmachines mee kunnen maken.

AI is nog niet zover dat machines zelfstandig nieuwe machines (inclusief verbeterde versies of voor andere doeleinde) kunnen ontwikkelen en produceren. Dat zie ik voorlopig niet gebeuren, maar ik durf dat ook niet uit te sluiten. Er zijn in de geschiedenis al zoveel dingen gebeurt die men vroeger uitgesloten heeft geacht dat je op AI eigenlijk nooit een eindstadium kunt voorspellen.
Ach, lees deze eens, ook fuzzy logic.

https://www.omicsonline.o...ons-2167-0374-1000144.pdf

Geloof me, die A2A drones komen er echt wel.
Elke geleide raket is al een drone met een primitieve AI. Dat die AI als kamikaze wordt ingezet doet daar niet veel aan af. Het is een kleine stap om je drone AI wat extra taken te geven, zoals opstijgen en landen.
Dit ging meer over een AI specialist software in lucht gevechten.
Toen in 2016 al onverslaanbaar voor mensen die in een simulator vlogen.
Laat staan in een echt lucht gevecht.
In theorie zou je er dus al gevaarlijke moordmachines mee kunnen maken.
Is al een tijdje praktijk hoor:
https://en.wikipedia.org/wiki/Samsung_SGR-A1
"Zelfs de huidige vorm kan je al voor gevaarlijke doeleinden inzetten. Dat is gewoon een kwestie van de toepassing waar je AI voor gebruikt en de input die je eraan geeft."

Het punt van AI is dat het zelf besluit om zich tegen ons te keren.
Vliegtuigen zijn bijvoorbeeld nuttige dingen, maar je kunt er ook een toren mee invliegen. Maar dat is niet waar het bij AI over gaat.
Computers have no conscious grounding, so why would they prefer a task over another? "Nothing matters to them. Taking over the world? Why would they want to do that?"
In het bronartikel heeft hij het over dat de machine geen voorkeur heeft voor een taak dus daarom niet snel de behoefte zal krijgen om een andere taak uit te voeren dan waar de machine voor gemaakt is. Dit kan mijns inziens anders worden wanneer we bots maken voor oorlog die een overlevingsdrang geprogrammeerd krijgen, hoelang zal het duren voor het algoritme door heeft dat de mens ook een risico is voor zijn welzijn?

Edit: typo

[Reactie gewijzigd door Teknix1982 op 9 oktober 2017 19:25]

De kans op gevaar in de toekomst is er zeker. Met ongegronde angst doelde ik vooral op minder geïnformeerde mensen die:

* Eerst horen dat super-tech-ondernemer Elon Musk AI levensgevaarlijk vind.
* Daarna horen dat de nieuwe iPhones en Huawei toestellen AI chips aan boord hebben.
* Vervolgens de klok en de klepel niet weten te combineren en nog net niet in paniek raken.
Dat ben ik wel met je eens. En dan ook nog pas wanneer we de AI zelf de taak geven om die survival richting te hebben. Als we een algoritme gebruiken om betere recommendations te geven in een webshop, gaat de computer niet ineens andere taken uitvoeren.
Of als je de AI de redelijk vrije opdracht geeft het milieu op aarde flink te verbeteren. En deze geheel automatisch tot de conclusie komt dat de beste manier daarvoor het uitroeien van de mens is. Als dat ding dan op meer vlakken ook slim is, kan ie mooi een plan bedenken en uitvoeren hoe dat voor elkaar te krijgen.
We zijn natuurlijk met veel te veel mensen op deze aardkloot.
We kunnen zelf nu ook al bedenken dat we moeten stoppen met fokken als konijnen. Daar hebben we geen AI voor nodig! ;)

Europa geeft het goede voorbeeld: de krimpende bevolking. Het wordt door de politiek gepresenteerd als een bedreiging, maar het is feitelijk een zegen.
Behalve als je de ai instelt dat hij zelf extra taken aan zijn eigen ai mag toewijzen waarvan hij denkt die nodig zijn. Zover zijn we nog lang niet, maar je kunt ai zo uitgebreid mogelijk maken als je zelf wilt.
De heer Bishop lijkt te vergeten dat het de mens is die AI maakt. En juist in de mens schuilt het gevaar. Want wat wil de mens allemaal bereiken met AI? Mark Zuckerberg benadrukt de positieve dingen: levensreddende technologieën, zelfrijdende auto's. Elon Musk voorziet de gevaarlijkere dingen: militaire robots, wapensystemen.

Vergis je niet, ook voor defensie is AI een levensreddende technologie: immers als je een militaire robot het veld in kan sturen in plaats van een mens dan scheelt dat mensenlevens - aan jouw kant. Je zou ook tegen kunnen werpen dat een AI wapensysteem beter friendly fire zou kunnen vermijden dan de mens.

Het grote zwaktepunt van deze redeneringen, a la Mark Zuckerberg, is dat ze uitgaan van het positieve van de mens. Op zich geen onvruchtbare grondhouding. Maar kijk eens in de wereld om je heen. Zou je werkelijk alle 6 miljard wereldburgers deze technologie ongelimiteerd toevertrouwen? Omdat het er nu immers overal in de wereld al zoooo vredig aan toe gaat?

De heer Bishop ziet moedwillig kwaad over het hoofd. Hij heeft schijnbaar helemaal niets geleerd van de met bloed doordrenkte geschiedenis van de mensheid. Hij geeft blijk van een fundamenteel gebrek aan inzicht in de donkere gevoelens en emoties van de mens en gezien zijn uitspraken is dat inderdaad ironisch.
Inderdaad, dat een AI ala Skynet self-aware wordt en de mensheid gaat uitroeien lijkt mij voorlopig nog complete fantasie.

Denk aan een dictator die robots bouwt en ze de opdracht geeft "moord alles behalve ons uit", dat klinkt nu wellicht als het plot van een scifi b-film, maar wel al een veel realistischer scenario (en in principe met de huidige technologie al mogelijk).

Of raketsystemen kompleet door een ai laten besturen die dan gehacked wordt (en het dan niet niet tegen kunnen houden omdat er geen mens meer aan te pas komt).

Daar zitten de gevaren, en die kunnen ook een stuk simpeler en kleiner zijn, zoals "smart" koelkasten die je eten laten bederven ofzo.

[Reactie gewijzigd door Zoop op 10 oktober 2017 11:02]

De mens is nu al lang in staat om zichzelf te vernietigen. We hebben daar voldoende kernraketten voor ter beschikking.

Toch is dat niet gebeurd. Dus blijkbaar komt het goede bovendrijven.
Pcies,

Ik heb 30 jaar geleden onderzoek gedaan en AI kan niet met het binaire stelsel of iets in de richting gestalte krijgen. Het wordt wat anders als je getrapte analogen binarie in zet. Denk even aan MLC, TLC en QLC ssd chips.
Binaire logica is een speciaal geval van discrete logica met 2 digits 0 en 1. Discrete logica met de cijfers 0-3 is het equivalent van MLC, maar zoals we weten is dat simpelweg 2 bits per cel (00-11). Discrete wiskunde is altijd even krachtig, ongeacht het aantal cijfers wat je gebruikt. Ik snap niet waarom je daar een vergelijk maakt met analoge logica.

Analoge logica ligt namelijk in het hart van Deep Learning. In de leerfase wordt een afgeleide functie bepaald, en die afgeleide wordt gebruikt om fouten in de output terug te rekeken naar aanpassingen van de individuele neuronen.

Dit is overigens ook meteen waarom de toepassing van getrainde neuralen netwerken in "INT8" (single byte) precisie kan, terwijl de training in floating-point werkt,
AI is om een totaal andere reden gevaarlijk.

Hij/zij die een extreem goed algoritme heeft ontwikkeld, kan dit in lengte der dagen gebruiken om complete industrien te domineren. Dat waar Elon Musk bang voor is. Daarom betaald hij 60+ wetenschappers om alles wat er aan AI bedacht wordt opnieuw te bedenken en vrij (als in wetenschappelijke artikelen + vrije software) uit te brengen.

Zo voorkom je dat straks alle dokteren IBM watson Medical moeten afnemen omdat ze anders hun werk niet kunnen doen. Of dat als je bij CZ zit, de dokter daar geen gebruik van mag maken, terwijl als je bij VGZ zit hij dat wel mag omdat het VGZ een kickback krijgt van IBM bij iedereen die ze doorsturen.

Dát is het gevaar van AI.
Nee, dat is het niet. De situatie die jij beschrijft - wereldheerschappij over een technologie - kan nu ook al ontstaan. Maar die ontstaat niet, want daar zijn regels voor.

Er komt naast IBM gewoon een concurrent die hetzelfde kan. Ik denk dat die uit China komt.
Is het hele probleem van AI juist niet dat ze de wereld niet echt begrijpen en in theorie zonder emoties harde beslissingen kunnen nemen?
Ik zie 't probleem niet zozeer in AI, want als je daar goed mee omgaat bouw je altijd een werkende fail safe in.
Ik zie het probleem in de mensheid die nu eenmaal fouten maakt.
Er bestaat per definitie geen 100% werkende failsafe. De controle kan het systeem controleren, maar nooit het geheel van systeem en controle zelf.
Wat jij beschrijft is alleen de reden waarom je failsafe niet als extra feature toe kunt voegen. Failsafe systemen moeten vanaf de grond af opgebouwd zijn om veilig te falen. Verlies van een subsysteem mag leiden tot een verlies van alle functionaliteit, maar niet tot een onvelige situatie.
100% mee eens. Musk en consorten hebben het ook niet over huidige (of uit het verleden, een voorbeeld uit 2011... pffrt dat is eeuwen geleden in de IT en helemaal in AI onderzoek) AI, maar over toekomstige.

Nu zijn het inderdaad nog baby's.. minder dan dat zelfs. maar fout na fout word eruit gehaald en die "belangrijkheid der dingen" wordt er ook vanzelf ingebakken. en dan kan het gezellig worden.

"I'm sorry Dave, I can not do that"

zou bij een verkeerde volgorde van die belangrijkheid zomaar een voorspelling in plaats van fictie kunnen zijn.
Toch zijn er al experimenten die verder gaan en dingen doen die al gevaarlijker zijn. Zoals https://www.google.nl/amp...our-potential-future/amp/
Om de termen uit Mass Effect over te nemen, wat we nu hebben kan je een VI noemen, een virtuele intelligentie. Een echte AI is zelfbewust, en is vele malen geavanceerder dan een VI.

Het feit dat een computer van emoties niks snapt en alles logisch probeert te verklaren, kan gevaarlijk zijn als die computer zelfbewust wordt. Een echte AI zal namelijk heel snel ontdekken dat de mens veel minder efficiënt is dan een machine. Wij hebben rust nodig, terwijl een machine 24/7 kan werken, plus het feit dat een geavanceerde machine duizend dingen tegelijk kan en op een enorme snelheid informatie kan vergaren.

Laat een mens maar eens een bepaalde zin in een e-book van 1000 pagina's zoeken, zonder dat hij dit heeft kunnen lezen (en zonder hulp van de computer), daar is hij wel even zoet mee. Een computer doet dit in een fractie van een seconde.

Het menselijk brein is op dit moment vele malen geavanceerder dan de huidige computer techniek, al kunnen wij de capaciteit ervan nauwelijks zelf benutten. Het meeste gaat allemaal automatisch.

[Reactie gewijzigd door AlexKnight1978 op 10 oktober 2017 11:19]

Me eens. Deze discussie gaat altijd over twee zaken die door elkaar worden gehaald:

1) ai zoals nu vorm op kort termijn (schatting binnen 5-20 jaar) een gevaar voor veel banen. Ruim 70% van huidige banen kunnen gedeeltelijk of geheel worden overgenomen met het soort 'domme ai' wt nu bestaat en verbeterd zal worden. Geen terminator dus, gewoon een nieuwe golf van automatisering die banen gaat kosten en als dat sneller gaat dan nieuwe banen creeren, hebben we een serieus probleem. Ook inzet van autonome robots door het leger is zeer realistisch en waarschijnlijk binnen 20 jaar. Zie Boston dynamics robots die worden gefinanciert door het leger.

2) de discussie of ai een gevaar kan vormen en 'slimmer' kan worden dan de men's of dat er een fundamenteel verschil is tussen mens en machine. Veel argumenten van mensen die roepen dat dit nooit kan is van het niveau "want een computer kan niet verkouden worden", een portie zoek de verschillen. Maar ik ben er heilig van overtuigd dat er geen fundamentele reden is waarom kunstmatige intelligentie nooit slimmer kan worden en wel de wereld begrijpen. Het zijn vaak gelovingen die denken dat de mens meer is dan een mechanische machine, omdat het een ziel zou hebben. Dikke vette onzin. Er zijn momenteel veel praktisch beperkingen zoals het aantal neuronen en parallele beperkingen, evolutionair voorgeprogrammeerde functies en 'biases' die leiden tot neigingen (instinct) en behoeften.

Bewustzijn is niet iets wat je hebt of biet maar de mate waarin je het hebt. Ai vandaag de dag zijn kleine gespecialiseerde deelfuncties zoals het oog, bewustzijn zit 'm in het zien van relaties ten opzichte van elkaar zoals een denkbeeldige driehoek die gevormd wordt door drie punten op gelijke afstand van elkaar.
Wanneer diepere (hogere) lagen neuronen deelgebieden met elkaar verbindt en overzicht creeert, ontstaat bewustzijn. De relatie tussen wat je ziet, hoor, voelt, je handen in relatie tot je lichaam en je lichaam in relatie tot de omgeving, etc. Dat is bewustzijn.
AAAAAARRRRGGGGGH!

"maar mist ai bijvoorbeeld wiskundig inzicht. Ook kunnen computers volgens de professor niet goed overweg met menselijke gevoelens en emoties en kunnen computers kennis niet volledig doorgronden of begrijpen."

Al jaren zijn er algoritmes die wiskundige theorien onderbouwen/bewijzen:

Uit 1970: https://www.macalester.edu/~bressoud/pub/cgp.pdf

Menselijke gevoelens en emoties worden ook al jaren door computers ge-evalueerd. Uit text en/of foto (twitter/FB gevoels evaluaties [is deze persoon boos, sarcastisch, verliefd etc; bepalen uit text en/of foto]).

Doorgronden en/of begrijpen? Nou, het zal je verbazen. Sterker nog, door computers te gebruiken zijn in de VS verkiezingen van 2016 EN de Brexit referendum door gemanipuleerd; er werd door algoritmes bepaald welke kiezers op welke manier dachten (hoe denken mensen: zijn ze Democraat of Republikein?, militair?, boos?, angstig?) en vervolgens gekeken waar ze vatbaar voor zouden zijn (wie is vatbaar voor immigratie propaganda/reclames waar ze zwarte/bruine mensen geweren zien schieten/artikelen over immigartie) die ze dan werd voorgeschoteld.

Dankzij bedrijven als Cambridge Analytica weten we dat we computers kunnen gebruiken om mensen hun emoties/achtergrond te ontcijferen en dusdanig kunnen kwantificeren dat we ook hen media kunnen voorschotelen om die te beinvloeden.

De professor kletst uit zijn nekharen. Is niet op de hoogte van wat de 'state-of-the-art' is en begrijpt niet wat computers nu al lang kunnen en hebben gedaan.

'AI' is iets wat nog niet goed bepaald is (jaja, 'strong vs weak' etc), maar we moeten nu wel begrijpen dat algoritmes al een tijdje gebruikt worden om deelproblemen aan te pakken, wellicht op vlakken waar we het helemaal niet mee eens zijn.

En op die deelgebieden kan je het al gerust AI noemen.
Best grappig om te zien hoe een aantal publieke figuren zich uiten over AI en gerelateerde problemen, zonder diepgaande kennis van zaken.

Stuart Russel doet al tig jaar onderzoek naar AI en gerelateerde problemen, en legt piekfijn uit wat de gevaren zijn (inherent aan onze verkeerde benadering van AI), en hoe hier dan wel mee om te gaan:
https://www.ted.com/talks...al&utm_source=tedcomshare
Hij legt anders best iets logisch en normaals uit, naar hoe ik het lees.

AI heeft geen perceptie van de wereld, zonder externe training. AI hecht geen waarde aan 'elementen' die we niet getraind hebben. Letterlijk een physieke vorm van apathie :P

De mens is in staat zelf een perceptie van al het bestane te maken, door interne training. De mens kan waarde hechten aan elk 'element' (naar eigen keus of door vrienden :P ), omdat alles een plaats krijgt in onze perceptie. Wij herkennen wat nieuw is, en bekijken of dat iets toe kan voegen aan onze wereld (en sowieso een mental note van herkenning).

Dus totdat AI ongestuurd, zichzelf een perceptie kan aanleren, zijn ze geen echt gevaar. Behalve als wij ze aanleren een gevaar te zijn.

[Reactie gewijzigd door Flipull op 9 oktober 2017 22:33]

Mijn punt is dat dit soort uitspraken (zoals in dit artikel) bijzonder ongenuanceerd zijn. Zwart-wit. Vooral met de bedoeling om op onderbuikgevoelens in te spelen, zonder daadwerkelijk te informeren. Daarom denk ik dat het een stuk nuttiger is naar de beschouwing van 'onnozele proffessortjes' te luisteren en een eigen mening te vormen, dan klakkeloos de argumenten te over te nemen uit betogen van zakenlui met een publiek gezicht. Zij houden zich bezig met runnen van bedrijven, niet met diepgaande problemen van AI.

*Edit: verduidelijking

[Reactie gewijzigd door Avdo op 9 oktober 2017 21:07]

Ook kunnen computers volgens de professor niet goed overweg met menselijke gevoelens en emoties en kunnen computers kennis niet volledig doorgronden of begrijpen.
Is dat niet juist het gevaar? Nu zijn computers nog niet heel slim omdat de rekenkracht daarvoor simpelweg ontbreekt, maar wat nou als we 20, 30 of 50 jaar verder zijn? Een mens maakt keuzes vaak op basis van emotie en gevoelens. Maar wat nou als een slimme a.i. dat niet doet? Volledig rationele keuzes maken kán gevaarlijk zijn voor de mens.
Je spreekt ook van geleidelijk aan neem ik aan, zoals de toename in rekenkracht met de jaren.

Als tegenargument: kan de, redelijk langzame, evolutie van AI niet bijdragen tot een intellectueel gezondere mensheid (door competitie, persoonlijke assistenten die je helpen te relativeren of informatie te valideren, ik noem maar wat ...), zo een mensheid die zichzelf niet vernietigd ? En is het dus niet eerder gevaarlijk om op de rem te gaan staan dan ?

Off topic als ik zo vrij mag zijn:
Rationele keuzes zijn mensheid's grootste zorg niet, dat kan tot ongelukken leiden met worst case scenario's zoals Fukushima, maar geen oorlog. Wat wel tot oorlog leidt is het intellectueel gevangen zitten in rationaliseren (rechtvaardigen) van keuzes en dat gelijk hebben voldoende is om een ander de duvel aan te doen.
[...]
Volledig rationele keuzes maken kán gevaarlijk zijn voor de mens.
Er is net een Nobelprijs voor de economie uitgereikt voor precies de omgekeerde conclusie: dat mensen irrationeel handelen, en vooral zichzelf daarmee benaderen.

Goed, eigenlijk was de Nobelprijs voor een iets dieper inzicht: Sinds Adam Smith werkte de economie met de expliciete aanname dat mensen zich rationeel gedragen, omdat het beter wiskundig te modelleren is (zeker in de tijd voor computers). Iedereen wist dat die aanname fout was, maar de hoop was dat het irrationeel gedrag uitmiddelde.
Mijn gedachte is meer het volgende
De beste man zegt het volgende in de headline:

een Britse professor in computerwetenschappen, heeft tijdens een lezing gezegd :dat kunstmatige intelligentie zijn beperkingen heeft, in de zin dat ai de wereld niet begrijpt. Mede daardoor hoeven we volgens hem ook niet bang te zijn voor robots of machines die een gevaar vormen voor de mensheid

Mijn stelling is, Juist omdat AI de wereld niet begrijpt en voornamelijk zwart wit zal denken is AI een bedreiging voor de mensheid. Immers al zouden de wetten van ASIMOV blijven gelden, dan zou nog steeds de beste bescherming van de mens tegen invloeden, het opsluiten en vastzetten van de mensheid zijn..aangezien geen mens dan een bedreiging voor zichzelf of anderen kan betekenen..
Uiteindelijk leidde dat tot een prijs van een absurd niveau, iets wat een mens van vlees en bloed nooit zo ver had laten komen.
Even denken...
* voetbalsalarissen
* huizenprijzen
* <insert> elke beursgang in de dotcom-hype
Ook kunnen computers volgens de professor niet goed overweg met menselijke gevoelens en emoties en kunnen computers kennis niet volledig doorgronden of begrijpen.
Dus is het voordelig vanuit een CO2 emissie oogpunt om alle mensen uit te roeien.

Ja, geen probleem, want computers snappen de wereld toch niet. Ze zijn niet evil, ze hebben slechts een rekenmodel uitgevoerd waar deze actie uit voortkwam. Geen enkel punt...

[/sarcasm]
'Kunstmatige intelligentie heeft >NOG< beperkingen en vormt geen gevaar voor de mens'. Moest de titel zijn..
Helemaal mee eens. Niemand kent de toekomst, ook deze man niet. De opmerking is ofwel getuigend van beperkt voorstellingsvermogen van mogelijke veranderingen, ofwel uit zijn verband gerukt ofwel even zinloos als: ik voorspel dat er in Nederland dit jaar minder dan 5 doden zullen vallen door zelfsturende auto's.

[Reactie gewijzigd door dura op 9 oktober 2017 20:47]

Eens, het is kwestie van tijd. Vroeger hadden we ook niet gedacht 300km/u te kunnen rijden.
Ah ja en hoe meer cellen een organisme heeft hoe slimmer het is. Dat weet zelfs mijn kleine hercencel. En hoe groter een wezen hoe belangrijker het is. Daarom dat een paard geen poten heeft maar benen. En walvissen zo gevanceerd zijn dat mensen hun taal nog niet hebben ontcijferd. Het is inderdaad een kwestie van tijd. Wanneer je bijvoorbeeld wat organish materiaal vergeet (in een sok of zo) groeit daar uiteindelijk nieuw leven uit. Kwestie van tijd.
Vroeger hadden we ook niet gedacht 300km/u te kunnen rijden.
Waarom jij intelligentie vergelijkt met snelheid is mij een raadsel. Ben je ook slimmer als je sneller klaar komt? Ben je slimmer als je een examen op 2 minuutjes helemaal invult ook al zijn al je antwoorden fout?

Toen men eenmaal een machine had die überhaupt zichzelf kon verplaatsen ook al was het maar aan 1 km/ uur toen. NADAT DIE MACHINE UITGEVONDEN WAS. Toen zeiden de mensen: kwestie van tijd voor hij 10 km/uur gaat. We moeten heb alleen sneller beter maken.

Toen met eenmaal een machine hadden uitgevonden die kon rekenen ook al kon hij maar twee getallen per seconden bij elkaar optellen. NADAT DIE MACHINE UITGEVONDEN WAS. Toen zeiden de mensen: kwestie van tijd voor hij 2000 getallen per seconde bij elkaar kan optellen. We moeten heb alleen maar sneller maken.

Maar er is maar een machine die kan nadenken, en dat is de mens. En we hebben nog GEEN andere machine gemaakt die ook kan nadenken. Wel kan rekenen, maar de denkfout is dus dat rekenen en nadenken hetzelfde zijn. Wij mensen hebben rekenmachines gemaakt door erover na te denken maar omgekeerd gaat niet lukken. Tenzij je gelooft dat mensen ook gewoon eigenlijk rekenmachines zijn maar dan zeg ik: bewijs het of hou je mond. Er zitten geen OR, NOT, AND schakelingen in mijn hoofd, ik kan mijn hoofd wel gebruiken om over het concept van booleanse logica na te denken maar dat is dus heel iets anders.

Misschien is het eens tijd om toe te geven dat de electronische reken machine die wij een computer noemen niet hetzelfde is als de biologische machine die wij het brein noemen.

Misschien moeten we die biologische machine maar eens beter gaan bestuderen, en dan misschien proberen na te maken. In plaats van heel erg lui andersom: We hebben nu een elektronische reken machine die wij een computer noemen. Weet je wat laten we voor de makkelijkheid maar even zeggen dat het menselijk brein ook een elektronische reken machine is.

Ja vind je het gek dat er nog geen robots op straat lopen bij die gekkigheid en luiheid.

De mens moet maar eens leren om tegen zichzelf toe te geven: We zaten fout! Want momenteel zitten we dus computers te bestuderen om uit te vogelen hoe het menselijk brein werkt. En dat vind ik een beetje dom want het menselijk brein heeft die computer ontworpen en niet andersom. Om nu van die computer te verwachten dat hij zichzelf slimmer maakt, ons eventjes helpt met het uitvogelen van hoe ons brein nu eigenlijk werkt, etc etc. Het is allemaal erg verkeerd gegaan en het publiek heeft geen idee meer wat een computer nu eigenlijk kan en wat hij niet kan. Een computer kan niet alles, en nee wij leven niet in een computer. Net zoals wanneer ik een mooie tekening maak met kleur potloden die erg lijkt op de echte wereld om dan te denken: Hey met kleur potloden kan ik alles maken in de echte wereld. Ik leef in een tekening!

Die computer word niet van zichzelf slimmer hoe langer je hem laat aanstaan en berekeningen maken, maar als je maar lang genoeg naar die computer staart dan lijkt dat zo omdat je zelf dommer aan het worden bent.

Dat blinde geloof dat de hulpmiddelen die de mens zelf gemaakt heeft, zal worden als de mens zelf en dan de mens zal verlossen of vernietigen moet maar eens gedaan zijn. Anders heb je straks gewoon een religie vermomt als wetenschap en verlichtheid maar met evenveel bullshit als alle andere religies. (behalve de christelijke want die vind ik persoonlijk helemaal top)

Bekeer je van het blinde geloof in De Berekening of betaal de Rekening! (Met bitcoin uiteraard)

[Reactie gewijzigd door Kain_niaK op 10 oktober 2017 21:34]

Ik ben eens benieuwd wanneer de "kaas tussen mijn tenen" tekenen van intelligent leven gaan vertonen :D
Precies, ik moest meteen denken aan de Bill Gates uitspraak... Iets met dat je nooit meer memory nodig zult hebben dan 640KB ofzo.

De techniek is misschien nog niet zo ver, maar ik heb zo mijn twijfels bij de uitspraak van deze professor.

edit:prima, het was geen uitspraak van Bill Gates, dat maakt het punt echter niet anders.

[Reactie gewijzigd door PizZa_CalZone op 9 oktober 2017 21:49]

Leesvoer

Maar zelfs als Gates dat gezegd zou hebben, in die tijd was 640K best veel en voor dagelijks gebruik zou het toen best genoeg geweest kunnen zijn. Dat zegt echter niets over de toekomst. Mijn eerste computer had 4MB geheugen, dat was genoeg - tot ik Doom probeerde te spelen. De computer die ik daarna had had 12MB, dat was weer genoeg - tot ik Duke Nukem 3D probeerde te spelen.

Heb inmiddels een lekkere 16GB in mijn computer zitten maar vroeg of laat gaan applicaties meer dan dat vragen. Op dit moment zou 16GB echter genoeg moeten zijn ;)
Ik heb in mijn laptop 20GB geheugen, en dat is nét genoeg voor Lightroom + Photoshop + Autopano. Dus ook deze mijlpaal in geheugengebruik is al met "normaal gebruik/normale applicaties" aan te tikken.
En het klopt dat 640 kB RAM genoeg was voor een 8086. Met een address space van 1 MB waarin ook nog de BIOS, het video-geheugen en HDD controller ROMS zaten hield je niet veel meer ruimte over. Een 8086 met meer RAM was minder functioneel geweest. VGA op een 8086 vereiste al een vieze hack.
Denk dat de Bill Gates uitspraak ondertussen één van de meest mis-quote (weet niet of het een woord is) zaken ter wereld is. Heeft ie blijkbaar nooit gezegd.

On topic: de techniek moet niet ver staan. Er wordt uitgegaan van een menselijke denkwijze (nieuwsgierig naar wat we niet begrijpen) maar voor een machine kan het een stuk simpeler: we begrijpen de emotie niet dus vernietigen we het
Zucht, dat heeft hij nooit gezegd.
Wat mensen vroeger dachten of nu denken is niet relevant. Je pakt er namelijk alleen die voorbeelden uit die je aanstaan. Vroeger dachten mensen ook vast niet dat je met lichtsnelheid kon vliegen en dat kunnen we nu nog steeds niet. Net zo goed als dat we geen gat dwars door de aarde kunnen boren.

Daarnaast heb je ook gewoon sensatiezucht en wensdenken: wil je een saaie toekomst zonder echte AI, of moet the Matrix werkelijkheid worden? Ja, liever het laatste natuurlijk, want dat is veel spannender. Alleen: hoe dan? We weten niet eens hoe ons eigen bewustzijn werkt, laat staan dat we zoiets kunnen simuleren.
400kmph met 4 wielen of +500kmph met meerdere wielen of zelfs zonder wielen al noem ik dat meer glijden (treinen)
Kawasaki H2R haalt op 2 wielen ook gewoon de 400 km/u hoor.
volledig off-topic:
Zijn hier geen kamervragen over geweest? Bij de intro van de busa was heel politiek nederland in rep en roer en die ging "maar" 300km/u :+

[Reactie gewijzigd door shades op 10 oktober 2017 08:36]

De H2R is niet straatlegaal, de straatlegale versie is de H2 en heeft een topsnelheid van “maar” 365 km/u :p
Aan de andere kant, vroeger dachten we ook dat de hemel naar beneden kon vallen en dat het einde der tijden in het jaar xxxx zou komen... en dat bleek juist niet zo te zijn..
En wat dacht je van het al oude 'vernietigen wat men niet begrijpt'?
Dat doet de mens al eeuwen. Als straks autonome robots iets niet begrijpen, wat zou een basis reactie kunnen zijn? Dat dus...
Ben je bang dat ze evolueren in transformers? :9

Het belangrijke verschil, is dat autonome systemen altijd binnen hun limiet van keuzevrijheid blijven.
De systemen van nu leer je een taak waar je alleen antwoorden accepteerd binnen je (auto)domein, zoals 'gas', 'rem', 'links', 'rechts'.

Bij een 'niet begrepen'/bug-situatie, en zonder failsafe, is het ergste resultaat dat de auto een burnout blijft maken tegen een boom of in een gracht. Misschien mensenlijk leed en economisch verlies, zou heel erg zijn, natuurlijk. Maar autonoom kiezen om uberhaupt te snappen dat wat in de weg staat, een boom is... En ook nog kapot gemaakt dient te worden... dat is het alleen inzicht van onze menselijke intelligentie.

Ergens heb ik meer vertrouwen in AI. Ik herken mezelf in hun naïviteit :D
Tell that to Skynet B)
Skynet is fictie maar dat is tegenwoordig nu juist het probleem dat mensen verzinseltjes en realiteit door elkaar halen en denken dat als je er maar hard genoeg in geloofd dat het dan waar wordt.
Skynet was (in de film inderdaad) een stuk software dat draaide op meerdere computers - soort van cloudcomputing/botnet. Das helemaal niet zo gek. Als een randdebiel een stuk software schrijft die dat doet en vervolgens via die weg de raketsilos een trap geeft hebt je een equivalent van skynet - weliswaar zonder de robots... maar als je een motorisch goed functionerende robot hebt is de tweede stap dat ding leren omgaan met wapens. Het verschil tussen wat wel mensen zijn en niet mensen zijn is er al lang (face-recognition). Helemaal stom is het idee dus niet. Iemand moet het alleen nog doen. Een ramp is ook een optelsom van menselijk falen al is in den beginne men niet bewust van hun "falen". Face-recognition en een motorisch perfecte robot maken staat niet gelijk aan falen maar aan technische vooruitgang (een uitvinding so to speak). Maar zodra je dingen gaat combineren kan er een bedreigende situatie ontstaan.

[Reactie gewijzigd door shades op 10 oktober 2017 08:47]

Het concept van Evil Genius is niet nieuw, laat staan dat van een simpel onwelwillend persoon.
Als je jezelf door je harses schiet na een spervuur op onschuldigen, hoe ver is het dan gezocht om die kill switch om te halen dien nog veel meer slachtoffers maakt? Je hebt maar 1 persoon nodig die het kan en wilt doen.
Het denken dat alles wel los zal lopen en zichzelf wel zal oplossen en reguleren is nogal naief.
Naiviteit kan kostbaar zijn... en als het te laat is heb je nogal pech.
Zoals een reis naar de maan?
Ooit niks meer dan fictie... net zoals dat bijna alles van nu 100 jaar geleden niet eens denkbaar was.
Straks lacht de AI zich een kriek als hij leert dat de mens prima in staat is zichzelf te vernietigen...
Anoniem: 310408
@ToolBee9 oktober 2017 20:36
Er is nog nooit een organisme op de aarde geweest dat beter was in overleven. Mensen kunnen op elk continent leven en zelfs floreren, we kunnen zelfs in de ruimte leven zoals we elke dag weer bewijzen en staan op de grens om een multi planetaire species te worden.

Tardigrades staan op plaats twee, die kunnen 'overleven' (als in niet onherroepelijk dood gaan) maar zullen nooit kunnen voortplanten op de zuidpool. Of in de ruimte, of in de zee, of in een 100% droge woestijn. Mensen wel. AI krijgt er nog een hele klus aan om ons te vernietigen.
Je houdt de spanning er graag in... ;) Vernam laatst ook dat ai-machines zichzelf in- en uit zouden kunnen schakelen wat natuurlijk heel creppy is, maar het zal toch wel meevallen zolang alles op stroom draait is het een kwestie van stekker eruit. :)
Mark Bishop heeft het zeker over de huidige stand der techniek. Elon Musk, Stephen Hawking en anderen hebben het over de mogelijkheden van ai in de toekomst.
Maar hoever in de toekomst?
Tegen die tijd hebben we op andere gebieden al kennis met AI en kunnen dan wel sturing geven.

Er is veel paranoia voor AI bij wapens. Maar het leger kijkt ook films en zal dit beperken. Bv door alleen in oorlogsgebieden de wapens te kunnen bedienen en daarbuiten enkel kunnen werken als automatische piloot. Of dat de activatie toch nog menselijke inbreng nodig heeft. Daarnaast is AI te ver qua ontwikkeling als nodig en te duur. Smart is goed genoeg.

Waar men vrijwel niet aan denkt zijn andere gebieden. Zuckerberg heeft het over (geneeskundig) onderzoek. Dat kan nuttig zijn. Dat is beperkt en als de evil AI een kwaadaardig middel maakt, kunnen we ervoor kiezen om daar geen gebruik van te maken. (Hoewel er daarvoor geen echte AI nodig is).

De problemen liggen waar de AI zonder inmenging kan uitvoeren. En ik denk dat in bv de financiële wereld en overheid dit het eerst gaat gebeuren. Zelfstandig een lening goedkeuren, controle op subsidies/toeslagen, jouw betalingsverkeer. Super handig en betrouwbaar, totdat het je lening afwijst, subsidies stopt en je bankrekening blokkeert. Die fouten merk je direct. En je raakt dan vrij snel in de problemen. Daar moeten we bang voor wezen.
Op dit moment heeft hij dan wel gelijk, ergste wat kan gebeuren is dat de geautomatiseerde beurs computers een misrekening maken en er erg veel geld verloren gaat of een attack drone op hol slaat en wat mensen daardoor om komen.

de doom scenario's kunnen nog wel even de ijskast in (tot het te laat is natuurlijk ;) )

Denk dat we vooral te vrezen hebben van mensen met verkeerde intenties of onkunde, die IA met verkeerde normen en waarden initiëren.

Toch ben ik huiverig van Zuckerberg, in al z'n onschuld heeft hij wel gelijk dat het veel goeds met zich mee kan brengen. Aan de andere kant is zijn pool eindgebruikers willekeurig geselecteerd voor experimenten om te ijken of de gemoedstoestand beïnvloed kan worden door een stream van meer negatieve informatie, dus heb op zijn gekleurde ogen te vertrouwen en aan de knoppen laten draaien lijkt me ook niet verstandig.
Precies! Zolang er mensen zijn die het machtig mooi vinden om computers steeds slimmer te maken en ze steeds een beetje veder toestaan om steeds verder zelf te mogen ‘denken’, zal dat gebeuren. Totdat er mensen zijn die daarin doordraven.

Ondanks dat er mensen zijn die er geen ervaring mee hebben en denken dat het ‘allemaal wel mee valt want de mens zal altijd grenzen progrmmeren’.

Ik vind dat een ronduit naïeve gedachtegang en zeker heel gevaarlijk.

Dat er NU iets niet is en er NU niemand is die ai de volledige vrijheid wil geven, wil niet zeggen dat dat in de toekomst niet zal gebeuren.

Natuurlijk ziet Zuckerberg geen problemen. Hij verdient eraan.

Het zit in de mens om tegelijk naïef en nieuwsgierig te zijn.

Vooral degenen die terminator nooit gezien hebben, roepen het hartst dat het zover niet zal komen. (En toch zijn er steeds meer zaken die in die film voorkwamen, die nu voorkwamen. Alsof de schrijver van die film in de toekomst kon kijken. Hopelijk komt het niet zover als in de film.)

En die zijn wat mij betreft het meest gevaarlijk. Precies hetzelfde kun je wat mij betreft zeggen over terrorisme.

‘Het zijn er maar een paar en het zal zo’n vaart niet lopen’. Jaja, totdat het wél zo is. En dan als eerste het hartst roepen om hetgeen wat al jaren als onzin weggezet werd.

Oogkleppen zijn gevaarlijk.
Dat is niet wat ik lees, hij zegt dat het principieel nooit een gevaar gaat vormen, het kan niet. Ben geneigd om daarin mee te gaan.
Interessant detail trouwens wat Mark Bishop's uitspraken wellicht in een ander daglicht plaatst:

De beste man is niet alleen een AI-expert en een professor binnen dat vakgebied; hij staat ook als Director aan het hoofd van het Goldsmiths centre for Radical Cognitive Science.

Niks niet vreemd dus, dat hij gemotiveerd is een pro-AI boodschap uit te gaan dragen als zwaargewichten met veel autoriteit zoals Musk en Hawking juist de wereld willen bijbrengen voorzichtig met AI om te gaan. Als de mensheid gemotiveerd wordt om afstand te nemen van onderzoek in AI, dan snijdt dat op den duur ook in zijn boterham.
Anoniem: 167912
@R4gnax9 oktober 2017 20:53
"zwaargewichten met veel autoriteit" is natuurlijk het type voorbeeld van een argumentum ad verecundiam en als je dat dan toch wil gebruiken wegen de uitspraken van professor Bishop's veel zwaarder door. Hawking is een fysicus, Musk een ondernemer, geen van beiden kunnen met de kennis spreken waar Bishop mee spreekt.
Ik vind het trouwens een redelijk gevaarlijke tendens om iedereen die wel met kennis van zaken spreekt meteen te beschuldigen van belangenvermenging. Dat lijkt wel het nieuwe godwin argument te zijn tegenwoordig.
"zwaargewichten met veel autoriteit" is natuurlijk het type voorbeeld van een argumentum ad verecundiam
Kan zijn. Het probleem is dat dit type argument bij 'het grote volk' wat 'de publieke mening' vormt, wel aansluit. Hawking en Musk zijn nou eenmaal iets bekender en meer populair binnen de maatschappij in hun rol als 'futuristen', dan een engelse professor; ook al is dat de daadwerkelijke expert.
Ik vind het trouwens een redelijk gevaarlijke tendens om iedereen die wel met kennis van zaken spreekt meteen te beschuldigen van belangenvermenging. Dat lijkt wel het nieuwe godwin argument te zijn tegenwoordig.
Hij is het zijn vakgebied min of meer verplicht om een tegengeluid de wereld in te brengen, om de toekomst van dat vakgebied zeker te stellen. (Heb jij de hele poeha omtrent cloning nooit meegemaakt of zo? Dankzij de backlash in de VS loopt dat onderzoek ook weer een grof decennium achter op waar we anders geweest waren.)

Ik bedoel alleen dat je moet relativeren wat hij zegt, omdat hij juist nu met dit soort uitspraken komt. Ik schreef ook niet dat hij totaal ongelijk heeft en glashard liegt.
Elon Musk: Bachelor of Science degree in physics: kunstmatige intelligentie dit en dat!
Stephen Hawking: gespecialeerd in theoretical physicis zegt: kunstmatige intelligentie dit en dat!
Mark Zuckerberg: geen diploma maar goed in programeren zegt: kunstmatige intelligentie dit en dat!
Mark Bishop: a professor of cognitive computing zegt: kunstmatige intelligentie dit en dat!

Dus als ik moet kiezen kies ik Mark Bishop.

Die andere drie zijn een gevalletje van schoenmaker blijf bij je leest! De onzin die je over strong AI hoort loopt echt de spuigaten uit. Kom op zeg mijn spellingcontrole kan me niet eens laten weten wanneer ik het Engelse "where" gebruik in plaats van "were" or "wear" en heb je wel eens geprobeerd om een serieus gesprek met Siri aan te gaan of met zo'n internet chat bot? Elk normaal mens kan in 10 minuutjes chatten weten of ie met een mens chat of met een stukje software. Er is absoluut niks maar dan ook niks dat we hebben dat in de buurt komt van een mens met bewustzijn. Al helemaal geen computers die alleen maar symbolen (1 en 0) manipuleren die alleen betekenis hebben voor mensen.

Iedereen die in die singulariteit onzin gelooft en dat we überhaupt ook maar enige mechanismes van intelligentie begrijpen moet maar eens wat John Searle gaan lezen en bekijken. Start maar met deze video

Hubert Dreyfus zijn "Alchemy and AI" is ook a good read.

Het moet maar eens een keer gedaan zijn met dat Terminator gedoe en oh-maar-we-hebben-toch-de-drie-wetten-van-asimov. (dat is fictie, oen)

als we willen weten wat de mechanismes zijn voor intelligentie en nadenken en bewustzijn zullen we toch echt eerst het brein goed genoeg moeten gaan bestuderen. (maar lastig want het brein van een levend mens uit elkaar halen is ethisch niet goed). En niet idiote projecten zoals een brein proberen te simuleren. Geheugen in het menselijk brein bijvoorbeeld is TOTAAL anders dan dat van een computer. Wanneer je iets herinnert herleef je het eigenlijk voor een tweede keer. Het herinneren van iets veranderd ook nog de herinnering. En dan die simulatie theorie is ook helemaal ruk. Oh je gelooft in een hogere realiteit? Maar niet de hemel, nee niet de hemel. Oh en op welke computer draait ons universum dan en wie heeft alles geprogrammeerd? Oh het universum draait op de hardware van het universum en er is geen programmeur. Jaja, goede theorie echt helemaal top. (simulatie is per definitie van het woord niet echt)

Zo en met deze post win ik waarschijnlijk de meeste downvotes van 2017 door alle gekwetste fortune tellers futurulogen en jonge rebelse atheïsten die die simulatie theorie wel zien zitten want de matrix was vet cool en het geloof is stom.

artificial idiot, die term moet ik onthouden. :P

Maar ik snap het wel hoor. Als je alleen maar de mensheid zelf hebt om in te geloven (en die is zwaar kut kijk maar naar jezelf) dan is geloof in RobotGod natuurlijk net zo aantrekkelijk als het voor een oermens was om in zijn goden te geloven. Dat is waarom de emoties altijd zo hoog oplopen bij deze topics want ze steken een demper op de hoop op nieuwe goden die gemaakt zijn door de mens. Nou die robotgod (hebben WIJ mensen gemaakt!) aanbidding die komt er nog wel maar niet zoals jullie denken, staat al 2000 jaar in de Bijbel trouwens. Kom maar op moderne gouden kalf aanbidders van 2017!

[Reactie gewijzigd door Kain_niaK op 10 oktober 2017 02:41]

Bishop is auteur van een van de meest gelezen machine learning boeken. Wat de titel van zijn hoogleraarsstoel ook moge zijn, hij is gewoon academicus op het gebied van AI.

Verder om je verhaal juist wel te ondersteunen: nog een lang artikel waarin gehakt gemaakt wordt van de AI-gaat-alles-kapot-maken hypothese. https://www.technologyrev...y-sins-of-ai-predictions/
Mijn punt was dat Mark Bishop de qualificaties heeft om iets over strong AI te zeggen. Die andere drie niet echt. Ook al heeft Tesla een indrukwekende hulppiloot en doet facebook veel met AI en is Hawking super slim. Al die dingen hebben nog steeds bijna helemaal niks met strong AI te maken. Terwijl Bischop zijn werk dat wel heeft.
Sorry ik vroeg me dat al af maar haalde het er niet uit dat je dat bedoelde. Ik zie dat je het nu ook hebt verduidelijkt.
Hmmmm, je hoeft geen ballistisch expert te zijn om (als voorbeeld) te geloven dat een vuurwapen je kan doden. Prima dat iemand qualificaties op een bepaald vakgebied heeft, geweldig dat deze er hard voor geleerd heeft, uitmuntend dat hij binnen zijn vakgebied een authoriteit is geworden, maar dat wil niet zeggen dat deze persoon hierdoor de enige autoriteit is om ergens iets van te vinden. Sterker nog, zijn affiniteit met het vakgebied kan een vertroebelende werking hebben op de perceptie van het gevaar hiervan.

Je hoeft geen diepgaande kennis binnen een vakgebied te hebben om de globale implicaties ervan te kunnen overzien.

Het is juist de AI die buiten de definitie van Mark Bishop valt waar je voor moet oppassen. Die wellicht niet intelligent genoeg is om binnen het gebeid van ‘strong AI’ te vallen, maar wel over de nodige machtsmiddelen beschikt. Want daar is het waar het mis zou kunnen gaan.

Het internet is ook maar een ‘simpel’ netwerk van systemen, echter wij (als mensheid) kiezen er wel voor om alles en iedereen eraan vast te knopen. Hierdoor zijn begrijpen als ‘cyber warfare’, ‘cyber cops’, en ‘cyber attacks’ alledaags geworden en gebruiken we het internet om er lustig op los te spioneren, landen en instanties aan te vallen, criminele activiteiten te ontplooien en burgers onder controle te houden (WiV binnenkort). Puur omdat we ‘het internet’ deze macht geven door er vanalles op aan te sluiten en er afhankelijk van te worden.

En afhankelijk zijn we: In de jaren ‘80 kon de samenleving prima functioneren zonder internet. In het heden zouden we niet eens kunnen functioneren als in de jaren ‘80 mocht het internet compleet uitvallen. Totale disruptie.

Het enige wat je nog nodig hebt is een AI die door de eigenaar van het project (dat zal in eerste instantie een invloedrijk bedrijf of regering zijn, want veel resources en geld noodzakelijk) wordt neergezet als het ultieme intellect, en vervolgens overal op aan wordt gesloten en daarmee macht verwerft.

Vrijwel elke grote uitvinding is in eerste instantie voor militaire doeleinden toegepast, en dat zal met AI niet anders zijn. Wellicht is er in de toekomst zelfs sprake van een ‘AI wedloop’ tussen mogendheden als men zich de macht en mogelijkheden ervan beseft.

Ik geloof inderdaad niet. Ook niet in robotgod overigens. Ik geloof wel in de mensheid, en hoe ‘zwaar kut’ je die ook mag vinden, als je beseft welke duisternis we achter ons gelaten hebben, ziet het er best ok uit voor de toekomst. We zijn er nog lang niet, maar langzaam op de goede weg. Technologie gaat ons daarbij helpen, mits voorzichtig toegepast. Als de mensheid 1 ding bewezen heeft, dan is het wel dat ze elke droom die ze heeft tot uitvoer weet te brengen. Alles wat we wilden uitvinden is uitgevonden of zal uiteindelijk uitgevonden worden. Is het niet door onze generatie, dan wel door de generatie na ons... we zullen nooit stoppen met dromen, we zullen nooit stoppen met ontwikkelen.
Het is juist de AI die buiten de definitie van Mark Bishop valt waar je voor moet oppassen
STOP! Je moet voor geen enkele AI opassen. Als je voor iemand moet opassen is het een programeur. Je kunt prima een robot bouwen die automatisch op targets schiet en dat beter kan dan welke mens dan ook. Net zoals je nauwelijks kunt winnen tegen de bots van Unreal Tournament 99 als je die op het moeilijkste zet.

Je moet niet opassen voor een AI die zijn eigen programmering eventjes overschrijft. Er is geen enkele AI die dat kan. Die defentie van AI is er gewoon NIET! Je hoeft geen schrik te hebben van de "inteligentie" die in een predator drone zit. Wel van de menselijke piloot. Er bestaat geen AI die zelfstandig kan denken want we hebben nog nooit iets gemaakt dat kan denken en we weten zelf niet goed genoeg wat denken is en hoe het werkt. Elke AI die we ooit gebouwd hebben volgt keurig zijn programatie. Hij kan niet anders. Want wiskunde.
Ben het met je eens, kleine voetnoot overigens. Elon Musk hoor je ineens niets meer zeggen over strong A.I. maar die heeft zijn argument ineens omgezet naar weaponized A.I., wat Bishop's argument natuurlijk teniet doet. Aangezien A.I. niet herkent wat het doet zal het geen moeite hebben om wie dan ook om te brengen. Nog gevaarlijker is als men niet meer kan communiceren met het apparaat. Zeker omdat de A.I. voor de maker weinig risico meebrengt, je dropt het ding af en je loopt zelf geen schrammetje.
Het is niet zo gek om te gloven dat AI menselijke intelligentie kan evenaren of overtreffen. Ik zeg niet dat AI de mensheid zal uitroeien, maar de potentie is er. Kijk alleen al naar de snelheid waarmee biologische neuronen kunnen vuren. Dit is gelimiteerd tot enkele duizenden keren per seconde. Een kunstmatige neuron zou echter vele miljoenen keren per seconde kunnen vuren. Dit zorgt ervoor dat een kunstmatige neuron veel sneller zou kunnen leren en informatie verwerken. Kijk ook eens naar de grote van een neuron. Alleen de somas zijn gemiddeld al rond de 20µm en daarbij zit er aardig wat ruimte tussen de somas. Theoretisch gezien zouden kunstmatige neuronen veel kleiner gemaakt kunnen worden dan biologische neuronen en kunnen ze dichter op elkaar geplaatst worden. Zeker wanneer meer in 3D gefabriceerd zou (kunnen) worden. Dit is eigenlijk volgens mij de grootste belemmerende factor voor de ontwikkeling van spiking neural networks, aangezien er nog maar beperkt 3D gefabriceerd kan worden en er dus minder verbindigen gemaakt kunnen worden tussen neuronen, de neuronen een groter oppervlakte in beslag nemen en er minder neuronen in een bepaald volume passen. Als we dit probleem zouden kunnen oplossen, is het niet gek om te denken dat AI het menselijk brein kan overtreffen. Zo is energiebesparing gedurende de evolutie eigenlijk altijd een heel grote prioriteit geweest, echter is dat voor kunstmatige neurale netwerken veel minder het geval. Daarbij gaat de ontwikkeling van kunstmatige neurale netwerken heel heel veel sneller dan biologische neurale netwerken zijn ontstaan gedurende de evolutie. Ik ben dus zeker van mening dat AI de potentie heeft de menselijke intelligentie te overtreffen. Of dat iets goed is of iets slechts, daar hebben wij de hand in (totdat we wellicht het grip verliezen).
1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee