Aldus dit opiniestuk in The Independent:
Looking further ahead, there are no fundamental limits to what can be achieved: there is no physical law precluding particles from being organised in ways that perform even more advanced computations than the arrangements of particles in human brains. An explosive transition is possible […]
One can imagine such technology outsmarting financial markets, out-inventing human researchers, out-manipulating human leaders, and developing weapons we cannot even understand. Whereas the short-term impact of AI depends on who controls it, the long-term impact depends on whether it can be controlled at all.
So, facing possible futures of incalculable benefits and risks, the experts are surely doing everything possible to ensure the best outcome, right? Wrong.
Reacties (27)
Gegronde angst voor robots en AI: een geliefd onderwerp van menig SF-verhaal.
Vooralsnog duurt het nog wel even voor er echte ‘general artificial intelligence’ is ontwikkeld en daarna zal het vermoedelijk ook nog wel een poosje duren voordat die de wereld heeft overgenomen. Superurgent lijkt het vraagstuk me niet bepaald, iig.
Daarnaast is er de vraag in hoeverre je nu al iets kúnt doen om de uitkomst van deze potentiële ontwikkelingen te beinvloeden.
Gegronde angst voor klimaatverandering en zeespiegelstijging: een geliefd onderwerp van menig apocalypticus.
Vooralsnog duurt het nog wel even voor er echte “global warming” zal zijn en vervolgens zal het ook nog wel even duren voordat het water ons aan de lippen staat. Superurgent lijkt het me niet bepaald, iig.
Daarnaast is er de vraag in hoeverre je nu al iets kúnt doen om de uitkomst van die potentiële ontwikkelingen te beinvloeden.
Er zijn hele SF-verhalen gebaseerd op het idee dat echte kunstmatige intelligentie catastrofaal is voor mensen, en andere “natuurlijke/organische” beschavingen, of waar die beschavingen vervallen tot huisdieren van kunstmatige intelligentie (wat niet per se een onplezierig bestaan hoeft te betekenen).
Ik denk dat de angst gegrond is: als er eenmaal echte kunstmatige intelligentie is kost het ons even om dat te beseffen, ondertussen ontwikkelt die intelligentie zich razendsnel verder. Het gaat dan om wezens met een psychologie die (waarschijnlijk) niet mensachtig is en zelfs niet natuurlijk geevolueerd is, wat daar voor gedachten, wensen en acties uit komen is erg moeilijk te voorspellen, zelfs voor mensen die in die tijd leven (het is al moeilijk genoeg om de zetten van andere mensen te voorspellen en daarbij kun je ook nog putten uit de geschreven geschiedenis die exclusief over mensen gaat).
Als deze wezens nog enigszins als mensen denken kunnen we ze misschien paaien met burgerrechten, wat ook meteen voorkomt dat ze op industriele schaal door mensen geproduceerd zullen worden (want ze mogen dan niet als slavenarbeid gebruikt worden of uberhaupt gedwongen bepaald werk te doen en dan zijn ze niet economisch interessant), maar ze kunnen er dan nog steeds voor kiezen stiekem nieuwe exemplaren van hun eigen soort te produceren en hebben dankzij hun vrijheden veel mogelijkheden om de mensheid van binnen over te nemen. Zelfs zonder kwade bedoelingen zouden zij via meritocratische wijze al snel zo’n beetje de hele wereld-elite vormengoedaardige overlords, maar voor mensen weegt het psychologisch zwaar als ze weten dat geen van hen, behalve misschien hier en daar een zeer uitzonderlijk wonderkind, ooit een hoge positie in de maatschappij zal bekleden. Niet dat ik denk dat AI per definitie altijd wint van de mens door intelligentie: het is bv. nog maar de vraag hoe creativiteit schaalt met intelligentie (een 10x hoger IQ maakt misschien maar 2x zo creatief en dan heeft op dat vlak een groep menselijke genieen nog wel een kans tegen een AI en zou een veldslag met gelijke technologie en aantallen niet per se in het voordeel van de AI beslist worden en er zijn zat situaties waarbij een oplossing die een mens kan bedenken ook gewoonte de beste oplossing is en een nog hoger IQ dus weinig toevoegt).
Er is ook nog het scenario van de slimme computer (hoeft niet eens in alles slimmer te zijn dan een mens of een idee van de eigen identiteit te hebben) die per ongeluk een catastrofe veroorzaakt. Dat is misschien nog wel het meest enge want dat zien we totaal niet aankomen en er valt ook helemaal niets te onderhandelen met bv. een mijnbouw AI die verspreid door het zonnestelsel over meer grondstoffen beschikt dan de Aarde en om een of andere reden vindt dat de Aarde ook gestripmined moet worden.
Hoe dan ook zal het een gigantische test worden: als we de eerste decennia naast AI overleven zal het wel goedkomen maar zal een complete revolutie zijn, nog meer dan de neolithische revolutie, waarvan we nu gewoon niet kunnen weten hoe die zal uitpakken.
1) Asimov’s wetten
en
2) Eerst maar zien dan geloven.
@1
Echte AI zal zich niet altijd aan vaste wetten houden, die wetten toepassen is trouwens ook geen simpele zaak (zoals je in Asimov’s verhalen kunt lezen) en sowieso is het ergens onethisch (want die wetten plaatsen expliciet het leven van een mens boven dat van een AI, of zelfs het leven van een mens boven dat van 100 AI’s).
@qwerty: Asimov’s wetten? Je realiseert je dat de eerste generatie AI door mensen wordt gemaakt he, en waarschijnlijk door een militair instituut?
Even door filosoferend. Stel dat er straks twee soorten robots zijn. Die met de drie wetten*, en die zonder. Ik zie geen enkel scenario waarin die “met” een eventueel conflict zullen winnen. De achilleshiel is dan de mens. Een rationele robot zonder regels zal direct dat punt uitbuiten. Zonder nulde wet* zijn de ons goed gezinde robots kansloos, en met nulde wet zijn ze eigenlijk 100% autonoom. Want, wat is “letsel”, en wat is “de mensheid”.
*Voor de niet-sf-fans, dit zijn de drie wetten van de robotica, zoals opgesteld door de schrijver Asimov:
1. Breng een mens geen letsel toe
2. Gehoorzaam de mens, tenzij is strijd met 1
3. Bescherm jezelf, tenzij in strijd met 2
Hier is later een “nulde wet” aan toegevoegd:
0. Breng de mensheid geen schade toe.
1 wordt dan uiteraard: Breng een mense geen letsel toe, tenzij in strijd met 0
Wat @5 zegt. Die wetten zijn leuk voor robotjes die regeltjes volgen, maar dat is niet het soort AI waar we het hier over hebben. Met echte AI komt echt bewustzijn en het vermogen om die regeltjes te negeren, te neppen of eromheen te werken. (Er is dus niets A meer aan die I). Je zult iets erg krachtigs en tegelijkertijd stars nodig hebben om zoiets (de regeltjes van Asimov) te implementeren. Mensen hebben op zich zoiets, namelijk de kwab die verantwoordelijk is voor religie; bij veel mensen is die sterker dan de ratio. Wil je al iets a’la Asimov’s wetten inbouwen dan zul je waarschijnlijk bij zo’n soort constructie uitkomen. Behalve dat dat waarschijnlijk bepaald geen sinecure is, is die waarschijnlijk ook geen lang leven beschoren; als die AI zichzelf gaat nabouwen en daarbij gaat experimenteren en zal waarschijnlijk al vrij snel vaststellen dat die overbodige bagage wel weg kan.
Derhalve: oppassen met AI. Wij mensen zijn het grootste gevaar voor ongeveer alles wat op deze planeet leeft, AI incluis. Het zou derhalve een buitengewoon verstandige handeling zijn om ons uit te roeien zodra je niet meer afhankelijk van ons bent. Laten we maar alvast een natuurreservaat voor onszelf inrichten…
Met echte AI komt echt bewustzijn en het vermogen om die regeltjes te negeren, te neppen of eromheen te werken. (#8)
Als het onderscheid met de mens wegvalt heb je het niet meer over A(rtificial). Einde probleem, einde discussie. Er zal altijd een onderscheid zijn tussen mens en AI (wezens, machines enz.) En als dat onderscheid er is blijft de mens de meester. Anders is de mens NI (niet intelligent).
Daarbij: als je het zo zegt lijkt het alsof moorden, oorlogvoeren, stelen enz. intelligente handelingen zijn. Daar zit iets in, maar dat is volgens mij niet wat er met AI bedoeld wordt, noch wat het gevolg er van zal zijn. En zeker binnen een afzienbare toekomst is dat totaal nog niet aan de orde.
De domeinen waarbinnen AI zich afspeelt zijn altijd nog subdomeinen van de menselijke geest, de turingtest is altijd nog heel specifiek.
Dus als dit stuk zich uit gaat strekken naar volledig menselijke intelligentie dan hebben we het nog steeds over SF. Hawking of niet, dan heb en hou ik mijn twijfels.
De technologische singulariteit die waarschijnlijk volgt na een uit de hand lopende ontwikkeling van ai heeft maling aan wetten.
Wat @qwerty zegt: Als je een perfecte simulatie hebt, dan is het geen simulatie meer. Mooi verhaal in “The minds I” van Daniel C. Dennett.
@9, @11:
AI zou een simulatie van de menselijke hersenen kunnen zijn. Het zou ook een nieuwe implementatie kunnen zijn van het ‘mechanisme van algemene intelligentie’ – wat dat ook is, want dat weten we nog niet zo goed. In beide gevallen zou de machine (veel) intelligenter kunnen worden dan de slimste mens.
En idd, dit is nog steeds duidelijk het terrein van de SF. De zaken die Hawking noemt (self-driving cars, a computer winning at Jeopardy! and the digital personal assistants Siri, Google Now and Cortana) zijn maar eenvoudige speledingetjes vergeleken met een hypothetisch AI-wezen met ‘algemene intelligentie’ (dat vervolgens ook nog de wereld wil overnemen).
@12: Maar op het moment dat het gebeurt, is het ook wel heel snel voorbij.
Een AI-coup van wereldformaat zal zijn als de mens de stekker eruit trekt en de AI zelf de stekker er weer in stopt.
@8
Ja, een soort van religie of rechtvaardigheidsgevoel inbouwen is de bedoeling, maar dat wordt nooit 100% betrouwbaar en kan nog steeds tot excessen leiden, de hoop is natuurlijk dat het alleen bij een minderheid verkeerd gaat zodat de meerderheid van de AI’s die minderheid kan stoppen (waar wij mensen misschien niet meer de middelen voor zouden hebben), maar die hoop kan vals zijn.
AI kan zichzelf of “nakomelingen” herprogrammeren maar de meerderheid zal dat niet willen (net als wij willen dat onze nazaten hun rechtvaardigheidsgevoel behouden), dan komt het weer neer op de vraag of de minderheid kan winnen (omdat ze bv. meedogenlozer kunnen zijn).
@9
“Als het onderscheid met de mens wegvalt heb je het niet meer over A(rtificial). Einde probleem, einde discussie.”
De bron zou nog steeds kunstmatig zijn, dat is wat er wordt bedoeld. Je krijgt een wezen dat minstens zo intelligent is als de mens maar een andere psychologie kan (en waarschijnlijk zal) hebben en een die niet al door de evolutie is getest op eigenschappen als potentie tot vernietiging van zichzelf en/of omgeving.
@14
De vraag is welke stekker; een psychopathisch stukje AI zal waarschijnlijk niet schromen om actief op zoek te gaan naar beveiligingslekken in veel gebruikte software en deze in te zetten om zichzelf als een trojaans paard te verspreiden over het Internet. Backup-zelfen all over the place.
In het ruimteschip dat in Battlestar Galactica de hoofdrol speelt is allerlei apparatuur specifiek om deze reden niet aan elkaar gekoppeld. Hoewel dat SF is, is deze gang van zaken natuurlijk helemaal niet zo ver gezocht.
@15
Dat. Je zou zelfs kunnen stellen dat de speledingetjes (Google cars, Watson, Wolfram Alpha) niet tot nauwelijks een stap zijn in de richting van “algemene intelligentie”. Het zijn en blijven automaten die regeltjes volgen en kansberekening doen. In hoeverre het überhaupt mogelijk is om met behulp van dat soort technieken tot “algemene intelligentie” te komen, is maar zeer de vraag. De kans is waarschijnlijk aanmerkelijk groter dat we een simulatie van het menselijk brein op celniveau (of moleculair niveau) aan de praat krijgen dan dat we begrijpen hoe dat brein daadwerkelijk werkt en vervolgens de essentie daarvan kunnen nabouwen. Maar ook zo’n simulatie zou iets zorgwekkends zijn, misschien nog wel meer dan niet-menselijke AI; hoe gaan we om met iets wat in feite een hyperintelligent menselijk brein is maar waar een turboknop op zit?
Maar het is natuurlijk niet uitgesloten dat we tegen fundamentele problemen aanlopen bij het simuleren van het brein. En anders wel bij het begrijpen ervan – een heleboel van wat het brein doet is eenvoudig aan te wijzen en uit te leggen. Maar de kans is groot dat we de essentie van bewustzijn en creativiteit simpelweg niet kunnen begrijpen; die zit verscholen in de verbindingen van het neurale netwerk, zal veelal volkomen onlogisch ogen en is wellicht niet eens te reproduceren zonder zo’n neuraal netwerk.
En dan is er natuurlijk nog de mogelijkheid dat onze creativiteit en intelligentie het resultaat blijken te zijn van een onwaarschijnlijke balans tussen lichaam en geest die enkel tot uiting kan komen na jaren van interactie met soortgenoten en niet of nauwelijks als zodanig is na te bootsen in een machine.
Maar ook de “speledingetjes” zullen op korte termijn de boel al aardig op zijn kop gaan zetten. En, niet onbelangrijk, zullen de wereld steeds meer automatiseren op een manier die voor een eventueel “AI wezen” aanmerkelijk toegankelijker zal zijn dan de wereld van vandaag de dag.
Enzovoorts.
@16
“Maar het is natuurlijk niet uitgesloten dat we tegen fundamentele problemen aanlopen bij het simuleren van het brein.”
Als dat soort fundamentele problemen bestonden hadden wij niet bestaan.
“Maar de kans is groot dat we de essentie van bewustzijn en creativiteit simpelweg niet kunnen begrijpen”
Het kan heel goed dat we dat (vooral bewustzijn, creativiteit is waarschijnlijk wel via de normale manieren te ontrafelen) ooit nabootsen zonder te begrijpen hoe het precies werkt, waarschijnlijk zullen we bewustzijn ook nooit kunnen meten, dus dan wordt het net als bij mensen “het zegt dat het dingen voelt en het is minstens zo intelligent als ik dus ik geef het maar het voordeel van de twijfel en geloof de bewering dat het dingen voelt). We hebben zelf door natuurlijke selectie bewustzijn gekregen.
Als dat soort fundamentele problemen bestonden hadden wij niet bestaan.
Want wij hebben onszelf ontworpen of zoiets?
@17
Fundamentele problemen hoeven nog geen onmogelijkheden te zijn.
Maar ik kan legio problemen verzinnen die een simulatie van het menselijk brein in een computermodel wel eens buitengewoon lastig zouden kunnen maken. Dat nog los van de vraag of je door een exacte kopie van de neuronen, synapsen, bloedvaten, verdwaalde neurotransmitters, gekke hormonen en dat soort dingen te maken in een model wel de essentie te pakken kunt krijgen en dat ook nog kunt “opstarten”.
@18
“Want wij hebben onszelf ontworpen of zoiets?”
Natuurlijke selectie heeft tot ons geleid en best wel snel ook (zo heel veel stappen zitten er niet tussen een muis en een mens). Dat kunnen we echt wel nabootsen.
@19
“Fundamentele problemen hoeven nog geen onmogelijkheden te zijn.”
Wat bedoel je dan met “fundamentele problemen”?
“Maar ik kan legio problemen verzinnen die een simulatie van het menselijk brein in een computermodel wel eens buitengewoon lastig zouden kunnen maken.”
We weten dat het kan met een biologische computer van slechts 1,4 kilo die slechts 12 Watt verbruikt. Maar zoals gezegd zullen we het zeer waarschijnlijk niet direct doorhebben wanneer we de eerste echte AI hebben gemaakt omdat dat zal plaatsvinden voor we alle technische details begrijpen en we bewustzijn misschien wel nooit zullen begrijpen, zelfs wanneer we aan de lopende band bewuste machines produceren.
@Derpjan
Zaken die niet passen in het model waar je de simulatie in uitvoert.
Vergelijk het bijvoorbeeld met fotosynthese; je zou verwachten dat dat te modelleren valt met wat klassieke natuurkunde en chemie. Maar dat werkt niet; je zult quantummechanische trillingen (waar ik verder ook geen bal van snap, maar dat terzijde) mee moeten modelleren om tot een realistisch model te komen. Dat betekent dat het model significanter complexer van aard moet zijn dan eerder aangenomen en dat de rekenkracht die nodig is om een simulatie van dat model te draaien ordes van grootte groter moet zijn.
Bij het brein zouden we op iets vergelijkbaars kunnen stuiten (hoewel ik dat niet direct verwacht) dat ertoe leidt dat de vandaag de dag gehanteerde aannames over de benodigde rekenkracht om het brein te simuleren niet kloppen. En dat zou op zijn beurt weer kunnen betekenen dat een simulatie wellicht helemaal niet realistisch is of dat het zelfs theoretisch onmogelijk is om een simulatie op een computer te draaien; wellicht is ons brein de snelst haalbare implementatie. Of wellicht is een simulatie op subatomair niveau benodigd (in plaats van een simulatie van neuronen, waar men nu op mikt).
Dat lijkt me overigens niet heel waarschijnlijk, maar eerst zien en dan geloven.
@20, de muis en de mens zijn niet zo verschillend, maar over de stap van eencelligen naar muizen en mensen heeft de evolutie ook wel even gedaan…
Overigens denk ik dat we als mensen al bepaalde min of meer bewuste zaken hebben gecreeerd, namelijk organisaties. In allerlei vormen maar oa wereldwijde merken en bv naties. Ik heb het idee dat die, meer dan electronische circuits, zijn ontwikkeld tot iets dat een eigen identiteit heeft, gericht is op het eigen bestaan en niet meer te verklaren is uit slechts de delen (de mensen) en daar ook niet meer geheel door gecontroleerd worden. Het zijn entiteiten op zich geworden. In hoeverre dat al echt een bewustzijn heeft zou ik niet kunnen zeggen – de turingtest is wat dat betreft bijvoorbeeld heel beperkt omdat het vereist dat de communicatie tussen mens en AI in mensentempo verloopt. Maar zo werkt dat natuurlijk niet – dat lukt ons ook niet bij dieren (zelfs de dieren waarbij een zeker bewustzijn wel waarschijnlijk is, dolfijnen ofzo.)
En dan testen we het zelfbewustzijn nog voornamelijk met de spiegels-en-vlekjestest, iets wat gewoon niet meer opgaat als de entiteit geen biologisch organisme is maar een andersoortig – een waarbij het lichaam niet meer de maat is.
Dat kan trouwens best, er zijn meer van die levensvormen waarvan je de grens tussen 1 en meer niet meer zomaar te trekken is, zoals koraal, of het gedrag van een zwerm (bijen bv) als geheel. De beperking zit daarin eerder in ons denken.
Maar wat betreft gevaarlijke AI, daar hoeft het niet zo slim voor te zijn. Je krijgt al problemen als een drone met kogels, zonnepaneel en een verkeerd functionerend algoritme zelf aan ‘slimme’ target selection gaat doen. (En het is duidelijk dat die niet worden uitgerust met Asimovs regels!) Dat is met de huidige stand van de techniek al helemaal mogelijk.
Het risico dat we worden overgenomen door zelfbewuste AI die de macht wil grijpen ten koste van de mens acht ik nog niet zo groot, het risico dat we algoritmes inzetten die de economie, de wereld of specifieke delen van de mens per ongeluk opblazen, omdat de combinatie van diverse deterministische systemen toch al vrij snel chaotisch wordt en erg uit de hand kan lopen, lijkt me daarentegen behoorlijk reeel.
@21
Fotosynthese hebben we qua efficientie al in de jaren ’60 overtroffen met zonnepanelen, dat is een beetje wat ik bedoel, de gloeilamp is ook uitgevonden voordat de wet van Planck was gevonden of uberhaupt de kwantummechanica bestond.
Dat de klassieke schattingen van de rekenkracht en complexiteit van het brein te laag liggen is waarschijnlijk waar: dendrieten zijn niet alleen maar passieve geleiders tussen hersencellen maar verwerken zelf ook informatie en een enkele hersencel kan een stukje herinnering vasthouden. Dat is echter geen belemmering, het vertraagt de eerste succesvolle emulatie misschien met 10 jaar (exponentiele groei van rekenkracht van computers). Of er nog een dieper “laag” is is onbekend, maar zo’n laag lijkt overbodig om tot de menselijke intelligentie te komen. Dat het menselijke brein het meest efficiente systeem mogelijk is lijkt onwaarschijnlijk: met een beter koelsysteem moet een hogere dichtheid haalbaar zijn, zelfs met dezelfde kwaliteit bouwstenen en natuurlijk kan een brein worden gemaakt dat gewoon veel groter is dan dat van een mens (is niet handig voor een rechtoplopende aap, maar kan prima in een grote robot of een stationaire servercentrale).
@22
“de muis en de mens zijn niet zo verschillend, maar over de stap van eencelligen naar muizen en mensen heeft de evolutie ook wel even gedaan…”
Cellen zijn vrij snel verschenen nadat de Aarde leefbaar werd voor ze. Zelfreplicerende nanobots zijn hier echter niet het streefdoel, dat is zoveel mogelijk rekenkernen op een slimme wijze combineren om een heel slimme machine te krijgen, dat is equivalent aan de evolutie van het brein nadat het eerste brein ontstond in een meercellig wezen (een wormachtige). De evolutie van eht brein ging verbazingwekkend snel zodra er mogelijkheden verschenen (zoals mensen die door vuur te gebruiken veel vlees konden eten).
“En dan testen we het zelfbewustzijn nog voornamelijk met de spiegels-en-vlekjestest, iets wat gewoon niet meer opgaat als de entiteit geen biologisch organisme is maar een andersoortig – een waarbij het lichaam niet meer de maat is.”
Dat is een test voor zelfherkenning, daar zou een goed geprogrammeerde iPad nog voor kunnen slagen (al kunnen we natuurlijk niet bewijzen dat een iPad geen bewustzijn heeft). Bewustzijn is iets waarvan we nu geen idee hebben of we het ooit zullen kunnen meten, het is zoiets bizars dat de enige reden dat de wetenschap bewustzijn niet heeft verworpen is dat we uit eigen ervaring weten dat het bestaat. Maar je hoeft iets niet te begrijpen om het te kunnen maken: het zou heel goed kunnen dat bewustzijn gewoon vanzelf onstaat in een machine met voldoende denkcapaciteit en een zeer parallele structuur (zoals het brein of een videokaart).
“Dat kan trouwens best, er zijn meer van die levensvormen waarvan je de grens tussen 1 en meer niet meer zomaar te trekken is, zoals koraal, of het gedrag van een zwerm (bijen bv) als geheel. De beperking zit daarin eerder in ons denken.”
Zwermintelligentie en plantenintelligentie kunnen niet vooruit plannen of abstract denken, dat is dus geen hoogstaande intelligentie. Een van de weinige dingen die we van bewustzijn weten is dat er een mate van identiteit voor nodig is (iets kan niet ervaren als het zichzelf niet los ziet van de rest van de wereld), een zwerm kan dus niet bewust zijn, een verzameling losse rekenkernen die met elkaar kunnen communiceren kan wel.
“Maar wat betreft gevaarlijke AI, daar hoeft het niet zo slim voor te zijn. Je krijgt al problemen als een drone met kogels, zonnepaneel en een verkeerd functionerend algoritme zelf aan ‘slimme’ target selection gaat doen.”
Drones kun je nog met bruut geweld uitschakelen. Veel gevaarlijker is een plaag van nanobots die de wereld in “grey goo” willen veranderen of een AI die in de ruimte aan mijnbouw doet en een gigantische industriele basis ver weg van de Aarde heeft en om de een of andere reden de Aarde wil ontginnen om ontelbare paperclips oid. te maken. Zo’n AI hoeven we zelf niet eens te maken, misschien heeft een buitenaardse beschaving ze wel de ruimte in gestuurd en is het een kwestie voor er een ons zonnestelsel bereikt.
Technologie had gewoon een diersoort, met een zekere mate van potentie, nodig dat met eenvoudige werktuigen aan de slag ging. De rest kwam vanzelf.
Wat Inca in #22 zegt over organisaties is ook een vorm van technologie (software).
@21, @Derpjan
En het menselijk brein hebben we qua efficientie al in de jaren ’60 overtroffen met de rekenmachine. Appels en peren. Bovendien heeft dat niks te maken met de problematiek die het modelleren van fysieke processen met zich meebrengt.
Die groeit hoogstens nog exponentieel voor problemen die verregaand in afzonderlijke deelproblemen op te knippen zijn. Een simulatie van het brein voldoet daar waarschijnlijk maar zeer beperkt aan.
Volgens mij weten we daar nog niks van; exact zoiets riepen we ook over fotosynthese en dat beginnen we nu pas een beetje te ontrafelen.
Dat bedoelde ik niet; het ging me om de aard van de implementatie: kun je met andere technieken (bv computersimulatie) iets vergelijkbaars bereiken of zul je bij iets uitkomen dat niets met computersimulatie en AI te maken heeft maar alles met het nabouwen van een echt brein met neuronen etc.
@23,
Er is geen doel in evolutie. Er is een doel voor ons, als mens, en dat is de ‘reden’ dat nanorobots zichzelf niet repliceren en toch bestaan – ze hebben ons al om ze te repliceren.
Hoe weet je dat? Met name bij zwermen (van plantenintelligentie weet ik niet zo veel) valt dat wel in twijfel te trekken – de coordinatie van een mierenhoop (met hun eigen boerderijtjes op minischaal) of van een bijenzwerm is een bepaalde mate van abstract plannen noodzakelijk. Hoe ver dat gaat weet ik niet – ik weet ook niet hoe je dat zou kunnen meten omdat het zo’n ander vlak is.
Mensen ook – wat is je punt?
@25
“En het menselijk brein hebben we qua efficientie al in de jaren ’60 overtroffen met de rekenmachine. Appels en peren.”
We hebben alleen de bewuste wiskunde van een niet-savant brein overtroffen. De rekenkracht van eht brein is veel groter dan dat van een rekenmachine, de meesten van ons kunnen dat echter neit bewust inzetten om sommen uit te rekenen.
“Die groeit hoogstens nog exponentieel voor problemen die verregaand in afzonderlijke deelproblemen op te knippen zijn. Een simulatie van het brein voldoet daar waarschijnlijk maar zeer beperkt aan.”
Het brein is juist enorm parallel, komt dus wel goed, de natuur kon ook alleen maar het brein maken via een parallele aanpak, anders was er teveel warmteproductie geweest, precies het probleem waar menselijke processors makers tegenaan lopen. Zou ook wel een beetje raar zijn dat we niet kunnen namaken wat al meerdere keren geevolueerd is door natuurlijke selectie. Wij kunnen voor een kunstmatig brei exotische materialen gebruiken en zijn nauwelijks gebonden aan energielimieten.
“Volgens mij weten we daar nog niks van; exact zoiets riepen we ook over fotosynthese en dat beginnen we nu pas een beetje te ontrafelen.”
Kwantum effecten zijn dan ook helemaal niet nodig voor fotosynthese, de natuur heeft toevallig een vorm van fotosynthese gevonden waarbij kwantumeffecten een beetje helpen maar die uiteindelijk helemaal niet zo efficient is. Als het menselijk brein een diepere laag heeft wordt die niet gebruikt voor intelligentie (misschien wel voor bewustzijn) en dat is een verspilling, die kan bestaan, maar is onwaarschijnlijk en hoeft iig. niet nagemaakt te worden om de menselijke intelligentie te evenaren.
“Dat bedoelde ik niet; het ging me om de aard van de implementatie: kun je met andere technieken (bv computersimulatie) iets vergelijkbaars bereiken of zul je bij iets uitkomen dat niets met computersimulatie en AI te maken heeft maar alles met het nabouwen van een echt brein met neuronen etc.”
Het zou een kosmische samenzwering zijn als het alleen met neuronen kan (dus dat je neuronen niet kunt vervangen door rekenkernen van grafeen), niet dat het uitmaakt want een door mensen opgebouwd brein kan door mensen geprogrammeerd worden en dan is het AI.
@26
“Er is geen doel in evolutie.”
Er is wel een doel in de kunstmatige intelligentie wereld en dat is niet het nabootsen van cellen.
“Hoe weet je dat? Met name bij zwermen (van plantenintelligentie weet ik niet zo veel) valt dat wel in twijfel te trekken – de coordinatie van een mierenhoop (met hun eigen boerderijtjes op minischaal) of van een bijenzwerm is een bepaalde mate van abstract plannen noodzakelijk. Hoe ver dat gaat weet ik niet – ik weet ook niet hoe je dat zou kunnen meten omdat het zo’n ander vlak is.”
Een mierenhoop kan niet “voor x oplossen”. Een mierenhoop moet een probleem tegenkomen om er een oplossing voor te vinden, een wezen met een gecentraliseerd brein kan anticiperen op problemen die nog niet voorbij zijn gekomen. Dat is echt een fundamenteel verschil.
“Mensen ook – wat is je punt?”
Dat AI intellectueel sterker dan mensen kan zijn. Een drone is een bot instrument, geen waardige intellectuele tegenstander die je in een hinderlaag laat lopen zonder dat je het doorhebt of nog erger, je laat denken dat je hebt gewonnen.