Wat meer quotes uit dat artikel:
Aan het eind; zij zien geen fundamentele beperkingen machines met een mensachtige intelligentie. Ikke wel. Menselijke intelligentie behelst meer dan het hebben van een algoritmisch brein.
Embodied en embedded, zoals dat zo mooi word genoemd. En hier goed verwoord is:
viewtopic.php?f=50&t=17515&p=557098&hil ... ed#p557098
Uit de NRC:
.... Tenenbaum zei afgelopen juli op een congres over kunstmatige intelligentie: „Het jongetje is anderhalf jaar oud en heeft deze situatie nog nooit eerder gezien. Hij begrijpt de bedoeling van de man en hij begrijpt de functie van de kast. Denk je eens in wat het jongetje allemaal moet weten om te doen wat hij doet. Geen enkele computer of robot kan wat dit jongetje kan.” INLEVINGSVERMOGEN
Recent zijn er diverse doorbraken geweest: zo slaagde het computerprogramma AlphaZero er in januari voor het eerst in om zowel schaken, go als shogi (Japans schaken) op bovenmenselijk niveau te leren spelen, zonder enige andere voorkennis dan de basale spelregels. Maar menselijke intelligentie is meer dan patroonherkenning.
Waarom is het voor computers nog moeilijk om het niveau van een peuter te halen?
Tenenbaum: „Intelligentie gaat ook over het modelleren van de wereld. Daar hoort bij: verklaren en begrijpen wat we zien, verbeelden wat we zouden kunnen zien maar nog niet hebben gezien, problemen oplossen, acties plannen en nieuwe modellen ontwikkelen terwijl we meer over de wereld leren.
Reflexmachines
Om nog beter te begrijpen waarom het voor kunstmatige intelligentie nog steeds zo moeilijk is om te doen wat het anderhalf jaar oude jongetje doet, ga ik met de video op mijn laptop langs in Nijmegen, bij twee Nederlandse experts: cognitiewetenschapper Iris van Rooij en hoogleraar kunstmatige intelligentie Marcel van Gerven.
Van Gerven hield in september zijn oratie onder de titel ‘Menselijke machines’. Nadat hij het filmpje heeft gezien, zegt hij: „Het jongetje demonstreert empathie. Het kan zich verplaatsen in de man. Het kind heeft als het ware een intern model van andere mensen, van zichzelf en ook van de fysieke wereld om hem heen.”
Die interne modellen ontbreken in intelligente computers en robots. „In de kunstmatige intelligentie hebben we momenteel hele geavanceerde reflexmachines, die snel een voorwerp op een foto kunnen herkennen of snel een stuk tekst vertalen, maar zonder dat ze echt weten waar de tekst over gaat of echt weten wat er op de foto is te zien. Ze missen intentionaliteit.”
Van Rooij valt hetzelfde op, maar ze verwoordt het anders: „Het kind leidt uit het niet lukken van een handeling van de man af wat zijn bedoeling is. Dat doel zelf is echter een onobserveerbare mentale toestand. Dat maakt het zo fascinerend. De man kan een heleboel verschillende doelen hebben. Misschien wil hij de stapel op de kast leggen. Het jongetje zou de stapel ook zelf in de kast kunnen leggen, maar dat doet hij niet. Hij haalt alleen een obstakel voor de man weg.”
Van Rooij noemt het afleiden van het juiste doel uit wat het kind ziet „een probleem van computationele complexiteit”. „Daarmee bedoel ik dat als je dit probleem uiteen gaat rafelen in instructies voor een machine, je een rekenkundig probleem krijgt met zoveel mogelijkheden dat het zelfs met alle computers in de wereld nog niet exact is op te lossen. Veel van onze cognitieve vaardigheden, zoals waarnemen, plannen, taal leren, beslissen, categoriseren en analogieën leggen, lijken in de context van de echte wereld diezelfde rekenkundige complexiteit te hebben. Ons brein kan het, hoewel we nog niet precies weten hoe, maar onze machines lopen vaak aan tegen die rekenkundige complexiteit.”
„Dat is een grootse prestatie van de computer”, reageert van Rooij, „maar er zijn grote verschillen tussen de wereld van het go-spel en de echte wereld. In go zijn de regels precies bekend, is het doel van spel precies bekend, zien beide spelers alle informatie en is er geen enkele onvoorspelbaarheid. De echte wereld is onvoorspelbaar en vaak is helemaal niet duidelijk welk probleem iemand moet oplossen. Ook is het aantal mogelijke situaties in principe oneindig, ook al maakt ieder mens er in zijn leven maar een eindig aantal mee.”
Dan is er nog een tweede probleem, zegt Van Rooij, dat het jongetje wel weet op te lossen, maar computers en robots nog niet. Dit is het zogeheten frame-probleem, dat diverse filosofen van kunstmatige intelligentie, onder wie Jerry Fodor en Daniel Dennett, al decennia geleden hebben beschreven. De kern ervan is de vraag hoe je bepaalt welke informatie in een gegeven situatie relevant is en welke informatie niet relevant is. Dat is een nog onopgelost fundamenteel probleem. Voor het jongetje is de kleur van de kast niet relevant, maar wel het feit dat de kast twee dichte deuren heeft die je kunt openen.
De intelligentie van huidige lerende machines is gebaseerd op neurale netwerken die zeer losjes geïnspireerd zijn op het menselijk brein. Zo’n neuraal netwerk bestaat uit kunstmatige neuronen die verdeeld worden in lagen. De neuronen worden met elkaar verbonden en de sterkte van die verbindingen verandert tijdens het leerproces. Alhoewel neurale netwerken zeer goed zijn in het oplossen van specifieke taken zijn ze nog ver verwijderd van de flexibele en adaptieve manier waarop ons eigen brein willekeurige problemen kan oplossen. Dat is het verschil tussen kunstmatige intelligentie in enge zin (narrow AI) en mensachtige kunstmatige intelligentie, die veel algemener is (general AI).
Huidige lerende computers kunnen weliswaar correlaties in data ontdekken, maar niet automatisch de causale verbanden. Uit het aantal verdrinkingen per seizoen en de ijsjesverkoop per seizoen zou een computer concluderen dat er een sterk verband is tussen het aantal verdrinkingen en het aantal verkochte ijsjes. Dat die twee geen oorzakelijk verband met elkaar hebben, maar veroorzaakt worden door de hoogte van de buitentemperatuur, weet de computer niet.
Megawatts aan energie
Ook op hardware-niveau bestaan er nog grote verschillen tussen mens en machine. Het menselijk brein verbruikt slechts twintig watt aan energie. Supercomputers als Watson (die in 2011 de tv-quiz Jeopardy won tegen de beste menselijke spelers aller tijden) en ook AlphaGo (die in 2016 de Roger Federer van het go-spel, Lee Sedol, versloeg) verbruiken megawatts aan energie.
Iris van Rooij denkt dat als de wetenschap van de kunstmatige intelligentie echt mensachtige intelligentie in een machine wil bouwen, ze er niet aan ontkomt om ook te kijken naar resultaten uit de psychologie, de cognitiewetenschappen, de neurowetenschappen, de filosofie en de theoretische informatica. „Anders kijk je in het donker. Dan is het alsof je een vliegtuig gaat bouwen zonder kennis van de aerodynamica.”
Evenmin als Josh Tenenbaum en Marcel van Gerven ziet ze echter een fundamentele beperking aan het bouwen van machines met een mensachtige intelligentie.
„Ja, ook met empathie en bewustzijn,” besluit Van Gerven. „Het enige andere alternatief is dat je een magisch ingrediënt veronderstelt, en ik zou niet weten welk.”