Ben ik weigerachtig? Ik stel alleen dat - vanwege het feit dat machines door mensen worden gebouwd - het waarschijnlijk is dat zij vooralsnog zeer beperkte vrijheden zullen hebben. Ik heb niet zoveel zin om de speculeren over machines die misschien nooit zullen bestaan, maar praat liever over machines die gedurende mijn leven kunnen worden verwacht. Waarom ben jij zo weigerachtig om over deze machines te praten en wil je alleen praten over minder waarschijnlijke machines?axxyanus schreef: En waarom ben jij zo weigerachtig om te praten over (de mogelijkheid van) apparaten die vrij zijn? Als het onderwerp vrijheid is, hoort de vraag hoe we die vrijheid kunnen herkennen wanneer ze zich in apparaten begint te manifesteren, niet tot het te bespreken onderwerp? Maar iedere keer als we die richting uitgaan dan lijkt het dat je dat probeert te blokkeren. Alsof apparaten met een menselijke verantwoordelijkheid een taboe voor je is.
Als ik al over "jouw" machines wil speculeren mag ik van jou niet zeuren over de problemen die er mee samen hangen, maar wil je mij verplichten te doen alsof die problemen allemaal al opgelost zijn. Welk nut heeft zo'n exercitie?
Ondertussen zitten we nog in een discussie waarin de door jouw voor machines beoogde vrijheid en verantwoordelijkheid, nog wordt betwijfeld waar het de mens aangaat. Misschien heb ik niet de vrijheid om me ze voor te stellen, en heb jij niet de vrijheid om ze je niet voor te stellen. Sam Harris oppert in elk geval iets in die richting.
Als ik speculeer over machines die even divers kunnen denken en handelen als een mens, speculeer ik graag over de wijze waarop zo'n "robot" (een beter woord is er niet), tot stand zou kunnen komen. Ik verwacht dat zo'n robot - in eerste instantie - door mensen gebouwd gaat worden. Ik verwacht dat deze robot van zijn fouten zal moeten leren. En dus wordt het in eerste instantie een robot die fouten maakt. Mensen die robots bouwen die fouten maken, zullen door hun medemensen verantwoordelijk worden gesteld voor die fouten. Dus zullen die mensen de mogelijke ernst van die fouten willen beperken. Ergo ik verwacht dat de ontwerpers van zo'n robot zullen worstelen met het probleem om de machine zo veel mogelijk kans te geven van zijn fouten te zonder dat de ontwerpers op grond van de fouten die daadwerkelijk worden gemaakt, in de gevangenis belanden of dat (zoals - tot grote ergernis van Isaac Asimov - in vroege SF verhalen steevast gebeurde) die fouten zelfs direct de dood van de ontwerpers tot gevolg zouden hebben,
Mijn vermoeden is, dat Asimov gelijk had en dat de ontwerpers noodzakelijkerwijs de vrijheid van hun schepping altijd beperkt zullen houden. Derhalve zullen - ondanks dat mensen moorden plegen - Robots dat waarschijnlijk nooit - zelfstandig - doen. Het probleem is niet dat dit niet zou kunnen, het probleem is dat de ontwerper van de Robot verantwoordelijk voor zo'n moord zou zijn. Daar gaat Sam Harris hem niet van vrijpleiten! Er zijn nu al machines (drone's) die op afstand worden bestuurt om mensen mee te doden. Maar ik denk niet dat iemand de keuze omtrent waar en wanneer en hoe ze worden gebruikt, aan het apparaat zelf gaat overlaten. Uiteraard kan ik mij vergissen. Mensen zijn vaak dommer - of meer levensmoe - dan je denkt.