axxyanus schreef:
Wat mij betreft zijn sterfbedbeloftes enkel goed om de stervende wat gemoedrust te gunnen tijdens zijn laatste momenten.
maar ik vind dat men die belofte niet zomaar mag verbreken nadat de ander gestorven is
Je staart je blind op een implementatie detail. Niet alle dieren hebben een beloningcentrum en een amygdala. Beweer je nu dat die laatste dieren geen wil hebben en niet kunnen voelen? Mogen we die dieren dan wel doden?
als die dieren geen centra hebben voor gevoelens en een wil, ja, dan zijn het niet voelende wezens, zoals de huidige robotten en planten.
Dus ik had het natuurlijk over de dieren die wel centra hebben zoals een beloningssysteem en een angstsysteem.
Op welke basis beslis jij bv dat een mier iets wil en kan voelen maar zo'n robot niet?
bij de mier is dat dus onzeker, want we hebben nog niet zulke speciale hersencentra gevonden en we weten nog niet hoe bewustzijn ontstaat in hersenen. Wetenschap is voorlopig erg sceptisch tegenover het bestaan van gevoelens bij insecten (hoewel sociale insecten al wat meer verdeeldheid veroorzaken).
EarthHeart schreef:
ik vind dat wel van belang. Moest ik kiezen tussen nu sterven of enkel onmiddellijke noden hebben die vervuld worden ...
Uw persoonlijk keuze als mens is hier van geen enkel belang.
het is ook mijn persoonlijk keuze als persoon (niet als mens) achter de sluier der onwetendheid. Menszijn heeft hier niets mee te maken.
Gedrag dat ook redelijk gemakkelijk in robots te programmeren valt. Dus nu kan je kiezen. Ofwel is dat gedrag op zich voldoende en dan mogen we robots met dergelijk gedrag niet meer afbreken ofwel is dat gedrag onvoldoende en dan doet het weinig terzake in je argumentatie.
het gedrag is niet voldoende, in de zin dat er meer bewijs is, namelijk hersenfysiologie en gemeenschappelijke evolutionaire oorsprong. Er is wetenschappelijke consensus dat achter het gedrag van kippen een bewustzijn zit en achter het geprogrammeerde gedrag van robotten niet.
Jij moet wel oppassen dat je niet solipsistisch wordt. Je kunt elk stukje gedrag op den duur programmeren en nabootsen. Zo kun je elk bewustzijn wegverklaren (behalve dat van jezelf).
De dementerende wil geen euthanasie. De niet-dementerende wil euthanasie voorzien voor het geval hij later zal dementeren.
dan zijn de huidige dementerende en zijn vroegere niet-dementerende tegenhanger in zekere zin twee verschillende personen (ze hebben verschillende persoonlijkheid en wil), en dan telt de stem van de huidige dementerende misschien toch iets sterker dan die van de vroegere niet-dementerende. Dus als die huidige dementerende toch aangeeft geen euthanasie te willen, moeten we eerder daarnaar luisteren dan naar zijn vroegere tegenhanger.
Dat zeg ik ook niet. Ik heb toch niet beweert dat het op korte termijn geen verschil uitmaakt of het dier in kwestie geniet of lijd. Wat ik zeg is dat het voor een dier geen verschil uitmaakt of die periode van genieten of lijden een korte periode is of een lange omdat het dier geen besef heeft van het verschil tussen die twee.
maar zelfs zonder een besef van een verschil is er toch een verschil? Maar het wordt me nu onduidelijk wat jij bedoelt met geen verschil hebben/zien/beseffen tussen korte en lange pijn. Ik ben niet op de hoogte van preferentie-experimenten die nagaan in hoeverre een dier kiest voor een kortere pijn dan voor een langere. Maar zelfs als het dier in beide gevallen een gelijke keuze maakt (dus schijnbaar onverschillig is tussen de twee opties), dan nog zou ik achter de sluier ervoor kiezen dat het dier de korte pijn ervaart, omdat dat dan minder momentane pijnervaringen gaan zijn.
EarthHeart schreef:
serieus? Als ik moest kiezen tussen een korte en een lange nachtmerrie, kies ik de korte. En het omgekeerde als het een leuke droom is.
Nee dat doe je niet om de heel eenvoudige reden dat je dat niet kan.
hoezo ik kan dat niet? Ik heb het toch net gedaan?
Stel je voor dat ik je twee avonden na elkaar een drankje laat kiezen, eerste een geel en dan een rood. De twee drankjes geven je een leuke droom maar een drankje geeft je een droomervaring van 10 minuten en het andere drankje van 20 minuten.
Wel ik durf wedden dat als je de derde avond zou moeten kiezen tussen het gele drankje of het rode dat je niet zal kunnen kiezen om de heel eenvoudige reden dat je tijdens je dromen onvoldoende tijdbesef zou hebben om de twee van elkaar te kunnen onderscheiden.
maar ik kan nu toch kiezen voor het drankje van 20 minuten? Zelfs als ik geen totale ervaring heb van een hele periode, kies ik nog wel datgene met het meeste momentane welzijn.
Maar je hebt zeker wel gelijk dat ik niet dubbel zo graag het drankje van 20 minuten wil. Dat is zoiets als afnemende meeropbrengst, met een concave curve (x-as is tijdsduur, y-as is toegekende waarde van levenswelzijn). Waar wij in verschillen, is dat die afnemende meeropbrengst bij jou veel sneller in werking treedt als jij je achter de sluier voorstelt een dier te zijn. Dus jouw curve wordt veel sneller vlak, terwijl die van mij nog iets langer blijft stijgen. Mijn voorstel is om dan een soort van gemiddelde te nemen van onze twee curves.
EarthHeart schreef:Jij blijft vast zitten in de primitieve noden
niet te antropomorfisch/centrisch taalgebruik hé

Wie zegt dat het voor de hond primitief is?
Ik had het over de noden, niet de hond.
ja, maar wat voor jou primitieve noden lijken, kan voor een hond wel bijzonder zijn.
Waarom zou artificieel bewustzijn nodig zijn voor gevoelens? Hoe groot moet dat artificieel bewustzijn zijn, hoe test je dat?
gevoelens zijn bewuste ervaringen, dus als een robot gevoelens zou hebben, is een artificieel bewustzijn nodig. Het moet voldoende groot zijn om gevoelens te hebben. Wetenschappelijk tests zijn voorlopig nog erg ruw, omdat we nog niet weten hoe bewustzijn ontstaat uit fysische processen.
Maar het gaat niet om bewustzijn. Gewoon impulsief reageren op wat je op het moment ervaart is ook al een vorm van bewustzijn.
ja, als je dat bewust ervaart wel...
De vraag is of dat bewustzijn cognitief capabel is om het verschil te onderscheiden tussen korte en lange termijn en er belang aan te hechten.
het bewustzijn zelf ervaart misschien geen tijdsduur, maar achter de sluier kunnen wij nog wel waarde toekennen aan levenswelzijn, en een zekere voorkeur geven voor een langer leven met positieve gevoelens dan voor een korter leven. Het wezen zelf ervaart misschien geen verschil tussen een lange en korte periode, net zoals iemand die net gestorven is ook niet het verschil ervaart van een gerespecteerde en een gebroken sterfbedbelofte. Maar achter de sluier kan ik wel zeggen dat ik verkies dat de belofte gerespecteerd wordt en dat ik verkies als dier langer positieve ervaringen te hebben. Als jij geen preferentie hebt tussen respecteren versus verbreken van de belofte (als beiden evenwaardig zijn voor jou achter de sluier der onwetendheid), dan stel ik voor dat we een soort van democratisch gemiddelde nemen van onze preferenties achter de sluier, wat wil zeggen dat een sterfbedbelofte ietsje strikter moet gerespecteerd worden dan wat jij wil, maar ietsje minder strikt dan wat ik wil. Idem voor preferentie tussen korte en lange periode van welzijn, zoals hierboven uitgelegd met die concave curves. Dus levensduur speelt ietsje sterker mee dan wat jij achter de sluier wil, maar ietsje minder sterk dan wat ik achter de sluier wil.
Waar zou jij de grens leggen? Op basis van welk gedrag, fysiologie en anatomie?
ik zie geen scherpe grenzen, en ik wil me wel wat laten beïnvloeden door wat wetenschap zegt over mate van bewustzijn en tijdsbesef enzo. En met die kennis maken jij en ik achter de sluier een inschatting voor het levenswelzijn van een wezen (bv. hoe die toegekende waarde van levenswelzijn varieert met levensduur), en dan nemen we een democratisch gemiddelde van onze inschattingen/preferenties.
In mijn doctoraatsthesis kan ik het allemaal gemakkelijker uitleggen, dankzij wat wiskundige formuletjes.