Zie mijn laatste antwoord hiervoor aan Petra, want je maakt eenzelfde opmerking als zij.LonelyThinker schreef: ↑09 nov 2017 16:00 Hoeft een computer wel een "keuze" te maken, als alles verloopt volgens een machinaal proces?
Roeland
Moderator: Moderators
Zie mijn laatste antwoord hiervoor aan Petra, want je maakt eenzelfde opmerking als zij.LonelyThinker schreef: ↑09 nov 2017 16:00 Hoeft een computer wel een "keuze" te maken, als alles verloopt volgens een machinaal proces?
Dat is geen keuze, maar toeval.TIBERIUS CLAUDIUS schreef: ↑09 nov 2017 16:14Dat kan best, als er een random generator tussen zit.LonelyThinker schreef: ↑09 nov 2017 16:00 Hoeft een computer wel een "keuze" te maken, als alles verloopt volgens een machinaal proces?
Elk statement dat een conditie test en afhankelijk daarvan een andere vervolg kiest, is een keuze. Als de conditie uit dezelfde componenten is opgebouwd als bij de mens, zal dat dezelfde keuze zijn. Maar dat hangt af van het programma en van de waarde van de gegevens die in de conditie worden getest. Het is niet principiëel anders. Er zijn echter nog geen computers met - bijvoorbeeld = morel afwegingen. Die komen wellicht wel binnenkort bij zelfrijdende auto's. NIet - naar ik vrees - bij drones, want dat willen de grebruikers ervan niet!LonelyThinker schreef: ↑09 nov 2017 16:00 Hoeft een computer wel een "keuze" te maken, als alles verloopt volgens een machinaal proces?
Zou de Chinese kamer kunnen dóórdenken over het eigen functioneren?heeck schreef: ↑09 nov 2017 10:21Een geprogrammeerde keus is geen keus maar een voorschrift.Petra schreef:Een geprogrammeerde keus is wat anders dan een menselijke keus.
Aangetoond door het gedachte experiment van de Chinese kamer.
Een computerprogramma, waar het over ging, is heel wat anders!!
De gelijkenis van de Chinese Kamer kan je dóórdenken en illustreert dan juist dat het funtioneren van hersenen (neuronen die signalen doorgeven) ook niets "begrijpt" als een mens denkt dat hij denkt. (Inderdaad deze zin zeker 2x langzaam lezen)
Roeland
Wel, je zou het de Chinese kamer kunnen vragen. Uiteraard zou een kamer met daarin iemand die geen chinees sprak, die al het werk doet op veel vragen geen antwoord weten. Zoals "wat voor weer is het vandaag?" of "wat zei je daarnet". Daarvoor heb je meer nodig dan een vaste zet instructies. De man in de kamer (John Searle), zou naar buiten moeten om te zien wat het weer was, en op grond daarvan antwoord geven, en hij zou zijn recente antwoorden moeten bewaren. Op grond van het feit dat deze zaken gebruikt werden zou hij al spoedig wat chinees leren, en je daarna kunnen vertellen, dat hij wel vrije wil had, maar die niet mocht gebruiken! (Searle gelooft in vrije wil, maar ontkent dat een digitale computer die kan hebben).Petra schreef: ↑10 nov 2017 04:48 Zou de Chinese kamer kunnen dóórdenken over het eigen functioneren?
Zou de Chinese kamer kunnen bedenken dat een zin 2x gelezen moet worden?
Zou de Chinese kamer sneller of langzamer kunnen lezen?
M.a.w. kan de Chinese kamer zich d.m.v. bewustzijn aanpassen naar de situatie...
Deep Learning computers kunnen zich misschien aanpassen maar zijn zij zich bewust van dat hele proces? Denken zij na over het hoe en waarom of volgen ze wederom het ingebouwde en slechts wat meer geavanceerde stappenplan.
Zou de Chinese kamer zich het hoofd breken over zijn/haar vrije wil of lot?
Misschien zit daar het verschil wel in. Dat wij ons nogal druk maken over het HOE en WAAROM.
Of dat er toe doet; die vraag heeft een naam "Zombie-probleem".LonelyThinker schreef: ↑09 nov 2017 22:17 Stukje zelfkritiek: Als ik denk dat een computer geen bewustzijn kan hebben vanwege zijn architectuur, waarom kan een brein dan wel bewustzijn hebben met zijn architectuur?
Wat is het architecturele verschil tussen een brein en een computer, en doet dat ertoe?
Het is een keuze om het aan het toeval over te laten.heeck schreef: ↑09 nov 2017 20:35Dat is geen keuze, maar toeval.TIBERIUS CLAUDIUS schreef: ↑09 nov 2017 16:14Dat kan best, als er een random generator tussen zit.LonelyThinker schreef: ↑09 nov 2017 16:00 Hoeft een computer wel een "keuze" te maken, als alles verloopt volgens een machinaal proces?
Een keuze vooronderstelt afwegingen en dat is geen probleem voor een computer.
Dat en de computer en ook vele dieren afgewogen keuzes laten zien is alleen een probleem voor hen die diep verscholen hopen op meer tussen hemel en aarde . . . .
Roeland
Als dat het zombie-"probleem" is, is dat het "probleem" van de computer, niet van de mens.
Ik zie bewustzijn in de ogen van dieren, dus daar twijfel ik niet aan.
Dat vindt ik een plausibel standpunt. Het is wellicht ook geen emergent verschijnsel van de brein-architectuurmogelijkheid. Maar of het een emergent verschijnsel is, of dat het specifieke oorzaken heeft is niet bekend. We weten slechts dat het ons in staat stelt om waar te nemen, op grond van die waarnemingen acties te plannen, en om met elkaar te communiceren. Verder menen wij te kunnen mijmeren, maar dat weten we alleen van elkaar omdat we er onderling over kunnen praten. Of andere dieren ook kunnen mijmeren, weten we derhalve niet. Mogelijkerwijs zouden we daar daar MRI-scannen achter kunnen komen. Maar dat is ook nog maar de vraag.LonelyThinker schreef: ↑10 nov 2017 16:22 Als je er daarentegen van dualisme uitgaat, dan kan je zeggen dat het brein een ziel heeft. Maar heeft een computer dan ook een ziel? Wat ik wil beweren is dat bewustzijn geen emergent verschijnsel is in de von Neumann structuur.
Heb net een filmpje geplaatst over de intuïtieve creatieve autonome AI... geeft toch te denken.LonelyThinker schreef: ↑09 nov 2017 16:00 Hoeft een computer wel een "keuze" te maken, als alles verloopt volgens een machinaal proces?
De filosofische Zombie is een mens probleem.LonelyThinker schreef: ↑10 nov 2017 11:28Als dat het zombie-"probleem" is, is dat het "probleem" van de computer, niet van de mens.
Tenzij je gaat twijfelen aan je eigen bewustzijn natuurlijk.
ad 1)Petra schreef: ↑10 nov 2017 04:48 knip . . knip, , ,
1)
Zou de Chinese kamer kunnen dóórdenken over het eigen functioneren?
Zou de Chinese kamer kunnen bedenken dat een zin 2x gelezen moet worden?
Zou de Chinese kamer sneller of langzamer kunnen lezen?
M.a.w. kan de Chinese kamer zich d.m.v. bewustzijn aanpassen naar de situatie...
2)
Deep Learning computers kunnen zich misschien aanpassen maar zijn zij zich bewust van dat hele proces? Denken zij na over het hoe en waarom of volgen ze wederom het ingebouwde en slechts wat meer geavanceerde stappenplan.
3)
Zou de Chinese kamer zich het hoofd breken over zijn/haar vrije wil of lot?
4)
Misschien zit daar het verschil wel in. Dat wij ons nogal druk maken over het HOE en WAAROM.
LonelyThinker,LonelyThinker schreef: ↑10 nov 2017 11:28Als dat het zombie-"probleem" is, is dat het "probleem" van de computer, niet van de mens.
Tenzij je gaat twijfelen aan je eigen bewustzijn natuurlijk.
Ik zie bewustzijn in de ogen van dieren, dus daar twijfel ik niet aan.
Dat is ook een goeie: als ik bewustzijn zie in de ogen van een robot, zou ik dan kunnen geloven dat hij gevoel heeft?
Wie zegt dat subjectief onderzoek niet deugt?![]()