vegan-revolution schreef:
Er staat volgens mij niet in dat er geen kans is op doemscenario's, maar dat het risico op een doemscenario groter geacht wordt wanneer bepaalde zaken aan mensen worden overgelaten dan wanneer diezelfde zaken aan nog te ontwikkelen superintelligente machines worden overgelaten.
Dat betwijfel ik sterk.
Wel denk ik dat er andere doemscenario's zijn, en dat het gevaarlijk is om rationaliteit en intelligentie te verwarren met rechtvaardigheid.
Het lijkt me in de kern tegenstrijdig om zowel iets te willen maken dat intelligenter is dan wijzelf, maar daar tegelijkertijd wel de controle over te willen behouden.
Dat lukt ons bij soortgenoten al niet eens: Wij kunnen geen beveiligingen ontwikkelen waar geen ander mens doorheen kan. Omgekeerd zou het wel zo kunnen zijn dat een intelligentere machine ons helemaal zou kunnen buitensluiten, en een eigen agenda kan opbouwen die niet noodzakelijkerwijs strookt met de onze.
Kan de machine dat niet, dan is het maar de vraag of deze intelligenter is dan wijzelf.
Jagang schreef:Het is waar dat mensen niet altijd de meest rationele beslissingen nemen, maar rationele beslissingen zijn ongeveer even goed voor ons als de uitgangspunten waarop deze rationele beslissingen zijn gebaseerd.
In theorie zou uitroeien van al het leven om lijden te doen verdwijnen misschien wel het meest rationele uitgangspunt kunnen zijn, maar volgt daaruit dat we dat ook zouden willen?
Ja, die uitgangspunten zijn inderdaad belangrijk, maar dat geldt ook voor een systeem met mensen aan het roer.
Maar dat is een vorm van jijbakken.
Jij wil graag laten zien dat de besluitvorming van machines een voordeel zou kunnen zijn toch?
Of ben je tevreden met het uitblijven van nadelen ten opzichte van de huidige situatie?
Tsja, wat is niet snel? Over een jaar of 10 zitten we al vrij dicht tegen de gemiddelde menselijke intelligentie aan, vermoed ik.
Ik kan me ook nog de tijd herinneren dat men dacht dat dit rond het jaar 2000 het geval zou zijn, om maar wat tegenwicht te geven aan die vermaledijde sceptische filosofen.
Het zou best kunnen, maar zonder dat daar een goede reden voor is, ga ik daar niet zonder meer in mee.
De tijd zal het uitwijzen.
Wat niet wil zeggen dat het niet nuttig is om over de eventuele implicaties na te denken.
Veel mensen schijnen te denken dat wanneer machines maar slim genoeg worden, het allemaal wel goed komt.
Ik denk dat men daar nog wat zorgvuldiger over na dient te denken, en dat de esthetiek van sciencefiction scenario's ondergeschikt is aan eventuele morele gevolgen.
Het is nu al in veel gevallen zo dat de software een onderdeel van de hardware is en er ook zogenaamde "neurale chips" zijn, dus dit lijkt mij niet een uiteindelijk probleem in dit verband.
Voor zover ik kan nagaan, zijn soft en hardware nog altijd twee verschillende zaken.
Het menselijk brein is niet analoog aan een computer.
Erg belangrijk voor het verschil, en het tootn aan hoezeer ons beeld van het brein onderhevig is aan de tijdgeest:
https://aeon.co/essays/your-brain-does- ... a-computer" onclick="window.open(this.href);return false;
Ik denk dat het goed is dat je neurale chips tussen aanhalingstekens hebt staan, want we weten eigenlijk nog niet eens hoe een neuron nou precies werkt.
Jagang schreef:De software wordt gelimiteerd door de (connectiviteit) van de hardware, waar in een biologisch brein elk neuron in principe contact kan leggen met elk ander neuron. Een verbinding die bovendien versterkt wordt naarmate de verbinding in kwestie vaker wordt te gebruikt. (Wat leren eigenlijk is.)
Maar dit principe wordt nu ook al in machines toegepast. Sterker nog : de machine AlphaGo die topspeler Lee Sedol met het bordspel Go versloeg was daar op gebaseerd.
Dan zal de machine vast goed zijn in meer dan enkel een bordspel?
Je zegt het : min of meer conventionele computers. De huidige beste chip van Intel is nu gebaseerd op transistoren van 14 nm (nanometer). Volgend jaar komt daar waarschijnlijk een chip bij die gebaseerd is op transistoren van 10 nm. Maar zie :
Onderzoekers ontwikkelen transistor van 1 nanometer.
Of we met een min of meer conventionele computer te maken hebben wordt niet bepaald door de hoeveelheid halfgeleiders op een chip, maar door hun organisatie.
Die is al sinds de opkomst van de PC in de jaren '80 ongeveer hetzelfde.
Dus dan kunnen we voorlopig nog wel even vooruit, zeker als de hardware nog meer in de hoogte gebouwd gaat worden, daar waar die nu nog vooral op een architectuur in de lengte en in de breedte gebaseerd is, zie
This new 'skyscraper' chip could make computers run 1,000 times faster. Het kleinste atoom, het waterstofatoom, past ongeveer 8 keer in 1 nanometer. Dat betekent dat we transistoren (of eventueel andersoortige kleine verwerkingseenheden) op atomaire schaal aan het naderen zijn. Welke kant het met quantumcomputers uitgaat is voor mij nog vrij onduidelijk, maar daar kan misschien ook nog een aardige "verwerkingswinst" uit gehaald worden. Met min-of-meer-conventioneel (niet quantum) kunnen computerchips waarschijnlijk nog wel honderdduizend keer sneller worden dan nu. En dat is veel, gezien de prestaties die computers nu al kunnen leveren. Tegelijkertijd wordt er gesleuteld aan de architectuur van chips, waarvan de "neurale chips" slechts een voorbeeld zijn.
Het lijkt me een ad novitatem om er zomaar van uit te gaan dat alles wat nu in het laboratorium gaande is, ook werkelijk toegepast zal gaan (kunnen) worden.
De wet van Moore zou er tijdelijk mee kunnen terugkeren, maar op dit moment is deze van tafel.
Quantumcomputers: Het zal reuze interessant zijn, maar bij mijn weten is deze machine tot nu toe slechts een theoretische oefening.
Ik begrijp je enthousiasme ten aanzien van technologische ontwikkelingen, maar ik denk dat het goed zou zijn om geen enorm voorschot op de toekomst te nemen, en om ook op te passen voor en al te groot enthousiasme jegens mogelijke politieke computers.
Maar de tijd van de eerste superieur schakende computer ligt al wel 20 jaar achter ons en ondertussen hebben wetenschappers niet stilgezeten. Er is inmiddels al een behoorlijke vooruitgang geboekt in wat machines kunnen waarnemen, "begrijpen" en leren.
Een goede testcase is hoe goed machines kunnen vertalen van de ene taal naar de andere, zoals jij al eerder had aangegeven. Voorlopig bakken machines daar nog niet veel van. Mijn verwachting is echter dat machines dat binnen 5 jaar vanaf nu beter zullen kunnen dan mensen. Die verwachting heeft vooral te maken met de snelle vooruitgang in het ontwikkelen van zelflerende systemen.
Ik denk dat het begrijpen van een context niet komt zonder een zelfbewustzijn.
Als machines wel zogenaamd intelligent zijn maar geen zelfbewustzijn kennen, dan zal interpretatie een probleem blijven.
Het begrijpen van de context in een tekst is geen station onderweg naar intelligentie, maar is er het resultaat van.
Het wordt mijns inziens pas echt interessant, wanneer je een goede filosofische discussie met een machine kunt voeren. Dat duurt volgens mijn inschatting waarschijnlijk nog wel minstens een jaar of 10. Als het eenmaal zover is, dan kunnen we meer besluitvorming aan machines overlaten.
Dat weet ik niet, want misschien kan zo'n machine filosofisch wel heel goed beredeneren waarom al het biologische leven beter uitgeroeid zou kunnen worden.
Ik denk dat zelfs ik dat al zou kunnen, juist vanuit het sentiëntisme beredeneerd.
Ander onderwerp, maar daar volgt niet uit dat ik sta te springen om als voorbeeld te dienen.
We zijn inmiddels ook aardig op weg om de werking van het menselijk brein te leren kennen. Die kennis kan eventueel gebruikt worden om een verbeterd informatieverwerkingssysteem te creëren. Want waarom zou het menselijk brein het maximaal haalbare aan intelligentie moeten opleveren?
Als de menselijke wijze van informatie behandelen niet het maximaal haalbare is, waarom zouden we het dan als voorbeeld willen gebruiken voor machines die veel beter zouden moeten zijn?
Ik denk dat je onze kennis over het menselijk brein flink overschat.
Het aanleggen van criteria door mensen is nu een probleem en straks ook. Dus daar verandert dan niets in. Tenzij het aanleggen van die criteria door mensen vergemakkelijkt wordt door het "meedenken" van superintelligente machines. Maar áls die criteria er eenmaal zijn, dan is het mijns inziens zeker niet uitgesloten dat superintelligente machines beter met die criteria uit de voeten kunnen dan mensen.
Wie of wat bindt intelligente machines aan hun criteria?
Hier komt het controle-aspect weer boven: Hoe wil je iets dat (veel) intelligenter is dan jijzelf onder controle houden?
Als een machine wereldberoemde schakers kan verslaan op het bord, waarom zou een machine in een andere context diens tegenspeler dan niet te slim af zijn?
Roep je hiermee niet juist nieuwe competitie in het leven, mens versus machine?
Ik vermoed dat volledige foutloosheid niet bestaat en bovendien kan alles stuk. Wat je wel kunt proberen is de foutenkans verkleinen. Het lijkt mij voor de hand te liggen dat gestreefd wordt naar het maken van een systeem dat het menselijk brein zowel in intelligentie als in de kans op het maken van fouten als in zelfcorrigerend vermogen overtreft. Of zoiets inderdaad mogelijk gaat worden moeten we afwachten. Ik vermoed zelf sterk van wel.
Hoe kan je jezelf corrigeren waar je geen fouten maakt?
Ik vind het verder wel amusant dat het juist psychologen zijn (de mensenkenners bij uitstek) die meer vertrouwen hebben in machines dan in mensen.
Ik denk dat ze wat minder normatief vertrouwen in de Darwiniaanse wetten zouden moeten hebben.
Het is niet moeilijk om onbedoeld nieuwe lijnen te trekken waarlangs wedijver ontstaat.
Dat gebeurt namelijk meestal onbedoeld, maar eenmaal begonnen is het zelfversterkend van aard.
Er bestaat geen reden om aan te nemen dat zelfstandige machines niet aan dezelfde wetten onderhevig zouden zijn, aangezien het om iets universeels gaat.