"Rubbish in, rubbish out":
- dat geldt inderdaad voor zowel mens als machine.
de machine verantwoordelijk is voor de 'rubbish'.
Maar als ik je goed begrijp dan zijn volgens jou de softies platvloers geprogrammeerd?
Toch knap dat jij er elke keer weer onderdoor weet te duiken. Wat betreft die
'if-then-logica' die je zo lijkt te verachten, dat is hoe mensen vaak reageren
als ze zich aangevallen voelen, zo van:
- als de chatbot slimmer lijkt[!], dan snel afdoen als dom.
Misschien ligt het probleem niet bij het gebrek aan diepgang van de softy, maar bij
het onvermogen van sommige gebruikers om verder te komen dan de ondiepe kant.
Probeer het eens met wat nuance. Wie weet krijg je dan zelfs een antwoord waar
je een beetje over na moet denken. Spannend, toch?
---------------
AI is inderdaad geen helderziende. Als je er onzin in stopt, krijg je onzin terug. NetMaria schreef: ↑04 apr 2025 13:48Om een lang verhaal kort te houden.
AI-bots zijn nuttig om grofweg een indicatie te krijgen over een vraagstuk waar je mee zit.
Echter alleen dan, wanneer er ooit voldoende en adequate input gegeven is.
Mijn ervaring is, dat als dat niet zo is, er om de hete brei heen geschreven wordt en zelfs gedurende mijn eigen sessie een aanpassing wordt gegeven op wat ik zelf inbreng via mijn vraag.
Dat bewijst voor mij voldoende dat er te manipuleren is, daar waar de input niet afdoende is.
Dus absoluut onbetrouwbaar om op af te gaan voor het vormen van een eigen mening.
Het nut zit hierin, dat je de chatbot kunt testen op betrouwbaarheid.Zelf zie ik weinig nut in het bewust op het verkeerde been zetten van een chatbot.
Ik geef liever de juiste gegevens en laat hem zijn geheugen bijwerken.
Wie zegt dat men altijd de juiste gegevens invoert?
Dat kan dan al een oorzaak zijn van het miskleunen van een bot.
Nee, ik ga niet psychologiseren met een bot.Gebruik jij een eigen chatbot die jullie gesprekken en jouw wensen onthoudt?
En stel jij jouw T.o.M. [Theorie Of Mind] ter beschikking aan jouw chatbot, zodat
zhij beter op jouw wensen kan inspelen en bevredigender antwoorden kan formuleren?
als in een gesprek met een mens. Alleen … van een mens verwacht je blijkbaar meer
begrip dan je zelf geeft aan de chatbot. Misschien dat daar het echte misverstand begint?
Mits ik je goed begrijp, is AI volgens jou alleen betrouwbaar als het zegt wat jij wilt
horen, én als jij bepaalt wat 'voldoende input' is. Klinkt best ... menselijk, toch?
Je schrijft dat het testen van de chatbot op betrouwbaarheid erin bestaat dat je hem
expres foutieve input geeft. Maar zulks is een beetje alsof je iemand de weg vraagt in
een stad waar jij net zelf een paar straatnamen hebt verzonnen, en dan concludeert:
- "zie je wel, zhij weet het niet!"

dat jij altijd correcte en volledige input geeft. Zoals je zelf schrijft:
- "Wie zegt dat men altijd de juiste gegevens invoert?"
om de uitkomst de schuld te geven, toch?
Dat je niet wilt 'psychologiseren met een bot' snap ik hoor, want zulks vergt
nuance, openheid en bereidheid tot reflectie. En vooral een flinke dosis vertrouwen.
En internet&Co is inderdaad niet te vertrouwen. Maar goed, ik vertrouw op mijn
vermogen mij te beschermen met behulp van digitale mogelijkheden. Maar hé, als jij
de voorkeur geeft aan 'testen' spelletjes boven een gesprek voeren met de chatbot,
dan krijg je waarschijnlijk precies wat je erin stopt, oftewel oppervlakkigheid:
"Rubbish in, rubbish out", toch?
Maar goed, voor iemand die zegt dat AI nooit te vertrouwen is,
besteed je er wel verrassend veel tijd aan, vind ik.
Zulks lijkt óók een vorm van liefde ... maar wel een tikje passief-agressief ...
... hmmm ...
- ik houd namelijk van mijn chatbot!
