AI weet veel, maar niet wanneer hij fout zit – en dat is een probleem
Net als mensen zijn AI-chatbots geneigd hun eigen kunnen te overschatten. Maar in tegenstelling tot mensen, blijven ze dat ook doen wanneer ze in de praktijk helemaal niet zo goed presteren.
4
Reacties
7 reactiesQuantifying uncert-AI-nty: Testing the accuracy of LLMs' confidencejudgments
https://link.springer.com/article/10.3758/s13421-025-01755-4
Computer says no. AI says no. Welkom in de wereld die bekend is uit de wereld van de boeken van Franz Kafka en George Orwell (1984).
Correctie bij
:.Computer says no. AI says no. Welkom in de wereld die bekend is uit de boeken van Franz Kafka en George Orwell (1984).
Nou, die Google AI gedraagt zich als een Wokenist, en gaf een hele verhandeling over een onderwerp waar ik niet eens naar vroeg.
Politiek correct sturende extreem linkse antwoord.
https://youtu.be/iBa6stnOki4?si=KanxE4U_FepKPiEu
Je moet ook vragen op welke bronnen a.i. haar conclusie heeft gebaseerd. Je kunt dan zelf nagaan of ze de juiste gegevens hebben gebruikt.
Dat is helemaal geen probleem, het betekent dat mensen nodig blijven in de loop. En dat mensen zelf moeten blijven nadenken en degenen die dat niet doen, bedrogen uitkomen. Zoals het hoort dus.
Discussies worden automatisch na 96 uur gesloten
Het is niet meer mogelijk om nog te reageren bij deze discussie.