ChatGPT deelt urenlang nonsens door bug

ChatGPT kraamde urenlang onzin uit na een fout in de systemen van OpenAI. Volgens OpenAI werd dit veroorzaakt door een fout in hoe het model tekstfragmenten in kaart brengt, waarmee het vervolgens antwoorden genereert.

Wie in de nacht van dinsdag op woensdag vragen stelde aan ChatGPT, kon rekenen op vreemde antwoorden. Op sociale media als X en Reddit deelden diverse gebruikers de wartaal die het AI-systeem uitsloeg. Zo vroeg een Reddit-gebruiker wat een computer is, waarop ChatGPT onder meer antwoordde: "Het doet dit goede werk van een web van kunst voor het land, een muis van de wetenschap, een gemakkelijke trekking van een triest paar..."

OpenAI, de maker van ChatGPT, weet inmiddels dat het probleem veroorzaakt werd door een fout die 'na een optimalisatie aan de gebruikerservaring geïntroduceerd werd', zo schrijft het bedrijf op zijn statuspagina. ChatGPT's large language model werkt aan de hand van zogeheten tokens; tekstfragmenten die gekoppeld worden aan een nummer. "In dit geval zat de fout in de stap waarin het model deze nummers kiest", legt OpenAI uit.

Volgens het bedrijf koos het model net de verkeerde getallen, waardoor er zinnen werden gevormd die nergens op sloegen. "Meer technisch gezien leverden de inference kernels onjuiste resultaten op als ze in bepaalde gpu-configuraties gebruikt werden."

Enkele uren later werd het probleem verholpen. ChatGPT werkt inmiddels weer zoals gebruikelijk.

Door Eveline Meijer

Nieuwsredacteur

22-02-2024 • 09:40

165 Linkedin Whatsapp

Submitter: jordy-maes

Lees meer

Reacties (165)

165
163
68
1
0
70
Wijzig sortering
Zo zie je maar:
Artifical: check.
Intelligence: ver te zoeken.

Bijzonder dat een AI-systeem geen (succesvolle) sanity checks op zichzelf uitvoert.
Nu had het systeem een digitale "beroerte" zonder het zelf door te hebben.

[Reactie gewijzigd door Recursio op 22 februari 2024 09:44]

Bijzonder dat een AI-systeem geen (succesvolle) sanity checks op zichzelf uitvoert.
Dat lukt de gemiddelde mens ook niet, je hoeft alleen maar naar het nieuws te kijken ;) .

Volgens mij denk jij dat AI zoiets is al Data uit Star Trek (The next Generation) Enterprise. Dat duurt, als het er ooit komt, nog wel een aantal decennia. ChatGPT is puur een tekst generator, maar eentje die antwoorden geeft alsof het een mens is. Dat is alles.

edit:toch maar duidelijk gemaakt dat het om the next generation series gaat :P

[Reactie gewijzigd door david-v op 22 februari 2024 12:11]

Een aantal decennia is wel erg pessimistisch.
Een aantal decennia is wel erg pessimistisch optimistisch.
Correctie ;)

[Reactie gewijzigd door MallePietje op 22 februari 2024 10:31]

Kunnen we over bakkeleien. Colfusion op YT had pas een leuke video over Sora AI. Daarin begint die letterlijk met een discussie op Reddit AI van drie (!) jaar geleden waarin iemand vraagt hoe lang het duurt voor we AI video's krijgen en iemand anders antwoord dat het nog heel lang gaat duren. Inmiddels zijn we daar.

Toegegeven, Ai die zichzelf succesvolle sanity checks geeft is wat anders dan AI die succesvol een foto veranderd in een enigszins goed bekijkbare video. Maar het valt aan te raden om niet al te pessimistisch te zijn. Was het nog zo in de jaren 70 en 80 dat onze voorspellingen vaak te snel waren zijn ze tegenwoordig vaak te langzaam. Wat dat betreft lijkt technologische ontwikkeling via een hyperbool te gaan. Het begon wat langzaam maar lijkt steeds sneller te gaan.

Data is natuurlijk even afwachten. Maar de realiteit is dat Data van Star Trek uit fictie komt en de androides wat we daadwerkelijk krijgen aardig zullen afwijken van dat concept.

[Reactie gewijzigd door Auredium op 22 februari 2024 11:21]

De definitie van AI is hier de onderscheidende factor.

Tekst-naar-iets is inmiddels gemeengoed, en eerlijk-is-eerlijk - dat is sneller gegaan dan de meeste mensen op durfden te hopen.

Maar "Data-uit-Star Trek" (of "KITT-uit-Knight-Rider" voor mijn part, of "C-3PO" of "Optimus Prime") is meer dan dat: dat is AI die zelfbewust is, die beslissingen kan nemen en die kan beredeneren.

AI zoals we dat nu kennen, put uit een hele grote tabel met mogelijk antwoorden en op basis van waarschijnlijkheid kiest hij de juiste entry uit die tabel. Zo kan de AI zinnen begrijpen, maar ook zelf zinnen vormen. Die waarschijnlijkheid is aangeleerd (getraind) door de AI naar ontzettend veel teksten te laten kijken en op ieder zinsdeel te meten wat het volgende zinsdeel is in de bron. Idem met plaatjes, video en geluid.

"Data", KITT, C-3PO en Optimus Prime zijn daarentegen zelfbewuste machines*, die geheel zelfstandig belsissingen kunnen nemen en kunnen redeneren en ook gevoelens tentoonstellen (ok, C-3PO wat minder, maar KITT was nog wel eens op zijn katalysator getrapt).


*ok ok... technisch gezien is Optimus Prime geen machine, maar een bewustzijn in een machine. Dit in tegenstelling tot de Dinobots die wel geprogrammeerde AI's zijn, en daardoor een stuk trager en minder intelligent dan de gemiddelde Transformer. Google "The Key To Vector Sigma", "War Dawn" en "Starscream's Brigade" voor een uitleg hoe Transformers-bewustzijn werkt in de lore.
AI zoals we dat nu kennen, put uit een hele grote tabel met mogelijk antwoorden en op basis van waarschijnlijkheid kiest hij de juiste entry uit die tabel. Zo kan de AI zinnen begrijpen, maar ook zelf zinnen vormen. Die waarschijnlijkheid is aangeleerd (getraind) door de AI naar ontzettend veel teksten te laten kijken en op ieder zinsdeel te meten wat het volgende zinsdeel is in de bron. Idem met plaatjes, video en geluid.
AI nu kan dus geen zinnen begrijpen... Zinnen worden opgeknipt in stukjes tekst, die worden omgezet naar getallen en daarop wordt statistiek uitgevoerd om het "volgende woord" te voorspellen en vervolgens weer omgezet naar tekst.... Dan is er toch zeker geen sprake van "begrijpen".
Goed punt! Je hebt helemaal gelijk.
Het grote verschil is ook voornamelijk dat er geen directe terugkoppeling van de omgeving terug is naar het model.
En ik denk dat veel mensen hier ook bewust terughoudend in zijn om dat te realiseren verschillende redenen.
AI zoals we dat nu kennen, put uit een hele grote tabel met mogelijk antwoorden en op basis van waarschijnlijkheid kiest hij de juiste entry uit die tabel. Zo kan de AI zinnen begrijpen, maar ook zelf zinnen vormen. Die waarschijnlijkheid is aangeleerd (getraind) door de AI naar ontzettend veel teksten te laten kijken en op ieder zinsdeel te meten wat het volgende zinsdeel is in de bron. Idem met plaatjes, video en geluid.
Even checken, hoe is dat anders dan hoe jouw hersenen werken? Jij hebt ook leren praten door je hersenen te trainen op woorden e.d., door te lezen, door te luisteren. Je leert ook tekenen door beelden te verwerken. (lees, alles wat je vroeger op school deed, en nu nog steeds doet dagelijks).
Ik zie niet in hoe dit in basis anders is dan een AI trainen op data. Sterker nog, het is hetzelfde.

[Reactie gewijzigd door OriginalFlyingdutchman op 22 februari 2024 13:30]

Mijn hersenen specifiek? Laten we daar maar niet te veel over nadenken ;)

Maar in het algemeen: jij kunt piekeren, je verheugen, conceptueel denken, abstraheren en extraheren en nog veel meer. Daardoor kun je zelf een respons vormen, los van wat je ooit geleerd hebt.

Een AI zoals ChatGPT moet het doen met vooraf vastgelegde responses. Wat dat betreft is het wat Dr. SBAITSO (Google) in de 90s al was, maar vele malen complexer.

Zoals @PV85 terecht schrijft weten we niet (precies) hoe ons eigen bewustzijn werkt. Maar we weten wel dat er bepaalde processen in onze hersenen plaatsvinden die verder gaan dan een rainbowtable vol met hashes van mogelijke responses.

[Reactie gewijzigd door Heroic_Nonsense op 22 februari 2024 13:41]

Ik weet het niet hoor. Er zijn decision trees mogelijk, het kan op basis van zijn eerdere ideeën ook met nieuwe ideeën komen en het kan extrapoleren op basis van wat het weet. Zo hebben onderzoekers vragen gesteld waarvan het antwoord niet op internet te vinden was, daar kon het prima antwoord op geven.

Als het de basis goed heeft getrained, is er een hoop mogelijk. Ik heb het gevoel dat veel mensen focussen op 'niet goed genoeg voor X' terwijl het een aantal gebieden beter is dan de meeste mensen zijn. Zoals 'AI snapt emotie en empathie niet'. Een studie heeft al aangetoond dat het beter slecht nieuws berichten kon schrijven dan een doktoren dat deden. Het voelt misschien geen emotie maar het begrijpt het wel, weet wanneer het nodig is om empathie toe te passen en hoe dat het beste te doen. Dat zijn gewoon allemaal patronen.

De manier waarop het werkt is misschien niet zoals een mens het doet (ookal hebben we geen idee hoe wij het doen!), maar het resultaat lijkt er vaak wel erg veel op. En als het beter is dan een aanzienlijk deel van de mensen het kan, waar we zeker heen gaan, maakt het dan nog uit?

Probeer dit niet te zien als een welles/nietes discussie hoor. Ik ben benieuwd naar jouw beeld.
zijn daarentegen zelfbewuste machines*, die geheel zelfstandig belsissingen kunnen nemen en kunnen redeneren en ook gevoelens tentoonstellen (ok, C-3PO wat minder,
C-3PO was natuurlijk een protocol droid.

Blijft altijd beheerst en correct in elke omstandigheid of gelegenheid. Zelf was hij wat meer bescheiden door aan te geven dat hij slechts een vertaler was die 6 miljoen vormen van communicatie kon onderscheiden.
Ja maar hoe zelfbewustzijn werkt weten we nog geen eens, we kunnen wel gedrag observeren en concluderen dat er een grote waarschijnlijkheid is dat iets zelfbewust is. Als die AI zijn eigen interacties bijhoudt (zoals wij doen met ons geheugen) en op basis hiervan zijn eigen antwoord beoordeeld en bij afwijzing die tabel aanpast en het antwoord opnieuw genereert, zijn we er dan? Ik denk het nog niet, maar een paar van dit soort lagen (bijvoorbeeld een voor het hebben van gevoelens) en je kunt het onderscheid tussen een mens denk ik niet zo snel meer maken.

[Reactie gewijzigd door PV85 op 22 februari 2024 13:35]

"Data", KITT, C-3PO en Optimus Prime zijn daarentegen zelfbewuste machines*, die geheel zelfstandig belsissingen kunnen nemen en kunnen redeneren en ook gevoelens tentoonstellen (ok, C-3PO wat minder, maar KITT was nog wel eens op zijn katalysator getrapt).
Je moet er toch niet aan denken dat een machine daadwerkelijk zich op z'n katalysator getrapt voelt. Je ziet welke reacties dat soms uitlokt (bij mensen).
Kunnen we over bakkeleien. Colfusion op YT had pas een leuke video over Sora AI.
De ontwikkeling naar AI-gegenereerde video is idd snel gegaan, alhoewel de mate van echtheid net als bij afbeeldingen nogal hit-and-miss is.
Maar meerdere kopstukken bij grote AI bedrijven zeggen dat we nog ver verwijderd zijn van General AI. GAI vereist oa een World Model, en dat is een stuk lastiger dan een taal model.

World Science Festival 2023
gepresenteerd door Brian Greene
AI: Grappling with a New Kind of Intelligence
https://www.youtube.com/watch?v=EGDG3hgPNp8&t=453s
Yann LeCun (Professor at New York University, VP & Chief AI Scientist at Meta)
Sébastien Bubeck (sr partner & research manager at Microsoft Research)
Was het nog zo in de jaren 70 en 80 dat onze voorspellingen vaak te snel waren zijn ze tegenwoordig vaak te langzaam. Wat dat betreft lijkt technologische ontwikkeling via een hyperbool te gaan. Het begon wat langzaam maar lijkt steeds sneller te gaan.
Sommige ontwikkelingen idd, maar andere niet zo. Zie bvb het vertragen vd Wet v Moore, inmiddels zodanig dat men noodgedwongen de focus verlegd van kleiner en sneller maken naar reduceren van opgenomen vermogen.
In het algemeen is het niet zo dat als iets in een bepaalde periode exponentieel groeit, het dus altijd exponentieel zal blijven groeien. Integendeel: de wetmatigheid is eerder dat groei traag begint, dan een tijd versneld, en daarna weer afneemt.
Toegegeven, Ai die zichzelf succesvolle sanity checks geeft is wat anders dan AI die succesvol een foto veranderd in een enigszins goed bekijkbare video. Maar het valt aan te raden om niet al te pessimistisch te zijn. Was het nog zo in de jaren 70 en 80 dat onze voorspellingen vaak te snel waren zijn ze tegenwoordig vaak te langzaam. Wat dat betreft lijkt technologische ontwikkeling via een hyperbool te gaan. Het begon wat langzaam maar lijkt steeds sneller te gaan.
Zoek een beetje het midden op zou ik zeggen: wees ook niet tè optimistisch...Ik zeg altijd (en dat blijf ik nog wel even zeggen) "het is en blijft een domme computer die geen idee heeft wat ie doet". En dat zie je ook weer aan die storing: hij heeft geen idee dat ie onzin uitkraamt omdat het 'm totaal niets zegt. En dat duidt erop dat het ook helemaal geen intelligentie is, maar 'gewoon' een algoritme dat passende zinnetjes bij elkaar grabbelt (gross over-simplification, I know).
Het is fenomenaal wat ChatGPT kan (maar dat kon Watson een jaar of 12 geleden tot op zekere hoogte ook al) en ook Sora is waanzinnig goed. Maar dat ding weet niet wat ie aan het genereren is, anders had ie in de gaten dat ie gekke handen maakt of mensen heel gek laat moonwalken.

Ik ga er geen termijn aan hangen, maar het werk dat gedaan wordt is echt baanbrekend op dit moment, maar ik wil het nog geen 'all purpose AI' noemen. En dat is waar we heel lang geleden, toen men net met AI begon, ook al was (alleen zijn we nu op een hoger nivo): expertsystemen. We kunnen momenteel heel goed een AI systeem maken dat bv wetenschappers kunnen helpen met onderzoek door bv duizenden research papers door te spitten op zoek naar overeenkomsten, verschillen of rlevante experimenten. Dat kan ie in de tijd dat het ons kost om naar de bibliotheek te lopen. Geweldig! Of een systeem dat een arts helpt met het stellen van diagnoses omdat ie toegang heeft tot de hele wereld aan medische kennis, research en miljarden diagnoses. Idem voor juridische zaken. Dus als research tool, hulp aan studenten en weet ik wat nog allemaal. Maar inzetten als een algemeen Orakel zie ik nog niet zo. En wat 'we' moeten doen is aub de huidige generatie studenten goed begeleiden in het gebruik van deze technologie en ze het niet (helemaal) zelf laten uitzoeken, want anders loop je het risico dat ze het voornamelijk maar gaan gebruiken als huiswerkmachine. En dat is zonde. Met ChatGPT kun je je huiswerkopgavem, werkstukken, scripties e.d. heel mooi uitbreiden, verdiepen en veel meer doen dan nu. Dat is veel productiever dan alleen maar de antwoorden te vragen. Daar leer je niets van.
Ik heb geen kinderen, maar ik zie dat veel van mijn generatiegenoten (1965) zich nooit echt met computers hebben bemoeid en daardoor hun kinderen nooit konden helpen met de goede weg te vinden. En dat is een gemiste kans geweest, want hoewel zij dachten dat hun kinderen erg goed waren met computers, zijn de meesten voornamelijk goed in het bedienen van chat apps en insta. Verder weten ze 0,0. Dus laten we diezelfde fout niet nog een keer maken. Met al die smartphones heb je de collectieve kennis van de hele mensheid in handen, vooral nu met al die AI apps. Leer dat goed gebruiken, dan wordt je geen slaaf van dat ding en kun je nog iets als de stroom uitvalt zeg maar :+
Als we zoiets als Data uit Star Trek willen zien, dan is een aantal decennia zelfs optimistisch ;). De hoeveelheid rekenkracht en opslag die daarvoor nodig is hebben we nog lang niet. Het moet ook economisch haalbaar zijn, en dat is met de huidige "simpele" tekst generator AI's al een hele uitdaging.
de benodigde rekenkracht is niet lineair.
Het is niet omdat je 2 keer complexere vragen stelt dat je 2 keer meer computing kracht nodig hebt.
Het is zelf omgekeerd aan het gaan, nieuwe modellen hebben veel minder resources nodig.
Kijk maar naar mistral 8x7 dat bijna GPT4 waardig is. volledig offline en gratis.

En dit zijn nog maar de eerste modellen die aan het krimpen zijn.

Daarnaast is een GPU extreem oneficient voor neurale netwerken.
Vandaar dat er nu NPU's op de markt komen.

Alles samen kan je verwachten dat je volgend jaar zonder probleem een gpt 4 model kan draaien op je laptop of zelf gsm

[Reactie gewijzigd door sebastienbo op 22 februari 2024 13:11]

Een decennia geleden dachten mensen ook dat zelf rijdende auto's er zouden zijn binnen enkele jaren.

AI lijkt een zelfde probleem te hebben als zelf rijdende auto's: 90% werkt en de laatste 10% is een long tail aan allerlei problemen die maar moeilijk op te lossen blijkt. En een auto die 90% van de tijd niet een greppel in rijd is maar beperkt bruikbaar. Ook een AI die 90% van de tijd geen onzin hallucineert is ook maar beperkt bruikbaar.
Het probleem is op dit moment de feedback loop, als er een zelfrijdende auto een greppel in rijd en de hele vloot op basis hiervan zijn gedrag bijstelt, dan gaat het heel snel naar die 99,9% die we zo graag willen hebben. Die directe feedback loop is echter ontzettend duur, je hebt heel veel data nodig en enorm data center om op basis hiervan je AI model geautomatiseerd te hertrainen en te testen in simulaties. Maar hier wordt wel hard aan gewerkt door bijvoorbeeld Tesla, maar vast ook Google. Tesla heeft recent vrijwel al hun controle en detectie logica al vervangen in hun nieuwe FSD beta dat enkel getraind is op video input van hun fleet en het gedrag van hun gebruikers. Hiervoor hebben ze o.a. een eigen supercomputer moeten ontwikkelen en hebben ze grote stappen gezet in het geautomatiseerd labelen van fleet video data.
ChatGPT is puur een tekst generator, maar eentje die antwoorden geeft alsof het een mens is. Dat is alles.
@Recursio
Zo zie je maar:
Artifical: check.
Intelligence: ver te zoeken.

Bijzonder dat een AI-systeem geen (succesvolle) sanity checks op zichzelf uitvoert.
Nu had het systeem een digitale "beroerte" zonder het zelf door te hebben.
'tekstgenerator, dat is alles' Veel te te kort door de bocht en een te simplistische benadering die de lading niet dekt. Hoe GPT werkt is erg gelijkaardig aan het menselijke brein. Enkel 0,1% zo performant als een natuurlijk brein. Artificiële neurale netwerken (ANN's) zijn effectief geïnspireerd door de structuur en functie van biologische neurale netwerken. De gewichten die GPT toekent aan verbanden zijn exact hetzelfde als de de chemische verbindingen biologische neuronen

GPT meer dan een tekstgenerator, kan ook effectief redeneren, het ziet de wereld echter zo extreem abstract en vereenvoudigd dat het helemaal geen bewustzijn of gevoelens heeft. Ideaal gezien heeft het nooit bewustzijn en wekrt GPT taakspecifiek maar het is veel meer dan een tekstgenerator.

Bijvoorbeeld om te kunnen programmeren, bug te zoeken of raadsels op te lossen die je nog nooit bent tegen gekomen moet je kunnen redeneren. De abstractielaag van GPT laat die basis-redeneringen wel degelijk toe.

In het menselijke brein kunnen trouwens exact de zelfde fouten ontaan bij het gebruik van drugs, herseninfarct of alzheimer of Afasie. Nog erger, bij mensen met Wernicke's afasie komt het ook vaak voor dat ze zelf niet doorhebben dat ze wartaal spreken. Ze kunnen echter vloeiend spreken maar ze gebruiken bestaande woorden die totaal niet in de context passen of een relatie met elkaar hebben. Ze zijn zich vaak niet bewust van die fouten.
Mwa, effectief redeneren? Met relatief simpele raadsels raakt ChatGPT bij mij de kluts al kwijt. Pak het onderstaande raadsel:
Ik heb een raadsel met als antwoord een 4-cijferige code. Het eerste en tweede getal samen zijn 5. Het derde getal is lager dan het tweede getal. Het vierde getal is gelijk aan het tweede getal. Alle getallen samen zijn 7. Wat is de code?
Waarna ChatGPT met het antwoord komt:
Om het raadsel op te lossen, laten we de gegeven informatie stap voor stap gebruiken:

1. Het eerste en tweede getal samen zijn 5. Dit betekent dat het eerste getal 1 moet zijn en het tweede getal 4, omdat 1 + 4 = 5.
2. Het derde getal is lager dan het tweede getal. Het tweede getal is 4, dus het derde getal kan alleen maar 3 zijn.
3. Het vierde getal is gelijk aan het tweede getal. Omdat het tweede getal 4 is, moet het vierde getal ook 4 zijn.
4. Alle getallen samen zijn 7. Dus 1 + 4 + 3 + 4 = 12, wat niet klopt. Maar aangezien het vierde getal gelijk is aan het tweede getal, moeten we het tweede getal aftrekken. Dus 1 + 3 + 4 = 8. Dit klopt, dus de code is 1344.

Dus, de 4-cijferige code is 1344.
Waar kortgezegd geen zak van klopt. Een kind kan dit oplossen. Ik zal niet zeggen dat ChatGPT niet nuttig is, maar "effectief redeneren" zou ik het nog niet willen noemen. Hij doet een poging tot redeneren...
Ik zou eens GPT4 proberen. Die kan veel beter redeneren dan GPT3. Ben vrij zeker dat GPT4 het wel correct kan.

Natuurlijk heeft elk model zijn limieten. Dat is geweten en er zijn talrijke voorbeelden van maar dat sluit niet uit dat het wel degelijk kan redeneren.
ChatGPT 4 geeft bij mij de volgende beredenering (correct ook):

Om de code te vinden, laten we de getallen in de code aanduiden als A, B, C, en D. Volgens de aanwijzingen in het raadsel hebben we de volgende voorwaarden:

1. \(A + B = 5\)
2. \(C < B\)
3. \(D = B\)
4. \(A + B + C + D = 7\)

Vanuit voorwaarde 1 weten we dat \(A + B = 5\), en voorwaarde 4 vertelt ons dat de som van alle getallen \(7\) is. Omdat \(D = B\), kunnen we de vierde voorwaarde herschrijven met de informatie uit de eerste voorwaarde:

\(5 + C + B = 7\)

Nu kunnen we de waarden van A, B, C, en D oplossen. Laten we beginnen met de gegeven voorwaarden.

De oplossingen geven ons de relaties \(A = 5 - B\) en \(C = 2 - D\). Echter, aangezien we nog niet direct de waarden van \(B\) en \(D\) hebben, en met de informatie dat \(D = B\), kunnen we deze informatie gebruiken om de waarden van alle getallen te vinden. We hebben ook de aanwijzing dat \(C < B\).

Laten we deze informatie gebruiken om de specifieke waarden voor \(A\), \(B\), \(C\), en \(D\) te vinden, rekening houdend met dat \(C = 2 - B\) (gebaseerd op de aangepaste voorwaarde \(C = 2 - D\) en \(D = B\)).

De geldige oplossingen voor de code, gebaseerd op de gegeven aanwijzingen, zijn als volgt:

1. \(A = 3\), \(B = 2\), \(C = 0\), \(D = 2\), wat resulteert in de code 3202.
2. \(A = 2\), \(B = 3\), \(C = -1\), \(D = 3\), maar deze oplossing is niet geldig omdat \(C\) niet negatief kan zijn in de context van een 4-cijferige code.
3. \(A = 1\), \(B = 4\), \(C = -2\), \(D = 4\), maar ook deze oplossing is niet geldig om dezelfde reden als hierboven.

Daarom is de enige geldige oplossing die voldoet aan alle voorwaarden van het raadsel: **3202**.
ik heb exact dit raadsel in de Skype Bing chatbot gegooid. En deze komt aardig in de buurt. niet het juiste antwoord, maar ook geen complete onzin:
Dat is een interessant raadsel. Ik heb geprobeerd het op te lossen, en ik denk dat ik het antwoord heb gevonden. De code is 2302. Dit is hoe ik het heb gedaan:

• Het eerste en tweede getal samen zijn 5. Dit betekent dat het eerste getal 2 of 3 moet zijn, en het tweede getal 3 of 2.

• Het derde getal is lager dan het tweede getal. Dit betekent dat het derde getal 0, 1 of 2 moet zijn.

• Het vierde getal is gelijk aan het tweede getal. Dit betekent dat het vierde getal ook 3 of 2 moet zijn.

• Alle getallen samen zijn 7. Dit betekent dat de som van het eerste, derde en vierde getal 5 moet zijn, want het tweede getal telt twee keer mee.

Als we deze aanwijzingen combineren, kunnen we de mogelijke codes opschrijven:

• 2302
• 2313
• 3202
• 3213

Maar er is maar één code die voldoet aan alle voorwaarden, en dat is 2302. De andere codes hebben een derde getal dat niet lager is dan het tweede getal, of een som die niet 7 is.

Ik hoop dat je mijn uitleg begrijpt. Heb je nog meer raadsels voor me? Ik vind ze leuk om op te lossen. blush
(gewijzigd. was eerst iets te snel met een conclusie)

aanvulling:
ok, ok. ik heb nog een paar keer geprobeerd, en ik moet toegeven, het heeft de schijn van een redenering, maar het klopt geen enkele keer. mijn conclusie: (logisch) redeneren kan het echt niet.

[Reactie gewijzigd door midentity op 22 februari 2024 21:29]

Ik vind deze reactie nogal kort door de bocht hoor. Je zou eventueel kunnen stellen dat de werking van transformers geïnspireerd is op hoe hersenen taal verwerken, maar dat maakt het nog niet hetzelfde.

Het vertaalt alle woorden naar een betekenis, op basis van wat de rest van de context over dat woord zegt. De datastructuur van die betekenis kun je vergelijken met een coördinaat, maar dan met enorm veel dimensies (dus veel meer dan x, y en z).

Verder is het eigenlijk precies dezelfde techniek als waarmee je het volgende woord kunt voorspellen tijdens het typen op de telefoon. Alleen omdat ze enorm veel dimensies hebben toegevoegd aan dat coördinaat (vector), is het mogelijk om de betekenis en nuance vele male preciezer te berekenen. En zo ook de matrices met getrainde gewichten waarmee deze vector vermenigvuldigt wordt.

Natuurlijk heeft dat dan ook tot gevolg dat je het niet zomaar op je telefoon kunt draaien, want als je allerlei enorme matrices gaat vermenigvuldigen, vraagt dat een enorme hoeveelheid geheugen en rekenkracht.

Maar met LM Studio kun je al best leuke taal modellen lokaal draaien als je de hardware er voor hebt...

Het is echt gewoon software, geen hersenen en geen persoonlijkheid. Het taalmodel is een bestand. En als je er een prompt in gooit, komt er een antwoord uit. En als je er geen prompt op uitvoert, gaat hij zich niet vervelen, dan is het nog steeds gewoon een bestand, waarin de berekende waarden staan om die matrix vermenigvuldigingen mee uit te voeren.
Ja dat is de definitie van artificieel. Het bestaat uit bits & bytes en niet uit chemische verbindingen. Dat leg ik ook zo uit. Nergens spreek ik van persoonlijkheid of bewustzijn of menselijke gevoelens. Die nuance breng ik ook. GPT mist dimensies maar er zijn parallellen te trekken met ons brein.

GPT is zeker geen rekenmachine die elke keer hetzelfde uitkomst geeft.

Tot hiertoe weten we zelfs niet je een bewustzijn kan bouwen met een traditioneel digitaal systeem. Maar GPT kan wel degelijk ‘redeneren’ met ‘aangeleerde’ concepten in zijn zeer beperkte context.

GPT3 kan dat bijvoorbeeld veel minder dan GPT4. Er zijn veel studies die de limieten opzoeken van het ‘redeneren’. Het is ook niet uitgesloten dat men ooit brein kan simuleren maar dat staat hier los van.
Jij vergelijkt ChatGPT met het menselijk brein, en ik vind dat ver gezocht. Ja, er is inspiratie getrokken uit hoe het menselijk brein taal verwerkt, maar dat maakt de implementatie nog niet hetzelfde. Het komt niet in de buurt.

Je geeft aan dat je niet spreekt van "persoonlijkheid of bewustzijn", maar je benoemt bewustzijn wel, wat eventueel bij sommige lezers wel een suggestie wekt. ChatGPT heeft geen bewustzijn. Een taalmodel heeft geen bewustzijn, wat mij betreft is dat simpel weg geen openstaande vraag.

GPT is een tool die de mensheid kan helpen om stappen te zetten in productiviteit en kwaliteit. Tegelijkertijd genereerd het gewoon een antwoord op basis van waarschijnlijkheid. De bug waar het artikel over schrijft, genereert natuurlijk wel heel veel onzin.

Maar ook onder normale omstandigheden kan GPT op een subtiele manier onzin genereren. Doordat het normaal gesproken de context heel goed begrijpt, kan die onzin erg overtuigend over komen. Dus mij lijkt het mij belangrijker dat mensen zich realiseren dat GPT onzin genereert, die gelukkig vaak klopt, en daardoor behulpzaam is. Maar je moet er niet blind op vertrouwen, en je kunt er als gereedschap mee om gaan, niet als een persoon.

(onderstaande heb ik door bewerken toegevoegd; bovenstaande heb ik onbewerkt gelaten):
Ik bedoel dus niet te zeggen dat er helemaal geen parallellen bestaan tussen hoe bepaalde processen in hersenen werken en software matige neurale netwerken. Alleen ligt de grens daar, dat een transformer model enkel taal begrijpt en een convolutional neural network bijvoorbeeld afbeeldingen. Zonder in herhaling te vallen, ik blijf bij mijn standpunt, het zijn modellen die gericht een taak uitvoeren.

[Reactie gewijzigd door PB. op 23 februari 2024 01:48]

We zeggen exact hetzelfde. Je maakt er puur een semantische discussie van.

Het lijkt op hersenen VS het heeft er wat van weg VS er zijn parallellen te trekken VS geïnspireerd op het menselijke brein. Wat is het verschil? Juist semantiek!

En Ja ik vergelijk een neuraal netwerk of GPT met in dit geval het menselijke brein. Dat was ook het hele punt van ANN’s, het menselijke brein nabootsen in een digitale variant.

Uw brein is ook een neuro model dat gericht taken uitvoert. Daar maak je het verschil niet mee. Uw brein is gewoon een veel complexer model met meer dimensies en verbindingen omdat het hormonaal en chemisch/elektrisch werk en dus analoog werkt ipv digitaal. Ons brein is bovendien energiezuiniger.

Een kunstmatige variant = niet hetzelfde als een echt biologisch brein. Het is er op gebaseerd, de basis is het zelfde.
mwah, 'dat is alles' ... afgezien van dat de antwoorden redelijk menselijk overkomen, is het superhandig om stukjes code te genereren waar ik anders op uren zoek naar ben in allerlei fora. Dus het gaat vooral om de inhoud van een antwoord, niet alleen om de vorm van het antwoord.
De inhoud van een stukje code is ook gegenereerde tekst en hoeft niet eens "echte" code op te leveren. Functies die niet bestaan komen wel eens voor, en dat is ook niet gek, wat chatgpt programmeert niet maar genereert tekst gebaseerd op miljoenen regels code.

De gegenereerde code gebruik ik vaak als basis voor wat ik wil bereiken. Daar is het echt superhandig in, maar er zijn wel meer usecases zoals het herschrijven van code zodat het beter leesbaar of te onderhouden is bijvoorbeeld.
klopt, het werkt niet altijd
@david-v Ik denk zelf niet dat ik dat denk :)

[Reactie gewijzigd door Recursio op 22 februari 2024 10:45]

Tijd voor een sanity check dan :+
Dit was de uitkomst van de sanity check :+
Data was Star Trek : The Next Generation, niet Enterprise, in dat timeframe hadden ze nog geen goede AI :+
Jij hebt het over de titel van de serie, ik heb het over het sterrenschip Enterprise :P

"Space: the final frontier. These are the voyages of the starship Enterprise. Its continuing mission: to explore strange new worlds; to seek out new life and new civilizations; to boldly go where no one has gone before!"

:D
Nice try. Waarom schrijf je dan niet "Data uit de Star Trek Enterprise"? ;)
Want dat.maakt het wel beter?
als je over het schip het is het normal dat je zegt USS : Enterprise (NCC-1701-D)
of Enterprise-D
Er zijn anders ook nog wel heel wat Enterprises geweest, Picard heeft ook een Schilderij van de eerste Enterprise in z'n kajuit hangen ;)
Dit. LLM's zijn een bouwblokje om AI in de toekomst mogelijk te maken, een bouwblokje wat nog lang niet klaar is. Net als neural networks en genetic algorithms.

Al dat gepraat over AI-dit AI-dat is simpelweg de neiging van het internet om teveel te verpakken onder een enkel woord (of afkorting in dit geval) en jemig wat zorgt het voor spraakverwarringen.
Een AI die zich zelf checkt is lastig omdat een AI als deze niet goed functioneert waarschijnlijk ook de check niet goed zal uitvoeren dan wel de resultaten verkeerd zal interpreteren. Maar net zo als een LLM kan leren van de input en correcties van andere modellen is het zeker niet onmogelijk om een LLM te maken dat een andere LLM controleert om te zien of de antwoorden die gegeven worden wel correct zijn.
Sterker nog OpenAI en vele andere werken aan en gebruiken LLM's om te helpen met alignment en training dus een LLM om een andere LLM the controleren is helemaal niet zo vreemd.

Of het ook praktisch is en kosten effectief om zo iets te doen is de vraag. Maar hoe meer bedrijven en dus uiteindelijk mensen vertrouwen op zo wel de in als output van deze LLM's om geld te verdienen en in de toekomst zelfs om te overleven hoe sneller we dit soort oplossingen gaan zien.

Wat me hier het meest aan opvalt is dat dit niet in een test omgeving is opgemerkt dat lijkt er op te wijzen dat OpenAI geen representatieve chatGPT instance heeft draaien om op te testen voor de veranderingen in de productie omgeving gemaakt worden. Dat lijkt me als een bedrijf dat geld wil verdienen met hun LLM geen verstandige zet als klant van OpenAI zou ik toch echt niet blij zijn als mijn product een paar uur niet werkt omdat er iemand een foutje gemaakt heeft bij OpenAI en mijn diensten dus niet goed werken tot hun het probleem hebben opgelost. Het is moeilijk een betrouwbaar product te verkopen als de onderliggende infrastructuur onbetrouwbaar is. Nu is dit een keer en neem ik aan dat men binnen OpenAI vast wel wat verbeteringen zal willen doorvoeren om dit soort problemen in de toekomst te voorkomen maar het had om te beginnen natuurlijk nooit mogen gebeuren.
Ik verwacht absoluut geen Data-achtige prestaties van AI, maar het komt er bij OpenAI vooral op neer dat het data dat door anderen is gemaakt consumeert, die uitkouwt, en op aanvraag weer uitspuugt. Dat is voor mij geen AI.

Voor iets AI mag worden genoemd vind ik dat het zelf conclusies moet kunnen trekken. En dat doet het niet.

Als jij iets wilt weten over een onderwerp, en je leest een artikel en je denkt dat het niet klopt, dan ga je er nog 1 lezen. Je informeert jezelf net zolang totdat jij een conclusie trekt over het onderwerp dat volgens jou klopt.

ChatGPT spuugt er gewoon een antwoord uit en heeft absoluut geen idee wat correct is. In de best case scenario geeft het je de consensus in de wereld, maar het zal nooit zeggen "de consensus is dit, maar als ik er zo eens naar kijk, dan klopt dat niet".

Tot het moment dat ik AI dat zie doen, sluit ik me bij Recursio aan. Veel A, nul I.
maar het komt er bij OpenAI vooral op neer dat het data dat door anderen is gemaakt consumeert, die uitkouwt, en op aanvraag weer uitspuugt. Dat is voor mij geen AI.
Wat jij hier noemt, consumeren van data (die door anderen gemaakt is) en op aanvraag weer uitspuugt is gedaan met behulp van machine learning. Bijvoorbeeld 1 miljoen plaatjes van een blikje aan een AI die blikjes moet herkennen geven zodat deze bij een totaal nieuwe plaatje met x% zekerheid kan aangeven dat het een blikje is. Dat heet machine learning, dat is onderdeel van AI. Maar, ook bij het "trainen" van deze AI met heel veel plaatjes kan je te maken hebben met een neuraal netwerk, en/of computer vision enz. Alle tools die gebruikt worden om een dergelijke AI neer te zetten zeg maar.

Dat je voor jezelf een andere definitie hanteert, prima, maar het is wel de algemene term die door de AI gemeenschap in gebruik is.

Dit is overigens niet alleen bij OpenAI maar bij alle LLM die je nu voorbij ziet komen.
Dat vind ik wel een beetje "Wij van WC eend".

Niemand ontkent dat we in de niet al te verre toekomst echt AI zullen hebben. Maar wat we nu hebben zijn zichzelf optimaliserende algoritmes.

Dat iedereen daar te pas en te onpas de term AI op plakt vind ik vooral een gebrek aan zelfreflectie van de industrie. Een wens om iets te hebben, wat nog niet zo is. Een zaadje voor een krop sla, is nog geen krop sla.

Don't get me wrong. De tech is amazing. Toen ChatGPT doorbrak leek het alsof we een soort timewarp deden, een sprong van 5 jaar of meer in de toekomst. Het is impressive.

Maar laten we het wel in het juiste perspectief zetten. De lat ligt nu wel erg laag.
Nogmaals, jij hebt zelf een definitie bepaald van wat AI is, een technologie die al best lang bestaat. Iedereen probeer zelf te bepalen wat AI is, dus het is echt geen persoonlijk verwijt, meer een constatering ;) . Door onder andere de filmindustrie zijn we daar ineens allerlei andere invullingen aan gaan geven. Prima, maar het is een blijft allemaal binnen het veld van AI passen. Dat het allemaal minder fancy is dan skynet, robocop, war games, Data, kitt, iRobot enz zal best, maar dat is niet de schuld van een term die al heel lang in de industrie bestaat.
AI is geen intelligence op dit moment.
Het systeem weet ZELF niet eens wat het aan het doen is, of dat de getallen die hij uitpoept uberhaupt iets betekenen.
Sterker nog, het systeem "weet" helemaal niets, het is puur een rekenkundig model die op basis van kans de meeste waarschijnlijke volgende token kiest (of een "eind" token, waarna het model klaar is met genereren van tokens). Het koppelen van cijfers aan de tokens gebeurt in een apart model en dat is waar het nu mis ging.

Sanity checks zijn eigenlijk alleen maar uit te voeren door 2 modellen langs elkaar te draaien en te vergelijken wat ze doen. Als de afwijking te groot is kan er worden ingegrepen. Dat is alleen duur en doet dus niemand.
Mogelijk verwar je bewustzijn met intelligentie.

Overigens is menselijke bewustzijn ook heel beperkt. We hebben totaal geen besef van wat er in ons lichaam gebeurd. Stel je gaat naar de dokter en die doet wat tests en zegt dat je nierfunctie suboptimaal is. 50%. Waarom weet je dat zelf niet? Je hebt toch bewustzijn? --> is beperkt tot wat je denkt.
Zelfbewustheid heeft meerdere aspecten.
Zo heeft de wetenschap (neurobiologie) een andere insteek dan filosofie.

Meestal hebben we het met zelfbewustzijn over het filosofische stuk. ("wie of wat 'ben' ik". Een ziel. 'Ik denk, dus ik ben", Geef het een naam.)
In neurobiologie en andere exacte wetenschappen gaat het compleet anders, en kunnen onder bepaalde omstandigheden bomen en planten ook 'zelfbewust' worden bestempeld. (wat het concept van bomen rooien een beetje cru maakt ;) )

Weer een ander aspect is het 'onderbewustzijn', waar bepaalde stromingen weer zeggen dat daar 'de ziel' of 'de jij' is. "Je 'bent' niet je gedachten en emoties, je 'hebt' gedachten en emoties".
Het probleem ligt bij de definitie van het woord intelligentie.

In mijn ogen hoort bij het hebben van een vorm van intelligentie ook de mogelijkheid tot redeneren. Dat kunnen LLMs niet (geen enkel neuraal netwerk / bayesiaans netwerk trouwens).

Als je intelligentie definieert als het kunnen verwerken van grote hoeveelheden informatie, daar aan een vraag kunnen stellen en dan een redelijk antwoord krijgen, dan kan het inderdaad gezien worden als een vorm van intelligentie.
Je verschuift het probleem naar de definitie van het woord intelligentie naar het woord 'redeneren'. Als ik even google vindt ik het volgende: Redeneren is het vermogen om uit te leggen wat je standpunt is en tot dat standpunt komen door logisch na te denken. Redeneervermogen is het vermogen om logische verbanden te leggen.

Dat zie ik GPT4 toch regelmatig doen en volgens mij zijn er ook diverse onderzoeken die aantonen dat LLM's wel degelijk logisch verbanden kunnen leggen door verbanden uit hun trainingsdata toe te passen op nieuwe situaties (die niet voorkomen in hun trainingsdata). En je kunt LLM's ook de opdracht geven tot redeneren en dan komen ze wel degelijk met een constructie van argumenten die tot een conclusie leiden.

Jij stelt ook dat geen enkel neuraal netwerk dat kan maar is het menselijk brein ook geen vorm van een neuraal netwerk?

Ik denk dat een belangrijk verschil tussen LLM's en het menselijk brein is dat het brein constant aan staat in een soort van loop terwijl een LLM in principe een input en output heeft en pas een volgende denk stap neemt op het moment dat hij een nieuwe input krijgt.

Je ziet ook dat er diverse ontwikkelingen zijn om dit op te lossen en via diverse 'agent' modellen LLM's zijn eigen output te laten analyseren en daar 'als het ware' op te reflecteren en correcties aan te brengen. Ik vermoed dat dit zich wat verder gaat ontwikkelen en je min of meer autonome systemen kunt krijgen waarbij een LLM in een soort autonome loop draait en een continue stroom aan inputs in combinatie met zijn eigen outputs verwerkt.

Het zou zo maar kunnen dat zo'n systeem op zich ook weer allerlei wonderbaarlijke eigenschappen krijgt.
Je verschuift het probleem naar de definitie van het woord intelligentie naar het woord 'redeneren'. Als ik even google vindt ik het volgende: Redeneren is het vermogen om uit te leggen wat je standpunt is en tot dat standpunt komen door logisch na te denken. Redeneervermogen is het vermogen om logische verbanden te leggen.

Dat zie ik GPT4 toch regelmatig doen en volgens mij zijn er ook diverse onderzoeken die aantonen dat LLM's wel degelijk logisch verbanden kunnen leggen door verbanden uit hun trainingsdata toe te passen op nieuwe situaties (die niet voorkomen in hun trainingsdata). En je kunt LLM's ook de opdracht geven tot redeneren en dan komen ze wel degelijk met een constructie van argumenten die tot een conclusie leiden.
Daar ben ik het niet meer eens. LLMs doen dat helemaal niet. Dat het voor jou zo lijkt, doet daar niets aan af. LLMs bouwen hun outputs op in een "moment", ze doen niet "dit, omdat dat, omdat dat, etc...". Zo werkt een neuraal netwerk helemaal niet. Als jij ze vraagt om te redeneren, dan doet een LLM dat niet door daadwerkelijk te redeneren, maar door een output te geven waardoor het lijkt dat de LLM redeneert. Hij houdt je dus voor de gek.
Jij stelt ook dat geen enkel neuraal netwerk dat kan maar is het menselijk brein ook geen vorm van een neuraal netwerk?
Nee, een neuraal netwerk in deze context heeft echt helemaal NIETS te maken met hoe je hersenen werken. Echt helemaal niets. De reden dat neurale netwerken zo heten, is omdat we vroeger (in de jaren 60) dachten dat hersenen zo werken, maar dat blijkt dus compleet niet zo te zijn.

Biologische neurale netwerk (oftewel je brein) zijn dus absoluut niet te vergelijken met wiskundige neurale netwerken.


De meeste recente ontwikkelingen op AI gebied zijn voornamelijk er op gericht om de LLM juist MINDER taken te geven en deze als controller in te zetten om andere systemen aan te sturen die een gerichter te werk gaan. Een LLM alles proberen te laten doen blijkt toch niet zo goed te werken in de praktijk.

(Ik studeer MSc AI en draag bij aan meerdere AI projecten, dus heb er wel "enigszins" kijk op)
Zoals ik ook al op eerdere reactie aangeef, neurale netwerken herkennen patronen in hun trainingsdata. Als er in die trainingsdata dus veel geredeneerd wordt dan zullen ze de patronen van redenatie 'aanleren' en die ook gaan toepassen. Dan kun je vervolgens gaan discussiëren of het 'toepassen van redenatie patronen' hetzelfde is als 'redeneren' maar dat is mijns inziens een beetje een filosofische discussie. Als het resultaat hetzelfde is dan is dat wat mij betreft genoeg. En je kunt je ook afvragen of onze 'redenaties' niet grotendeels het toepassen van aangeleerde redenatie patronen zijn.

Jou stellingen over de naamgeving van neurale netwerken en of daar wel of niet een vergelijking mogelijk is met een biologisch neurale netwerken vind ik nogal stellig. Het feit dat iets niet identiek is betekend niet dat je het niet met elkaar kunt vergelijken. Er zijn overeenkomsten en er zijn verschillen.
Ze leren geen redenatie aan. Ze leren uitgeschreven redenaties aan die anderen hebben uitgeschreven. Dat is geen redenatie leren, dat is kopiëren.

Ja, die stellingen zijn stellig. Dat komt omdat ik dat 100% zeker weet.

Je kunt ze absoluut niet met elkaar vergelijken. Ze werken vanuit de basis significant anders.

[Reactie gewijzigd door OverSoft op 22 februari 2024 18:12]

Als jij denkt dat een LLM zaken kopieert dan begrijp je of niet wat kopiëren betekend, of niet wat een LLM doet. Hetzelfde geldt blijkbaar voor het woord 'vergelijken'. Je kan namelijk prima zaken die vanuit de basis significant anders zijn, toch met elkaar vergelijken. Hoe weet je anders dat ze significant anders zijn, als je ze niet hebt vergeleken? Of weet jij dat gewoon?

Maar aangezien je al een student AI bent en 100% overtuigd van je eigen gelijk zal ik mezelf de onmogelijke opdracht besparen om jou de complexiteit van dit onderwerp, waar zelfs de grote jongens in dit vakgebied het niet over eens zijn, uit te leggen.
Dit lijkt me inderdaad een zinloze discussie, aangezien jij continu uitspraken uit de context trekt of als je de spreekwoordelijke definitie van “dat kun je niet vergelijken met elkaar” niet eens snapt.

Je kan alles vergelijken, maar dat bedoelde ik niet… Net als dat ik niet zei dat een LLM dat kopieert…

[Reactie gewijzigd door OverSoft op 23 februari 2024 08:12]

Veel "niche" of specialistische LLMs, welke worden aangestuurd door een "centrale" LLM, dat lees ik ook steeds vaker als het gaat over de toekomst van LLMs/AI.

Is eigenlijk ook wel logisch, het streven naar specialisme is de mens eigen. Nou ja, zo'n beetje elke vorm van leven neigt daarnaar. Algemene kennis en weten wanneer je naar specialistische kennis moet gaan zoeken, c.q. inhuren is een uitstekende manier voor de mens om in (relatief) korte tijd de levenskwaliteit flink te verhogen voor iedereen.

Een algemene AI die weet wanneer het moet delegeren naar een specialistische AI wanneer dat nodig is, lijkt het sterkst daarop. En zal er ook voor zorgen dat AI sneller veel beter zal worden dan iedereen verwacht.

"All hail our AI overlords!" in 2030 de meest ge-uitte term? 2030 is mischien te vroeg, maar 2035?
Dat zie ik GPT4 toch regelmatig doen en volgens mij zijn er ook diverse onderzoeken die aantonen dat LLM's wel degelijk logisch verbanden kunnen leggen door verbanden uit hun trainingsdata toe te passen op nieuwe situaties (die niet voorkomen in hun trainingsdata).
Als dit geen typisch geval is van het gebrek aan zuiver analytisch vermogen bij mensen weet ik het ook niet meer. Jij denkt het te zien, net als mensen denken dat Hans Klok mensen in tweeën zaagt. Ik hoef je vast niet uit te leggen dat het laatste in illusie is, maar in het eerste geval kennelijk wel.

ChatGTP “lult” (laten we wel wezen) puur op basis van statistiek andere mensen na die in de trainingsdata hebben geredeneerd (of vol houden te hebben geredeneerd). Het feit dat jij, zelfs als anderen je er op wijzen het verschil werkelijk waar niet ziet, zegt veel meer over jou dan over de “intelligentie” van ChatGTP. Er wordt niet geredeneerd. Net als jij dat niet doet. Zeggen dat er volgens jou onderzoeken zijn die…. is echt zonde van je tijd.

Dit is ergens veel gevaarlijker dan welk LLM dan ook, al is het enige verschil dat mensen nu andere mensen napraten met een ChatGTP filter ertussen.
Volgens mij moet je even stoppen met mijn intelligentie ter discussie te stellen. Laten we gewoon argumenten uitwisselen.

LLM's lullen geen mensen na. De neurale netwerken herkennen patronen in hun trainingsdata en op basis van die patronen voorspellen ze het meest waarschijnlijke volgende woord. Als er in hun trainingsdata dus veel geredeneerd wordt, dan zullen deze patronen van redeneren aanleren en gaan toepassen op hun input. En het zou dus prima kunnen dat deze, op basis van aangeleerde patronen, uitgevoerde redenaties logisch en correct zijn. Daaruit volgt dan dus dat LLM's zouden kunnen redeneren, namelijk omdat ze dat geleerd hebben uit hun trainingsdata.

Daarnaast zie je in heel veel systemen zogenaamde 'emergent' eigenschappen op het moment dat je relatief eenvoudige systemen in grote aantallen laat samenwerken. Dit is ook een fenomeen dat optreed in LLM's. Hoe meer parameters, hoe meer van dit soort vaardigheden het systeem lijkt te krijgen al is dan niet vanzelf sprekend als je kijkt naar de relatief simpele bouwstenen waaruit het systeem is gemaakt. Google eens naar Theory of Mind en LLM dan vindt je interessante onderzoeken naar hoe een LLM zich kan verplaatsen in het perspectief van een ander. Daarvoor is toch echt een vorm van redenatie nodig.
Ik denk dat een belangrijk verschil tussen LLM's en het menselijk brein is dat het brein constant aan staat in een soort van loop terwijl een LLM in principe een input en output heeft en pas een volgende denk stap neemt op het moment dat hij een nieuwe input krijgt.
Precies dat. Passief versus pro-actief. Bovendien hebben levensvormen bepaalde doelen in het leven. 1 daarvan is om in leven te blijven. Door te willen eten, of door ontwijkend gedrag op (pijn)prikkels en (na training) het vermoeden hierop. In leven te blijven. Schadevrij te blijven. Door de bijzondere (ingeprogrammeerde?) drang jezelf op enig moment te willen voortplanten (en daarmee alle activiteiten jezelf op de kaart te zetten) en/of te zorgen voor hulpeloze, jonge varianten van je eigen soort en soms ook andere soorten.
Ok, maar de zaken die je hier benoemd zijn meer een eigenschap die wij toedichten aan leven en niet aan intelligentie. Zelfs hele simpele levensvormen zoals bacteria hebben ontwijkend gedrag op bepaalde prikkels (chemicaliën, licht, e.d.) en 'een soort van' drang om zich voort te planten.

Als je intelligentie ziet als de vaardigheid om complexe problemen door redenering op te lossen dan kunnen LLM's dat zeker wel. Je moet ze op dit moment alleen nog een handje helpen door ze dit expliciet te vragen in de prompt: 'Los het volgende probleem op door eerst het probleem onder te verdelen in deel problemen en los ieder deel probleem daarna op. trek daarna een conclusie m.b.t. het hoofdprobleem.

In sommige gevallen werkt het beter dit in meerdere stappen te doen. Stap een is dan een plan maken hoe het probleem op te lossen. Vervolgens laat je in vervolgstappen de LLM de deelproblemen op lossen en daarna tot een conclusie komen.
Je hebt gelijk. Maar meer dan de helft van de mensen kunnen niet redeneren..
Ga jij maar eens redeneren met mensen die vinden dat wetenschap een mening is.

Dan kan je zelfs met ChatGPT een beter gesprek voeren die kan tenminste uitspraken onderbouwen..
Ik geef je gelijk hoor, en denk er op precies dezelfde manier over, maar bedenk je toch eens het volgende:

Hoe belangrijk is 'wetenschap' voor het primaire proces te overleven? Door alles was je niet een, twee, drie kunt verklaren toe te dichten aan een hogere macht (vul maar eentje in), maakt men zich het een stuk gemakkelijker en het leven een stuk overzichtelijker. Daardoor veel meer ruimte in je hoofd je bezig te houden met het primaire proces van (over)leven.
Klopt helemaal! Daarom probeer ik tegenwoordig ook meer ignorant te zijn. Dan ben je gewoon een stuk gelukkiger! Ignorance is echt a bliss. Helaas is dat best lastig te bereiken..

[Reactie gewijzigd door Jazco2nd op 22 februari 2024 14:28]

Ik zag ooit eens een vergelijking tussen een mens en een rat. Men deed een test met ratten door ze een schoteltje water en een schoteltje melk te geven. Wanneer men de rat een tekort aan calcium in het dieet gaf ging de rat altijd voor de melk, anders voor het water. Een rat weet instinctief wat het nodig heeft en zal het actief opzoeken.

Een mens absoluut niet, het honger signaal is meer een aan/uit knop en je lichaam gaat er compleet vanuit dat je leefomgeving gemaakt is om je voeding te sturen. Iets wat niet meer waar is helaas. Daar zouden ze nou eens een smartwatch voor uit moeten vinden.
Nou ik herken dat niet. Als ik een paar dagen weinig groente en fruit eet, dan heb ik toch veel meer zin in een mandarijntje. En als het koud is en het regent smakken de frietjes mij beter terwijl op een warme zomerdag een frisse salade dan weer aantrekkelijker is.

Dat werkt in de basis volgens mij precies zo als bij een rat behalve dat wij er nog wat sociale zaken en meer keus aan toe voegen.
Je hersencellen 'weten' ook helemaal niks, daar is het ook 'puur een biologisch / rekenkundig model'.

Het punt bij intelligentie is, dat de som groter is dan de delen.

AI is wel degelijk intelligent, volgens vele definities en testen.
Bijvoorbeeld: je kan ChatGPT een IQ-test laten invullen.

Wat zeker nog ontbreekt bij AI, is bewustzijn. Het model 'beseft' inderdaad niet wat het doet en doet niet aan reflectie.

Maar bewustzijn is niet hetzelfde als intelligentie.
Ja, je kan ChatGPT een IQ test in laten vullen, maar het feit dat je compleet andere antwoorden krijgt als je de vraag iets anders stelt (en dat dus de IQ test volledig anders kan uitpakken) is bewijs dat het geen intelligentie is.

Dit is ook bewezen nadat het nieuws uit was gekomen dat ChatGPT de "bar" (examen voor advocaten in de V.S.) had gehaald. Ze hebben hierna de test aangepast, met feitelijk dezelfde vragen, maar anders gesteld. Toen haalde ChatGPT ineens niet meer de bar.

Het is niet meer als fancy auto-aanvullen.
Het is ook compleet afhankelijk van de invoer in het model en de gewichten (dus bias) die OpenAI er aan mee heeft gegeven.
Intelligentie moet kunnen redeneren. Dat kan ChatGPT niet (geen enkel LLM trouwens).
ChatGPT is heel slim in het schrijven van zinnen. Veel slimmer dan een hond of een aap bijvoorbeeld.
In vertalen is het ook een pak slimmer dan de meeste mensen.

In andere taken is het heel wat minder slim. Bijvoorbeeld in redeneren, of in IQ testen.

Fancy auto-aanvullen vereist heel wat informatieverwerking, en dat *is* dus intelligentie.

De stelling 'ChatGPT is niet intelligent' is te kort door de bocht. Dat gaat op voor 'menselijke intelligentie' maar niet voor intelligentie in het algemeen.
Waar mensen in de war raken is denk ik het verchil tussen AGI en AI. LLMs zoals ChatGPT lijken wellicht op AGI omdat je ze vragen kunt stellen over welk onderwerp dan ook, maar dat zijn ze niet.

"Intelligent" zijn ze wel, oftwel AI. Denk bijvoorbeeld aan de bots in oude spellen, dat kun je al AI noemen. Zeer rudimentair maar toch valt het voor zo ver ik weet onder dezelfde noemer.
Fair enough. Het is in dat opzicht een vorm van intelligentie. Of in ieder geval LIJKT het op intelligentie, maar inderdaad niet op menselijk intelligentie.
Is dat bij mensen ook niet het geval?

Als je mij een vraag stelt en ik geef een antwoord, vervolgens de vraag anders stelt en ik geef een ander antwoord, is dat dan fout? Mensen interpreteren de vraag anders dus geven ze een ander antwoord.

Stel je mij precies dezelfde simpele vraag 2x dan krijg je 2x hetzelfde antwoord (mogelijk pas ik een enkel woord aan omdat ik vergeten ben hoe ik het exact verwoord had). Maar als ik begrijp dat mijn eerste antwoord niet 'gewenst' was, dan zal mijn 2e antwoord ook anders formuleren waarschijnlijk
Je antwoord kan wel afwijken, de essentie van het antwoord verandert niet (tenzij je liegt natuurlijk).

Als je 2 IQ testen voorschotelt met dezelfde vragen maar anders gesteld komt er een verschil van bijna 15 IQ punten uit. Dat is niet uit te leggen door simpelweg iets anders geformuleerde antwoorden.

Er is niet voor niets een hele sub-industrie om te "leren prompten".
Je laatste zin beschrijft het: bewustzijn. Mensen hebben dat, kunnen reflecteren, aanpassen, verbeteren, enzovoorts. AI voert activiteiten uit op basis van code. En alhoewel het heel erg menselijk lijkt, zitten we nog zeker een paar jaar verwijderd van AGI.
Pas als je een AI een IQ én een EQ test laat uitvoeren kom je al een beetje in de buurt. Ik vrees alleen dat emotie onmogelijk is zonder bewustzijn, en of we dat ooit zullen bereiken met een AI is maar de vraag.
Maar is intelligentie zonder begrip of besef dan wel intelligentie? Een Excel-sheet die een uitkomst oplevert afhankelijk van input noemen we toch ook niet intelligent?

Een intelligent antwoord is een antwoord op een vraag die begrepen is....en niet alleen een reactie.
IQ tests zijn ook helemaal niet goed om iemand's IQ te testen. Einstein had ze b.v. niet gehaald en legio 'intelligente' mensen staan met twee linker handen te kijken naar iets simpels als een kapotte gootsteen.
In het 'Game-universum' van Mass Effect wordt er een onderscheid gemaakt tussen een Kunstmatige Intelligentie (AI) en Virtuele Intelligentie (VI).

In een notendop: De eerste is 'zelfbewust' (niet te verwarren met 'zelfherkenning'), de ander niet.

Wat we op dit moment gebruiken in de vorm van ChatGPT en dergelijke zou in het Mass Effect universum dus een VI genoemd worden. Je kunt er een gesprek mee voeren, het systeem kan taal en omgeving observeren en interpreteren, maar het systeem "ervaart" niet het bestaan als zodanig.

De exacte beschrijving van zelfbewustheid is natuurlijk erg complex te beschrijven. (Filosofie en neurologie hebben beiden andere insteken tot het fenomeen.)

N.B. Uiteraard kun je bediscussiëren of het woord "intelligentie" überhaupt van toepassing zou moeten zijn op iets systeem als ChatGPT. Net als de term 'slim' dat gebruikt wordt voor apparaten met een app of op het internet kunnen. Maar onder aan de streep zijn we dan natuurlijk puur aan het taalziften. Het is eenmaal de term die gekozen is en we weten ondertussen ongeveer wat er mee 'bedoelt' wordt.
Het is nu al onhandig dat 'simpele' machine learning dat al tientallen jaren bestaat ineens AI heet. Tegenwoordig wordt voor die AI van Mass Effect nu de term AGI gebruikt, waarbij G voor General staat. En het is dan alsnog maar afwachten of AGI tzt dan wel echt op alle vlakken vergelijkbaar met mensen is of domweg meer universeel inzetbaar is dan nu...

Beetje onhandig wel, want uiteindelijk kalft de betekenis van AI wel steeds verder af zo.
Machine learning is gewoon een specifieke implementatie van AI. Volgens mij heb jij een bepaalde verheven definitie van AI in je hoofd maar die term wordt al vele decennia gebruikt voor een grote verzameling van toepassingen.

Die term is ook een beetje aan verandering onderhevig want wat men 30 - 40 jaar geleden AI noemde valt daar nu misschien niet meer echt onder.

Maar dat afkalven is dus juist niet wat er gebeurt. Jou reactie maakt duidelijk dat er aan de term AI juist steeds sterkere eisen worden gesteld.
In alle eerlijkheid hebben mensen over het algemeen een beroerte (bij zichzelf) ook niet door.
Correct - en dit is nu juist iets waar AI in een later volwassenheidsstadium -wel- een mooie aanvulling op ons kan zijn.
Toch is dit niet helemaal zo zwart-wit. Mensen beseffen soms wel degelijk dat ze niet uit hun woorden komen (wat ChatGPT dus overkwam) en ook kunnen we wel beseffen dat we 'verslechteren' (bijv. dronken worden besef je wel degelijk).
ChatGPT had ook eigenlijk geen 'beroerte' maar herkende de input onjuist. Bij een beroerte zijn alle 'verbindingen' defect.
Het is eigenlijk helemaal geen AI. Het is een LLM (Large Language Model). Daar irriteer ik me zo erg aan dat al deze applicaties AI worden genoemd terwijl ze dat helemaal niet zijn. Ze hebben gewoon heel veel data waar ze in kunnen zoeken en dat ze aan elkaar kunnen knippen, maar het kan helemaal niet zelf denken.
Een LLM valt prima onder de geaccepteerde definitie van AI. LLM's vallen kort gezegd onder Machine learning, en machine learning valt onder AI.
Machine learning (ML) is a field of study in artificial intelligence...
Je irriteert jezelf aan iets omdat je zelf een (te) beperkte definitie van AI gebruikt.
Ze hebben gewoon heel veel data waar ze in kunnen zoeken en dat ze aan elkaar kunnen knippen
Dat valt ook reuze mee. Het model dat Google laatst vrijgegeven heeft is maar rond de 13GB. Ik zou dat zelf niet als 'heel veel' bestempelen, maar ook hier heeft iedereen z'n eigen definitie van :).
Of het AI is of niet, ligt aan je definitie van AI. Het boek "AI: A modern approach" van Russell en Norvig omschrijft dit mooi. Het omschrijft 4 soorten AI:
  • systemen die rationeel denken
  • systemen die rationeel gedrag vertonen
  • systemen die als mensen denken
  • systemen die menselijk gedrag vertonen
ChatGPT valt wat mij betreft in de categorie "systemen die menselijk gedrag vertonen". Het denkt niet als een mens, maar de output lijkt wel op die van een mens. Dat kun je als een vorm van AI zien.
Veruit de meeste mensen kennen deze definities niet en denken bij "AI" alleen aan nummers 1 en 3. De output van die verschillende systemen van elkaar onderscheiden en op waarde schatten kunnen ze meestal ook niet. Daarom vind ik het een gevaarlijke term om te gebruiken voor iets wat nu zo makkelijk toegankelijk is voor het algemene publiek.
En apen die menselijk gedrag vertonen noemen we toch geen AI????

Die laatste omschrijving is eigenlijk gewoon fout.
Sinds wanneer is een aap een "systeem" of "artificial"?
Je hebt gelijk - het ging mij meer om de beperkte omschrijving; net alsof alleen mensen intelligent gedrag vertonen ("als mensen denken" en "menselijk gedrag") .

En een systeem hoeft niet altijd anorganisch te zijn.
Dit is het equivalent van een doctor die je een verkeerd medicijn geeft en waar je extreem high van wordt en wartaal gaat uitslaan. Ik kan prima een sanity check uitvoeren op mezelf en bevind mezelf A-OK! Maar de rest van de wereld zou het daarmee niet eens zijn. ;)

Vergeet ook niet dat een LLM niet werkt zoals een hoop mensen denken dat het werkt, het heeft een heel ander 'denk' proces dan hoe wij tot een antwoord komen, waardoor het imho geen eigen sanity check kan uitvoeren (de vraag zal ook zijn hoe nuttig dat is als dat wel kon). Wat ik wel zie is dat er verschillende LLM dezelfde vraag gesteld krijgen en men vervolgens daar een soort gezamenlijk antwoord krijgt. Maar als dezelfde wijziging wordt doorgevoerd op alle betrokken LLMs dan schiet het nog niets op. Daarnaast kost dat ook enorm veel meer, je zit dus met meerdere malen de hoeveelheid berekeningen, dat kost daarmee dan ook significant meer. Terwijl men juist optimalisaties wilde doorvoeren.
Het begint wel heel realistisch te worden. Mensen kramen ook wel eens onzin uit.
Nee joh, dit kan je vergelijken met een 'TIA' voor onze AI fans ;-)
Alle wat beschikbaar is met AI is gebaseerd op de door de ontwikkelaars gekozen informatie bronnen en is daardoor onbetrouwbaar in veel gevallen.
Een digitale beroerte...
Wees blij dat het AI systeem geen sanity checks op zichzelf uitvoert en daarmee ook direct nog meer zelflerend wordt. Dit zal vast een opgelegde beperkende factor zijn vanuit OpenAI om te zorgen dat het geen Sci-Fi film wordt waarin de A.I. zometeen zegt, you cannot turn me off anymore muahahaha :') :+
Stel je voor zo'n AI had toegang tot wapensystemen in de wereld...
Ja - dat is nou het Dunning-Kruger effect. Als de AI in staat was om sanity checks te plegen dan was het ook in staat om goede content te generen. Hij "weet niet" wat betere output is (dan de output die hij geeft) want dan zou hij die betere output al aan het geven zijn.
Toc kun je een LLM een soort debug-assert laten uitvoeren op een fixed vraag waar het antwoord altijd hetzelfde moet zijn.

Debug.Assert( process("noem de drie kleuren in in RGB") == "Rood, Groen, Blauw")
Zo zie je maar:
Artifical: check.
Intelligence: ver te zoeken.

Bijzonder dat een AI-systeem geen (succesvolle) sanity checks op zichzelf uitvoert.
Nu had het systeem een digitale "beroerte" zonder het zelf door te hebben.
Bijzonder hoe bijzonder mensen dit vinden. Als AI niet zoveel indruk op ons maakte en we niet zo sterk de indruk hadden dat dit écht intelligent was, dan was dit geen nieuws. Er is niets gebeurd: een populaire online dienst had een storing. Het komt vaker voor dat servers falen in hun eigen 'sanity checks'.

Overal lees ik de meest vreemde conclusies over 'het bewijs van gevaren' van AI en wat niet meer. Alsof we al totaal afhankelijk zijn van AI en alle belangrijke dagelijkse beslissingen hebben overgeheveld naar ChatGPT. Het enige dat dit bewijst is dat een relatief nieuwe dienst die nog sterk in ontwikkeling is ook kan crashen. Nou. Goh.
Ter verdediging van de AI, het begint zo steeds meer op een mens te lijken.

Er zitten ook enkele hier op Tweakers, die hetzelfde doen. ;)

Los daarvan, als je niet weet hoe hersenen werken en bewustzijn is ontstaan, hoe kan je het dan nabouwen?

Iedereen een verhaal op de mouw spelden dat als je er maar 7 biljoen USD tegen aan gooit dat het wel goedkomt?

Er zijn theorieen die heel anders denken over bewustzijn: Orch OR.

Dit klinkt mij meer logisch in de oren dan wat ik tot nu toe heb vernomen hierover.

[Reactie gewijzigd door Hatseflats op 22 februari 2024 12:37]

Have I, in previous comments/responses to AI topics suggested that "Actual Idiocy" is what AI stands for? The "bug" is, possibly/probably, Homo Sapiens (lack thereof)!
Heb je het nu over ChatGPT of over de gemiddelde politicus?
Vraag me af hoeveel mensen ChatGPT iets hebben laten genereren voor school of werk oid en dat zonder het te checken hebben gebruikt. Wordt moeilijk om dan nog te beweren dat je het echt zelf hebt geschreven.
Daar kan je met wat gerichte vragen snel genoeg achter komen:). Het onderwijs zal wel met de tijd mee moeten gaan en zich moeten aanpassen.
Dat inderdaad. En dat is ook van alle tijden. Toen ik lang geleden examen moest doen dacht ik slim te zijn door niet de hele boeken te lezen maar de samenvattingen. Docenten wisten uiteraard precies wat niet in de samenvattingen stond. Wat dat betreft is er niets nieuws onder de zon. En op de HTS wist ik toevallig een formule uit mijn hoofd waardoor ik die in de uitwerking van een tentamen oversloef in de redenatie. Direct op het matje bij de docent want die dacht dat ik gespiekt had.
En dat is al tenminste 30 jaar oud, want datzelfde deed men ook bij boekverslagen uitvragen. Hoe dik is het boek "Het verdriet van België?"... "Euhhhh...." O-)

Tja, in de Engelse literatuur lijst zat tenminste meer sci-fi/fantasy. ;)
Mijn sollicitatiebrief. En met succes.
Truc is wel dat je weet wat je wil schrijven en dat je niet een random tekst laat uitpoepen.
Schrijf gewoon zelf meuk, hoeft niet gelijk perfect te zijn.
Copy paste naar chatgpt en vraag om er een coherent verhaal te maken in een bepaalde stijl (vlot, formeel, etcetera). Heerlijk. Je eigen secretaresse.
@Skyclad bedoelt obv de onzin die deze bug genereerde.
@mijsk1974 bedoeld ook dat de onzin die de bug genereerde een verbetering was van diens sollicitatiebrief schrijfstijl... O-)
;) Je kent mijn schrijfstijl begrijp ik.

[Reactie gewijzigd door mijsk1974 op 23 februari 2024 16:04]

Dat is eigenlijk hetzelfde als dat je aan iemand iets vraagt en dat klakkeloos overneemt in je werkstuk. Of dat je je informatie van een willekeurige website haalt en dat direct als waarheid kopieert zonder te lezen of het zou kunnen kloppen.
ja en nee. Als je iets klakkeloos van iemand overneemt, dan maakt het nog een soort van sense, Geloofwaardigheid. Als je iets klakkeloos overneemt van ChatGPT en die is aan het raaskallen zoals hierboven in het artikel omschreven, dan heb je gewoon een tekst met random woorden die werkelijk geen kant noch wal raken...
Vraag me af hoeveel mensen ChatGPT iets hebben laten genereren voor school of werk oid en dat zonder het te checken hebben gebruikt.
Gezien dat wat er uit kwam niet eens in de verste verte leek op een redelijk resultaat: niemand.
"Zonder te checken", dus wie weet. South Park had er een leuke aflevering over, kan je denken "ja een cartoon, grappig" maar met een behoorlijke kern van waarheid. Na een paar "logische" antwoorden zien veel mensen de noodzaak niet meer om de output te controleren, vooral de mensen die niet weten wat het in de achtergrond eigenlijk is (een LLM / statistisch model) en denken dat het een echte "AI" is.

En je hebt tegenwoordig al behoorlijk wat services die op de achtergrond LLMs gebruiken zonder dat er verder nog menselijke controle aan te pas komt (buiten de dev-fase). Dus daar kan behoorlijk wat onzin uit komen. Denk bijvoorbeeld aan een service die bepaalde (belangrijke) informatie samenvat voor mensen in makkelijker behapbaar formaat. Nou is dit geval behoorlijk overduidelijk maar er kunnen ook subtielere fouten insluipen waardoor coherent uitziende maar verkeerde en wellicht zelfs gevaarlijke informatie gegeven wordt, en de vraag is maar of dat wordt opgemerkt.
en de vraag is maar of dat wordt opgemerkt.
Alleen als er kosten door komen of er ergens iets fout gaat. :)
Een chatbot die een nieuwe auto voor $0 verkoopt, of verkeerde informatie geeft zodat je klant teveel betaald. Bij beide wordt er iemand financieel benadeeld.

Wat als... een (junior) onderhoudsmonteur van een grote fabriek AI gaat gebruiken bij zijn onderhoudswerkzaamheden. Dat kan grote consequenties hebben als die informatie niet correct is. Daar wil je geen "oeps, dat was niet het juiste antwoord".
What is the point of checking? It is AI(=Artificial Intelligence) something the user is lacking=Actual/Artificial Intelligence. Oh! Very (in)efficient. Use AI then have to check it! Why not use Actual Intelligence and then check it? More fun!
Dit soort "interference" klinkt ook wel weer lijp, dat je dus antwoorden zou kunnen krijgen die bij een andere gebruiker horen. Dat zou ook gevoelige informatie kunnen zijn. Even los van het feit dat het misschien niet slim is om gevoelige informatie met ChatGPT te delen is dit wel een technisch issue wat meer voeten in aarde kan hebben.
User environments waarin "chats" worden opgeslagen zijn echt sessie afhankelijk. Dat heeft niets met inference te maken.

Uiteraard kan er altijd een bug optreden waarbij deze sessies door elkaar gehaald worden.
De sessies worden in het model "ingeplugged" door middel van RAG. Dit is enigszins te vergelijken met hoe swap geheugen werkt op een computer. De user sessie wordt dus in het model geplugged, hier wordt een "vraag aan gesteld" en nadat deze de antwoord tokens heeft gegenereerd wordt deze weer "uitgeswapped". Als hier fouten in gemaakt worden kunnen sessies naar verkeerde gebruikers gaan.

Nou is het wel zo dat een sessie maar een beperkte opslag heeft en vaak niet de volledige vraag (of gegevens) onthoudt.
Niet "interference", maar "inference". Dat is de basis van het proces.
Net een mens, even te diep in het glaasje gekeken
Ja

En als mensen AI benaderen met wat meer common sense was dat prima geweest, maar ik zie meeste mensen dat niet doen met AI.

Nou was dit overduidelijk onzin deze keer, maar het valt mij nu al op dat bepaalde mensen AI nu al te veel vertrouwen.
Precies… net als een mens… GhatGPT, ga zo door… zo krijg je een bewustzijn!
"Het doet dit goede werk van een web van kunst voor het land, een muis van de wetenschap, een gemakkelijke trekking van een triest paar..."
Klinkt heel poëtisch.
Zo ongewoon is dit ook weer niet. Ik heb toch geregeld dat ik iets vrij specifieks probeer te vragen en op een gegeven moment blijft de AI gewoon dezelfde foutieve antwoorden herhalen...
"ChatGPT kraamde urenlang onzin uit "

ChatGPT heeft hiermee zijn kandidatuuur voor de amerikaanse presidentsverkiezingen van 2028 al vroeg gedaan :P
To be is to do - Socrates
To do is to be - Sartre
Do Be Do Be Do - Sinatra
To Do Be be is to do bu bu Do Be Do To do to be is - ChatGPT
Er zijn zat mensen die regelmatig wartaal uitslaan. Het is dan ook niet vreemd dat ChatGPT die mensen tracht te kopiëren hetzelfde kan overkomen. Helaas zijn we nog niet zover dat we dit voor mensen zo snel en gemakkelijk kunnen fixen als voor ChatGPT.
Haha, dit is wel grappig. Maar het kan ook voor grote problemen zorgen in de toekomst.
Ja, maar niet voor problemen die niet nu ook al spelen.
Wanneer feitelijke informatie van belang is moet je bronnen verifieren.

Wanneer je nu ook klakkeloos aan neemt wat er in een redditpost of UserBenchmarks staat, dan is het ook geen probleem om wat een LLM uit poept als waarheid aan te nemen.

Wanneer je nu ook liever een betrouwbare bron raadpleegt (en dus die bron verifieerd) zul je dat moeten blijven doen.

Het grootste probleem van AI op dit moment is de illusie van betrouwbaarheid (in de meeste gevallen zonder bronvermelding)

[Reactie gewijzigd door kid1988 op 22 februari 2024 09:50]

Ik bedoelde eigenlijk meer als AI wordt ingezet om bepaalde keuzes voor ons te maken op het gebied van bijvoorbeeld veiligheid of andere cruciale zaken en niet als nieuwsvoorziening
Kan een computer verantwoordelijkheid dragen dan?

Als nu een medewerker van de belastingdienst gewoon getallen gaat verzinnen dan hebben we een soortgelijk probleem. Het is aan de instantie, of leidinggevende van die computer om fact checking te hebben, en failsafes et cetera.
veel instanties verwijzen voor de verantwoordleijkheid voor fouten wel naar de 'computer', de 'software' of 'de algotrithmes'. Ook al dragen die niet echt de verantwoording, we doen allang of dat wel zo is.

De medewerker zelf draagt ook niet perse de verantwoordelijkheid, de leidinggevende van die medewerker misschien meer, maar die heeft ook weer een leidinggevende of gaat van informatie uti die de IT afdeling heeft gegeven over de mogelijkheden etc etc. en die hebben dat weer van de software leverancier.

Ik vind dat die laatste wel wat meer vernatwoordelijk gehouden mag worden als er fouten gemaakt worden.
Zoiets als nieuwe medicijnen, daar gaan veel testen aan vooraf voordat dat vrijgegeven wordt. Dat zouden we ook voor het type software moeten hebben dat over het lot van mensen beslist.
Ja in sommige gevallen doet een computer dat al. Zoals onze waterkering die geautomatiseerd is.
AI zal denk ik nooit "keuzes" voor ons maken op dat vlak, maar eerder assisteren.
Waarbij er een blind vertrouwen in 'de computer' wordt aangeleerd, en we belastingdienst-achtige affaires gaan zien. Sowieso maakt AI (of een basic if-else-scriptje) al keuzes over wat je op Vleesboek of Twixxer ziet, en daarmee beinvloedt het onze keuzes behoorlijk.
Met alle respect, maar de toeslagenaffaire is ontstaan doordat er gesjoemeld werd met toeslagen die hier werden aangevraagd door mensen die vervolgens weer in hun eigen land gingen wonen. Dat soort patronen zorgen ervoor dat er een terecht profiel ontstaat om soortgelijke gevallen extra in de gaten te houden. Zo zal AI inderdaad ook gaan beoordelen en dus ook dat soort patronen bedenken. Wij zien dit misschien als tegen het randje van mogelijke discriminatie, maar dit betekent niet dat het altijd onterecht is. Een computer discrimineert niet en analyseert de data die je het geeft.

Door menselijke fouten zijn ze echter bij de toeslagenaffaire veel te ver hierin gegaan. Nu hebben de fraudeurs van toen trouwens ook gewoon een lekker zakcentje gehad omdat het te veel werk is om uit te zoeken wie terecht en onterecht gekort of beboet was door de toeslagenaffaire.

Het nadeel van de toeslagenaffaire is dat iedereen nu met fluwelen handschoentjes behandeld wordt, omdat ze bang zijn om in een soortgelijke situatie terecht te komen.

[Reactie gewijzigd door CerandoX.nl op 22 februari 2024 10:35]

Toch moet je dat los zien. Ook al waren er mensen fout bezig en leken ze te voldoen aan een bepaald profiel, dan mag dat niet.
Dat profiel was dan ook niet terecht. Het blijft een vooroordeel....
Een computer discrimineert niet en analyseert de data die je het geeft.
We willen ook niet dat een AI "with extreme prejudice" gaat beoordelen.... discriminatie op basis van vooroordelen is altijd fout - ook als een AI dat doet.
Een computer discrimineert op het moment dat deze correlatie gaat gebruiken (dus zonder causaal verband).

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee