'OpenAI kondigt maandag zoekmachine op basis van ChatGPT aan'

OpenAI zou volgende week een eigen zoekmachine willen aankondigen, zeggen bronnen binnen het bedrijf tegen Reuters. Die zoekmachine is gebaseerd op het ChatGPT-model en zou onder andere verwijzingen naar bronnen bevatten en up-to-date-informatie bevatten.

Volgens Reuters zeggen twee anonieme bronnen dat OpenAI op maandag zijn eigen zoekmachine wil aankondigen. Er gaan al langer geruchten rond dat OpenAI een eigen zoekmachine wil opzetten, die de directe concurrentie met Google aan zou kunnen gaan. Tot nu toe was nog niet duidelijk of die er in de eerste plaats zou komen en wanneer dat dan zou zijn.

Als OpenAI de tool inderdaad maandag aankondigt, is dat een saillante timing. Op dinsdag begint namelijk Googles ontwikkelaarsconferentie I/O, die waarschijnlijk grotendeels in het teken van AI komt te staan.

Volgens de bronnen van Reuters zou OpenAI's zoekmachine zijn gebaseerd op ChatGPT, maar het is niet duidelijk op welke versie van de AI. De zoekmachine zou in ieder geval direct op internet kunnen zoeken naar actuele informatie, iets wat het huidige ChatGPT-systeem niet kan. Daarnaast zou de zoekmachine aan bronvermelding doen zodat gebruikers door kunnen klikken naar informatie. Ook dat ontbreekt nu nog in ChatGPT, maar concurrenten als Googles Gemini en Microsofts Bing doen dat wel.

Update: in het artikel stond aanvankelijk dat OpenAI de zoekmachine maandag uitbrengt. Dat is onjuist; het bedrijf zou die volgens de geruchten dan aankondigen.

Door Tijs Hofmans

Nieuwscoördinator

10-05-2024 • 12:19

67 Linkedin Whatsapp

Reacties (67)

67
67
27
1
0
29
Wijzig sortering
Dat bestaat al volgens mij? https://www.perplexity.ai/
Gratis, bronvermeldingen en gebaseerd op ChatGPT
Domme vraag: kan google gewoon niet ai implementeren in zijn zoekbalkjes ?
Het gaat erom hoe goed je het doet. En tevens leunt Google Search zwaar op AdWords wat de kwaliteit van de bovenste resultaten te min doet.
Ja, dat gaan ze misschien ook aankondigen op hun aankomende ontwikkellaarsconferentie. Overigens is Bing hier ook zeer fanatiek mee bezig.
Het zal lastig zijn om dit gelijk te schalen naar het zoekvolume van Google. Je zou het in kleinere batches moeten uitrollen.

Het mooie daaraan is dat je het gelijk ook met een first adopter-strategie kunt doen waarbij je langzaam eerst topgebruikers en voorlopers migreert en daarna andere gebruikers.

Ook zal dit waarschijnlijk flink afbreuk doen aan Googles Adwords, die zijn vaak niet wat je wil zien, dus er zal flinke spanning komen te staan op Googles business modellen.

Android is het grootste goed wat Google nu heeft om gebruikers in te locken, ik vraag me nu ook wel een beetje af of de aankondiging maandag wellicht dan ook iets met Apple te maken heeft...
Het zal lastig zijn om dit gelijk te schalen naar het zoekvolume van Google. Je zou het in kleinere batches moeten uitrollen.
Voor elke andere partij denk ik dat dat inderdaad waar is, maar waarschijnlijk heeft OpenAI al jarenlang ervaring met scrapers (en het opslaan van deze data) waardoor het "alleen" maar een "kleine" aanpassing hoeft te zijn om dit ook (met bronvermelding) aan gebruikers bloot te stellen.

Wat ook nog in het voordeel van OpenAI werkt, is dat ze aan de hand van de data die ze al hebben kunnen bepalen of een pagina wel of niet in de index wordt opgenomen. Je zoekmachine bestrijkt dan misschien niet het hele internet, maar kan wel overal antwoord op geven.
Ik had het juist over dat het lastig zal zijn voor Google om AI te activeren op alle zoekopdrachten.

OpenAI kan er langzaam naartoe schalen, evt. met aanvankelijk een betaalde dienst. Kijk ook naar Phind, da's een interessant ander platform met een soortgelijke visie.

Overigens denk ik niet dat OpenAI met iets zoals een index werkt, ik denk dat het eerder een soort efficiënt model zal zijn voor embeddings.
Dit gebeurt al. Via search labs (soort bèta functies) kan je “ SGE, generative AI in Search” aan zetten.

Je krijgt dan altijd bovenaan een AI response met linkjes naar een paar bronnen.

Ik heb het na een week weer uitgezet omdat ik het helemaal niks vond toevoegen.

[Reactie gewijzigd door joris-b op 11 mei 2024 03:24]

Ik denk dat ze dit allang doen zonder dat jij en ik het weten.
Google is altijd al gebaseerd geweest op AI. Je bedoelt wellicht dat het een chatfunctie heeft in plaats van een lijst links als antwoord.

Nee dat kan niet, dat zou een totaal ander systeem zijn.
Google moet wel met de trend mee. Maar het zal nooit van herte zijn, want AI hakt heel erg in op hun eigen verdienmodel met zoekmachines.

Meestal ben je op zoek naar instructies of andere vormen van uitleg. Een zoekmachine kan daarmee een boel advertenties aan je tonen, zeker als het wat vager word en je meerdere paginas moet bezoeken voor je de juiste informatie hebt gevonden. Al dat gezoek levert Google ook een interessant profiel op en paginas zijn door de zoekmachine eerder geneigd om ook Google advertenties te plaatsen.

En dat bijne geheel weg via AI. Stel de vraag en je krijgt al vaak een redellijk antwoord, zelfs van de "simpele" 7B modellen, mocht je zelf lokaal draaien. Komt geen zoekmachine aan te pas. Draai de LLM lokaal en je gaat het internet niet eens op.

Dus Google doet mee met de trend, maar hun AI is hun grootste concurrent (een uiterst slechte manier van zakendoen in het algemeen). Ook Microsoft's Bing zal op een (heel) andere manier gebruikt gaan worden. Hun AI is daardoor ook hun grootste concurrent. En des te meer AI's toegankelijk zijn via het internet, dat is een optelsom qua concurrentie voor iedere zoekmachine of website die op hun (interne) zoekmachine leunt om functioneel te zijn.

Zelf ben ik wel gecharmeerd van Mistral 7B Instruct (v0.2) die ik lokaal heb draaien, zelfs al is dat een CPU-only AI. Ook ben ik zeer gecharmeerd van het TaskWeaver project van Microsoft. Maar je bent er haast verplicht mee om je opdrachten via de server van OpenAI te verwerken. En die zijn heel vaak heel slecht to niet bereikbaar.

Daarvan begon ik zo te balen, dat ik mezelf in lokaal draaien van LLM's heb zitten verdiepen. Want AI is alleen nuttig als je toegang hebt en zelfs een betaald OpenAI account doet het 80% van de tijd niet met TaskWeaver.

Microsoft heeft meer softwarematige inkomstbronnen dan Google, dus Microsoft is eerder geneigd hun zoekmachine praktisch op te offeren.
Ik heb laatst embeddings van een Engelse dictionary (500.000 woorden) opgehaald via de betaalde api. Ik heb nu 500.000 embeddings (1500+ dimensies) toch zo'n 20 GB en moet zeggen heb dat met guzzle gedaan. Paar errors per paar duizend requests, exceptions goed gezet, en gaan met die banaan. Je hebt per tier een rate limiter, ik dacht 3000 requests / minuut waar ik op zit. Moet zeggen spotgoedkoop zijn die embeddings. Dat model dat je gebruikt, hoe snel werkt dat op je cpu, geeft ie redelijk snel een antwoord? Ik heb wel een gpu maar nog niet gebruikt ervoor, heb ook maar 6 GB en wil nog ff met cuda gaan stoeien om similarities bijvoorbeeld op te zoeken en eventueel andere embeddings gerelateerde taken...
Die zijn daar al lang. Kijk naar het verschil in zoekresultaten als je bent ingelogd of niet. Het systeem heeft geleerd in te schatten waar je naar zoekt op basis van je geschiedenis. Het gaat heel ver. Een aantal keren heb ik gemerkt dat de suggesties na 3 woorden er al op wijzen dat het systeem in detail weet wat ik aan het doen ben. Geen enkele AI -service die dat haalt.
Die gaan allemaal "hallucineren" op het moment dat ze bepaalde informatie gewoon niet hebben.
Nadeel is alleen dat het allemaal verzadigd is met reclame, en op het moment dat ze door krijgen dat mensen het beginnen te herkennen en negeren gaan ze het beter verstoppen tussen de rest.
Geen goed plan volgens mij (en vele anderen). Zoeken is in mijn ogen echt iets anders dan AI een antwoord laten verzinnen. Willen we nou echt dat AI energie gaat verspillen (en dus het milieu opwarmt) bij het gros van de vragen in de zoekbalk, zoals 'openingstijden Albert Heijn', 'witte sneakers nike maat 44', 'Europapa songfestival'?
Ja dat willen we graag. Omdat de Gros van de antwoorden van google er alleen voor zorgen dat je niet krijgt wat je zoekt. Als ik openingstijden AH zoek dan krijg ik eerst reclame van de jumbo....

Google is om dingen te zoeken
Een LLM is om dingen te vinden

Werkt misschien (nog) niet perfect maar groeit sneller dan Google search in het verleden.dat was ook niet perfect vanaf dag1. Ik gebruik al vaker chatgpt in plaats van Google.

Simpel voorbeeldje, ik wilde weten wat parkeren kost op de luchthaven van Brussel. Deed ik dit via Google dan open ik mijn browser, typ parkeren brussel airport, eerst voorbij de reclames schollen, dan op de website van Brussel Airlines. Al gelukkig direct op een pagina over parkeren, daar doorheen scrollen over hoe goed ze de boel wel niet doen, veiligheid, electrisch laden en dan zie je prijs.

Of ik druk in chatgpt op audio, vraag wat het kost en ik heb het antwoord wat ik zocht. Dat is imo het verschil met traditionele zoekmachines (zoeken) en (potentieel) LLMs (vinden).
En de betalingsbereidheid vd consument is ook factor 100000% hoger.... hoeveel betaal je aan Google? Nul euro rechtstreeks, dus betaal je met je data. Bij chatgpt (vooralsnog) 20$-30$ per maand.
Alleen als je op de website van Brussels airport kijkt weet je zeker dat de tarieven juist zijn, bij een AI antwoord hoeft dit niet het geval te zijn...
Omdat het nog relatief in de kinderschoenen staat... de eerste Google algoritmes waren ook niet perfect. Zo werkt dit ook bij LLMs....
Dan nog weet je niet of het klopt... Google brengt je naar de website waar de informatie staat. Al toont Google tegenwoordig ook steeds meer informatie direct tussen de resultaten (en ook die kloppen vaak niet)
Daarom is dit stukje goed om te lezen denk ik: “ gebaseerd op het ChatGPT-model en zou onder andere verwijzingen naar bronnen bevatten en up-to-date-informatie bevatten.”
Dan gaat ie dat realtime voor je zoeken anders is up-to-date helemaal niet te garanderen namelijk?
Inderdaad, sowieso is up-to-date ook via Google geen garantie.. Tegenwoordig plaatsen veel sites/blogs geen datum meer bij hun reviews etc. Zo blijven ze langer ‘relevant’..
Feit is volgens mij dat er een (vooralsnog wat troebel) interpretatielaagje komt tussen de basis-informatie bij de bron en wat AI er vervolgens van maakt. De toegevoegde waarde zou moeten zitten in de betrouwbaarheid van die interpretatie. Als de AI bij elke dezelfde vraag als antwoord een nieuw verhaaltje verzint, heb ik niet automatisch het gevoel dat ik daarop kan bouwen. Wel kan het helpen als duidelijk is dat de AI zich voor een statistiekje bijvoorbeeld baseert op cbs.nl en niet op "een poll van pietjebigmac1999.blogspot.com gebaseerd op 3 duimpjes omhoog en 1 omlaag".
Dan nog weet je niet of het klopt... Google brengt je naar de website waar de informatie staat. Al toont Google tegenwoordig ook steeds meer informatie direct tussen de resultaten (en ook die kloppen vaak niet)
Waarvan je dus ook niet weet waarvan de info klopt ;)

Mijn punt is dat Google haar focus is zoeken, LLM haar focus is vinden
Dit is een fundamenteel verschil. Los van het feit dat het niet perfect is, gaat Mijn voorkeur uit naar mij zo snel mogelijk het resultaat geven naar waar ik op zoek ben. En daarbij maakt chatgpt een inhaalslag op gebied van snelheid tov google. Zijn ze er al? Ned natuurlijk niet.... maar het is er ook nog maar eventjes
Het sterke punt aan Google is natuurlijk dat je direct de bron kan beoordelen. Als ik via Google op de site van de AH kom dan kan ik er waarschijnlijk vanuit gaan dat die openingstijden kloppen. Als ChatGPT het antwoord voor parkeerkosten bij het vliegveld ergens van een blog afhaalt die al 4 jaar niet geüpdatet is heb je er weinig aan. Dus Google is juist prima voor deze doeleinden. En advertenties in zoekresultaten, die zal ChatGPT op termijn ook wel gaan tonen.
Het gaat in dit geval dan ook om een zoekrobot die versterkt wordt met AI. Dan mag je ervan uitgaan dat je dus ook gewoon webpagina’s of referenties naar die pagina’s te zien krijgt.
Precies dat laatste. Google is met ads doorspekt en gpt nog niet. Maar dat zal niet lang duren. Ook al is het reclame die je niet ziet. Bijvoorbeeld; Nike betaalt de LLM maker om 'Nike heeft de beste sneakers' aan de trainingdata toe te voegen met meer gewicht.
Simpel voorbeeldje, ik wilde weten wat parkeren kost op de luchthaven van Brussel. Deed ik dit via Google dan open ik mijn browser, typ parkeren brussel airport, eerst voorbij de reclames schollen, dan op de website van Brussel Airlines. Al gelukkig direct op een pagina over parkeren, daar doorheen scrollen over hoe goed ze de boel wel niet doen, veiligheid, electrisch laden en dan zie je prijs.
Waarom zoek je dan ook niet op iets als 'parkeerkosten luchthaven van brussel'? Je krijgt dan direct in je zoekresultaten een tabel met parkeerkosten.

[Reactie gewijzigd door Koekhapperrr op 10 mei 2024 14:51]

Waar je dus uitkomt bij een site met als doel geld te verdienen aan mij. Denk je dat de beheerders het voor niks doen? Die tijden zijn voorbij. Dan betaal ik liever om de info te hebben die ik vraag. Hoef niet te typen en vraag gewoon GPT....

Tevens weet je daar toch ook niet hoe accuraat het is?

[Reactie gewijzigd door Zorg op 10 mei 2024 18:35]

Wanneer een LLM als ChatGPT gratis blijft zie ik het nog wel gebeuren dat vragen zo beantwoord gaan worden.
-> Wat zijn de openingstijden van de Jumbo?
<- De jumbo heeft vandaag knakworstjes in de aanbieding voor maar 1,99!
<- Ga er vandaag nog heen tussen 10:00 en 20:00
<- Neem ook eens heerlijke 2 voor 1 waterijsjes mee!
Als je betaald is het anders natuurlijk, maar er zijn ook zoekmachines waar je voor kan betalen, (Bijvoorbeeld kagi.com) zonder reclame.
Betaal er met veel plezier voor! Klein beetje voor zoveel efficiëntie? Ik heb al mijn meetings erin steken, met summaries, sentiment, actie items.... en kan gpt vragen wat er besproken is in een meeting. Scheelt een hoop notuleren :P
Ja prachtig dat ChatGPT.

----

Verzender:
-> Maak van deze paar zinnen een professionele email

Ontvanger:
-> Maak een korte samenvatting van deze email

-----

Stukken productiever zo! ;)
In plaats van een zwaar geoptimaliseerde database zoals bij het 'oude' zoeken, gaat elke nieuwe zoekopdracht dus de oceaan koken met zware kilowatt AI-apparatuur. Ik was al bang dat niemand zich zorgen maakt om de energieverspilling in de reacties bij dit nieuws, maar gelukkig heb ik er toch één gevonden.

Kunnen ze die energieverspilling niet hergebruiken als hashes in de vorm van Bitcoin mining? Dan kunnen ze bij elke zoekopdracht doneren aan het Wereld Natuurfonds om de schade te compenseren.
Ik hoor niemand klagen over de impact van de oorlog in Ukraine of klagen dat we zware wapens naar daar sturen. Maar een zoekopdracht zou schadelijk zijn lol
Ik zou je aanraden op uit je bubbel te stappen als je mensen nog niet hebt over horen klagen over de impact van de oorlog of het versturen van wapens.

10 seconden googlen leert mij dat een zoekopdracht bij Google 0.0003 kWh aan energie kost. Als je aan chatgpt de vraag stelt, draait hij rond de pot en wil hij niet antwoorden maar een zoekopdracht leert mij 0.0025 kWh per vraag. 10x meer lijkt niet zo veel, maar met de exponentiële groei van AI en met het feit dat beelden en video's nog veel meer energie verbruiken dan een gewone vraag, lijkt het mij logisch dat daar ook aandacht aan wordt besteed. Zeker als Sam Altman zegt dat om de volgende stap te bereiken, er miljarden aan rekenkracht extra tegen aan moet gesmeten worden (en dus exponentieel meer energie).
Naar andere wijzen is vooral lekker makkelijk om onder je eigen verantwoordelijkheid uit te komen (naja eigenlijk niet maar zo wordt het helaas wel veel gebruikt).

Ik ben overigens voor het sturen van veel meer/zwaardere wapens, immers heb ik liever een vervuilde wereld dan een wereld waar een agressor maar alles gegunt wordt. Want daar komt geen einde aan als je gaat toegeven :)
Net een goed plan, nu gebruiken mensen GPT zoals een zoekrobot = zeer inefficient. Als je een zuinige zoekrobot er aanhaakt ben je zuiniger + je kan concurreren met Google.
AI "verzint" geen antwoorden, AI presenteert een reeds bestaand antwoord op basis van een schier onuitputtelijke hoeveelheid bronnen. Het risico is alleen dat je niet weet of die bronnen wel correct zijn.

[Reactie gewijzigd door DigitalExorcist op 10 mei 2024 13:33]

AI verzint zeker wel antwoorden.
However, sometimes AI algorithms produce outputs that are not based on training data, are incorrectly decoded by the transformer or do not follow any identifiable pattern. In other words, it “hallucinates” the response.
https://www.ibm.com/topics/ai-hallucinations

Dit blijft een heel groot risico van LLM's, ze zijn net zo stellig en overtuigend of ze nou een correct antwoord formuleren of aan het hallucineren zijn.

Ook met bronvermeldingen moet je altijd controleren of deze bronvermeldingen wel kloppen (of de gegeven informatie daadwerkelijk overeenkomt met de vermelde bron) om zeker te weten dat het antwoord juist is. Hier enkele voorbeelden van copilot (gebaseerd op GPT4) die de mist in gaat:

https://dkb.blog/p/bing-ai-cant-be-trusted

Of chatgpt zelf:

https://teche.mq.edu.au/2...generate-fake-references/
Nee dat heb je mis, het centrale idee van machine learning is dat modellen de ruimte van alle mogelijkheden beschrijven. Het uiteindelijke antwoord op een vraag is vervolgens een willekeurige trekking uit die ruimte. Het is dus geen database, maar een model beschrijft slechts de relaties tussen objecten (woorden bij een taalmodel).
Dat hele 'op basis van AI' klinkt allemaal heel spannend, maar de LLM hoeft de kennis niet te bevatten. Deze moet enkel genoeg getrained zijn om een goed lopend verhaal te kunnen formuleren. De daadwerkelijke kennis kan in een geindexeerde vectorDB zitten.
De LLM hoeft niet zo groot te zijn en kan op bescheiden hardware draaien.

Het zoeken gebeurt dan vrij klassiek; spitten in een DB naar de meest relevante data, daarna maakt de LLM er pas een goed lopend verhaal van. Eigenlijk hoe een LLM zou moeten werken ipv deze te trainen op alle kennis van de wereld.
Er zijn verschillende doelstelling bij search. Google Search biedt alleen antwoord op de vraag om bronnen te zoeken. Ik weet niet wat de verhouding daadwerkelijk is, maar ik vermoed dat mensen eigenlijk vaker gewoon een enkel antwoord willen op een vraag en daar gaat ChatGPT (als het geen bullshit zou generen) beter in zijn. Ik denk dat dit wel degelijk een fundamentele bedreiging is voor Google Search. Bij ChatGPT kun je ook nog eens gewoon geld betalen per maand om je privacy te waarborgen, bij Google ben jij eigenlijk het product.
Laten we maar eerst de ervaringen afwachten.
Als de jonge generatie via ChatGPT zoekt heeft Google een probleem.
Dat heeft Google nu al met zoeken, de resultaten zijn de laatste jaren minder en minder geworden....
In maart 2024 was Google’s wereldwijde marktaandeel 91,37%.
Bing volgt met 3,42%, en vervolgens hebben we Yahoo! wat met 1,23% ook niet onaanzienlijk scoort.

[Reactie gewijzigd door lighting_ op 10 mei 2024 21:56]

Het kan hard gaan, weinig mensen zijn loyaal aan de zoekmachine van Google. Als er een betere zoek- of vindmachine is, zullen velen gewoon overstappen. En als Google dan niks beters te bieden heeft, zal het hard gaan.
Ik sluit niks uit.
Maar het verschil tussen google en nummer 2
bewijst juist dat mensen loyaal zijn aan Google. DuckDuckGo maakt gebruik van google engine. Toch ga je als eerste zoeken via Google omdat je het gewend bent.
Ik denk dat je loyaliteit verward met gemak. Velen als niet de meerderheid zal overstappen als er een betere find engine op de markt komt. Weinig zullen blijven vanwege het merk Google. Maar, we gaan het zien.
Ben benieuwd ik hoeverre dit leidt tot minder hallucinaties…
Kagi heeft al een tijd een soortgelijke functie. Vaak komt die met een goed antwoord, maar het gebeurt wel eens dat een bron niet goed, of niet in de juiste context wordt gebruikt, waardoor er ook op die manier nog hallucinaties naar voren komen.
Niet vergelijkbaar! Bing Search heeft ookal GPT-4 in de Copilot creative mode and ChatGPT4 kan ook Bing Search gebruiken als je erom vraagt, maar Claude3 is beter in het reduceren van hallucinaties, omdat het achterliggende taalmodel sterker is!

[Reactie gewijzigd door Minimise op 10 mei 2024 16:54]

Dat zou enorm pijnlijk zijn voor Google, maar ook een mooi voorbeeld van hoe je als groot bedrijf niet zomaar op je lauweren kunt rusten en denken dat je je positie toch wel zult behouden...
Waarom zou dat pijnlijk zijn voor Google?

De hype dat Bing door OpenAI vele malen beter zou worden lijkt ook niet echt van de grond te zijn gekomen.
Bing is van een marktaandeel van 2.8% (febr 2023) naar 3.4% (jan 2024) gegaan.

Google heeft geloof ik iets van 93%
Bing is van een marktaandeel van 2.8% (febr 2023) naar 3.4% (jan 2024) gegaan.
Dat is een groei van rond de 20% voor Bing. Bing kennende niet slecht :+
Kan me nog vaag herinneren dat Google op kwam, en m'n reactie was 'wauw', omdat er daadwerkelijk relevante zoekresultaten werden getoond. Toentertijd gebruikte je ook meerdere zoekmachines om wat te vinden.

Zoekmachines zijn nu redelijk geïntegreerd in je browser, dus denk dat de adoptie minder snel gaat, waardoor Google de tijd gaat krijgen om met een alternatief te komen.

Ben benieuwd!

[Reactie gewijzigd door tratz op 10 mei 2024 12:38]

'OpenAI brengt maandag zoekmachine op basis van ChatGPT uit'
Volgens mij geeft Reuters aan dat OpenAI dit maandag wil aankondigen. Zie ook jullie bronvermelding.
Zijn er hier ook mensen die NIET stiekem hopen dat hiermee een einde komt aan Google's hegemonie?
De zoekmachine zou in ieder geval direct op internet kunnen zoeken naar actuele informatie, iets dat het huidige ChatGPT-systeem niet kan. Daarnaast zou de zoekmachine aan bronvermelding doen zodat gebruikers door kunnen klikken naar informatie. Ook dat ontbreekt in ChatGPT,
Dat klopt niet. De betaalde versie kan dat, maar doet het relatief weinig. Copilot in Bing doet het eigenlijk altijd. Maar er zijn ook plugins voor ChatGPT die het mogelijk maken die meer met zoekopdrachten te doen.

Ik neem dan ook aan dat dit echt een nieuw product zal zijn, geen uitbreiding van de chatbot, want die is er al. En ik ben benieuwd of het een gratis variant wordt en/of ook een betaalde. Copilot in Bing zegt namelijk wel GPT4 te gebruiken, maar is toch lang niet zo goed als ChatGPT's versie.


Om te kunnen reageren moet je ingelogd zijn

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee