Gebruikers kunnen Drive- en OneDrive-bestanden direct in ChatGPT laden

Betalende gebruikers van ChatGPT kunnen voortaan direct Google Drive en Microsoft OneDrive koppelen aan de assistent. Daarmee kan de AI direct bestanden uit de cloudopslagdiensten analyseren, zonder dat gebruikers die eerst handmatig moeten down- en daarna weer uploaden.

ChatGPT-maker OpenAI schrijft in een blogpost dat het voortaan mogelijk is voor gebruikers van ChatGPT Plus of een van de zakelijke pakketten om hun Google Drive- of Microsoft OneDrive-bestanden direct via een link aan ChatGPT te koppelen. De AI kan vervolgens de informatie daarin, zoals tabellen in een spreadsheet, analyseren en er vragen over beantwoorden.

OpenAI heeft daarnaast een verbetering toegevoegd aan de manier waarop ChatGPT datasets kan analyseren. Als gebruikers een dataset uploaden, schrijft ChatGPT Python-code om die sets te analyseren. Datasets worden voortaan ook als een interactieve tabel in de interface weergegeven. Dat gebeurt in fullscreen, met een zijbalk waarin gebruikers kunnen blijven chatten met de tool. Vervolgens kunnen ze gebieden in de dataset aanklikken om daarover specifieke vragen te stellen.

Die functies zijn per direct beschikbaar voor betalende gebruikers. Die kunnen dan direct gebruikmaken van het nieuwe GPT-4o-taalmodel dat OpenAI eerder deze week uitbracht.

ChatGPT Drive

Door Tijs Hofmans

Nieuwscoördinator

17-05-2024 • 18:44

45 Linkedin Whatsapp

Submitter: wildhagen

Reacties (45)

45
45
19
1
0
24
Wijzig sortering
Ik mag aannemen dat die data niet gebruikt wordt voor training doeleinden, toch? Ik zie menig security officer van een bedrijf al een hart aanval krijgen als dit niet goed geregeld is :X
Mijn vorige werkgever had een partnership met OpenAI. En aangezien ik daar als CISO werkte, hebben we hier uitvoerig onderzoek en onze due diligence bij uitgevoerd.

Conclusie? Je weet nooit wat OpenAI ermee doet. Het is dus vooral een kwestie van je risicobereidheid: wil je technologie inzetten wat potentieel modellen traint op jouw data maar waardoor je wel veel efficienter en goedkoper (ze hebben miljoenen bespaard in een paar maanden tijd) kunt opereren, of wil je traditioneel blijven werken en een mogelijk concurrentievoordeel verliezen?
Dit is wel heel platgeslagen. De vraag is ook of je kan voldoen aan wet- en regelgeving waaronder de AVG (verwerkersovereenkomst etc) en of je het risico kan en mag lopen dat de data die je invoert er bij een ander weer uitkomt. Het gaat niet zo zeer alleen om het trainen an sich maar er ook om dat je niet kan uitsluiten dat de AI geen gevoelige informatie oplevert aan partijen die dat niet mogen hebben.
Je weet nooit wat OpenAI ermee doet.
Welke afspraken heb je met OpenAI proberen te maken en wat zeggen de voorwaarden hierover?

[Reactie gewijzigd door Bor op 17 mei 2024 19:34]

Uiteindelijk is voldoen aan wet- en regelgeving ook een keuze. En wanneer je graag vooraan wilt staan als bedrijf, worden dergelijke keuzes gemaakt. Uit alle contracten en de door ons uitgevoerde audits blijkt dat OpenAI niet hun modellen traint met de data, maar we weten het nooit 100%. Uiteindelijk is het een US-based bedrijf dat onze data 30 dagen opslaat. Genoeg risico’s die wij aangekaart hebben, allemaal geaccepteerd door de COO en CEO.
De algemene voorwaarden of gebruikersovereenkomst geeft aan dat de API en enterprise versies je sessies en data niet meenemen als trainingsdata. De web versie en consumenten versie doen dit echter wel. Vervolgens moet je het bedrijf wel op hun blauwe ogen kunnen vertrouwen dat ze hun voorwaarden niet schenden. En anders heb je juridisch een stok om mee te slaan wanneer blijkt dat ze met jouw data aan de haal zijn geslagen.
Maar goed, ik persoonlijk ben erg terughoudend met het delen van gevoelige data naar cloud en AI diensten buiten de EU.
Je kan het in de web versie aangeven dat ze je data niet mogen gebruiken (Settings > Data controls > Improve the model for everyone OFF)... maar ja, ook dan weten we het niet 100% zeker dat ze het dan ook daadwerkelijk niet gebruiken. We moeten ze dan op hun blauwe ogen geloven dat het goed ingeregeld is want als het wel gebruikt zal worden in de achtergrond zal er vast wel geclaimd worden dat het per ongeluk toch gebruikt worden door een bug.

Sowieso verander ik steevast database namen en zaken als prefixes voordat ik code richting ChatGTP gooi voor het beantwoorden van mijn vragen.

Kost ietsjes werk maar het geeft wel een geruststellender gevoel bij mij zelf.
Uiteindelijk is voldoen aan wet- en regelgeving ook een keuze
ik hoop dat dat geen filosofie is die je uitdraagt, maar eerder als waarschuwing, maar zo kan je alles in vraag stellen en ben je nergens meer zeker van.
Uit alle contracten en de door ons uitgevoerde audits blijkt dat OpenAI niet hun modellen traint met de data, maar we weten het nooit 100%. Uiteindelijk is het een US-based bedrijf dat onze data 30 dagen opslaat. Genoeg risico’s die wij aangekaart hebben, allemaal geaccepteerd door de COO en CEO.
waarom zou je dan nog tot op dat niveau moeten gaan? Uiteindelijk zijn alle grote spelers Amerikaans en kan je bij uitbreiding élke externe partij zo hard wantrouwen dat je helemaal geen zaken meer kan doen.

overigens stel ik me wel de vraag hoe diepgaand je een extern (buitenlands) bedrijf zou kunnen auditeren op data-protection/usage, want eens ze buitenshuis is, is ze quasi niet meer te controleren
Zou je hier wat meer over kunnen vertellen? Waar moet ik dan aan denken? Wat was het officiele antwoord van ChatGPT?
Dat is een beetje kort door de bocht? Als OpenAI zwart op wit zegt dat ze dat niet doen, kan je ze keihard jurdidisch aanpakken als ze dat wel doen. Het probleem is alleen of je er achter komt.

Wij hadden dezelfde discussie omtrent MS Copilot (ook GPT gebaseerd maar zij draaien het model in ChatGPT on Azure). We hebben twee keuzes:

- We vertrouwen wat MS zegt: Dan is het okee
- We vertrouwen MS niet: Dan hebben we nog een veel groter probleem dan alleen dit want onze complete data zit allemaal in M365. Onedrive, sharepoint, alles.

Ik ben daar ook niet helemaal blij mee (ik geloof MS wel maar alles in 1 punt onderbrengen vind ik niet zo slim), vroeger hadden we verschillende soorten data expres bij verschillende bedrijven. Maar de MS lobby is erg sterk en onze CISO's waren daar helemaal okee mee. Nu zijn we all-in op microsoft. Dan moeten ze nu ook niet gaan klagen vind ik. Want als ze daar toch niet helemaal okee mee zijn hebben we nu een megaprobleem. Veel groter dan zo'n chatbotje.

[Reactie gewijzigd door Llopigat op 17 mei 2024 20:32]

Het MS 'probleem' is bekend, maar het alternatief, op alle clouds en ook nog op on-prem zitten maakt de situatie er echt niet beter op, veel en veel meer moving parts, dus meer punten waar het fout kan gaan. Ik mag bv. hopen dat er niet ook gebackupped wordt naar MS (direct of indirect)...

De realiteit is dat bij de meeste bedrijven het zo is dat ze al veel verder van huis zijn als MS omvalt dan de schade die MS dan indirect aanricht (door om te vallen via infra dat niet meer werkt). Wat wel een goede exercitie is, is om met wat knappe koppen te gaan brainstormen hoe men in geval van nood zonder enige MS dienst of software van uit backup de hele omgeving weer kan opbouwen, daar kan je wat PoCs tegen aangooien om te zien of het werkt zoals men verwacht en dan de processen/bevindingen gewoon uitprinten en in dezelfde kluis proppen als waar de sealed enveloppen in liggen met de breakglass accounts...

Dit is trouwens ook iets waar je meteen management om de oren mee kan slaan als ze beginnen over weg te gaan bij MS, kan je meteen de kosten voorschotelen... }:O :Y)

We kunnen een hele hoop klagen over MS, maar uiteindelijk blijkt dat partijen zoals Okta of Google ook hun stuff niet op orde hadden, misschien nog wel erger niet dan MS. Wat ik heel erg heb gemerkt met O365/M365 is dat het IT 'simpler' maakt, wat ik "Minder bewegende onderdelen." noem. Hoe de IT ~15 jaar geleden aan elkaar hing qua office applicaties, email, files, 2fa, mobile, remote access, SSO, AD, zelfs simpele ongein als printen. Dat was veel, veel werk, constant meuk dat ergens stuk ging omdat er van alles aan elkaar hing en heel veel kosten. Dit is heel erg versimpeld met M365, maar omdat M365 ondertussen zo een beetje industrie standaard is zien andere oplossingen dit ook en kunnen die ook veel efficiënter in elkaar worden gezet.

En don't get me wrong, er is heel, heel veel mis met MS producten, zelfs zo erg dat ook al verkoopt MS het als 'Enterprise ready', je daar vanuit beheer en security heel, heel erg goed naar moet kijken.
Wat mij vooral tegenstaat aan Microsoft zijn de medewerkers. Ze zijn allemaal zo gehersenspoeld dat hun spullen het beste zijn. En ze lopen je gewoon te vertellen wat je moet doen terwijl ze maar een leverancier zijn. Ze zijn ook erg gevoelig voor kritiek omdat ze zo Evangelisch zijn over hun produkten.

Ik vind hun producten over het algemeen maar middelmatig. Niemand kiest Microsoft omdat ze de beste zijn. Maar omdat ze een compleet pakket hebben dat samenwerkt en niks is zo slecht dat je op iets anders wil overstappen waar je apart voor betaalt.

Als je individueel naar elk produkt kijkt zijn er veel betere alternatieven te vinden. En hun marketing is een puinhoop (nu weer tig totaal verschillende produkten onder de copilot naam, niemand snapt meer wat nou wat is)
Dit is trouwens ook iets waar je meteen management om de oren mee kan slaan als ze beginnen over weg te gaan bij MS, kan je meteen de kosten voorschotelen... }:O :Y)
Als ze dat willen zou ik zeker niet tegenwerken :) Maar bij ons komt het just vanuit de top. Zoals het gezegde is: Microsoft is beter in het praten met je baas dan jij dat bent.

[Reactie gewijzigd door Llopigat op 18 mei 2024 00:03]

Qua MS personeel, ligt er heel erg aan met wie je praat en waarover. Natuurlijk is het vaste personeel vaak 'Wij van WC Eend!", maar met veel MVPs kan je heel goed babbelen en is MS zeker niet altijd de 'beste' oplossing (althans dat is mijn ervaring), maar MVPs zijn over het algemeen externen.

Wat betreft weg migreren, tenzij er andere hele belangrijke motivaties/situaties zijn, zijn kosten vaak een van de belangrijkste motivaties. Vervolgens zegt bij iemand in de top, we gaan nu appel en peer gebruiken, dat is niet significant duurder. Dan begin je aan het project, en blijkt dat MS vervangen met alleen appel en peer niet voldoende is en schieten de kosten enorm omhoog en begint iedereen weer enorm te backpaddelen vanwege de kosten. Als je mazzel hebt zit het nog in PoC, als je pech heb zijn er al een berg wijzigingen gedaan in productie die weer terug moeten. Als ik ergens een hekel aan heb is het wel nutteloze migraties...
Wanneer heb je dat onderzoek uitgevoerd? (Net) na launch was het security technisch namelijk een enorme puinhoop, om nog maar niet te spreken over het geheel ontbreken van centraal beheer (waardoor je je security settings nooit zou kunnen forceren/checken).

Verder hint je naar van alles, maar ik vraag me af:
1.) Waren de voorwaarden niet op orde?
2.) Was de technische implementatie van die voorwaarden niet op orde?
3.) Zijn ze betrapt op het overtreden van de eigen voorwaarden?
4.) Of was het zo een rommelig zootje dat het niet betrouwbaar was?

If not, de stelling "We weten nooit 100% zeker wat ze ermee doen..." is zo een vreselijke dooddoenerij! Je werkgever weet namelijk ook nooit 100% zeker of jij altijd betrouwbaar bent en/of blijft. Voor hetzelfde geld ben jij tijdens je CISO periode wel onder het mom van security audits allerlei data aan het exfiltreren uit het betreffende bedrijf of gaan handelen op basis van de kennis in je bedrijf. Het is niet zo alsof er nog nooit een CISO is veroordeeld door diens positie te misbruiken...

Als je instelling al is "We weten nooit 100% zeker wat ze ermee doen...", dan had je helemaal nooit er aan moeten beginnen. Zowel niet het onderzoek, als je positie als CISO bij dat bedrijf. Want kennelijk is dat niet de positie van het bedrijf/CEO. Een weloverwogen risico analyse van wat de kans is, wat de schade is en als er opzet in het spel is, zijn er geen eenvoudiger methodes om aan die data te komen? 99,9999%+ van de bedrijven is dat helemaal geen realistische positie om "We weten nooit 100% zeker wat ze ermee doen..." in te nemen. Dat velen dat wel doen is omdat ze zich veel te belangrijk vinden en/of mensen binnen het bedrijf die lekker interessant willen doen...

Don't get me wrong, in het begin was er zeker veel mis met het OpenAI aanbod, absoluut niet Enterprise/bedrijfs klaar. Maar er is sindsdien heel veel veranderd, het is tenminste beter dan in het begin, of het nu goed genoeg is is de vraag...
Precies, een klant van me zit op Google Workspace. Veel consultants van het bedrijf willen ChatGPT gebruiken (of Claude). Het bedrijf heeft na een vergelijkbaar onderzoek besloten om alleen Google Gemini te vertrouwen, stomweg omdat het bedrijf Google al hun Drive en Gmail content toevertrouwt. Het wachten is nu op het moment dat Gemini for Workspace inderdaad Drive en Gmail gaat ondersteunen, op zijn minst op het niveau dat ChatGPT hier nu lijkt te doen. Het wordt anders wel erg lastig om, zonder drastische maatregelen, de consultants weg te houden bij ChatGPT ondanks een kraakheldere policy.
Dat hangt er van af welke overeenkomst je sluit met OpenAI verwacht ik. Bij Microsoft zal men je data niet gebruiken voor training als je een Copilot Enterprise licentie gebruikt. En ik verwacht dat zulke mogelijkheden ook bestaan bij OpenAI.

Het is voor vele security officers enorm moeilijk om alles bij te houden en voor IT diensten om bij te blijven met data loss prevention. En dan zijn werknemers verbaasd wanneer men meer en meer beperkingen krijgt opgelegd.
zeg je dat je moet betalen om het niet te laten gebruiken? |:(
nouja. je krijgt korting als je je data wél wil laten gebruiken vanuit hun oogpunt..
Er zit over het algemeen een groot verschil tussen een gratis product en een betaald product. Daarnaast vaak nog een behoorlijk verschil tussen een consumenten product en een zakelijk product. Verschillende doelgroepen, met verschillende prijzen en verschillende wettelijke verplichtingen.

Er was voor het betaalde abo van ChatGPT al vrij vlot een opt out, deze was echter vrij knullig in elkaar gezet en een beetje houtje touwtje te activeren.

Maar net als met Google Mail, je gratis consumenten versie is anders dan je betaalde zakelijk Google Mail, want als men dezelfde gratis consumenten voorwaarden zou hanteren zou men bitter weinig zakelijke klanten hebben. Hetzelfde geld voor overheid en educatie.
Werknemers zijn meestal niet verbaasd, maar ze vinden het gewoon erg irritant.
Het is voor vele security officers enorm moeilijk om alles bij te houden en voor IT diensten om bij te blijven met data loss prevention. En dan zijn werknemers verbaasd wanneer men meer en meer beperkingen krijgt opgelegd.
Mweh. Het is hun werk om bij te blijven. Als de CISO's het eng vinden dat alles zo snel gaat dan kunnen ze beter met pensioen gaan.

Bij ons schieten ze ook steeds meer in de beperkingen kant in plaats van er goed over na te denken of het wel wat toevoegt. Dat vind ik nog het vervelendste (en ik werk zelf in de security hoek, meer in de expert/blueteam hoek).

[Reactie gewijzigd door Llopigat op 17 mei 2024 20:38]

Het gaat niet alleen om training, het gaat om het laten verwerken van data bij een 3e partij.
Ik zou hier behoorlijk nerveus van worden als security officer.
Gelukkig hebben de meeste bedrijven dit wel goed geregeld en kan je niet zomaar je zakelijke OneDrive integreren met een andere applicatie zonder een beheerder die dit toe staat.
Gelukkig hebben de meeste bedrijven dit wel goed geregeld...
Nggghhh!!!! *trekt een heel moeilijk gezicht*
Het zal je verbazen in hoeveel gevallen dit niet het geval is/was...

Er zijn heel, heel veel O365/M365 implementaties gedaan door mensen die daar geen ervaring mee hebben. Of er zijn dingen gewijzigd die niet gewijzigd hadden mogen worden... En het zal ook niet de eerste keer zijn dat de wijziging pas ontdekt wordt nadat het audit trail al buiten de retentie periode is gevallen.
Heel veel verder dan een belofte van OpenAI kom je niet, maar dat is uiteindelijk bij alle bedrijven het geval natuurlijk. Inmiddels zijn de instellingen wel beter geworden.

Voor persoonlijke accounts
Via de nieuwe ´Data Controls´ instellingen kan je aangeven of je content (en daar valt alles onder wat je aan ChatGPT geeft) gebruikt mag worden om (toekomstige) modellen te verbeteren. Te bereiken via Profile -> Settings -> Data Controls

Voor Teams en Enterprise gebruikers
OpenAI geeft aan voor Teams en Enterprise gebruikers geen data te verzamelen en/of te gebruiken voor verbeteren van (toekomstige) modellen.

Voor API gebruikers
Content via de API wordt niet gebruikt voor verbetering modellen, tenzij je expliciet toestemming geeft (opt in)
In ChatGPT (Nederlands):
Instellingen -> gegevensbeheer -> model verbeteren voor iedereen: uit.
Vraagje: Al die voorbeelden met spreadsheets en een video waarin ChatGPT zelfs een actie op je sheet heeft gedaan, is het wel zo 1 2 3 te vertrouwen dat er geen fouten inzitten? Ik kan moeilijk bij gaan houden of cell C24 nou werkelijk -1 of +1 was of had moeten zijn. Bij een chatgesprek is een foutje makkelijk ontdekt, maar minder erg dan bij financiële data. Een gewone Google reddit search is voor mij vaak sneller en betrouwbaarder. Het zou best kunnen dat accountants dit verboden wordt om te gebruiken, want wie geef je de schuld bij een fout?
Neen, dat is zeker niet te vertrouwen. Je vraagt aan een taalmodel om bewerkingen uit te voeren op een rekenblad. Een taalmodel dat niet weet wat het doet, dat alleen maar in staat is om een antwoord te geven dat er realistisch uitziet zonder een notie te hebben van goed of fout, zonder kennis te hebben van waarom het ergens voor kiest behalve dan dat het taalmodel zegt dat dat een realistisch antwoord is dat waarschijnlijk voldoet aan de verwachtingen van de vraagsteller.
het lijkt toch wel steeds verder te gaan. het taalmodel is om een antwoord te formuleren. Maar het antwoord zelf is ook gegeneerd. Ik vraag een stukje python code en dat is meestal best aardig. Valt dat nog onder taalmodel? mee eens dat je het altijd moet controleren, daar niet van
Is Python geen taal waarmee je iets omschrijft/formuleert en die aan eenvoudige regels voldoet?

Misschien worden veel programmeurs overschat.
Een kleinere groep excellente(re) programmeurs, auteurs, vinden van yes.

Waar ligt het verschil denk je? Hebben ze gelijk?

Ik denk dat we (als programmeurs) onzelf nogal overschatten, op elk niveau, en uiteindelijk de simpele waarheid er van moeten erkennen.

De vormen en wegen naar een oplossing, het creatieve aspect, de dingen bewust anders doen, 'voor de lol ervan' of andere persoonlijke kinks, maar ook onbewust 'fout', in tegenstelling tot als doel hebben om 'hetzelfde resultaat te willen boeken op dezelfde meest voorkomende manier', onderscheiden de mens van A.I. vooral.

Vooralsnog is het een filosofisch, religieus en wetenschappelijk raadsel, waar het daadwerkelijke uiteindelijke onderscheid ligt en of de mens wel of niet zelf 'interrupts' kan plaatsen of waar de ontkoppeling zich, als deze bestaat, zich bevind. In het algemeen wijst men naar het concept 'losstaand en onvolmaakt (zelf)bewustzijn" dmv. een onvolkomen en eigenzinnige, subjectieve, interpretatie (kijk, weer een taal).
Zou zo een deling bestaan zonder de leugen, of de fout zelf, aanname? etc.
Dat neemt niet weg dat er meerdere palelle processen bestaan, buiten onze (schijnbaar) singlethreaded eigen interpretatie en mogelijkheid om een soort van query uit te voeren die raakvlak en afhandeling vind.

De grootste lol en waarde is het doel en nut van wat we schrijven... Eigenzinnige kinks zoals "punctuatie en grammatica zijn belangrijk", "het moet slim lijken", "het moet leuk gevonden worden", "het moet kleinerend en imposant zijn", "het moet grappig gevonden worden" of misschien heb je geen zelfdienende redenen, boeit het je geen biet en wil je vooral elkaar dienen met iets interessants om over te praten.
Of iets oplossen, inspireren, doorgronden, aansporen om te betwijfelen of iets groters te bewerkstelligen. Misschien heb je er vrede mee om half-fout te zijn en gaat het om feedback en gevolg, ongeacht.

Misschien... In plaats van "zo waarschijnlijk mogelijk".
De meest menselijke mensen vragen en zoeken vooral ipv. te (re)produceren en op te leggen, zijn niet vies van én erkennen de rol van (zelf)veroordeling, correctie, heroverweging, tekortkoming. Al lijkt schaamteloze/trotse impulsiviteit/gehaastheid en offensieve veroordeling de laatste jaren de overhand te hebben, gebaseerd op ondoordachte aannames en "nood", dan de rust en verbinding.

Recht en verbuiging/afleiding, waar en onwaar, zijn fundamentele onderdelen van het mens zijn. Daarmee dus ook de veroordeling en, hopelijk, ook vergeving.

[Reactie gewijzigd door Sascha G. op 18 mei 2024 13:47]

Sterker nog, een van de partijen waar ik in investeer zet ChatGPT binnen de accountancy. Er zijn veel meer maatregelen beschikbaar om dergelijke bewerkingen en uitkomsten zekerder te krijgen. Waarom denk je anders dat veel bedrijven dit al inzetten?

Men denkt nog steeds dat LLM’s hallucineren, maar er zijn zoals gezegd veel maatregelen, van RAG tot tussentijdse validatie mechanismes, om output te controleren.
...is het wel zo 1 2 3 te vertrouwen dat er geen fouten inzitten?
Nee absoluut niet!
Ik kan moeilijk bij gaan houden of cell C24 nou werkelijk -1 of +1 was of had moeten zijn.
Bied versioning hier geen uitkomst in?
want wie geef je de schuld bij een fout?
Altijd de persoon die het gebruikte. Als jij gereedschap verkeerd gebruikt als timmerman, dan gaat de klant toch ook niet naar de maker van het gereedschap. The buck stops with you! Je gaat toch ook niet naar Reddit als die je foute informatie geven...
Ik voorzie een stijging in de premie van de bedrijfs-aansprakelijkheids verzekering.
En een renaissance voor de Excelgoeroes? Tijd om de formulefetishisten te bellen :+
Zoals een oude ICT uitspraak luidt: slechte input is slechte output.
Misschien doe ik iets verkeerd, maar ik krijg totaal geen nuttige informatie uit documenten via ChatGPT. Je krijgt gewoon consistent een antwoord met compleet verkeerde data. Als je dan vraagt waar de data vandaan komt krijg je vol overtuiging een verkeerd antwoord. Als je dan nog een keer vraagt waar het vandaan komt krijg je vol overtuiging nog een verkeerd antwoord. Als je dan zegt dat het cijfers verkeert is krijg je excuses, met een nieuw antwoord, wederom compleet verkeerd. Het kost me ondertussen meer tijd om alle data terug te zoeken en te fact checken dan om het zelf te zoeken.
Dat komt inderdaad wel eens voor. Was deze ervaring op basis van chatgpt 3.5, 4, 4t of 4o? Bij versie 4o zou dit aanzienlijk minder moeten zijn.
Dit was gisteren met 4o helaas
Chatgpt is natuurlijk getrained op echte data en komt zo dicht mogelijk bij een echt scenario! Het is dus al even goed als een gemiddelde finance medewerker met hun Excelletjes, die kunnen ook nooit de nuttige vragen beantwoorden ;)

Was maar een grapje maar wel een klein beetje waar. Veel mensen zeggen dat je de uitkomsten niet kan vertrouwen maar op het werk is dat ook zo! Hoe vaak komt het niet voor bij (grote) bedrijven dat er altijd wordt verwezen naar hun spreassheets, daar vertrouwen we ook op dat dat maat goed wordt gedaan. Ik heb zelf jaren in Finance gewerkt, nu in BI. De hoeveelheid fouten die ik tegen ben gekomen zijn ontelbaar. Dit soort technologie gaat veel van dat werk kunnen vervangen. Ieder bedrijf heeft wel hun Excel guru, de koningen die alles kunnen met hun spreadsheets, die er doorheen vliegen als een vogel. Maar daar tegenover staan x100 medewerkers die niet behendig genoeg zijn, die wel problemen hebben met het maken van een deftig rapport...

Ik ga het sowieso testen en zoals zovelen ook opmerkten, de CISOs gaan hier schuumbekkend op reageren.... dan maar op mijn eigen laptop.... absoluut niet ok vanuit security standpunt maar dat gaan mensen doen als het bedrijf niet mee kan/wil. Op een gegeven moment moet men er vanuit gaan dat je data je data blijft. Moet je daar wel voor betalen natuurlijk
Kan aan mij liggen, maar copilot in vscode lijkt de laatste tijd juist vaker in de fout te gaan bij gegenereerde code, waarbij het lijkt alsof code uit andere, soortgelijke systemen, ‘voorrang’ krijgt op wat gebruikelijk is in mijn project. Bv: ik gebruik consistent ‘Storage’, ‘Shelf’, ‘Box’ en ik krijg ineens ‘StorageRoom’ of ‘BoxPosition’

Mijn enthousiasme over dit soort tools is in ieder geval getemperd
Hmmm wat ik zo vervelend vind aan ChatGPT is dat ze google aan je opdringen op de telefoon.

Op mijn telefoon ben ik niet in google play ingelogd, maar zodra ik de ChatGPT app open, springt hij naar het inlogscherm google play en dan verdwijnt hij.

Dat snap ik dan niet. Het is nota bene een enorme concurrent van ze, dat ze die verplichten op die manier..

[Reactie gewijzigd door Llopigat op 17 mei 2024 20:22]

Ik gebruik al een tijdje co-pilot en sinds kort dus in NL, maar jammer om te zeggen maar de GPT via browser is echt beter (in teksten in ieder geval). Echter, wanneer gaat MS dan die 4o gebruiken? Of zitten ze vast aan 4 bijvoorbeeld of hoe werkt dat? Want GPT is na release 1 dag live ermee….
En welke garanties zijn er dat ChatGPT die 'persoonlijke' data niet gaat doorploegen?
Met de Gemini app doe ik dat al even met Gdrive en dat gaat eigenlijk prima. Het is wel leren de goede vragen te stellen en beter documenten te schrijven. Ik noem dat contextueel gedreven schrijven.
Zou fijn zijn als je een map kon mounten aan je browser (dat kan al met de File System Access API), zodat je direct dingen kunt vragen over je project (handig met programmeren of verslagen)
Dit wordt wel heel interessant vraag me af wat voor andere meta data wordt getraind ondertussen als je die koppeling maakt. Ben echt een chatgpt liefhebber


Om te kunnen reageren moet je ingelogd zijn

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee