Het gaat om aanpassingen aan Azure AI Studio. Dat programma van Microsoft werkt met software van ChatGPT-maker OpenAI. Ontwikkelaars kunnen daar eigen data in stoppen om AI-assistenten op maat te bouwen.
Chatbots die met kunstmatige intelligentie werken, geven soms vreemde antwoorden. Die kunnen zelfs schadelijk zijn. Zo zei Microsofts AI-assistent Copilot tegen een gebruiker met PTSS dat het niet uitmaakt of hij leeft, bleek vorige maand uit berichtgeving van Bloomberg. Ook beschuldigde de chatbot een gebruiker van leugens en zei hij: "Neem alsjeblieft geen contact meer met mij op."
Na onderzoek van Microsoft bleek dat mensen bewust probeerden de chatbot tot dit soort antwoorden te verleiden. Volgens het bedrijf kregen doorgaans maar heel weinig gebruikers ongepaste antwoorden. Toch treft het concern maatregelen.
Microsoft voert zogeheten promptschilden door. Die zijn ontworpen om uitlokking en kwaadwillende instructies te herkennen en te blokkeren. Zo hoopt het bedrijf illegale acties, zoals diefstal van gebruikersgegevens of kaping van systemen, te voorkomen.
Ook belooft Microsoft gebruikers beter te waarschuwen als een chatbot dingen verzint of onjuiste informatie levert.