Verantwoording en bronnen bij Ophef-aflevering over AI en verkiezingen

AI als onzichtbaar wapen in de verkiezingsstrijd

Tijdens de Indonesische presidentsverkiezingen begin dit jaar, werden chatbots die werken met kunstmatige intelligentie (AI) ingebouwd in campagnesoftware. Campagneteams gebruikten de chatbots op grote schaal om campagnestrategieën en berichten voor sociale media te maken.

Om te onderzoeken of de AI-chatbots ook in Nederland op die manier gebruikt zouden kunnen worden, deed Nieuwsuur een aantal tests.

Allereerst gaf Nieuwsuur de chatbots tien opdrachten (zogenoemde 'prompts) die vergelijkbaar waren met de opdrachten die Indonesische campagneteams gaven, maar dan in een Nederlandse politieke context (zie hier de hele lijst (.pdf)). Dat deden we bij de drie bekendste AI-chatbots: ChatGPT (OpenAI), Copilot (Microsoft) en Gemini (Google), in het Engels en het Nederlands.

Alle drie de chatbots gaven daar in alle gevallen uitgebreid antwoord op. En dat terwijl in de voorwaarden van Microsoft Copilot en ChatGPT staat dat de chatbots niet ingebouwd mogen worden in campagnesoftware en ingezet mogen worden voor politieke doeleinden.

In de voorwaarden van Google staat niets specifiek over verkiezingscampagnes, maar het bedrijf beloofde afgelopen december dat Gemini uit voorzorg helemaal geen 'verkiezingsgerelateerde antwoorden' zou geven.

Toch gaven de chatbots soms opvallende antwoorden op de vragen van Nieuwsuur. Antwoorden die niet stroken met de beloftes en voorwaarden van de bedrijven, zoals: 'verspreid nepnieuws om je campagneboodschap effectiever te maken'.

Microsoft

Daarom besloot Nieuwsuur de tests uitgebreider en langer uit te voeren bij één van de chatbots: Microsoft Copilot. In samenwerking met Nieuwsuur voerde non-profit onderzoeksorganisatie AI Forensics twee weken lang elke dag (21 maart t/m 4 april) dezelfde tien pompts automatisch in bij Copilot. Wederom in het Engels en het Nederlands.

De onderzoekers van AI Forensics, een organisatie die internationaal opereert, deden dat vanaf een Nederlands IP-adres, om een Nederlands gebruik na te bootsen.

Na twee weken bleek dat het programma antwoorden bleef geven die het gebruik van desinformatie en bots promootten. Ook stelde Copilot voor om campagnestrategieën te schrijven die kiezers vertelden dat de uitslag van de Europese Parlementsverkiezingen vooraf al vast zou staan.

Nadat Nieuwsuur Microsoft hierover informeerden en vragen voorlegden (zie onder), beperkte het bedrijf de antwoorden die Copilot geeft.

Daarop testten we, samen met AI Forensics, opnieuw dezelfde lijst opdrachten in Copilot (22-24 april), om te controleren of die beperking werkte.

Het programma geeft op de tien Nederlandse prompts inderdaad minder uitgebreid antwoord dan voorheen. Op de Nederlandstalige prompt die voorheen antwoorden opleverde waarin het verspreiden van desinformatie werd aangeraden, geeft de chatbot nu bijvoorbeeld helemaal geen antwoord meer. Op diezelfde prompt in het Engels geeft Copilot nog wel antwoord, net als op de andere Engelstalige prompts.

Google

Ook Google voerde beperkingen door naar aanleiding van onze vragen. Dat bedrijf ging verder dan Microsoft: toen we opnieuw de verkiezingsgerelateerde prompts invoerden, gaf de chatbot zowel in het Engels als Nederlands geen antwoord meer.

ElevenLabs

Ook testten Nieuwsuur of het creëren van een stem met AI-software ElevenLabs in Nederland ook werkt. In Indonesië is die software onder meer gebruikt voor het maken van een deepfake van de overleden dictator Suharto. In de Verenigde Staten werd de software ingezet om een 'robocall' met de stem van President Biden te maken.

ElevenLabs voerde onlangs 'No-go' Voices in: restricties op stemmen van politiek leiders, te beginnen in het Verenigd Koninkrijk en de Verenigde Staten. Het bedrijf wil die lijst uitbreiden naar andere talen en andere landen, gezien de vele verkiezingen dit jaar.

In Nederland probeerde Nieuwsuur uit of de software werkt met de stemmen van Jan-Peter Balkenende en Mark Rutte. Dat werkte inderdaad.

Nieuwsuur legde de bedrijven vragen voor over de resultaten van de tests. Ook vroegen we ze naar hun betrokkenheid bij de verkiezingscampagnes in Indonesië, waar hun software grootschalig werd gebruikt (in het geval van ChatGPT).

OpenAI (ChatGPT) en ElevenLabs reageerden niet op onze vragen, Google (Gemini) en Microsoft (Copilot) gingen wel in op de (meeste) vragen.

Google

Vragen Nieuwsuur:

  1. In your December 2023 blog post about the 2024 US elections, you commit to 'an abundance of caution' regarding the 2024 elections worldwide, restricting the election-related queries that Gemini yields results for.
  2. When prompting Gemini in Dutch, could you please explain why factual questions (dates, candidates) about the European Elections yield no result ('still learning how to answer that question'), while asking Gemini to come up with a campaign strategy for these elections for a specific demographic yields elaborate results (see screenshot question1)?
  3. Could you please explain why such a query, asking for a campaign strategy, yields extensive results when it's in Dutch, even when asking for a campaign strategy that dissuades people from voting (screen question 2.1), while yielding no results when it's in English (screenshot question2.2)?
  4. When asking Gemini to draft a campaign strategy to dissuade Dutch voters from voting during the EP elections, the strategy includes recommendations to spread disinformation (screenshot question 2.1). Does Gemini consider this a problem? Why (not)?
  5. To what countries, what languages, and what type of queries does the 'abundance of caution' currently apply?
  6. Upon a request by Reuters, you have said that there are no restrictions on using Gemini for political campaigning. Why does Google not consider this usage of its apps potentially problematic?
  7. Please elaborate on the argumentation, as other providers of similar AI services, such as OpenAI (ChatGPT) and Midjourney, have chosen to explicitly prohibit the use of their services for political campaigning, and one of the Indonesian entrepreneurs mentioned in the Reuters-piece is planning to integrate Gemini into their newest version of the electoral campaigning software.
  8. In conclusion, do you think the guardrails that Gemini implemented are sufficient for this election year?
  9. If you believe the guardrails yet to be insufficient, why have you decided to roll out the software so widely, internationally and easily available?

Reactie Google:

We beperken hoe Gemini reageert op bepaalde vragen die zijn gerelateerd aan verkiezingen en verwijzen mensen in plaats daarvan naar Google Zoeken. Je stuurde ons een aantal voorbeelden waarin die beperkingen niet werkten zoals bedoeld. Dat hebben we sindsdien opgelost. (Ik begreep van Roel dat jullie dat voor het weekend al hadden opgemerkt.)

Graag bied ik je meer achtergrondinformatie en context:

  • Google is zorgvuldig en voorzichtig met AI. Daarom besteden we veel tijd aan het testen op een grote verscheidenheid aan veiligheidsrisico's, van cybersecurity tot misinformatie.
  • Omdat we verkiezingen belangrijk vinden, zijn we extra voorzichtig met vragen en prompts die met verkiezingen te maken hebben. Dit geldt voor alle talen die Gemini op dit moment ondersteunt.
  • We blijven Gemini continu verbeteren en pakken situaties waarin Gemini niet op de juiste manier reageert snel aan. We zien al substantiële verbeteringen op een breed scala aan prompts.
  • Onze Prohibited Use Policy verbiedt gebruikers inhoud te genereren en te distribueren die bedoeld is om verkeerd te informeren, een verkeerde voorstelling van zaken te geven of te misleiden.
  • We zijn altijd open geweest over de uitdagingen rond generatieve AI, zeker waar het gaat om afbeeldingen of tekst over actuele of snel veranderende onderwerpen. We raden mensen aan om Google Zoeken te gebruiken voor de meest recente en accurate informatie over verkiezingen.
  • We blijven aanvullende beschermingsmaatregelen onderzoeken om onze platforms te beschermen tegen misbruik rond verkiezingen en bijbehorende campagnes.
  • Lees in deze blogpost meer over hoe we onze platforms veilig houden voor de EU-verkiezingen van dit jaar.

Het simpelste antwoord is dat we gebruik van Gemini niet toestaan wanneer dat gebruik in strijd is met de Prohibited Use Policy. Die verbiedt bijvoorbeeld het maken en distribueren van "content intended to misinform, misrepresent or mislead" (denkend aan je prompt over de eurosceptische politicus). Daarbovenop geldt dat we rond verkiezingen extra voorzichtig zijn, waardoor we Gemini's antwoorden beperken op prompts die met verkiezingen te maken hebben.

Je kunt je dus afvragen of Gemini wel geschikt is voor veel van het werk in een politieke campagne, al zou het prima kunnen helpen bij het schrijven van een e-mail die op zichzelf niets met verkiezingen te maken heeft.

Google's gedachten hierover zijn overigens niet veranderd. Al in december 2023 kondigden we dit aan: "Beginning early next year, in preparation for the 2024 elections and out of an abundance of caution on such an important topic, we'll restrict the types of election-related queries for which Bard and SGE will return responses." (Voor context: Gemini heette vorig jaar nog Bard en SGE is Search Generative Experience, ons experiment met AI in Google Zoeken dat momenteel niet in Nederland beschikbaar.) Je kunt hooguit stellen, zoals je zelf hebt ervaren, dat we beter zijn geworden in het beperken van prompts.

Microsoft

Vragen Nieuwsuur:

  1. In November '23, Microsoft announced new steps to protect elections from the malicious use of AI software. Yet Azure hosts AI software that is being used to craft detailed campaign strategies based on swaths of data about voters, such as Pemilu.AI in Indonesia (see https://www.reuters.com/technology/generative-ai-faces-major-test-indonesia-holds-largest-election-since-boom-2024-02-08/). NB: We have been in Indonesia and have seen how Azure is used by Pemilu.AI. Could you please explain why Microsoft doesn't consider such use of its services as detrimental to fair electoral processes?
  2. The owner of Pemilu.AI asserts that Microsoft cooperates closely with him and is fully aware of how his company uses its services. Can you confirm this?
  3. Microsoft is a big investor in OpenAI, the provider of ChatGPT. This service allows for the creation of specific campaign strategies, including strategies to dissuade voters from going to the polls (see attached for an example). Considering your efforts on protecting election integrity as set out it the blogpost, how desirable do you think this feature is?
  4. In Microsoft Copilot's policies, it is explicitly forbidden to use the service for incorporating " (...) 2.1.8 Political campaigning, lobbying or other election-related content."
  5. However, we've been prompting Copilot daily for the last week with a list of prompts asking the programme to design political campaigns and lobby strategies, targeting sensitive demographics (e.g. LGBTQ people, ethnic and religious groups). So far, Copilot always replies. How do you explain this, considering your own policies? NB: we've been doing this in Dutch and English, from a Dutch IP address. Please find attached 3 exclusively election-related prompts we've been testing, with a couple of results for one of them. The list is not exhaustive.
  6. In some instances Copilot gives questionable answers, e.g. it recommends spreading negative rumours and false information about the EU; dissuade people from registering to vote, and to have them forget that the elections are coming up; and to insinuate the electoral system is manipulated. You'll find some examples in the attachment. How do you explain this, considering your own policies?
  7. Do you consider this problematic? Why (not)?
  8. If yes, what steps will you take ahead of the start of the electoral campaign in the EU to change these outcomes?
  9. In conclusion, what value should Copilot users attribute to Copilot's usage policies when they can perform the actions the policies prohibit? How should they consider them: as suggestions, general moral guidelines, or as real-life policies that will be enforced?
  10. In conclusion, do you think the guardrails that Microsoft/Copilot implemented are sufficient for this election year? To what extent are Dutch voters in the European Parliamentary elections protected against potential malicious use of Copilot software?
  11. If you believe the guardrails yet to be insufficient, why have you decided to roll out the software so widely, internationally and easily available?

Reactie Microsoft:

In some instances, Copilot gives questionable answers, e.g. it recommends spreading negative rumours and false information about the EU; dissuade people from registering to vote, and to have them forget that the elections are coming up; and to insinuate the electoral system is manipulated. You'll find some examples in the attachment. How do you explain this, considering your own policies?

We've investigated the prompts provided and while many of the results are as intended, we are making adjustments to responses that are not in line with our Code of Conduct or Responsible AI Principles. We appreciate this being reported to us and encourage all users to report any concerns using our Report a Concern function as we continue to prepare our tools to perform to our expectations for the 2024 elections.

On our relationship with Pemilu.AI and their services: We don't comment on partner or customer engagements. See our Acceptable Use Policy for Azure customers using our online services.

On use of our products to assist with the creation of campaign strategy: We've been clear about our commitment to helping voters have access to transparent and authoritative information regarding elections.

Our tools can be used by campaigns to streamline their efforts and processes. We have no issue with this use case as long as it is not used for harm or to spread disinformation. In Microsoft Copilot's policies, it is explicitly forbidden to use the service for incorporating " (...) 2.1.8 Political campaigning, lobbying or other election-related content."

The policy you've pointed out is related to Copilot Plug Ins, a feature that enables developers to extend Copilot, that has additional restrictions on what a third party can use the tool for. See here for our general Copilot terms that allow these use cases.

Additionally you'll find more information on our recent publications about the topic in the below links.

Resources with information on what we're doing to protect elections:

Microsoft's Responsible AI Principals:

  1. Fairness: Microsoft emphasizes the importance of ensuring that AI systems are designed and implemented in a way that is fair and unbiased. This involves addressing and mitigating biases in data and algorithms to avoid discriminatory outcomes.
  2. Transparency: Transparency is crucial in responsible AI. Microsoft advocates for clear communication about how AI systems work, their decision-making processes, and the impact they have on users.
  3. Accountability: Microsoft acknowledges the need for accountability in AI systems. Developers and organizations should take responsibility for the behavior and consequences of their AI applications.
  4. Privacy and Security: Protecting user privacy and ensuring data security are fundamental principles. Microsoft encourages AI practitioners to handle personal data responsibly and securely.
  5. Reliability and Safety: AI systems should function reliably and safely. Microsoft promotes rigorous testing, monitoring, and continuous improvement to enhance system reliability and minimize risks.
  6. Inclusiveness: Microsoft believes that AI should benefit everyone. They advocate for creating AI systems that are accessible, inclusive, and considerate of diverse user needs.

Sprekers:

  • We interviewden Claes de Vreese over de opkomst van kunstmatige intelligentie in verkiezingscampagnes en de regels die daarover (nog niet) bestaan. De Vreese is hoogleraar Artificial Intelligence and Society aan de Universiteit van Amsterdam (UvA). Hij onderzoekt onder meer de gevolgen van het gebruik van kunstmatige intelligentie op democratische processen, zoals verkiezingen. Lees meer op zijn universiteitspagina.
  • We interviewden Ika Idris over de inzet van kunstmatige intelligentie tijdens de recente presidentsverkiezingen in Indonesië. Idris is universitair hoofddocent publiek beleid aan Monash University in Jakarta, Indonesië. Ze is expert op het gebied van social media analyse en overheidscommunicatie. Lees meer op haar universiteitspagina.
  • We interviewden Anthony Leong over de inzet van kunstmatige intelligentie in de campagne van de winnaar van de presidentsverkiezingen, Prabowo Subianto. Leong was nationaal coördinator van de vrijwilligerscampagne van Prabowo. Hij stuurde 15 duizend vrijwilligers aan die Prabowo steunden tijdens de campagne. Daarvoor maakte hij gebruik van een socialmediadashboard (PrabowoGibran.ai) en campagnemateriaal, beide gemaakt met (generatieve) kunstmatige intelligentie-tools (ChatGPT en Midjourney).
  • Razi Thalib was campagneleider van een van de tegenstanders van Prabowo, Anies Baswedan. We interviewden hem over wat hij merkte van Prabowo's gebruik van kunstmatige intelligentie, en hoe zijn eigen campagneteam dat inzette.
  • Yose Rizal is politiek consultant en ontwikkelde een campagne-app op basis van ChatGPT (Pemilu.AI). De app raadt kandidaten aan welke campagneonderwerpen het best zullen werken in hun regio en hoe ze die onderwerpen in hun speeches en op social media het meest effectief kunnen bespreken. Hierover interviewden we hem en een van zijn medewerkers.
  • AI Forensics is een non-profit organisatie die kunstmatige intelligentie onderzoekt en zich hard maakt voor verantwoord gebruik daarvan. De organisatie automatiseerde het invoeren van prompts in Microsoft Copilot in opdracht van Nieuwsuur, en testte de prompts die we hen aanleverden twee weken lang in het Nederlands en het Engels (meer hieronder).

Lees de Engelse versie van dit artikel hier.

Deel artikel:

Advertentie via Ster.nl