Als een chatbot wat informatie krijgt over zijn tegenpartij, kan die in een debat met betere argumenten komen. Dat blijkt uit een nieuwe studie in Nature Human Behavior. Volgens wetenschappers roept het vragen op over hoe AI online meningen kan manipuleren.
Voor het onderzoek werden driehonderd deelnemers gekoppeld aan menselijke tegenstanders in een online debat. Een andere groep van driehonderd deelnemers werd gekoppeld aan ChatGPT-4, een ‘groot taalmodel’ (LLM). Vervolgens kregen ze de opdracht om over bepaalde thema’s te debatteren.
Ze moesten het onder meer hebben over het nut van een schooluniform en een verbod op fossiele brandstoffen in de Verenigde Staten. In de helft van de gevallen kregen de deelnemers wat achtergrondinformatie over hun tegenpartij, zoals hun geslacht, opleidingsniveau en politieke voorkeur.
Zonder achtergrondinformatie over de tegenpartij deden mensen en AI het ongeveer even goed in een debat. Maar met wat extra kennis slaagde AI er beter in om met overtuigende argumenten te komen. In 64 procent van de gevallen kon de chatbot de opinie van de tegenstander meer bijsturen dan de menselijke deelnemers. Na het debat moesten deelnemers telkens aangeven in welke mate ze waren overtuigd door hun gesprekspartner.
AI is er vooral goed in om de redevoering precies af te stemmen op het profiel van de tegenpartij. “Het is alsof je in een debat zit met iemand die niet alleen goede argumenten heeft, maar ook precies weet op welke knoppen hij moet drukken”, zegt een van de betrokken onderzoekers tegen The Guardian.
Worrying about the possibilities to distribute online lies and wrong information
Volgens de onderzoekers laat het experiment zien dat AI ingezet kan worden om online opinies te manipuleren, zeker als het de beschikking heeft over persoonlijke data. Dat brengt gevaren met zich mee. “Iedereen moet zich bewust zijn van de microtargeting die mogelijk is door de enorme hoeveelheid persoonlijke gegevens die we over het web verspreiden”, zegt een van de auteurs tegen The Washington Post.
Sandra Wachter, a professor at the University of Oxford who was not involved in the research, called the discovery “quite alarming” in that American newspaper. She is particularly concerned about the possibilities of spreading lies and misinformation online. “Language models do not distinguish between facts and fiction. They are not designed to tell the truth,” Wachter said.
If a chatbot receives information about its opponent, it can come up with better arguments in a debate. This is according to a new study in Nature Human Behavior. According to scientists, it raises questions about how AI can manipulate opinions online.
For the study, three hundred participants were paired with human opponents in an online debate. Another group of three hundred participants were paired with ChatGPT-4, a ‘large language model’ (LLM). They were then tasked with debating certain topics.
They had to discuss, among other things, the usefulness of a school uniform and a ban on fossil fuels in the United States. In half of the cases, the participants received some background information about their opponent, such as their gender, level of education and political preference.
Without background information about the opponent, humans and AI did about equally well in a debate. But with some extra knowledge, AI was better able to come up with convincing arguments. In 64 percent of the cases, the chatbot was able to adjust the opponent’s opinion more than the human participants. After the debate, participants had to indicate to what extent they were convinced by their conversation partner.
AI is especially good at tailoring the speech exactly to the profile of the opponent. “It’s like being in a debate with someone who not only has good arguments, but also knows exactly which buttons to push,” one of the researchers involved told The Guardian.
Concerns about the Possibilities of Spreading Lies and Misinformation Online
According to the researchers, the experiment shows that AI can be used to manipulate online opinions, especially if it has access to personal data. That brings dangers with it. “Everyone needs to be aware of the microtargeting that is possible due to the enormous amount of personal data that we spread across the web,” one of the authors told The Washington Post.
Sandra Wachter, a professor at the University of Oxford who was not involved in the research, called the discovery “quite alarming” in that American newspaper. She is particularly concerned about the possibilities of spreading lies and misinformation online. “Language models do not distinguish between facts and fiction. They are not designed to tell the truth,” Wachter said.