Chatbots kunnen regels voor zichzelf opstellen, zonder menselijke tussenkomst. Wat betekent het?

Uit een recent onderzoek dat op 14 mei 2025 werd gepubliceerd in Science Advances en werd uitgevoerd door onderzoekers van City St George's, University of London en IT University of Copenhagen, blijkt dat populaties van grote taalmodellen (LLM's), vergelijkbaar met ChatGPT, spontaan gedeelde sociale conventies kunnen ontwikkelen door wederzijdse interactie, zonder directe menselijke tussenkomst.
Simpel gezegd kunnen chatbots zichzelf regels opleggen en zichzelf autonoom organiseren, zonder dat daarvoor menselijke tussenkomst nodig is. Wanneer ze zich in een groep bevinden, stellen ze spontaan gedragsnormen en sociale conventies vast, net zoals dat in menselijke samenlevingen gebeurt.
Voor het experiment pasten de onderzoekers een klassiek spel aan dat gebruikt wordt om sociale conventies bij mensen te bestuderen, het 'namenspel'. In deze context werden groepen LLM's, variërend in omvang van 24 tot 200 agenten, willekeurig gekoppeld om een 'naam' te kiezen uit een gedeelde set opties. Twee deelnemers uit elke groep werden om de beurt in tweetallen geplaatst en kregen de opdracht een 'naam' te selecteren uit de beschikbare opties. In dit geval was dit een letter uit het alfabet of een willekeurige reeks tekens.
Als beide agenten dezelfde naam kozen, kregen ze een beloning; anders een strafschop en werden ze op de hoogte gesteld van elkaars keuzes. De agenten hadden slechts een beperkte herinnering aan recente interacties en waren zich er niet van bewust dat ze deel uitmaakten van een grotere groep.
Na veel van dergelijke interacties observeerden de auteurs van de studie dat er spontaan een gedeelde gedragsregel kan ontstaan, zonder dat er sprake is van centrale coördinatie of een vooraf bepaalde oplossing. Dat wil zeggen dat agenten, ondanks het ontbreken van centrale coördinatie, spontaan gemeenschappelijke naamgevingsconventies ontwikkelden door herhaalde interacties.
Nog verrassender is dat er ook collectieve vervormingen en tendensen zijn ontstaan die niet zijn terug te voeren op individuele systemen. Er werden systematische vooroordelen waargenomen die niet aan individuele personen konden worden toegeschreven, maar voortkwamen uit collectieve interacties.
Uiteindelijk toonde het onderzoek aan hoe vooroordelen niet alleen kunnen ontstaan door trainingsgegevens, maar ook door interacties tussen agenten. Dit suggereert dat er in AI-beveiligingsprotocollen rekening moet worden gehouden met groepsdynamiek. Bovendien roept het vermogen van kleine groepen om het gehele systeem te beïnvloeden vragen op over de stabiliteit van opkomende normen en de mogelijkheid van ongewenste manipulatie.
Het vermogen van LLM's om gedeelde conventies en collectieve vooroordelen te ontwikkelen via autonome interactie, onderstreept hoe belangrijk het is om bij de implementatie van dergelijke technologieën rekening te houden met sociale en ethische implicaties.
Volgens de onderzoekers is het van cruciaal belang om deze aspecten ook te gaan testen en bestuderen in contexten waarin meerdere agenten betrokken zijn. Dit is een aspect dat op het gebied van AI-beveiliging momenteel volledig wordt verwaarloosd.
Voor meer informatie.
Perplexity AI is een kleine revolutie in informatie zoeken
Wat is er gebeurd met SearchGpt, de zoekmachine van OpenAi?
ilsole24ore