10 april 2025
Een nieuw onderzoek van MIT toont aan dat kunstmatige intelligentie (AI) geen eigen waardesysteem ontwikkelt. Dit staat haaks op een eerdere studie. Die studie beweerde dat AI bij verdere ontwikkeling eigen waarden zou krijgen en zichzelf boven mensen zou stellen. De MIT-onderzoekers ontdekten dat AI-systemen geen consistente voorkeuren hebben. Ze testten modellen van Meta, Google, Mistral, OpenAI en Anthropic. De wetenschappers keken of deze modellen sterke meningen en waarden vertoonden. Ook onderzochten ze of deze opvattingen te sturen waren en hoe hardnekkig de modellen aan hun meningen vasthielden. Totaal verschillende standpunten Geen enkel model bleek consequent in zijn voorkeuren. De AI-systemen namen totaal verschillende standpunten in, afhankelijk van hoe vragen werden gesteld. Dit maakt volgens de onderzoekers het 'afstemmen' van AI-systemen moeilijker dan vaak wordt gedacht. AI hallucineert en imiteert, wat het gedrag onvoorspelbaar maakt. Stephen Casper, promovendus aan MIT en mede-auteur van de studie, benadrukt dat modellen geen stabiele principes volgen. "Het is volkomen terecht om te zeggen dat een model onder bepaalde omstandigheden voorkeuren uit die overeenkomen met bepaalde principes. De problemen ontstaan wanneer we uitspraken willen doen over de algemene meningen of voorkeuren van modellen op basis van beperkte experimenten", vertelt hij. Wetenschappelijke realiteit Mike Cook, onderzoeker aan King's College London gespecialiseerd in AI, is het eens met de bevindingen. Hij wijst op het verschil tussen de wetenschappelijke realiteit van AI-systemen en de betekenis die mensen eraan toekennen. "Een model kan zich niet 'verzetten' tegen een verandering in zijn waarden - dat zijn wij die menselijke eigenschappen op een systeem projecteren", zegt Cook. "Iedereen die AI-systemen zo sterk vermenselijkt, zoekt ofwel aandacht of begrijpt zijn relatie met AI ernstig verkeerd."