logo

Kunstmatige intelligentie vergroot risico op bankruns volgens Brits onderzoek

Nepnieuws gemaakt door kunstmatige intelligentie (KI) kan leiden tot grote problemen bij banken. Dit blijkt uit nieuw Brits onderzoek van Say No to Disinfo en Fenimore Harper. Een derde van de bankklanten zou hun geld weghalen na het zien van nep-berichten.


Het onderzoek laat zien hoe KI-systemen nepverhalen kunnen maken over onveilig spaargeld. Deze berichten verspreiden zich snel via sociale media. Voor elke 10 pond aan advertentiekosten kunnen klanten wel een miljoen pond aan spaargeld weghalen.


Toezichthouders maken zich zorgen over dit soort risico's sinds de val van Silicon Valley Bank. Bij deze bank haalden klanten in 24 uur tijd 42 miljard dollar weg. Moderne technologie maakt het mogelijk om binnen enkele seconden geld over te maken.


Woody Malouf van financieel bedrijf Revolut neemt de dreiging serieus. "Ook al denken we dat zoiets niet snel zal gebeuren, het is wel mogelijk. Daarom moeten banken goed voorbereid zijn", zegt Malouf. Hij vindt dat sociale media meer moeten doen tegen deze dreiging.


"KI (AI) maakt desinformatiecampagnes makkelijker, goedkoper en effectiever dan ooit tevoren. Het groeiende risico voor de financiële sector wordt vaak over het hoofd gezien", waarschuwt het onderzoeksrapport.

De Google-browser op een computerscherm.
door Erwin Blatter 20 februari 2025
Google heeft een nieuwe kunstmatige intelligentie ontwikkeld die wetenschappers helpt bij hun onderzoek. Het systeem werkt als een digitale onderzoekspartner die grote hoeveelheden wetenschappelijke literatuur kan verwerken en nieuwe onderzoeksrichtingen kan voorstellen. Wetenschappers van de Stanford Universiteit in Amerika en Imperial College London hebben het systeem getest. De kunstmatige intelligentie kan ingewikkelde verbanden leggen tussen verschillende onderzoeken en komt met nieuwe ideeën voor vervolgonderzoek. Het onderzoeksteam testte de AI-assistent bij een studie naar leverontsteking. Alle voorstellen die het systeem deed, bleken nuttige aanknopingspunten te bieden voor de behandeling van deze ziekte. Het systeem werd steeds beter in het maken van voorstellen naarmate het meer samenwerkte met de onderzoekers. Google's AI-afdeling DeepMind zet sterk in op wetenschappelijk onderzoek. Demis Hassabis, het hoofd van DeepMind, kreeg vorig jaar de Nobelprijs voor Scheikunde voor technologie die zijn team ontwikkelde. "We verwachten dat dit systeem de samenwerking tussen wetenschappers zal versterken in plaats van verminderen", zegt Vivek Natarajan, wetenschapper bij Google. "Het doel is om het werk van experts te ondersteunen en te versnellen, niet om hen te vervangen."
Illustratie van een zwevend brein in een laboratorium  met een persoon erbij.
door Erwin Blatter 19 februari 2025
Het Amerikaanse advocatenkantoor Morgan & Morgan waarschuwt zijn medewerkers voor kunstmatige intelligentie. Het stuurde een dringende mail naar meer dan duizend advocaten. De boodschap was duidelijk: wie nepzaken gebruikt in rechtbankdocumenten, riskeert ontslag. De waarschuwing kwam nadat twee advocaten van het kantoor in de problemen kwamen. Ze gebruikten niet-bestaande rechtszaken in een zaak tegen Walmart. Een van de advocaten gaf toe dat hij AI had gebruikt. Het computerprogramma had de zaken verzonnen. Nepzaken Rechters in Amerika hebben al in zeven verschillende zaken advocaten bestraft voor het gebruik van nepzaken. Het probleem komt steeds vaker voor sinds de komst van chatbots zoals ChatGPT. Veel advocatenkantoren gebruiken AI-programma's om tijd te besparen bij onderzoek. Michael Cohen, de vroegere advocaat van Donald Trump, maakte dezelfde fout. Hij gebruikte de chatbot Bard van Google. Cohen gaf per ongeluk valse verwijzingen door aan zijn eigen advocaat. De rechter noemde het voorval 'beschamend', maar legde geen straf op.  Zelf controleren Een onderzoek laat zien dat 63 procent van de advocaten AI gebruikt voor hun werk. Twaalf procent doet dit zelfs regelmatig. Experts waarschuwen dat advocaten altijd zelf moeten controleren wat AI schrijft. "Als advocaten ChatGPT of andere AI-programma's gebruiken zonder de bronnen te controleren, is dat gewoon onbekwaamheid", zei Andrew Perlman, decaan van de rechtenfaculteit van Suffolk University.
Hoofd van een chatbot die een blauwe neonkleur uitstraalt met licht dat naar links uitstraalt.
door Erwin Blatter 19 februari 2025
Mira Murati start een nieuw bedrijf in kunstmatige intelligentie. De voormalige technisch directeur van OpenAI richtte dinsdag Thinking Machines Lab op. Het bedrijf telt nu dertig medewerkers uit verschillende AI-bedrijven. Het team bestaat voor twee derde uit oud-medewerkers van OpenAI. Een belangrijke naam is Barret Zoph, die samen met Murati in september vertrok bij OpenAI. Zoph wordt technisch directeur bij de nieuwe onderneming. Menselijke waarden De startup wil AI-systemen maken die menselijke waarden bevatten. Dit moet de systemen veiliger en betrouwbaarder maken. Het bedrijf wil zich ook richten op meer toepassingen dan andere bedrijven in de sector. John Schulman sluit zich aan als wetenschappelijk directeur. Hij verliet OpenAI in augustus voor concurrent Anthropic. Schulman is een van de oprichters van OpenAI. Meer werknemers van OpenAI zullen waarschijnlijk nog volgen. Ontwikkeling van ChatGTP Mira Murati werkte sinds 2018 bij OpenAI. Daar leidde ze de ontwikkeling van ChatGPT. Ze was vaak het gezicht van het bedrijf, samen met directeur Sam Altman. Voor haar tijd bij OpenAI werkte ze bij Leap Motion en Tesla. "Wij bouwen AI die zich kan aanpassen aan alle vormen van menselijke kennis. Hierdoor kunnen we meer verschillende toepassingen maken dan huidige systemen", zei het bedrijf in een aankondiging.
Share by: