logo

Kunstmatige intelligentie krijgt focus op specifieke toepassingen in 2025

Deskundigen voorspellen dat kunstmatige intelligentie (KI) zich in 2025 zal richten op specifieke toepassingen. De ontwikkeling verschuift van grote modellen naar kleinere, gerichte systemen. Dit blijkt uit gesprekken van AI News met verschillende experts uit het veld.


Het aantal parameters in KI-modellen wordt minder belangrijk als maatstaf voor kwaliteit. Grant Shipley van Red Hat ziet een nieuwe aanpak ontstaan. "2025 wordt het jaar waarin we stoppen met het aantal parameters als waarde-indicator voor een model", zegt Shipley.


Open source KI-modellen winnen aan populariteit vanwege hun betaalbaarheid en aanpasbaarheid. Bill Higgins van IBM ziet hierin een oplossing voor bedrijven. "Veel bedrijven worstelen nog steeds met het aantonen van rendement op hun KI-investeringen. Open source KI-oplossingen worden in 2025 een dominante kracht om dit gat te dichten", vertelt Higgins.


De integratie van menselijke expertise in KI-systemen krijgt meer aandacht. Jonathan Siddharth van Turing ziet dit als een belangrijke ontwikkeling. "De doorbraak komt van het leren hoe problemen worden aangepakt met de logische redenering die coderen met zich meebrengt", legt Siddharth uit.


Siggi Stefnisson van Gen waarschuwt voor de gevaren van geavanceerde KI-systemen. Deze kunnen nepbeelden en -video's maken die nauwelijks van echt zijn te onderscheiden. "Zelfs experts kunnen mogelijk niet meer bepalen wat authentiek is", waarschuwt Stefnisson.

De Google-browser op een computerscherm.
door Erwin Blatter 20 februari 2025
Google heeft een nieuwe kunstmatige intelligentie ontwikkeld die wetenschappers helpt bij hun onderzoek. Het systeem werkt als een digitale onderzoekspartner die grote hoeveelheden wetenschappelijke literatuur kan verwerken en nieuwe onderzoeksrichtingen kan voorstellen. Wetenschappers van de Stanford Universiteit in Amerika en Imperial College London hebben het systeem getest. De kunstmatige intelligentie kan ingewikkelde verbanden leggen tussen verschillende onderzoeken en komt met nieuwe ideeën voor vervolgonderzoek. Het onderzoeksteam testte de AI-assistent bij een studie naar leverontsteking. Alle voorstellen die het systeem deed, bleken nuttige aanknopingspunten te bieden voor de behandeling van deze ziekte. Het systeem werd steeds beter in het maken van voorstellen naarmate het meer samenwerkte met de onderzoekers. Google's AI-afdeling DeepMind zet sterk in op wetenschappelijk onderzoek. Demis Hassabis, het hoofd van DeepMind, kreeg vorig jaar de Nobelprijs voor Scheikunde voor technologie die zijn team ontwikkelde. "We verwachten dat dit systeem de samenwerking tussen wetenschappers zal versterken in plaats van verminderen", zegt Vivek Natarajan, wetenschapper bij Google. "Het doel is om het werk van experts te ondersteunen en te versnellen, niet om hen te vervangen."
Illustratie van een zwevend brein in een laboratorium  met een persoon erbij.
door Erwin Blatter 19 februari 2025
Het Amerikaanse advocatenkantoor Morgan & Morgan waarschuwt zijn medewerkers voor kunstmatige intelligentie. Het stuurde een dringende mail naar meer dan duizend advocaten. De boodschap was duidelijk: wie nepzaken gebruikt in rechtbankdocumenten, riskeert ontslag. De waarschuwing kwam nadat twee advocaten van het kantoor in de problemen kwamen. Ze gebruikten niet-bestaande rechtszaken in een zaak tegen Walmart. Een van de advocaten gaf toe dat hij AI had gebruikt. Het computerprogramma had de zaken verzonnen. Nepzaken Rechters in Amerika hebben al in zeven verschillende zaken advocaten bestraft voor het gebruik van nepzaken. Het probleem komt steeds vaker voor sinds de komst van chatbots zoals ChatGPT. Veel advocatenkantoren gebruiken AI-programma's om tijd te besparen bij onderzoek. Michael Cohen, de vroegere advocaat van Donald Trump, maakte dezelfde fout. Hij gebruikte de chatbot Bard van Google. Cohen gaf per ongeluk valse verwijzingen door aan zijn eigen advocaat. De rechter noemde het voorval 'beschamend', maar legde geen straf op.  Zelf controleren Een onderzoek laat zien dat 63 procent van de advocaten AI gebruikt voor hun werk. Twaalf procent doet dit zelfs regelmatig. Experts waarschuwen dat advocaten altijd zelf moeten controleren wat AI schrijft. "Als advocaten ChatGPT of andere AI-programma's gebruiken zonder de bronnen te controleren, is dat gewoon onbekwaamheid", zei Andrew Perlman, decaan van de rechtenfaculteit van Suffolk University.
Hoofd van een chatbot die een blauwe neonkleur uitstraalt met licht dat naar links uitstraalt.
door Erwin Blatter 19 februari 2025
Mira Murati start een nieuw bedrijf in kunstmatige intelligentie. De voormalige technisch directeur van OpenAI richtte dinsdag Thinking Machines Lab op. Het bedrijf telt nu dertig medewerkers uit verschillende AI-bedrijven. Het team bestaat voor twee derde uit oud-medewerkers van OpenAI. Een belangrijke naam is Barret Zoph, die samen met Murati in september vertrok bij OpenAI. Zoph wordt technisch directeur bij de nieuwe onderneming. Menselijke waarden De startup wil AI-systemen maken die menselijke waarden bevatten. Dit moet de systemen veiliger en betrouwbaarder maken. Het bedrijf wil zich ook richten op meer toepassingen dan andere bedrijven in de sector. John Schulman sluit zich aan als wetenschappelijk directeur. Hij verliet OpenAI in augustus voor concurrent Anthropic. Schulman is een van de oprichters van OpenAI. Meer werknemers van OpenAI zullen waarschijnlijk nog volgen. Ontwikkeling van ChatGTP Mira Murati werkte sinds 2018 bij OpenAI. Daar leidde ze de ontwikkeling van ChatGPT. Ze was vaak het gezicht van het bedrijf, samen met directeur Sam Altman. Voor haar tijd bij OpenAI werkte ze bij Leap Motion en Tesla. "Wij bouwen AI die zich kan aanpassen aan alle vormen van menselijke kennis. Hierdoor kunnen we meer verschillende toepassingen maken dan huidige systemen", zei het bedrijf in een aankondiging.
Share by: