Onderzoekers: AI nog niet klaar om programmeurs bij debugging te vervangen

Kunstmatige intelligentie (AI) kan menselijke programmeurs nog niet vervangen bij het opsporen van fouten in software. Dit blijkt uit nieuw onderzoek van Microsoft Research. Het bedrijf ontwikkelde hiervoor een speciale testomgeving genaamd debug-gym. Zelfs met toegang tot debugging-tools blijven AI-systemen achter bij menselijke ontwikkelaars.


AI is al diep verweven in softwareontwikkeling. We zien het in tools als GitHub Copilot en bij startups die snel applicaties bouwen met hulp van taalmodellen. Toch moeten we onze verwachtingen bijstellen. Modellen zijn nog niet goed genoeg in debugging, terwijl dit het grootste deel van een ontwikkelaar's tijd in beslag neemt.


Bestaande code debuggen
De nieuwe testomgeving debug-gym is beschikbaar op GitHub. Het stelt AI-modellen in staat om bestaande code te debuggen met tools die normaal niet beschikbaar zijn voor deze modellen. Samuel Axon schrijft dat zonder deze aanpak modellen opvallend slecht presteren bij debugging-taken. Met de nieuwe aanpak gaat het beter, maar nog lang niet zo goed als bij ervaren menselijke ontwikkelaars.


Het beste resultaat in de tests was een slagingspercentage van 48,4 procent. Dit is volgens de onderzoekers te wijten aan het gebrek aan trainingsgegevens over besluitvorming bij debugging. Microsoft Research ziet de resultaten als een veelbelovende onderzoeksrichting en werkt aan een gespecialiseerd model dat beter informatie kan verzamelen om bugs op te lossen.


Interactieve debugging
"We geloven dat interactieve debugging met de juiste tools AI-agents kan helpen bij het aanpakken van softwareontwikkelingstaken uit de praktijk", zegt Microsoft Research. "De verbeteringen voorgesteld door een AI met debugging-mogelijkheden zullen gebaseerd zijn op de context van de codebasis en programma-uitvoering, in plaats van alleen op gissingen uit trainingsdata."

LAATSTE AI-NIEUWS

Het logo van Meta AI op een iPhone weergegeven.
16 april 2025
Nieuwe rechtbankdocumenten onthullen hoe Meta meer dan zeven miljoen gekopieerde boeken gebruikte om zijn AI-systemen te trainen. Het technologiebedrijf beweert in de rechtszaak dat deze boeken afzonderlijk 'geen economische waarde' hebben. Dit blijkt uit onlangs openbaar gemaakte dossiers in de rechtszaak tegen het bedrijf van Mark Zuckerberg. De zaak Richard Kadrey tegen Meta Platforms loopt al bijna twee jaar. Onder de eisers zijn Pulitzerprijs-winnaars Andrew Sean Greer en Junot Díaz, en komiek Sarah Silverman. Zij beweren dat Meta hun auteursrechten heeft geschonden door hun werk zonder toestemming te gebruiken. Meta beweert dat het gebruik valt onder 'fair use', een Amerikaans rechtsprincipe dat beperkt gebruik toestaat. Gekopieerde boeken Interne berichten van Meta tonen aan dat medewerkers twijfels hadden over het gebruik van de gekopieerde boeken. "Ik denk niet dat we gekopieerd materiaal moeten gebruiken. Ik moet daar echt een grens trekken", schreef onderzoeker Melanie Kambadur in oktober 2022. Andere berichten laten zien dat onderzoekers probeerden niet te veel vragen te stellen over de herkomst van de data. Meta haalde volgens de aanklagers minstens 81,7 terabyte aan gegevens uit illegale bronnen zoals Z-Library en LibGen. Een onderzoeker schreef dat 'fictie geweldig is' voor het trainen van het taalmodel, maar merkte op dat er slechts '700GB' aan fictie beschikbaar was in de LibGen-database. Het bedrijf verwijderde ook auteursrechtpagina's uit de gedownloade boeken. Krankzinnig "Een decennium van mijn leven. Dat is mijn creatieve werk. Dat is mijn geest", zegt schrijver Carmen Maria Machado, wiens boeken ook in de database staan. "Ik ben enorm in controle over de rechten van mijn boeken en mijn vertalingen. Maar het idee dat een bedrijf dit zonder gevolgen in een machine kan stoppen, is zo krankzinnig dat ik het niet kan bevatten."
Twee handen houden een scherm vast met daarop het Nvidia-logo.
16 april 2025
Nvidia kondigde maandag aan dat het voor het eerst NVIDIA AI-supercomputers volledig in de Verenigde Staten gaat produceren. Het bedrijf is van plan om via productiepartnerschappen tot 500 miljard dollar aan AI-infrastructuur in de VS te bouwen in de komende vier jaar. Dit komt na recente ontwikkelingen rond Amerikaanse importtarieven. "Door productie in Amerika toe te voegen kunnen we beter voldoen aan de enorme vraag naar AI-chips en supercomputers", zei Jensen Huang, de topman van Nvidia. "Het versterkt ook onze toeleveringsketen en vergroot onze veerkracht." Nvidia heeft al meer dan een miljoen vierkante meter aan productieruimte in gebruik genomen voor deze plannen. Verpakking van chips De productie van Blackwell AI-chips is inmiddels begonnen in Phoenix bij fabrieken van Taiwan Semiconductor. In Arizona werkt Nvidia ook samen met Amkor en Siliconware Precision Industries. Deze bedrijven verzorgen de verpakking en het testen van chips. Nvidia ontwerpt de GPU's (grafische verwerkingseenheden) zelf, maar besteedt de chipproductie uit aan fabrikanten zoals TSMC. Het bedrijf bouwt ook productiefaciliteiten voor supercomputers in Texas. Daar gaat het samenwerken met Foxconn in Houston en met Wistron in Dallas. Nvidia verwacht binnen twaalf tot vijftien maanden massaproductie te kunnen starten in beide faciliteiten. Voor het ontwerpen en bedienen van de fabrieken zet Nvidia zijn eigen technologie in om 'digitale tweelingstechnieken' te creëren en robots voor gespecialiseerde automatisering te bouwen. Trump-effect in actie "Deze ontwikkeling is het Trump-effect in actie", schreef het Witte Huis maandag in een blogpost. Dit verwijst naar de recente tariefmaatregelen van president Donald Trump. Vrijdag heeft Trump chips, smartphones, computers en andere technologische apparaten vrijgesteld van importtarieven. Toen Nvidia werd gevraagd of er een verband bestond tussen de aankondiging en Trumps tarieven, weigerde het bedrijf commentaar te geven.
Het logo van OpenAI op het hoofdkantoor van het Amerikaanse bedrijf.
15 april 2025
OpenAI gaat ontwikkelaars mogelijk verplichten om zich te identificeren met een geldig identiteitsbewijs. Dit is nodig om toegang te krijgen tot toekomstige geavanceerde AI-modellen. Het bedrijf maakte dit bekend op een ondersteuningspagina die vorige week verscheen. Het nieuwe verificatieproces heet 'Verified Organization'. Hiermee kunnen ontwikkelaars toegang krijgen tot de meest geavanceerde modellen op het OpenAI-platform. Voor de verificatie is een identiteitsbewijs nodig uit een land dat OpenAI ondersteunt. Een identiteitsbewijs kan maar één organisatie per 90 dagen verifiëren. Niet alle organisaties komen in aanmerking. Verificatieproces "Bij OpenAI nemen we onze verantwoordelijkheid serieus om AI breed toegankelijk én veilig te maken", staat op de pagina. "Helaas gebruikt een kleine minderheid van ontwikkelaars onze API's in strijd met onze gebruiksvoorwaarden. We voeren het verificatieproces in om onveilig gebruik tegen te gaan." De nieuwe procedure kan bedoeld zijn om de beveiliging te versterken. OpenAI's producten worden steeds geavanceerder en krachtiger. Het bedrijf heeft meerdere rapporten gepubliceerd over het opsporen van kwaadwillig gebruik. Hierbij worden ook groepen genoemd die zouden werken vanuit Noord-Korea. Voorkomen van diefstal van intellectueel eigendom "Dit kan ook gericht zijn op het voorkomen van diefstal van intellectueel eigendom", zegt Kyle Wiggers van Bloomberg. Het mediabedrijf meldde eerder dit jaar dat OpenAI onderzocht of een groep gelinkt aan het Chinese DeepSeek grote hoeveelheden data had gestolen via de API. Dit zou mogelijk zijn gebeurd voor het trainen van modellen, wat in strijd is met OpenAI's voorwaarden.
MEER WEERGEVEN

Download GRATIS AI-prompts die je business helpen veranderen!

Exclusieve whitepapers en e-books met waardevolle kennis en AI-prompts - ontwikkeld om direct resultaat te leveren.

Je kunt deze krachtige tools zo downloaden.

➡️ Ga naar de producten-pagina en profiteer nu!

BRENG ME HIERHEEN

Deel dit bericht