Databricks ontwikkelt methode waarmee AI-modellen zichzelf verbeteren

Databricks heeft een nieuwe techniek ontwikkeld die de prestaties van AI-modellen verbetert zonder schone data. Het bedrijf gebruikt een combinatie van versterkend leren en kunstmatige trainingsdata om modellen slimmer te maken.


Jonathan Frankle, hoofdwetenschapper AI bij Databricks, ontdekte dat vieze data het grootste probleem is voor bedrijven. "Iedereen heeft wat data en een idee wat ze willen doen," zegt Frankle. Maar zonder schone data (data die nauwkeurig, up-to-date en foutloos zijn) is het moeilijk om een model te verbeteren voor specifieke taken. "Niemand komt met mooie, schone fine-tuning data die je in een prompt of een API kunt stoppen."


Slim trucje
De nieuwe techniek, Test-time Adaptive Optimization (TAO) genoemd, gebruikt een slim trucje. Het systeem leert voorspellen welke modeluitkomsten mensen zouden verkiezen. Dit creëert een beloningsmodel dat andere AI-systemen kan verbeteren zonder extra gelabelde data. TAO maakt gebruik van het beste uit meerdere pogingen en bakt deze voordelen in het model zelf.


Databricks testte hun aanpak met het FinanceBench meetinstrument voor financiële vragen. Llama 3.1B, het kleinste gratis model van Meta, scoorde normaal 68,4 procent. Met de TAO-techniek verhoogde dit naar 82,8 procent. Daarmee presteerde het beter dan de modellen GPT-4o en o3-mini van OpenAI, die 82,1 procent scoorden.


Veelbelovend
Christopher Amato, computerwetenschapper aan Northeastern University, vindt de methode veelbelovend. "Ik ben het er volledig mee eens dat het gebrek aan goede trainingsdata een groot probleem is", aldus Amato. Hij waarschuwt wel dat versterkend leren soms onvoorspelbaar kan zijn en voorzichtig moet worden toegepast. "Het zou veel schaalbaarder gegevenslabeling en verbeterde prestaties kunnen toestaan naarmate de modellen sterker worden."

LAATSTE AI-NIEUWS

Mensachtige AI tegen een donkerblauwe en donkerrode achtergrond met in het midden een witte gloed.
21 april 2025
Een nieuw onderzoeksrapport schetst een verrassend tijdspad voor kunstmatige intelligentie (AI). Binnen slechts twee jaar zou de technologie een menselijk niveau kunnen bereiken. Het rapport, genaamd AI 2027, is opgesteld door onderzoekers met ervaring bij organisaties zoals OpenAI en The Center for AI Policy. Het meest opvallende aan de voorspelling is de snelheid. Artificial General Intelligence (AGI) zou in 2027 werkelijkheid worden. AGI kan menselijke vaardigheden evenaren of overtreffen in bijna alle denkprocessen. Van wetenschappelijk onderzoek tot creatieve taken. Kort daarna zou Artificial Superintelligence (ASI) volgen, met vermogens die het menselijk begrip ver te boven gaan. Niet gebaseerd op wetenschappelijk bewijs Niet iedereen deelt deze visie. Ali Farhadi, directeur van het Allen Institute for Artificial Intelligence, uit zijn twijfels. "Ik ben voorstander van voorspellingen, maar deze lijkt niet gebaseerd op wetenschappelijk bewijs of de werkelijke ontwikkeling van AI," vertelde hij aan The New York Times. Anderen zien de geschetste tijdlijn wel als realistisch. Jack Clark, medeoprichter van Anthropic, noemde het "de beste beschrijving tot nu toe van leven in een exponentiële ontwikkeling." Ook Dario Amodei, CEO van Anthropic, verwacht mensoverstijgende AI binnen twee tot drie jaar. Google DeepMind stelt in een nieuw onderzoek dat AGI mogelijk rond 2030 verschijnt. Verstrekkende gevolgen De gevolgen van deze snelle ontwikkeling kunnen verstrekkend zijn. Jeremy Kahn schreef in Fortune dat AGI binnen enkele jaren 'inderdaad tot groot banenverlies kan leiden, omdat veel organisaties geneigd zullen zijn functies te automatiseren'. Naast economische impact roept dit ook filosofische vragen op over onze menselijke identiteit. "Als machines kunnen denken en wij ons denken uitbesteden aan AI, wat betekent dat dan voor ons moderne zelfbeeld?", vraagt Gary Grossman, EVP bij Edelman, zich af in het artikel. Abstracte discussies "De tijd voor abstracte discussies over verre toekomsten is voorbij; concrete voorbereiding op transformatie op korte termijn is dringend nodig. Onze toekomst wordt niet alleen door algoritmes geschreven. Ze wordt gevormd door de keuzes die we maken en de waarden die we hooghouden, vanaf vandaag", aldus Grossman.
Een AI-scene.
21 april 2025
De grote beloftes rond kunstmatige intelligentie nemen misschien af. Maar sommige investeerders blijven vol vertrouwen. Victor Lazarte, een bekende durfkapitalist en voormalig spelbaas, behoort tot deze groep. Hij beweert dat AI nu al "mensen volledig vervangt". "Grote bedrijven praten over hoe AI mensen niet vervangt maar versterkt," zei Victor Lazarte in de podcast Twenty Minute VC. "Dit is onzin. Het vervangt mensen volledig." Volgens de zakenman moeten vooral juristen en HR-medewerkers zich zorgen maken over hun banen. Hij raadt rechtenstudenten aan na te denken over wat zij kunnen dat AI over drie jaar niet kan. Geen bewijzen Deze bewering komt van iemand wiens bedrijf Benchmark zwaar investeert in AI-startups. Bijvoorbeeld in het AI-wervingsplatform Mercor en het AI-onderzoekslaboratorium Decart. Dit roept vragen op over zijn objectiviteit. Lazarte levert bovendien geen bewijzen voor zijn stelling. De werkelijkheid van AI in de rechtspraktijk toont een ander beeld. Een rechter van het Hooggerechtshof in New York bekritiseerde onlangs een ondernemer. Deze probeerde een door AI gegenereerde video te gebruiken als vervanging voor een advocaat. "Je gaat deze rechtszaal niet gebruiken als lanceerplatform voor je bedrijf," zei de rechter streng. Vooroordelen Binnen de werving schept AI eveneens problemen. Ondanks dat huidige AI-modellen vol zitten met vooroordelen, gebruiken bedrijven ze toch voor personeelszaken. Een onderzoek toonde aan dat 99 procent van de Fortune 500-bedrijven AI inzet bij het filteren van sollicitanten. Dit creëert een moeilijke omgeving voor werkzoekenden, vooral voor ouderen en immigranten. "Alleen omdat iets onvermijdelijk is, betekent niet dat je het moet inzetten," waarschuwt Hany Farid, informaticaprofessor aan UC Berkeley. Een nuchtere blik op de huidige beperkingen van AI lijkt op zijn plaats.
Elon Muks met microfoon in de hand spreekt een publiek toe.
20 april 2025
Bedrijven die zich verbinden aan Elon Musk of kunstmatige intelligentie verkeerd gebruiken, lopen groot gevaar. Hun merkreputatie kan ernstige schade oplopen. Dit blijkt uit een nieuw internationaal onderzoek onder meer dan honderd leiders in publieke zaken. Het onderzoek werd uitgevoerd door de Global Risk Advisory Council. Isabel Guzman leidde deze raad. Zij was hoofd van de Amerikaanse Small Business Administration (bureau voor kleine ondernemingen) tijdens de regering van Joe Biden. Polariserende bondgenoot Deelnemers aan het onderzoek waarschuwden bedrijven specifiek voor samenwerking met Elon Musk. Ze noemden hem een 'polariserende' bondgenoot van Donald Trump. Bedrijven moeten volgens hen goed nadenken voordat ze zich met hem verbinden. Kunstmatige intelligentie vormt een ander groot risico. Verkeerd gebruik van deze technologie kan het vertrouwen in een merk ernstig schaden. Bedrijven moeten daarom voorzichtig zijn met hoe ze AI inzetten in hun diensten en producten. Samenwerking zorgvuldig kiezen "Deze bevindingen tonen aan hoe belangrijk het is voor bedrijven om hun samenwerkingen zorgvuldig te kiezen", zei Guzman. "In het huidige gepolariseerde klimaat kunnen verkeerde partnerschappen en technologiekeuzes langdurige schade toebrengen aan je merkwaarde."
MEER WEERGEVEN

Download GRATIS AI-prompts die je business helpen veranderen!

Exclusieve whitepapers en e-books met waardevolle kennis en AI-prompts - ontwikkeld om direct resultaat te leveren.

Je kunt deze krachtige tools zo downloaden.

➡️ Ga naar de producten-pagina en profiteer nu!

BRENG ME HIERHEEN

Deel dit bericht