IBM lanceert nieuw mainframe gebouwd voor AI-tijdperk

IBM onthult de nieuwste versie van zijn mainframe-hardware met speciale updates voor snellere toepassing van kunstmatige intelligentie (AI). Het bedrijf maakte maandag de IBM z17 bekend, de recentste versie van zijn mainframe-computerhardware. Deze volledig versleutelde mainframe werkt op een IBM Telum II-processor en is ontworpen voor meer dan 250 AI-toepassingen.


Mainframes zijn krachtige computers die vooral wordt gebruikt door grote organisaties voor het verwerken van enorme hoeveelheden data en transacties. Ze lijken misschien ouderwets, maar 71 procent van de Fortune 500-bedrijven gebruikt ze nog steeds.


In 2024 was de mainframemarkt ongeveer 5,3 miljard dollar waard volgens onderzoeksbureau Market Research Future. De z17 kan 450 miljard inferentie-bewerkingen per dag verwerken. Dit is een stijging van 50 procent vergeleken met zijn voorganger, de IBM z16 uit 2022.


AI-gekte
Tina Tarquinio, vice-president productbeheer en ontwerp voor IBM Z, vertelde TechCrunch dat deze mainframe-upgrade al vijf jaar in ontwikkeling was. Dit was ruim voor de huidige AI-gekte die begon met de lancering van ChatGPT in november 2022. "Het is geweldig geweest om te weten dat we een AI-versneller introduceren, en dan vooral in de tweede helft van 2022 alle veranderingen in de branche rond AI te zien", aldus Tarquinio.


Het team besteedde meer dan 2.000 onderzoeksuren aan feedback van ruim 100 klanten tijdens het bouwen van de z17. De mainframe is opgezet om zich aan te passen aan de ontwikkelingen in de AI-markt. Bij de lancering ondersteunt het systeem 48 IBM Spyre AI-versnellerchips, met plannen om dit binnen twaalf maanden uit te breiden naar 96 chips.


Doelbewust AI-flexibiliteit inbouwen
"We bouwen doelbewust extra ruimte in. We bouwen doelbewust AI-flexibiliteit in. Zo zorgen we bij nieuwe modellen dat we ruimte hebben ingebouwd voor grotere modellen - modellen die misschien meer lokaal geheugen nodig hebben om met elkaar te praten. We hebben dat ingebouwd omdat we weten dat vooral de aanpak zal veranderen."

LAATSTE AI-NIEUWS

Elon Muks met microfoon in de hand spreekt een publiek toe.
20 april 2025
Bedrijven die zich verbinden aan Elon Musk of kunstmatige intelligentie verkeerd gebruiken, lopen groot gevaar. Hun merkreputatie kan ernstige schade oplopen. Dit blijkt uit een nieuw internationaal onderzoek onder meer dan honderd leiders in publieke zaken. Het onderzoek werd uitgevoerd door de Global Risk Advisory Council. Isabel Guzman leidde deze raad. Zij was hoofd van de Amerikaanse Small Business Administration (bureau voor kleine ondernemingen) tijdens de regering van Joe Biden. Polariserende bondgenoot Deelnemers aan het onderzoek waarschuwden bedrijven specifiek voor samenwerking met Elon Musk. Ze noemden hem een 'polariserende' bondgenoot van Donald Trump. Bedrijven moeten volgens hen goed nadenken voordat ze zich met hem verbinden. Kunstmatige intelligentie vormt een ander groot risico. Verkeerd gebruik van deze technologie kan het vertrouwen in een merk ernstig schaden. Bedrijven moeten daarom voorzichtig zijn met hoe ze AI inzetten in hun diensten en producten. Samenwerking zorgvuldig kiezen "Deze bevindingen tonen aan hoe belangrijk het is voor bedrijven om hun samenwerkingen zorgvuldig te kiezen", zei Guzman. "In het huidige gepolariseerde klimaat kunnen verkeerde partnerschappen en technologiekeuzes langdurige schade toebrengen aan je merkwaarde."
Een boze AI-agent tegen een donkere achtergrond waar blauwe lichtflitsen doorheen schieten.
20 april 2025
AI-agenten nemen steeds meer taken van mensen over. Ze regelen hypotheken, boeken reizen en vergelijken verzekeringen. Dit blijkt uit recent onderzoek naar de veranderende rol van kunstmatige intelligentie in de markt. Nizan Geslevich Packin, expert op dit gebied, beschrijft hoe snel deze verandering gaat. "Tientallen banken en fintechbedrijven testen al software-agenten die leningen regelen en zelfs vastgoedtransacties afsluiten", zegt Packin. Deze agenten werken als plaatsvervangers voor menselijke klanten. Nieuw protocol Een nieuw protocol maakt deze ontwikkeling mogelijk. Het Model Context Protocol (MCP) laat AI-agenten rechtstreeks met servers praten. Grote bedrijven zoals Google, Microsoft en OpenAI steunen dit protocol. Alipay gebruikt het al om agenten zelfstandig betalingen te laten uitvoeren.  Deze verschuiving brengt zorgen met zich mee. Mensen vertrouwen vaak te veel op AI-aanbevelingen, zelfs als ze weten dat machines fouten maken. Dit heet 'automation bias'. Daarnaast wordt menselijke hulp steeds meer een premium dienst, alleen beschikbaar voor wie extra betaalt. Rechtvaardigheid, transparantie en verantwoording "We moeten ervoor zorgen dat AI-agenten rechtvaardigheid, transparantie en verantwoording behouden", waarschuwt Packin. "Als we het goed aanpakken, kunnen AI-agenten meer mensen toegang geven tot financiële diensten en kosten verlagen voor gezinnen en kleine bedrijven."
Twee chatbots (AI) die op mensen lijken, kijken elkaar aan.
19 april 2025
De nieuwste AI-modellen van OpenAI zijn slimmer dan eerdere versies. Toch vertonen ze meer problemen met 'hallucineren'. Dit betekent dat ze vaker onjuiste informatie bedenken. Dit blijkt uit onderzoek van het bedrijf zelf. OpenAI lanceerde onlangs de modellen o3 en o4-mini. Deze zogenaamde redenerende modellen presteren beter bij taken zoals coderen en wiskunde. Maar volgens interne tests hallucineren ze vaker dan hun voorgangers. Het model o3 gaf bij 33 procent van de vragen over personen onjuiste informatie. Dit is twee keer zo veel als bij oudere modellen. Verkeerde antwoorden Het model o4-mini presteerde nog slechter. Bij vragen over personen gaf dit model in 48 procent van de gevallen verkeerde antwoorden. Ook onafhankelijk onderzoek door non-profit lab Transluce bevestigt deze problemen. Sarah Schwettmann, medeoprichter van Transluce, meent dat deze foutmarge de bruikbaarheid van de modellen vermindert. Kian Katanforoosh, directeur van opleidingsbedrijf Workera, testte het o3-model al in de praktijk. Hoewel het model volgens hem beter presteert dan concurrenten, merkte hij ook problemen op. Zo geeft o3 vaak niet-werkende links naar websites. Dit type fouten maakt AI-modellen minder betrouwbaar voor bedrijven waar nauwkeurigheid essentieel is. Aanpakken van hallucinaties "Het aanpakken van hallucinaties in al onze modellen is een doorlopend onderzoeksgebied. We werken voortdurend aan het verbeteren van hun nauwkeurigheid en betrouwbaarheid", zei een woordvoerder van OpenAI.
MEER WEERGEVEN

Download GRATIS AI-prompts die je business helpen veranderen!

Exclusieve whitepapers en e-books met waardevolle kennis en AI-prompts - ontwikkeld om direct resultaat te leveren.

Je kunt deze krachtige tools zo downloaden.

➡️ Ga naar de producten-pagina en profiteer nu!

BRENG ME HIERHEEN

Deel dit bericht