IBM onthult Telum-processor gemaakt voor AI-taken en fraudeopsporing

IBM werkt aan een processor met architectuur die is ontworpen voor deeplearningprocessen en AI-taken voor het opsporen van fraude op de financiële markt. Deze Telum-processor wordt de centrale chip voor de nieuwe generatie IBM Z- en LinuxONE-systemen.

IBM onthulde details over de nieuwe chip tijdens zijn jaarlijkse Hot Chips-conferentie. De chip is speciaal ontwikkeld voor deeplearningprocessen op de financiële markt om bijvoorbeeld gebruikt te worden bij het opsporen van fraude tijdens banktransacties. Fraude wordt nu nog grotendeels achteraf opgespoord. De Telum-processor is de eerste processor van IBM die een geïntegreerde accelerator bevat voor de realtime verwerking van AI-taken. Op die manier kan bijvoorbeeld creditcardfraude opgespoord worden voordat een transactie verwerkt is. De accelerator heeft zes teraflops aan rekenkracht.

De chip bevat acht kernen die met een kloksnelheid van meer dan 5GHz draaien. Door een nieuwe cache en chip-interconnectie-infrastructuur is elke kern verbonden met een level-2-cachegeheugen van 32MB en kan de AI-accelerator gebruikmaken van alle caches om samen een virtuele level-3-cache van 256MB te vormen. Die nieuwe infrastructuur kan schalen tot 32 caches die samen een 2GB-cache vormen. De nieuwe Telum-processor heeft toegang tot 1,5 keer zoveel cache per kern als de vorige generatie z15-processor van IBM, schrijft het merk in een blogpost. Dat leidt per thread tot een aanzienlijke prestatieverbetering, meent IBM. Dat is weer nodig voor het in real time verwerken van AI-taken.

IBM's Research AI Hardware Center ontwikkelde de chip, die werd gemaakt door Samsung op basis van een 7nm-procedé met euv. IBM werkte drie jaar aan de hardware, schrijft het in een persbericht. Het eerste systeem met een Telum-processor moet in de eerste helft van 2022 op de markt komen. Deze Telum-processor wordt de centrale chip voor de nieuwe generatie IBM Z-mainframecomputers en LinuxONE-servers van IBM.

Door Stephan Vegelien

Redacteur

24-08-2021 • 09:16

65 Linkedin

Submitter: S913

Reacties (65)

Wijzig sortering
Fascinerende ontwikkelingen! Maar kan iemand mij misschien uitleggen waarom een chip als deze - weinig maar wel zeer snelle cores met veel cache - beter is dan een GPU met enorm veel langzame cores. Op dit moment wordt het gros van het AI rekenwerk op de GPU gedaan; daaruit maak ik op dat die opstelling van rekenkernen toch de voorkeur heeft..
Helemaal 100% weet ik het niet, maar in de tijd (GTX680 tijd) dat ik met GPU-compute bezig was, was de core/snelheid niet het probleem, maar eerder de hoeveelheid data die je er naar toe kon krijgen:

- De GPU cores hadden per stuk absurd weinig cache, dus je kon geen complexe data er naar toe sturen zonder absurd veel extra read/writes; of over een trage bus te werken
- De GPU cores zaten ver weg van de kern CPU; CPU naar PCIe was nogal wat stappen (cache miss) waarna je nóg meer stappen nodig had om bij DRAM of zelfs storage te komen (getuige deze GPU: https://www.anandtech.com...fiji-with-m2-ssds-onboard -- gewoon een SSD op de GPU om een paar stappen over te slaan; tegenwoordig hebben we host controller functie waardoor een GPU mits op dezelfde PCH dit kan zonder de CPU zelf; dit is o.a. ook wat directstorage doet)
- De bandbreedte van framebuffer is significant lager dan cache zelfs op de GPU

Deze AI-accellerators lijken erg veel cache te hebben, en zelf AI-accellerated prefetch te hebben. Ik kan niet vinden of ze zelf software uitvoeren (de term in accellerator, maar stand-alone wordt ook gebruikt), maar ze lijken redelijk stackable te zijn: met 22mld transistors tegenover de 28mld transistors van een RTX3090 (let op, deze Tulum heeft erg veel cache ivm een 3090; cache = veel transistors) is het bovendien een kleinere chip: als het all-in-one is, zul je érg veel in een rack kwijt kunnen. De focus op memory-on-chip (dus nuttige werkset) + bandbreedte + slimme prefetch maken dit wel een interresant "chipje", zeker als je ziet wat voor tools (pytorch wat ze noemen o.a...) out-of-the-box ondersteund worden.
De Z15 is in staat om meerdere instructies per cycle te verwerken, dus hoewel deze relatief weinig kernels heeft, is dat niet alles zeggend. Daarnaast zijn deze rackbased, standaard koop je een Z15 als een volledige rack, ik ben hier geen specialist in maar deze heeft wellicht honderd(en) CPU's die uitermate geschikt zijn om paralel te functioneren.

Dit soort system zijn dan ook specifiek zoals we hier zien ingericht om heel veel transacties paralel te verwerken en daarnaast enorm robuust.

Wat ik me als onkundige afvraag is hoe relevant IBM nog heden ten dagen is. IBM komt bij mij als een bedrijf over die zijn gloriedagen gezien heeft en naarstig op zoek is naar een specifieke niche om diens bestaansrecht te justificeren.
Zoals in andere comments ook al genoemd wordt word de Z serie vooral gebruikt door transactieverwerkers, denk aan banken/creditcards/verzekeringen. Daar gaat het vaak om zo snel mogelijk een antwoord te geven op een transactie. Wat de systemen ook vaak extra leveren is redundancy en failover, niet voor niks dat de z staat voor zero downtime.
Ik begrijp dat veel threads ervoor kunnen zorgen dat er veel transacties per tijdseenheid gedaan kunnen worden, maar wat is er dan zo specifiek aan deze AI-taken dat deze apart chips rechtvaardigen? Wat moet een transactie module leren om de juiste beslissing over een transactie te kunnen nemen?
Wordt genoemd in de gelinkte blogpost: denk bijv. aan real-time fraude detectie op bank/creditcard transacties.
Dat had ik gelezen, maar wat is er zo specifiek aan het leren herkennen hiervan?
Het door een computer laten leren of een transactie wel of niet verdacht is, is zeer complex en resource intensief (denk aan: binnen 5 minuten pinnen in New York en Amsterdam en dan nog tig van dat soort "rules").
Vroeger werd dit achteraf steekproefsgewijs door mensen gedaan, later ook wel via computers maar real-time was niet te doen omdat het dan bijv. 5 minuten zou duren voor jouw CC of pin-transactie geaccordeerd zou worden. Met de processoren van tegenwoordig is dat al een stuk beter te doen, maar als je kijkt naar CC en banktransacties zijn dat er miljoenen per dag en dan is het prettig als je dedicated/gespecialiseerde hardware acceleratie hebt om deze zaken naar te offloaden, terwijl de centrale processoren gewoon hun eigen werk kunnen blijven doen.
Niks met 'Artificial Intelligence' te maken in ieder geval.

Dat is het buzz woord van dit decennia.

[Reactie gewijzigd door Marctraider op 24 augustus 2021 11:45]

Fraudedetectie is wel degelijk AI onder de typische betekenis van het woord. Omdat het met regels werkt die geleerd zijn uit data met voorbeelden van frauduleuze transacties met behulp van machine learning technieken. De inzet van zo'n model is onvergelijkbaar veel sneller en accurater dan de transacties door mensen laten controleren.

We zouden misschien als betere definitie kunnen nemen voor AI dat een systeem moet blijven leren, maar dat is zo goed als nooit het geval in huidige systemen/applicaties die we met AI aanduiden.
Laat ik zijn vraag misschien simpeler stellen: bevat deze processor specifieke instructies of een instructieset die de taken in minder cycles kan afhandelen en wat zijn die dan juist, want "AI" is niet zomaar een bewerking als optellen of een OR-gate
Marctraider (daar reageerde Jefrey op) had niet echt een vraag die hij stelde, meer een constatering dat het niets met AI te maken zou hebben.

Maar om jouw vraag te beantwoorden, deze Telum processor bevat inderdaad verschillende workload specifieke co-processoren met bijbehorende specifieke instructies. Het gaat daarnaast ook niet alleen over minder cycles (of sneller/effectiever uitvoeren van deze cycles), maar ook het feit dat je deze cycles kan offloaden van je normale processor die zijn eigen werk blijft doen.
Zoals ik aangaf, de huidige Z processor heeft die al voor encryptie, compressie en sorting. Allemaal designed voor hun eigen, enkele doel. Met de Telum processor is daar deze AI co-processor bijgekomen. Maar vergeef me, ik weet niet precies welke specifieke instructies er allemaal per verschillende co-processor in zitten (daarvoor ben ik ook niet genoeg thuis in AI :) )
ik doelde op slowdrive z'n vraag. specifieke taken offloaden naar een dedicated coprocessor wordt al sinds de jaren 80 met de x87. Eerst ging het om specifieke rekentaken, later hadden we sound-, netwerk-, video(capture/3D)-, en raid-kaarten, waarvan duidelijk was wat ze deden, maar dit is bij AI dus niet duidelijk (voor jou jammer genoeg blijkbaar ook niet).

In grote lijnen weten we hoe machine-learning werkt, maar vaak is dat parallel/repetitief scenario's herhalen om de beste resultaten te behouden, maar waar nog altijd "traditionele" instructies voor worden gebruikt.

Het beste dat ik gevonden heb was dat het een super-scalar out-of-order instruction pipeline is. Hoewel beide concepten al lang bestaan is het combineren ervan misschien de innovatie, maar ik kan me niet voorstellen dat het uniek is in het datacenter van vandaag
Correct me if I'm wrong, maar de "co-processoren" die jij noemt zitten op het moederbord en niet op de processor zelf, zoals dat bij de Telum wel zo is. Een Intel i7 heeft geen dedicated sound-, netwerk-, etc co-processor op de chip en moet je altijd off-chip via de bus/memory naar deze co-processoren ipv alleen maar via de Lx cache.
Out of order execution, SIMD, dat soort zaken is al veel langer meer een algemeen onderdeel van het Z processor architectuur.

Vw.b. precies welke AI instructies er in zo'n co-processors zitten, weet ik inderdaad niet, maar net zo goed weer ik niet precies welke deflate instructie er in de compressie co-processor zit. Ik kan/hoef gelukkig niet alles te weten, maar ben inderdaad ook wel eens nieuwsgierig. De chip designers zijn echter niet altijd de mensen om iets even simpel uit te leggen :P

Ik heb nog geen officiële replay kunnen kijken/gevonden (maar ben ook op vakantie }> ) maar misschien dat dit "verslag" (beetje lastig kijken) op Youtube van Hot Chips meer informatie verschaft:
https://youtu.be/PVNnPXzi1X4?t=6920
Er zijn vele niveau's van AI en ik ben het zeker met je eens dat in de meest simpele implementatie, het woord "intelligence" verwaterd is. Maar de definitie van AI is (volgens Oxford):

The theory and development of computer systems able to perform tasks normally requiring human intelligence, such as visual perception, speech recognition, decision-making, and translation between languages.

En dat is wat bij fraude detectie wel gebeurd, de computer bepaald (maar inderdaad op basis van onze menselijke input) of iets fraude is of niet. Heb je het echter over het zichzelf slimmer maken/leren van een computer, dan wordt het al gauw Machine Learning (ML) genoemd.

Maar hangt technologie tegenwoordig sowieso niet aan elkaar van buzz words? AI, ML, de Blockchain, de Cloud etc etc
Het herkennen is misschien niet zo specifiek, maar de processors van de IBM mainframes zijn wel specifiek voor het verwerken van transacties. Maar dus ze kunnen heel veel niet. Dus daar hebben we een co-processor voor nodig. En aan fraudedetectie valt niet te ontkomen.
Ik ben zeker geen kenner van IBM, maar ze hebben een heel interessant cloud platform en doen veel met AI (zoals ook blijkt uit dit artikel).
Volgens mij kan je ook een gratis account maken en zelf experimenteren. Zie: https://cloud.ibm.com
Waarschijnlijk omdat deze CPU's zeer specifiek voor deze taken zijn geoptimaliseerd en daardoor veel sneller zijn. Het is niet voor niks dat de meeste banken en Belastingdienst nog steeds gebruik maken van IBM mainframes voor het verwerken van de transacties. Dat is echt niet omdat ze niet willen overstappen op iets anders maar omdat het nog steeds (kosten) technisch interessant is.
Het is ook vaak een kwestie van vendor lock-in, gecombineerd met een stukje compliance.

Op het moment dat je 30+ jaar aan database-historie + allerlei stored spul erbij hebt (RPG programma's die modificaties op de database doen) dan is het al snel héél duur om te migreren. Zolang dat niet hoeft, is het al snel goedkoper de exorbitante prijzen van IBM te betalen.

Wij hebben nog een IBM i Series in gebruik, wat de opvolger is van de AS/400, wat de opvolger was van de System/36. Daar zit zoveel legacy spul in, dat het goedkoper is om maar gewoon 'weer' zo'n ding te kopen dan een migratie in te zetten.
Klopt, Als je kijkt hoe duur het is bij een bank om een volledig nieuwe "betaalstraat" te vervangen dan is het initiële project plan a 5 jaar en kosten lopen al gauw richting de 500 miljoen tot 1 miljard euro.

Het is best leuk om de mislukkende projecten bij de overheid te lezen alleen dat soort mislukkingen gebeuren ook bij banken en verzekeraars maar die dingen komen niet in het nieuws.
Maar gaan op een gegeven moment de RPG programmeurs niet een keer met pensioen? Of hebben dat soort organisaties interne opleidinstrajecten, want dit soort zaken wordt volgens mij (al lang) niet meer onderwezen.
Dat is inderdaad een issue, maar heel vaak hebben zulke beslissingen ook een 'dat zien we dan wel'-antwoord.

Zal inderdaad vaak intern zijn - helemaal dood is het nog niet, zie ook bv. https://www.ibm.com/suppo...rpg-iv-beginners-tutorial
Van de Rabobank weet ik dat ze intern nieuwe mensen opleiden. Het is alleen zeer lastig om jongeren er voor te enthousiasmeren. Maar als je kijkt dat alle app's ook gewoon inhaken op de software die weer op het Z platform draait is men wel er erg van afhankelijk.

Om de verwerkingscapaciteit te bereiken van een enkele Z15 machine op X86 hardware heb je behoorlijk veel machines nodig, die meer ruimte in beslag nemen, meer energie verbruiken enz. Bovendien zal je nog steeds specialistische software moeten blijven ontwikkelen.
Hoeveel programmeurs zijn productief als ze van school komen met een taal die ze wel geleerd hebben ?

Ook daar moet je investeren dus op zich maakt het niet uit of dat in RPG is of niet.

Op mainframes gebruikt men trouwens geen RPG, dat is eerder op midrange (ttz. IBM i aka AS/400).
Da's zeker waar. Maar je kan je wel afvragen of je nog RPG wil leren...
Je kan je ook afvragen waarom niet... the right tool for the right job misschien ?

Er vinden trouwens nog altijd nieuwe jonge mensen de weg naar de taal en het platform (wat nog steeds een roadmap heeft voor de komende 10 jaar dus het is zeker nog niet dood - net zoals Cobol trouwens).
Je hebt gelijk hoor. Behoorlijke jobkansen de komende jaren in die sector verwacht ik.
Klopt, Als je kijkt hoe duur het is bij een bank om een volledig nieuwe "betaalstraat" te vervangen dan is het initiële project plan a 5 jaar en kosten lopen al gauw richting de 500 miljoen tot 1 miljard euro.

Het is best leuk om de mislukkende projecten bij de overheid te lezen alleen dat soort mislukkingen gebeuren ook bij banken en verzekeraars maar die dingen komen niet in het nieuws.
In de jaren ‘90 heeft zo’n traject gelopen bij de ING voor de betaalstraat van de Postbank. Daar is de stekker uit getrokken toen er naar verluidt al 400 miljoen in gestoken was. Dat is nooit echt in het nieuws gekomen, terwijl een soortgelijke mislukking bij de Informatie Beheer Groep voor studiefinanciering breed uitgemeten is. Jammer want juist uit dergelijke mislukkingen kan de IT wereld veel leren. Binnenlandse Zaken heeft in de persoon van prof. Brussaard wel een poging gedaan er een special van het blad Informatie aan te wijden, maar dat strandde op gebrek aan medewerking vanuit het bedrijfsleven.
Bij de Rabobank heeft ook zo'n traject gelopen ergens tussen 2010 en 2016. Daar hoor je ook nooit iets van. Daarom vind ik het altijd wel grappig de reacties te lezen van mensen op de mislukte ICT projecten van de overheid. Vaak zijn het reacties in de trant van dat zoiets in het bedrijfsleven nooit gebeurd. Jawel dat gebeurd zeker wel maar dat wordt nooit openbaar gemaakt. Bovendien wil men bij de overheid vaak te lang door gaan om maar te zorgen dat een project een succes wordt i.p.v. al eerder de stekker er uit te trekken wat sowieso naar buiten gaat komen als het zoveelste mislukte ICT project. Dus ik denk niet dat er bij de overheid zoveel meer projecten mislukken als bij commerciële organisaties maar ik denk/ verwacht/ weet wel dat er bij de overheid projecten veel te lang door blijven gaan als men eigenlijk al weet dat het niet goed gaat komen. Niemand durft de stekker er uit te trekken.
Het verschil is alleen dat overheden blunderen met belastinggeld. Wanneer een bedrijf dat doet, met hun eigen geld, boeie.
Linksom of rechts om dat geld wordt bij de klant opgehaald. Dus als commerciële partijen fouten maken dan berekenen ze die kosten gewoon door aan hun klanten.
Gangbare misvatting, die er van uit gaat dat bedrijven geen winstdoelstelling hebben. Als banken de tarieven konden verhogen, dan hadden ze dat al eerder gedaan - niet om extra kosten te dekken, maar om extra winst te maken. Concurrentie is de rem.

Een blunder als deze gaat daarom ten koste van de winst, en een verdere tariefsverhoging zou leiden tot klantverlies en een tweede winstdaling.
Dat en een gebrek aan cobol ontwikkelaars denk ik.
Heb het vermoeden dat je specifieke CICS instructies met deze chip kan doen. Heel veel bankverwerking gebeurt op een IBM softwarestack (z/OS, DB2, CICS) op IBM hardware (Z-series).

Als je daar hardwarematig kunt versnellen, dan is dat al gauw sneller dan ‘generieke’ computing met GPU.

Overigens zijn op beide manieren prima oplossingen te bouwen. Alleen staat de (soms wat conservatieve) bankwereld nog bol van IBM. Het cliché was jarenlang: nobody ever got fired for buying IBM.

[Reactie gewijzigd door Keypunchie op 24 augustus 2021 09:41]

Deze AI accelerator is de next step v.w.b. geïntegreerde hardware accelerators op het IBM Z platform. De huidige z15 heeft op elke core al een crypto co-processor en op elke SCM (single chip module) een sort accelerator.
Nog wel eens een leuk akkefietje gehad met zo'n crypto co-processor. Er is allemaal eigen firmware (eigenlijk: microcode) voor die chips. En toen was er een versie met een bug... voordat je dat hebt getroubleshoot, zijn er al heel wat financiele transacties blijven steken, haha.

En probeer als simpele IT'er die meestens met x86 werkt maar eens een z/OS systeemprogrammeur te overtuigen dat het probleem echt aan de mainframe-kant zit. Het is al jaren terug, maar ik heb er nog steeds een droge bek van.

Wel vervolgens half Montpellier over de vloer om de bug te vangen. Dat is dan wel weer echt goed van IBM.

[Reactie gewijzigd door Keypunchie op 24 augustus 2021 10:17]

Is toch vaak ook wel een cultuur dingetje. Sommige systeembeheers die x86 gewend zijn zien het mainframe als ouwe meuk wat zo snel mogelijk zou moeten verdwijnen. Daarin tegen zien sommige systeemprogrameurs op mainframe de x86 systemen als spielerij.. geen van beide opvattingen is heel constructief tijdens discussies

Persoonlijk denk ik dat beide platformen hun krachten hebben en op beide kun je geweldige oplossingen bouwen. Uiteindelijk zijn het gewoon computers en is het aan degene die er mee werken om ze te laten doen wat ze zouden moeten doen.

Wel cool om een bug te vinden in zo'n crypto processor. Welke generatie was dat?

[Reactie gewijzigd door coolkil op 24 augustus 2021 10:45]

Ik denk z12, maar dat weet ik niet meer precies. Ik ken heel klein beetje de weg op z, omdat ik applicatief daar wat te zoeken had.

De vergelijking die ik meestal trek tussen 'mainframe' en 'distributed' (x86) is met boten. Met allebei de platforms kun je de zee op, maar het is wel het verschil tussen zeilbootjes (Linux, Windows) en een olietanker.
Op zich een vergelijking die inderdaad veel gemaakt wordt, alleen draait Linux sinds 2000 ook al op IBM Z (traditionele mainframe) en zijn er in 2015 zelfs specifiek LinuxONE servers gekomen die alleen Linux draaien.

Mainframe is een stuk moderner dan mensen denken, maar (te) onbekend bij het grote publiek.
Linuxone is gaaf spul om dingen mee te bouwen. Docker, openshift, openstack en alles zo stabiel als een huis.

Je hebt de gewenning van Linux maar alle features die een mainframe je kan bieden. Kan voor sommige omgevingen extreem kosten efficiënt zijn alleen is het wel een investering voor de lange adem gezien het initieel nogal duur kan zijn.
Het is leuk dat er Linux op Z kan draaien. Maar draait die dan ook alle gekraste COBOL-programma's? Anders heb je een heel leuk hardwareplatform, maar de lock-in zit hem in de applicaties.
Als je Linux én Cobol wil draaien, dan heb je IBM Z en kan je Linux en z/OS naast elkaar draaien op 1 box.
Wil je alleen Linux draaien, bijv. omdat een grote Oracle of containers consolidatie wil doen plus alle RAS (Reliability, Availability and Serviceability) en security features van de Z hardware, dan ga je LinuxONE draaien.
Er zullen use cases/business cases for zijn, maar qua TOC vraag ik me sterk af of er veel voordeel te behalen valt, ten opzichte van meer traditionele deployments (racks full of x86)
Voor TCO: denk aan licentiekosten (Oracle rekent af per core), datacenter kosten (space: 1 of 2 racks vs tientallen racks, maar ook stroom, koeling) maar verder kijken klanten die voor dit soort servers in de markt zijn toch ook sterk naar NFR's (beschikbaarheid, security features, performance, schaalbaarheid)
Het zal wel met de doorvoer van data te maken hebben. Je hebt minder parallele datastromen. De data zal het uiteindelijk uit één bron komen uiteindelijk, een database.
GPU kan misschien dan wel sneller rekenen, maar vaak wordt onderschat hoeveel tijd het kost om de data naar de GPU te brengen en een kernel op te starten als je niet precies van te voren weet wat je wil doen. Een CPU kan veel sneller reageren, zeker als het niet gaat om het trainen van modellen (wat waarschijnlijk wel op GPUs gebeurt) maar alleen maar het beoordelen van input (inference).
GPU's zijn veel toegankelijker/beschikbaarder, dus hebben ze zeker hun aantrekkelijkheid voor AI rekenwerk, maar dat maakt ze niet per sé beter in termen van absolute prestaties.

Een voor AI rekenwerk geoptimaliseerde processor heeft alleen de onderdelen die het nodig heeft. Een GPU chip heeft veel meer transistors aan boord, voor het grafische gedeelte van het werk, die voor AI overbodig zijn.

De data architectuur is ook nogal anders: 32 GPU's direct met uniform gedeeld L4 cache koppelen? Dat lukt niet. 32 van deze Telum processors? Die zijn erop ontworpen dat te kunnen doen: 32 MB L2 per core, 256 MB virtueel L3 per processor, 2 GB virtueel L4 cache per cluster van 32 processors.
De ANN versnelling is waarschijnlijk geimplementeeed met brede SIMD, elke SIMD lane moet je zien als equivalent aan een tensor core.
Het valt me wel op dat AI steeds meer taken overnemen. Ben benieuwd hoe dat gaat in de toekomst.
Het valt me op dat tegenwoordig alles maar AI wordt genoemd ;)
Daar zit ook weer wat in natuurlijk. Uiteindelijk is dit gewoon een chip, en de software moet nog gebouwd worden.
Cloud AI het zijn mode termen. De cpu/gpu kan fraude herkennen. Uiteindelijk is dat gewoon aan algortime dat ze loslaten en veel rekenkracht gaat dan transacties en verbanden bekijken. Kun je dat AI noemen of of het gewoon het uitvoeren van een stukje software.
Dat stukje software krijgt steeds meer data waardoor het bepaalde patronen kan herkennen en dan kun je stellen dat het zelflerend is. Maar is het zelflerend of vul je de database gewoon aan met voorbeelden waardoor het beter kan werken ? Kun je dat dan intelligentie noemen ?

Voor mijn noem je intelligentie pas iets als een systeem in staat is op een ander vlak zelfstandig zonder menselijke hulp een problemen te herkennen en daarvoor een algoritme te ontwikkelen. Geheel zelfstandig.
Maar voordat je zonder menselijke input een probleem kan herkennen zijn we al heel veel verder, en daar zijn we nog lang niet.
En geen enkele aanbieder van AI een mathematische cube van een database van ~20Gb of groter aan kan bieden voor echte analyse. laat staan realtime.... #kinderschoenen
Kurzgesagt heeft er een leuk filmpje over gemaakt (ai vanaf 4:00)

Er gaan meer banen verdwijnen dan erbij komen, het wordt interessant om te zien hoe dat gaat uitpakken.
Toevallig pas een filmpje bekeken met een nederlandse onderzoeker die constateerde dat er 'juist werk bij komt, maar op heel andere plekken dan je zou verwachten'.

Voor wat het waard is. Voorspellen is lastig, met name als het de toekomst betreft.
Het is gewoon een chip, het AI gedeelte wordt door de mensen ontworpen in de zin van software. Die bepalen door heleboel factoren en berekeningen of je als fraudeur bestempeld wordt
"i'm sorry dave i'm afraid i can't do that" ;)
aldus sprak "HAL" (= "IBM" een plaatsje opgeschoven in het alfabet. Komen we toch nog on-topic.
Hoe verhoud zo iets zich met die ML functies in Apple silicon? Qua mogelijkheden en snelheid?
Hahaha, Watson met een nieuwe sticker op zijn kast! :+
IBM en fraudeopsporing... Een aantal jaren geleden een presentatie van IBM gekregen, bij een klant van mij, waar IBM vriendelijk doch dringend werd verzocht om het pand te verlaten! Stonden de boel van A tot Z bij elkaar te liegen en iedereen met enige vakkennis prikte zo door hun verhaal heen.

Ik kon er nog wel om lachen, maar de desbetreffende klant iets minder :(
Als dat je reden is zijn er nog altijd zeer veel bedrijven om bang voor te zijn.
Nee hoor. Zonder ibm zouden de aantallen nooit behaald worden.

Op dit item kan niet meer gereageerd worden.

Kies score Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.

Een uitgebreider overzicht van de werking van het moderatiesysteem vind je in de Moderatie FAQ

Rapporteer misbruik van moderaties in Frontpagemoderatie.




Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee