JoR AB - Din partner inom vård och forskning

jor.se

Vilka datorkrav ställer vårdens
AI-applikationer?

AI är i grunden statistik, men inte enkel deskriptiv statistik — utan specifikt modellbaserad statistisk prediktion baserad på indata. Denna process kallas inferens. AI träning, däremot, består av algoritmer som hittar de optimala parametrarna för modellen genom att minimera prediktionsfel utifrån träningsdata. Kvaliteten på AI beror därför både på vilken modell som används, vilket mått för prediktionsfel som tillämpas, och på kvaliteten hos träningsdatan. 

Det som gör AI-träning så beräkningsmässigt krävande är att numeriska metoder måste optimera ett mycket stort antal parametrar (tiotusentals till miljarder) för att minimera prediktionsfelen. Utvecklingen av praktiskt användbara AI-applikationer har därför blivit möjlig tack vare den snabba utvecklingen av datorhårdvara.

AI kan användas för att stödja diagnostik, optimera behandlingar och assistera vid journalföring. För hög precision och realtidsanalys i vårdmiljön krävs effektiva algoritmer, vältränade modeller, ändamålsenlig hårdvara och lämpliga API-lager. Våra EN60601-1 klassade datorer finns i modeller med det hårdvarustöd som krävs för allt från lokal inferens till hybridlösningar mellan edge och moln, med balans mellan prestanda, energieffektivitet och datasäkerhet.

 

CPU, GPU och NPU
•  CPU (”vanlig” processor): Flexibel och kraftfull för komplexa men sekventiella beräkningar. Parallellkapaciteten är begränsad av antal kärnor och hypertrådar, vilket gör CPU bäst för preprocessing, styrlogik och enklare AI-modeller. Passar för molnbaserad inferens eller lokal inferens av mycket små modeller.
•  NPU (Neural Processing Unit): Effektiv för lokal inferens av små kvantiserade modeller. Hög TOPS/Watt gör den energieffektiv. Exempel: Intel Core Ultra (gen 15) har integrerad NPU för AI-acceleration.
•  GPU (Graphics Processing Unit): Kraftfull för lokal inferens av medelstora till stora modeller med hög precision. NVIDIA GPU:er använder CUDA och Tensor Cores, finns som diskreta kort (t.ex. RTX 6000 Ada) eller integrerade SoC-lösningar som Ampere-GPU i Orin IGX/AGX. GPU:er har hundratals till tiotusentals CUDA-kärnor och tiotals till hundratals Tensor Cores, optimerade för massiv parallellism. Både CUDA och Tensor Cores är viktiga för AI-modeller, medan sekventiella operationer hanteras mer effektivt av CPU.

 

AI-modeller har olika minnes- och prestandakrav för att kunna köras med rimlig svarstid. Riktigt stora modeller (tex ChatGPT, DeepSeek) körs därför på servrar eller i molnet, eftersom minneskapacitet, bandbredd och latens i vanliga PC begränsar möjligheten att köra dem lokalt. Minnesbehovet beror på antalet parametrar och vilken numerisk precision som används. Kvantiserade modeller är samma modell men med lägre parameterprecision, vilket gör det möjligt att köra dem med mindre minne och lägre energiförbrukning, ofta vid lokal inferens.

Prestanda och säkerhet
Vårdapplikationer kräver höga prestanda per watt, för att minimera ljud, fläktbehov och EMC-störningar. Om patientnära GPU-kraft behövs, men man vill undvika värmealstrande separata kort, finns NVIDIA SoC-lösningar som integrerar CPU och GPU, vilket ger hög TOPS/Watt och lägre EMC-emission. Dessa datorer finns i flera modeller och kör ofta Ubuntu/Linux. De två huvudplattformarna från NVIDIA är:
•  Orin AGX: Arm Cortex CPU och NVIDIA Ampere GPU integrerade i ett SoC. Passar för AI som stödjer vårdpersonal (passivt beslutsstöd).
•  Orin IGX: Baseras på AGX men inkluderar separat MCU (Microcontroller Unit) och Functional Safety Island (FSI). FSI övervakar huvudprocessorn och kan försätta systemet i ett definierat säkert tillstånd vid fel, även om SoC låser sig. Plattformen används när processorfel (t.ex. CPU:n hänger sig) kan få allvarliga konsekvenser för patienten.

Val av plattform styrs av riskklass och konsekvensnivå: AGX för mindre kritiska uppgifter, IGX för applikationer med högre säkerhetskrav.

Träning vs inferens
•  Träning: Kräver mycket hög beräkningskraft, sker ofta i serverhallar och är normalt inte tidskritisk. Träning använder ofta hög precision och stora batchar.
•  Inferens: Kräver låg latens och hög energieffektivitet. Val av hårdvara styrs av modellens storlek och precision:
- Små kvantiserade modeller kan ofta köras på NPU.
- Större modeller eller modeller med hög precision kräver ofta GPU, med mer minne. Valet kan stå mellan en kompakt SoC-lösning (AGX) för mindre modeller eller mer kraftfull hårdvara med diskret GPU för större modeller.

Inferens kan ske lokalt, i molnet eller i hybridlösningar. Detta ställer krav på minne, nätverk och lagring för att säkerställa tillräcklig bandbredd och låg latens, och för att undvika fördröjning i dataflödet.

Vår partner Onyx Healthcare
Onyx gör mer än att bara tillverka och sälja patientnära datorer. Som strategisk NVIDIA-partner jobbar ONYX aktivt med cybersäkerhet, ESG (miljö, socialt ansvar och bolagsstyrning) samt systemtillförlitlighet för patientnära AI. De hjälper sjukhus i flera delar av världen att implementera effektiva AI-plattformar som löser verkliga kliniska problem.

Kontakta våra produktexperter för AI-datorer
AI är ny teknik, och vi engagerar oss gärna i era verksamhetsutmaningar. Våra experter kan ge förslag och tips. Beskriv gärna era behov, sammanhang och mål – så återkommer vi med kompletterande frågor och rekommendationer.
 
Välkommen att ringa oss på 018-34 28 20 eller använd formuläret nedan.

Uppgraderad prestanda för framtidens vårdmiljöer

Vi är glada att presentera två nya tillskott i vårt sortiment: MATE2-2215 / 2415 och VENUS-224P / 244P. Båda modellerna bygger vidare på beprövade plattformar, nu med nästa generations processorteknik.

MATE2-2215/2415 – Samma robusta plattform, ny CPU-generation
MATE2-2215 och MATE2-2415 är de senaste modellerna i MATE2-serien. De ersätter MATE2-2212/2412, som är baserad på Intel 13:e generationens Core-processorer, och är nu utrustad med Intel Core 7/5/3-processorer (kodnamn Bartlett Lake-S).

 

I övrigt är plattformen oförändrad: 22”/24" Full HD medicinsk panel-PC, fläktlös design, dubbel Gigabit LAN, RS-232 x2, PCIe-expansion, och medicinska certifieringar enligt EN 60601. Det innebär full kompatibilitet med befintliga installationer, nu med en uppdaterad och framtidssäkrad processorplattform.

Venus-224P/244P - AI-redo medicinsk vagndator
Vi introducerar även nya Venus-224P och Venus-244P, efterföljaren till Venus-224/244-serien som tidigare baserats på Intel 11:e generationens Core (Tiger Lake). De nya modellerna är utrustade med Intel Core Ultra 5 225U (Arrow Lake, 15:e generationen) med integrerad NPU (Neural Processing Unit) för AI-acceleration. Finns i 22" och 24".

 

Nyckelförbättringar: Intel Core Ultra 5 225U med inbyggd NPU, stöd för AI-applikationer och framtida kliniska arbetsflöden, DDR5-minne för högre prestanda och energieffektivitet, USB-C-port för modern anslutning, WiFi 7 (tillval) och dual hot-swappable batterier. Venus-224P är utvecklad för moderna, mobila vårdmiljöer där prestanda och AI-beredskap blir allt viktigare.

I januari besökte vi Onyx Healthcare och deltog i årets konferens "Driving AI Innovation together" om hur AI redan gör verklig skillnad i dagens sjukvårdssystem och kommer vara en viktig del av vården i framtiden. Besöket resulterade i många värdefulla insikter, meningsfulla diskussioner och framåtblickande idéer.

Bilden ovan visar datorer ur Onyx utbud.

Välkommen att kontakta oss om du vill veta mer!

018-34 28 20
sales@jor.se

Följ oss på LinkedIn!

linkedin 

JoR AB tillhandahåller såväl medicinteknisk utrustning som IT-produkter för patientnära bruk, samt fysiologiska mätsystem för forskning och utbildning.

Vill du avregistrera dig från våra nyhetsbrev?
Avregistrera här

JoR AB

Rubanksgatan 4, 741 71 Knivsta

jor.se Öppna brevet i webbläsare