Er norsk helsevesen klar for KI? Ny rapport peker på fallgruver og muligheter

«Feil, skjevheter og mangel på transparens kan få konsekvenser for sikkerheten til pasienter og kvaliteten på helsetjenester», heter det i en fersk rapport om kunstig intelligens i norsk helsevesen.
Kunstig intelligens brukes allerede innen blant annet bildediagnostikk, ressursplanlegging og beslutningsstøtte i helsevesenet.
Men hvor trygt er det?
Nylig presenterte Helsedirektoratet «Rapport om store språkmodeller i helse- og omsorgstjenesten: risikoer og tilpasninger til norske forhold», som de har laget på oppdrag fra Helse- og omsorgsdepartementet.
Store språkmodeller er avanserte KI-systemer som tolker og genererer forståelig tekst, slik som for eksempel ChatGPT, Gemini eller Perplexity.
I rapporten vises det til at potensialet og forventningene knyttet til bruk av slike verktøy er høye i helsesektoren.
Samtidig konkluderer forfatterne med at det er «store risikoer knyttet til å ta i bruk generativ KI».
Utfordringer og tiltak
Rapporten peker blant annet på utfordringer med:
- dårlig datakvalitet og skjevheter i datagrunnlaget
- manglende transparens
- hallusinering
- forringing av ytelse over tid
- sårbarheter knyttet til informasjonssikkerhet
For å tilrettelegge for bruk av store språkmodeller i norsk helsevesen, anbefaler Helsedirektoratet at man:
- etablerer kvalitetsrammeverk
- bygge og deler kompetanse
- etablerer felles datagrunnlag
- utreder infrastruktur med regnekraft tilpasset helsesektorens behov
- utreder forvaltningsstruktur for store språkmodeller for helsesektoren
– Skal være trygg
– Vi er nødt til å være trygge på at den teknologien vi setter ut i live, den skal være trygg og til å stole på, påpekte statssekretær Ellen Rønning-Arnesen under lanseringen av rapporten på Nasjonalbiblioteket fredag formiddag.
– Språkmodeller og kunstig intelligens er ikke løsningen på alt, men de er en del av løsningen.
0 Kommentarer