fbpx Kunstig intelligens kan utfordre læring og faglig selvstendighet i sykepleierutdanningen | Sykepleien Hopp til hovedinnhold

Kunstig intelligens kan utfordre læring og faglig selvstendighet i sykepleierutdanningen

Bildet viser en sykepleier som pleier en pasient i sengen

Generativ kunstig intelligens gir studentene nye muligheter, men påvirker hvordan de lærer og reflekterer. Utdanningen må sikre at refleksjon og faglig skjønn ikke svekkes.

Hovedbudskap

Generativ kunstig intelligens kan være et verdifullt støtteverktøy i sykepleierstudenters læring, men ukritisk bruk kan svekke refleksjon og faglig selvstendighet. Sykepleie krever erfaring, etisk dømmekraft og klinisk vurdering – kompetanse som teknologi ikke kan erstatte, bare støtte. Sykepleierutdanningen må derfor legge til rette for at studentene utvikler en reflektert tilnærming til både generativ kunstig intelligens og annen kunstig intelligens.

Generativ kunstig intelligens (KI) utfordrer både utdanningsfeltet og våre tradisjonelle forståelser av læring og vurdering (1–3). Teoretiske og teknologiske fag kan dra nytte av generativ KI ved å få rask tilgang til ulike modeller, koder og logaritmer. 

Men hva skjer når teknologien møter profesjonsutdanninger som sykepleie? Her er teoretisk kunnskap, klinisk praksis, vurderingskompetanse og relasjonelle og praktiske ferdigheter helt sentrale. 

Studenter og lærere navigerer i et nytt og raskt utviklende felt, der debatten fremdeles preges av at begreper blandes sammen. Utfordringen er blant annet at generativ KI og kunstig intelligens diskuteres som om de er det samme, noe som lett fører til misforståelser. 

Denne artikkelen utforsker hvordan generativ KI både kan utfordre utviklingen av faglig selvstendighet, kritisk tenkning og praktisk kompetanse i sykepleierutdanningen – og hvorfor kunnskap om kunstig intelligens samtidig er en nødvendig del av både dagens og fremtidens sykepleierutdanning.

KI skaper både muligheter og utfordringer for studenter

Debatten om KI i høyere utdanning handler først og fremst om bruk av språkmodeller, også kalt generativ KI. Språkmodeller er en form for kunstig intelligens som er utviklet for å tolke og produsere tekst på en måte som etterlikner menneskelig språkbruk. 

Etter lanseringen av ChatGPT i 2022 har språkmodellene utviklet seg raskt og finnes nå i mange varianter med ulike funksjoner. I denne artikkelen retter vi særlig oppmerksomhet mot språkmodeller som ChatGPT, Copilot eller GPT UiO – verktøy som de fleste studenter har tilgang til med et tastetrykk. 

Mange i høyere utdanning har erfart at generativ KI kan være et nyttig verktøy.

Mange i høyere utdanning har erfart at generativ KI kan være et nyttig verktøy, spesielt for studenter som strever med den akademiske delen av studiene. Når studentene bruker språkmodeller, kan de få hjelp til å forbedre tekst og tydeliggjøre budskapet i skriftlige oppgaver (4, 5). 

Dersom skriveroboter brukes som et verktøy som gir tilbakemeldinger og forslag til forbedringer, kan studentene gjøre egne vurderinger og dermed lære gjennom prosessen. KI kan på denne måten bidra til å identifisere uklare deler av teksten eller manglende faglige begrunnelser. 

En slik bruk av KI kan være hensiktsmessig, for eksempel i arbeidet med en bacheloroppgave, der teknologien kan støtte utviklingen av skriftlig akademisk formidling av sykepleiefaglig kunnskap. 

Språkmodeller mangler faglig vurderingsevne

Fallgruven oppstår dersom studenter bruker KI ukritisk til å omskrive eller «akademisere» tekst. Dette kan hindre både kunnskapsutvikling og faglig modning. Når en tekst stadig forbedres med KI, kan resultatet bli språklig sofistikerte formuleringer – avhengig av hvilken prompt som brukes. 

Samtidig kan overdreven omskriving føre til innholdsløse tekster som mangler nødvendig dybde og kontekstuell forankring. En annen fallgruve er at studenter kan la skriveroboten produsere hele teksten og levere den som sin egen.

En vanlig misforståelse når det gjelder bruk av generativ KI i utdanning, er at slike verktøy kan benyttes som faglige kilder. Selv om KI noen ganger gir informasjon som virker plausibel, er den ikke etterprøvbar og kan derfor ikke brukes som vitenskapelig kilde. 

Verktøy som ChatGPT og Copilot er språkmodeller som produserer sannsynlige ordsekvenser basert på mønstre. De mangler evne til å vurdere faglig gyldighet i egne svar. Derfor skal verken ChatGPT eller annen generativ KI benyttes som kilde, og de hører heller ikke hjemme i sykepleiefaglige tekster, slik teknologiske fag kan ha behov for. 

Studenter trenger kompetanse for å vurdere KI-forslag

Bruk av generativ KI i læringssammenheng får konsekvenser når teknologien brukes ukritisk. Hvis studenter for eksempel ber en språkmodell om å foreslå sykepleietiltak ved respirasjonssvikt som del av en oppgave eller et gruppearbeid – og senere bruker disse forslagene i praksis uten kritisk vurdering – kan det føre til faglig uforsvarlig praksis. 

For å unngå dette er det avgjørende at brukeren, i dette tilfellet studenten, har nok fagkunnskap til å foreta kritiske vurderinger av forslagene den får av skriveroboten. Slik kunnskap er ikke nødvendigvis utviklet tidlig i utdanningsløpet.

Raske svar hemmer studentenes dybdelæring

En av de største bekymringene knyttet til generativ KI i utdanning handler om misforståelser om hva teknologien faktisk er, og hva den kan brukes til. Problemet ligger ikke først og fremst i selve teknologien, men i hvilke pedagogiske konsekvenser den får – særlig for hvordan studenter lærer, bearbeider og anvender kunnskap. 

Når studentene bruker KI for å få raske svar på kunnskapsspørsmål under hjemmeeksamen eller for å løse arbeidskrav hurtig, er det ikke bare studentenes manglende modenhet i kildevurderingen som er utfordrende. Brukt som støtteverktøy kan KI gi rask tilgang til informasjon, men den kan også begrense muligheten for dypere læring. 

Flere studenter uttrykker selv bekymring for at bruk av KI som snarvei kan gå på bekostning av både læringen og den faglige utviklingen deres.

Varig kunnskap krever mer enn aktivering av korttidshukommelsen. For å bli integrert i langtidsminnet må kunnskap bearbeides, anvendes og reflekteres over (6, 7). Slik dybdelæring fremmes gjennom aktiv deltakelse, erfaring og selvstendig problemløsning (8). 

Flere studenter uttrykker selv bekymring for at bruk av KI som snarvei kan gå på bekostning av både læringen og den faglige utviklingen deres (5).

Refleksjon krever fagkunnskap fremfor algoritmer

Når studenter i for stor grad støtter seg på generativ KI for å få raske svar, svekkes muligheten for kognitiv innsats og meningsfull læring. I verste fall kan dette føre til at en student fullfører en bachelorgrad uten å ha tilegnet seg de nødvendige ferdighetene og den kunnskapen en sykepleier faktisk trenger. 

Selv om utdanningene ofte kritiseres for å fokusere for mye på juks, er det en reell bekymring at teknologien kan svekke utviklingen av kritisk tenkning og refleksjon. Dette er særlig tydelig i arbeidskrav der målet er å styrke studentens evne til å reflektere, begrunne og utøve faglig skjønn.

At sykepleierutdanningen ofte omtales som «på etterskudd» i møte med kunstig intelligens (1) skyldes blant annet utdanningens praksisnære struktur. Halvparten av studiet foregår i kliniske praksisstudier, der teknologier som generativ KI foreløpig har begrenset relevans. 

I praksisstudiene og simuleringstrening skal studentene utvikle klinisk kompetanse, gjøre vurderinger og trene på å møte pasienter i komplekse og uforutsigbare situasjoner (9). Generativ KI kan gi teoretisk støtte og hjelpe studentene med å forberede seg før praksis, men den kan ikke erstatte kompetansen som utvikles gjennom direkte erfaring og refleksjon (8, 10).

Sykepleierutdanningen forutsetter refleksjon

Målet i sykepleierutdanningen er å utdanne beslutningsdyktige og etisk bevisste profesjonsutøvere. Dette forutsetter både selvstendighet og vurderingskompetanse. Slike ferdigheter utvikles først og fremst i møte med reelle pasientsituasjoner eller gjennom simuleringstrening, der refleksjon spiller er helt sentral rolle (11). 

Refleksjon er både situasjonsbetinget og kontekstavhengig (12) og helt sentral i utviklingen av denne kompetansen. Det er gjennom refleksjon at fagkunnskap integreres. Hvis studenter bruker generativ KI for å skrive refleksjonsnotater eller faglige analyser, kan utviklingen av både vurderingskompetanse og selvstendighet svekkes. 

Generativ KI utfordrer derfor studentenes læring og må brukes innenfor klare rammer og læringsmål. Selv om teknologien kan bidra til kognitiv avlastning – for eksempel når studentene jobber med begreper, fagstoff eller skriveprosesser – kan feil bruk redusere engasjementet og svekke utviklingen av kritiske ferdigheter (13, 14). 

Kunstig intelligens endrer arbeidsmåter i helsetjenesten

Bruken av kunstig intelligens i helsetjenesten skiller seg tydelig fra generativ KI, både i formål og i hvordan teknologien brukes. Spesialiserte KI-modeller utvikles for å gjenkjenne mønstre i data som blodprøver og røntgenbilder og kan gi beslutningsstøtte med høy treffsikkerhet (15, 16). 

Likevel vil det fortsatt være behov for kvalifiserte fagpersoner som ser pasienten – ikke gjennom teknologi. Endringer i pasientens tilstand oppdages ofte gjennom klinisk blikk og tilstedeværelse, ikke bare gjennom journaldata. KI kan kanskje foreslå tiltak i fremtiden, men det er sykepleieren, sammen med annet helsepersonell, som må gjøre vurderingene i komplekse situasjoner. 

Å være KI-kompetent i sykepleie handler ikke bare om å bruke teknologiske verktøy, men om å anvende dem med faglig og etisk skjønn.

Å være KI-kompetent i sykepleie handler ikke bare om å bruke teknologiske verktøy, men om å anvende dem med faglig og etisk skjønn. Studentene må derfor utvikle en kritisk forståelse av hva generativ KI kan – og ikke kan – bidra med når de skal tilegne seg nødvendig fagkunnskap og ferdigheter de trenger i utøvelsen av yrket. 

I tillegg må de ha innsikt i hvordan sykepleierrollen påvirkes av teknologiske endringer i helsetjenesten, slik forskrift om nasjonal retningslinje for sykepleierutdanning legger føringer for (10). 

Sykepleiere tar ansvar for etisk KI-bruk

Sykepleiere har et ansvar for å bidra aktivt i utviklingen og bruken av KI, slik at teknologien ivaretar pasientens helhetlige behov. Dette krever også etisk refleksjon rundt hvordan ressursene som brukes på kunstig intelligens, står i forhold til nytteverdien. 

I tillegg må vi stille spørsmål ved hvem som egentlig eier kunnskapen vi legger inn i språkmodeller, og hvilke avhengighetsforhold og konsekvenser dette kan få for videre kunnskapsutvikling.

Forfatterne oppgir ingen interessekonflikter.

Referanser

1.            Selwyn N. On the limits of artificial intelligence (AI) in education. Nord Tidsskr Pedagog Krit. 2024;10(1). DOI: 10.23865/ntpk.v10.6062

2.            Stenliden L, Sperling K. Breaking the magic of automation and augmentation in Swedish classrooms. Nord Tidsskr Pedagog Krit. 2024;10(1). DOI: 10.23865/ntpk.v10.6174

3.            Duenger Bøhn E. Kan generativ kunstig intelligens opplyse og danne oss? Nord Tidsskr Pedagog Krit. 2024;10(1). DOI: 10.23865/ntpk.v10.6175

4.            Kim J, Yu S, Detrick R, Li N. Exploring students’ perspectives on Generative AI-assisted academic writing. Educ Inf Technol. 2024;30(1):1265–300. DOI: 10.1007/s10639-024-12878-7

5.            Schei OM, Møgelvang A, Ludvigsen K. Perceptions and use of AI chatbots among students in higher education: a scoping review of empirical studies. Educ Sci. 2024;14(8):922. DOI: 10.3390/educsci14080922

6.            Pearson H. Are the Internet and AI affecting our memory? What the science says. Nature. 2025;638(8049):26–8. DOI: 10.1038/d41586-025-00292-z

7.            Ward AF. People mistake the internet’s knowledge for their own. Proc Natl Acad Sci. 2021;118(43):e2105061118. DOI: 10.1073/pnas.2105061118

8.            Kolb DA. Experiential learning: experience as the source of learning and development. 2. utg. Upper Saddle River, NJ: Pearson Education, Inc; 2015. 

9.            Forskrift om nasjonal retningslinje for sykepleierutdanning. FOR-2019-03-15-412 [hentet 2. desember 2025]. Tilgjengelig fra: https://lovdata.no/dokument/SFO/forskrift/2019-03-15-412

10.         Dewey J. Experience and education. New York, NY: Free Press; 2015.

11.         Malterud K. Kunstig intelligens kan ikke utføre kvalitativ analyse. Tidsskr Nor Legeforen. 2025;145(1). DOI: 10.4045/tidsskr.24.0571

12.         Schön DA. The reflective practitioner: how professionals think in action. New York, NY: Basic Books; 1983.

13.         Gerlich M. AI tools in society: impacts on cognitive offloading and the future of critical thinking. Societies. 2025;15(1):6. DOI: 10.3390/soc15010006

14.         Stadler M, Bannert M, Sailer M. Cognitive ease at a cost: LLMs reduce mental effort but compromise depth in student scientific inquiry. Comput Hum Behav. 2024;160:108386. DOI: 10.1016/j.chb.2024.108386

15.         Hersvik EA, Sivanandan R, Schneider G. Kunstig intelligens i bildediagnostikk – ett år i klinisk bruk. Tidssk Nor Legeforen. 2025;145. DOI: 10.4045/tidsskr.24.0487

16.         Soerensen PD, Christensen H, Laursen SGW, Hardahl C, Brandslund I, Madsen JS. Using artificial intelligence in a primary care setting to identify patients at risk for cancer: a risk prediction model based on routine laboratory tests. Clin Chem Lab Med. 2022;60(12):2005–16. DOI: 10.1515/cclm-2021-1015

0 Kommentarer

Innsendte kommentarer kvalitetssikres før publisering. Kvalitetssikringen skjer i vanlig arbeidstid.

Ledige stillinger

Alle ledige stillinger
Kjøp annonse
Annonse
Annonse