Det pågår mange forsøk der kunstig intelligens skal diagnostisere malignt melanom – også kalt føflekkreft – basert på et bilde av en føflekk, men et dansk prosjekt går nå et skritt videre.
– Det er ikke vårt primære mål å kategorisere om en føflekk er godartet eller ondartet. Vi tar sikte på å estimere hvor vanskelig et gitt bilde er å forstå for et menneske, sier Anders Nymark Christensen, som er førsteamanuensis ved DTU Compute, et institutt på Danmarks tekniske universitet.
Christensen er en del av et dansk samarbeid mellom forskere, bedrifter og helsevesen som skal bruke kunstig intelligens til å utvikle læringssystemer for hudkreftdiagnostikk.
Når det pågår så mange prosjekter med kunstig intelligens og føflekker, er det fordi det kan ser ut som den perfekte matchen mellom teknologi og samfunnsbehov: Du kobler maskinlæring og føflekkbilder og lager den perfekte algoritmen for å diagnostisere ulike typer hudkreft, så vi for eksempel ikke lenger skal trenge å skjære vekk 75 ufarlige føflekker fra friske mennesker for å finne bare én føflekk med kreft.
Tilbakemelding og læring
Dessverre fungerer det ikke slik – tvert imot.
– Vi prøver ikke å erstatte legen. Mange har prøvd, og det fungerer ikke i praksis. Vi prøver i stedet å gjøre legen bedre, sier Anders Nymark Christensen.
Og det er nettopp det som plasserer dette prosjektet i en egen klasse: I stedet for å utvikle en app for befolkningen, slik at vi kan sjekke føflekkene våre med mobiltelefoner, retter dette prosjektet seg mot leger, og det skal brukes i helsevesenet til feedback og læring, samt for beslutningsstøtte i det daglige arbeidet.
– Ofte sitter en unge lege alene med en vanskelig sak og vil be en erfaren kollega om råd. Det er den støtten vi ønsker å gi. Appen på mobilen skal være den erfarne kollegaen som alltid har tid, sier Christensen, som ble involvert i prosjektet da han møtte legen Niels Kvorning Ternov gjennom en felles bekjent.
Ternov er prosjektleder for AISC Research Consortium, som ble grunnlagt for å utvikle bruken av kunstig intelligens til opplæring og beslutningsstøtte i hudkreftdiagnostikk – det fulle navnet på samarbeidet er Artificial Intelligence augmented training and feedback in Skin Cancer diagnostics (AISC).
I fjor høst ga det danske Innovasjonsfondet ham økonomisk støtte til å utvikle en app, Dermloop, som bruker kunstig intelligens og visuell tilbakemelding for å gjøre leger bedre til å diagnostisere hudkreft.
DuoLingo for leger
– Jeg kaller det DuoLingo for leger. Det er et quizmiljø som er koblet til en masse læringsmateriell og optimalisert med kunstig intelligens, sier Ternov, som har samlet folk fra flere universiteter og forskningsområder om prosjektet. Det er allerede «ute på sykehuset» i forsøk.
Frem til desember er Ternov også doktorgradsstipendiat på AISC-prosjektet, og han tester for tiden læringsplattformen i Dermloop på australske og danske medisinstudenter i en studie som skal utgjøre den andre halvdelen av doktorgraden hans. Den første delen var å etablere en standardisert test av legers kompetanse innen hudkreftdiagnostikk.
Studien viste at medisinstudenter og nyutdannede leger har samme kompetansenivå som reserveleger med tre til seks års erfaring. Etter seks år stikker dermatologer (hudleger) og plastikkirurger fra fastlegene – rett og slett fordi leger på de to spesialfeltene ser mange flere føflekker hvert år. Studien viste at på dette området er det bare øvelse som gjør mester.
Forskere brukte kunstig intelligens til å forutsi hvor raskt teknologien utvikler seg hvert år – sjekk selv
Datakrevende nevrale nettverk
Det samme gjelder nevrale nettverk, som øver seg – eller maskinlærer – på enorme mengder data.
De fleste føflekk-apper blir trent på et datasett fra det internasjonale medisinske samarbeidet ISIC (International Skin Imaging Collaboration), som legger bilder av hudendringer i en felles database.
– Det viste seg at hvis vi trener vår modell på ISIC-data, fungerer den ikke i dansk sammenheng, og de internasjonale algoritmene gjør det ikke bra hvis de testes på våre danske datasett, sier Anders Nymark Christensen.
Forskerne trener modellene sine på et datasett av føflekkbilder med diagnostisk informasjon som er samlet inn over mange år på Odense universitetssykehus.
– Det er et veldig stort datasett, men det er også karakteristisk for dyplæring og nevrale nettverk at de er grådige på data, og med appen vil vi kontinuerlig få enda flere data inn, sier Christensen.
Etter hvert som flere brukere, flere bilder og flere diagnoser ankommer, vil appen raskt kunne samle inn data for å bli blant de største – om ikke den største – databasen i verden med kliniske kvalitetsbilder av hudendringer og tilhørende diagnostisk informasjon.
Ser hva som ligner hverandre
Datasettet skal mate en spesialutgave av maskinlæring, et «embedding neural network», der bildene plasseres i et 32-dimensjonalt rom.
– Det er helt opp til nettverket selv hva det har på disse 32 forskjellige aksene. Det lærer dette under treningsprosessen, og dette er ikke nødvendigvis egenskaper som kan tolkes av et menneske, sier Christensen.
Det er her begrepet «svart boks» har en tendens til å dukke opp når man snakker om nevrale nettverk, men i dette tilfellet er ikke klassifiseringen interessant i seg selv og bør ikke sees på som paralleller til et nytt diagnostisk kriterium for melanom. Forskerne er kun interessert i å få plassert bildene i forhold til hverandre etter utseende.
– Når bildene er organisert i dette «embedding space», vet vi hvor langt de er fra hverandre. Det betyr at nettverket ikke bare kan fortelle oss at dette er et bilde av en godartet føflekk og dette er det ikke. Vi kan se hvilke bilder som er veldig like hverandre og hvilke som er veldig forskjellige. Vi kan bruke dette til å velge det beste læringsmateriellet, sier Morten Hannemose ved DTU Compute, som er tilknyttet prosjektet som postdoktor.
Med den kunnskapen skal nettverket bidra til å velge bilder til det optimale læringsmateriellet for leger på ulike kompetansenivåer. Den enkelte lege får skreddersydde tilbakemeldinger slik at han eller hun kan trene på svake punkter, og de virkelig erfarne legene kan bli presset med vanskelige oppgaver, det vil si med de bildene som nettverket har lært at leger har vanskeligst for å diagnostisere riktig.
Denne artikkelen ble først publisert på Ingeniøren.
Denne nettleseren skal oppdage nesten alle «deepfakes»