Duboko učenje za evaluaciju kvaliteta slike angiografije optičke koherentne tomografije

Hvala vam što ste posjetili Nature.com.Koristite verziju pretraživača sa ograničenom podrškom za CSS.Za najbolje iskustvo, preporučujemo da koristite ažurirani pretraživač (ili onemogućite način kompatibilnosti u Internet Exploreru).Osim toga, kako bismo osigurali stalnu podršku, prikazujemo stranicu bez stilova i JavaScripta.
Klizači koji prikazuju tri članka po slajdu.Koristite dugmad za nazad i sledeće da se krećete kroz slajdove ili dugmad kontrolora slajdova na kraju za kretanje kroz svaki slajd.
Optička koherentna tomografska angiografija (OCTA) je nova metoda za neinvazivnu vizualizaciju retinalnih sudova.Iako OCTA ima mnogo obećavajućih kliničkih primjena, određivanje kvaliteta slike ostaje izazov.Razvili smo sistem zasnovan na dubokom učenju koristeći ResNet152 klasifikator neuronske mreže prethodno obučen sa ImageNet-om da klasifikuje slike površinskog kapilarnog pleksusa sa 347 skeniranja 134 pacijenta.Slike su također ručno ocijenjene kao istinite od strane dva nezavisna ocjenjivača za model učenja pod nadzorom.Budući da zahtjevi za kvalitetom slike mogu varirati ovisno o kliničkim ili istraživačkim postavkama, dva modela su obučena, jedan za prepoznavanje slike visokog kvaliteta, a drugi za prepoznavanje slike niske kvalitete.Naš model neuronske mreže pokazuje odličnu površinu ispod krive (AUC), 95% CI 0,96-0,99, \(\kappa\) = 0,81), što je značajno bolje od nivoa signala koji je prijavila mašina (AUC = 0,82, 95 % CI).0,77–0,86, \(\kappa\) = 0,52 i AUC = 0,78, 95% CI 0,73–0,83, \(\kappa\) = 0,27, respektivno).Naša studija pokazuje da se metode mašinskog učenja mogu koristiti za razvoj fleksibilnih i robusnih metoda kontrole kvaliteta za OCTA slike.
Optička koherentna tomografska angiografija (OCTA) je relativno nova tehnika zasnovana na optičkoj koherentnoj tomografiji (OCT) koja se može koristiti za neinvazivnu vizualizaciju mikrovaskulature retine.OCTA mjeri razliku u obrascima refleksije od ponovljenih svjetlosnih impulsa u istom području mrežnice, a zatim se mogu izračunati rekonstrukcije kako bi se otkrile krvne žile bez invazivne upotrebe boja ili drugih kontrastnih sredstava.OCTA također omogućava vaskularno snimanje u dubini, omogućavajući kliničarima da odvojeno pregledaju površinske i duboke slojeve krvnih žila, pomažući u razlikovanju horioretinalne bolesti.
Iako je ova tehnika obećavajuća, varijacija u kvaliteti slike ostaje glavni izazov za pouzdanu analizu slike, što otežava interpretaciju slike i sprječava široko kliničko usvajanje.Budući da OCTA koristi više uzastopnih OCT skeniranja, osjetljiviji je na artefakte slike nego standardni OCT.Većina komercijalnih OCTA platformi pruža vlastitu metriku kvaliteta slike koja se zove jačina signala (SS) ili ponekad indeks snage signala (SSI).Međutim, slike s visokom vrijednošću SS ili SSI ne jamče odsustvo artefakata slike, što može utjecati na bilo koju naknadnu analizu slike i dovesti do pogrešnih kliničkih odluka.Uobičajeni artefakti slike koji se mogu pojaviti u OCTA snimanju uključuju artefakte pokreta, artefakte segmentacije, artefakte neprozirnosti medija i artefakte projekcije1,2,3.
Kako se mjere izvedene iz OCTA, kao što je vaskularna gustina, sve više koriste u translacijskim istraživanjima, kliničkim ispitivanjima i kliničkoj praksi, postoji hitna potreba za razvojem robusnih i pouzdanih procesa kontrole kvaliteta slike kako bi se eliminirali artefakti slike4.Preskakanje veze, poznate i kao preostale veze, su projekcije u arhitekturi neuronske mreže koje omogućavaju informacijama da zaobiđu konvolucione slojeve dok pohranjuju informacije u različitim razmjerima ili rezolucijama5.Budući da artefakti slike mogu utjecati na performanse slika malih i velikih razmjera, neuronske mreže sa preskakanjem veze su vrlo pogodne za automatizaciju ovog zadatka kontrole kvaliteta5.Nedavno objavljeni rad pokazao je obećanje za duboke konvolucione neuronske mreže obučene korištenjem visokokvalitetnih podataka od ljudskih procjenitelja6.
U ovoj studiji obučavamo konvolucionu neuronsku mrežu koja preskače vezu da automatski odredi kvalitet OCTA slika.Nadovezujemo se na prethodni rad razvijajući odvojene modele za identifikaciju slika visokog kvaliteta i slika niske kvalitete, jer se zahtjevi za kvalitetom slike mogu razlikovati za specifične kliničke ili istraživačke scenarije.Upoređujemo rezultate ovih mreža sa konvolucijskim neuronskim mrežama bez propuštanja veza kako bismo procijenili vrijednost uključivanja karakteristika na više nivoa granularnosti unutar dubokog učenja.Zatim smo uporedili naše rezultate sa jačinom signala, opšteprihvaćenom merom kvaliteta slike koju obezbeđuju proizvođači.
Naša studija je uključivala pacijente sa dijabetesom koji su pohađali Yale Eye Center između 11. avgusta 2017. i 11. aprila 2019. Pacijenti sa bilo kojom nedijabetičkom horioretinalnom bolešću bili su isključeni.Nije bilo kriterijuma za uključivanje ili isključenje na osnovu starosti, pola, rase, kvaliteta slike ili bilo kog drugog faktora.
OCTA slike su dobijene korištenjem AngioPlex platforme na Cirrus HD-OCT 5000 (Carl Zeiss Meditec Inc, Dublin, CA) pod 8\(\times\)8 mm i 6\(\times\)6 mm protokolima snimanja.Informisani pristanak za učešće u studiji dobijen je od svakog učesnika studije, a Odbor za institucionalnu reviziju Univerziteta Yale (IRB) odobrio je korištenje informiranog pristanka sa globalnom fotografijom za sve ove pacijente.Slijedeći principe Helsinške deklaracije.Studiju je odobrio IRB Univerziteta Yale.
Slike površinske ploče su procijenjene na osnovu prethodno opisane ocjene artefakata pokreta (MAS), prethodno opisane ocjene artefakata segmentacije (SAS), fovealnog centra, prisutnosti neprozirnosti medija i dobre vizualizacije malih kapilara kako je odredio evaluator slike.Slike su analizirala dva nezavisna evaluatora (RD i JW).Slika ima ocjenu 2 (prihvatljiva) ako su ispunjeni svi sljedeći kriteriji: slika je centrirana na fovea (manje od 100 piksela od centra slike), MAS je 1 ili 2, SAS je 1 i neprozirnost medija je manja od 1. Prisutna je na slikama veličine / 16, a male kapilare se vide na slikama većim od 15/16.Slika je ocijenjena 0 (bez ocjene) ako je ispunjen bilo koji od sljedećih kriterija: slika je izvan centra, ako je MAS 4, ako je SAS 2 ili je prosječna neprozirnost veća od 1/4 slike, i male kapilare se ne mogu podesiti više od 1 slike /4 da bi se razlikovale.Sve ostale slike koje ne ispunjavaju kriterijume 0 ili 2 boduju se sa 1 (isječak).
Na sl.1 prikazuje uzorke slika za svaku od skaliranih procjena i artefakata slike.Pouzdanost pojedinačnih rezultata među ocjenjivačima procijenjena je Cohenovim kapa ponderom8.Pojedinačni rezultati svakog ocjenjivača se zbrajaju kako bi se dobio ukupni rezultat za svaku sliku, u rasponu od 0 do 4. Slike sa ukupnim rezultatom 4 smatraju se dobrim.Slike sa ukupnim rezultatom 0 ili 1 smatraju se niskim kvalitetom.
Konvoluciona neuronska mreža ResNet152 arhitekture (slika 3A.i) prethodno obučena na slikama iz ImageNet baze podataka generisana je korišćenjem fast.ai i PyTorch framework-a5, 9, 10, 11. Konvoluciona neuronska mreža je mreža koja koristi naučeno filteri za skeniranje fragmenata slike radi proučavanja prostornih i lokalnih karakteristika.Naš obučeni ResNet je neuronska mreža od 152 sloja koju karakteriziraju praznine ili „rezidualne veze“ koje istovremeno prenose informacije s više rezolucija.Projektovanjem informacija u različitim rezolucijama preko mreže, platforma može naučiti karakteristike slika niskog kvaliteta na više nivoa detalja.Pored našeg ResNet modela, obučili smo i AlexNet, dobro proučenu arhitekturu neuronske mreže, bez propuštanja veza za poređenje (Slika 3A.ii)12.Bez nedostajućih veza, ova mreža neće moći uhvatiti karakteristike veće granularnosti.
Originalni set slika 8\(\times\)8mm OCTA13 je poboljšan pomoću tehnika horizontalne i vertikalne refleksije.Potpuni skup podataka je zatim nasumično podijeljen na nivou slike na skupove podataka za obuku (51,2%), testiranje (12,8%), podešavanje hiperparametara (16%) i validaciju (20%) pomoću alata scikit-learn python14.Razmotrena su dva slučaja, jedan zasnovan na otkrivanju samo najkvalitetnijih slika (ukupni rezultat 4), a drugi na osnovu otkrivanja samo slika najnižeg kvaliteta (ukupni rezultat 0 ili 1).Za svaki visokokvalitetni i nekvalitetni slučaj upotrebe, neuronska mreža se ponovo obučava jednom na našim podacima o slici.U svakom slučaju upotrebe, neuronska mreža je obučavana za 10 epoha, sve težine slojeva osim najviših su bile zamrznute, a težine svih internih parametara su naučene za 40 epoha korištenjem diskriminativne metode brzine učenja s funkcijom gubitka unakrsne entropije 15, 16..Funkcija gubitka unakrsne entropije je mjera logaritamske skale neslaganja između predviđenih mrežnih oznaka i stvarnih podataka.Tokom treninga, gradijentni spust se izvodi na internim parametrima neuronske mreže kako bi se minimizirali gubici.Stopa učenja, stopa napuštanja i hiperparametri smanjenja težine su podešeni korištenjem Bayesove optimizacije sa 2 nasumične početne tačke i 10 iteracija, a AUC na skupu podataka je podešen korištenjem hiperparametara kao cilja od 17.
Reprezentativni primjeri 8 × 8 mm OCTA snimaka površinskih kapilarnih pleksusa dobili su 2 (A, B), 1 (C, D) i 0 (E, F).Prikazani artefakti slike uključuju treperave linije (strelice), artefakte segmentacije (zvjezdice) i neprozirnost medija (strelice).Slika (E) je takođe van centra.
Krive radnih karakteristika prijemnika (ROC) se zatim generišu za sve modele neuronske mreže, a izvještaji o snazi ​​signala motora se generiraju za svaki slučaj niske kvalitete i visokog kvaliteta.Površina ispod krive (AUC) izračunata je pomoću pROC R paketa, a 95% intervali povjerenja i p-vrijednosti su izračunati pomoću DeLong metode18,19.Kumulativni rezultati ljudskih ocjenjivača koriste se kao osnova za sve ROC proračune.Za jačinu signala koju je prijavila mašina, AUC je izračunat dvaput: jednom za graničnu vrijednost skalabilnosti visokog kvaliteta i jednom za graničnu vrijednost skalabilnosti niske kvalitete.Neuronska mreža se poredi sa jačinom AUC signala koji odražava sopstvene uslove obuke i evaluacije.
Za dalje testiranje obučenog modela dubokog učenja na zasebnom skupu podataka, visokokvalitetni i niski kvalitetni modeli su direktno primijenjeni na procjenu performansi 32 slike površine 6\(\puta\) 6 mm površine ploče sakupljene sa Univerziteta Yale.Masa oka je centrirana u isto vrijeme kao i slika 8 \(\ puta \) 8 mm.Slike od 6\(\×\) 6 mm su ručno procijenjene od strane istih ocjenjivača (RD i JW) na isti način kao i slike od 8\(\×\) 8 mm, AUC je izračunat kao i tačnost i Cohenova kapa .jednako .
Odnos neravnoteže klase je 158:189 (\(\rho = 1,19\)) za model niskog kvaliteta i 80:267 (\(\rho = 3,3\)) za model visokog kvaliteta.Budući da je omjer neravnoteže klasa manji od 1:4, nisu napravljene posebne arhitektonske promjene da bi se ispravila neravnoteža klasa20,21.
Kako bi se bolje vizualizirao proces učenja, generirane su mape aktivacije klase za sva četiri obučena modela dubokog učenja: visokokvalitetni ResNet152 model, nisko kvalitetni ResNet152 model, visokokvalitetni AlexNet model i AlexNet model niske kvalitete.Aktivacijske mape klasa se generiraju iz ulaznih konvolucijskih slojeva ova četiri modela, a toplinske karte se generiraju preklapanjem aktivacijskih mapa s izvornim slikama iz setova za validaciju 8 × 8 mm i 6 × 6 mm22, 23.
R verzija 4.0.3 je korištena za sve statističke proračune, a vizualizacije su kreirane korištenjem biblioteke grafičkih alata ggplot2.
Prikupili smo 347 frontalnih snimaka površinskog kapilarnog pleksusa dimenzija 8 \(\ puta \)8 mm od 134 osobe.Mašina je prijavila jačinu signala na skali od 0 do 10 za sve slike (srednja vrednost = 6,99 ± 2,29).Od 347 dobijenih snimaka, srednja starost na pregledu bila je 58,7 ± 14,6 godina, a 39,2% su bili muški pacijenti.Od svih slika, 30,8% je bilo pripadnika bele rase, 32,6% crnaca, 30,8% Hispanaca, 4% Azijaca i 1,7% drugih rasa (tabela 1).).Starosna distribucija pacijenata sa OCTA značajno se razlikovala u zavisnosti od kvaliteta slike (p < 0,001).Procenat slika visokog kvaliteta kod mlađih pacijenata starosti 18-45 godina iznosio je 33,8% u poređenju sa 12,2% slika lošeg kvaliteta (Tabela 1).Distribucija statusa dijabetičke retinopatije također je značajno varirala u kvalitetu slike (p < 0,017).Među svim visokokvalitetnim slikama, postotak pacijenata sa PDR-om bio je 18,8% u poređenju sa 38,8% svih slika lošeg kvaliteta (Tabela 1).
Individualne ocjene svih slika pokazale su umjerenu do snažnu međuocjenu pouzdanost između ljudi koji čitaju slike (Cohenova ponderisana kapa = 0,79, 95% CI: 0,76-0,82), i nije bilo tačaka slike u kojima su se ocjenjivači razlikovali za više od 1 (Sl. 2A)..Intenzitet signala je značajno korelirao sa ručnim bodovanjem (korelacija momenta Pearsonovog proizvoda = 0,58, 95% CI 0,51–0,65, p<0,001), ali je za mnoge slike utvrđeno da imaju visok intenzitet signala, ali nisko ručno ocjenjivanje (Sl. 2B).
Tokom obuke ResNet152 i AlexNet arhitektura, gubitak unakrsne entropije pri validaciji i obuci pada preko 50 epoha (slika 3B,C).Preciznost validacije u završnoj epohi obuke je preko 90% kako za visokokvalitetne tako i za slučajeve niske kvalitete.
Krive performansi prijemnika pokazuju da ResNet152 model značajno nadmašuje snagu signala koju je prijavila mašina iu slučajevima niske i visoke kvalitete (p < 0,001).Model ResNet152 takođe značajno nadmašuje arhitekturu AlexNet (p = 0,005 i p = 0,014 za slučajeve niskog kvaliteta i visokog kvaliteta, respektivno).Rezultirajući modeli za svaki od ovih zadataka uspjeli su postići AUC vrijednosti od 0,99 odnosno 0,97, što je znatno bolje od odgovarajućih AUC vrijednosti od 0,82 i 0,78 za indeks jačine signala mašine ili 0,97 i 0,94 za AlexNet ..(Sl. 3).Razlika između ResNet-a i AUC-a u jačini signala je veća kada se prepoznaju slike visokog kvaliteta, što ukazuje na dodatne prednosti korištenja ResNeta za ovaj zadatak.
Grafikoni pokazuju sposobnost svakog nezavisnog ocjenjivača da ocijeni i uporedi sa jačinom signala koju je prijavila mašina.(A) Zbir bodova koji se ocjenjuju koristi se za stvaranje ukupnog broja bodova koji se ocjenjuju.Slikama sa ukupnom ocenom skalabilnosti od 4 dodeljuje se visok kvalitet, dok se slikama sa ukupnom ocenom skalabilnosti od 1 ili manje dodeljuje nizak kvalitet.(B) Intenzitet signala korelira sa ručnim procjenama, ali slike sa visokim intenzitetom signala mogu biti lošijeg kvaliteta.Crvena isprekidana linija označava prag kvaliteta koji preporučuje proizvođač na osnovu jačine signala (jačina signala \(\ge\)6).
ResNet transfer učenje pruža značajno poboljšanje u identifikaciji kvaliteta slike za slučajeve niske kvalitete i visokog kvaliteta u poređenju sa nivoima signala prijavljenih na mašini.(A) Pojednostavljeni dijagrami arhitekture unapred obučenih (i) ResNet152 i (ii) AlexNet arhitektura.(B) Istorija obuke i krive performansi prijemnika za ResNet152 u poređenju sa jačinom signala koju je prijavila mašina i kriterijumima niske kvalitete AlexNet-a.(C) Istorija obuke ResNet152 prijemnika i krive performansi u poređenju sa jačinom signala koju je prijavila mašina i kriterijumima visokog kvaliteta AlexNet.
Nakon prilagođavanja graničnog praga odluke, maksimalna preciznost predviđanja ResNet152 modela je 95,3% za slučaj niske kvalitete i 93,5% za slučaj visokog kvaliteta (Tabela 2).Maksimalna tačnost predviđanja modela AlexNet je 91,0% za slučaj lošeg kvaliteta i 90,1% za slučaj visokog kvaliteta (Tabela 2).Maksimalna preciznost predviđanja jačine signala je 76,1% za slučaj upotrebe niske kvalitete i 77,8% za slučaj upotrebe visokog kvaliteta.Prema Cohenovoj kapa (\(\kappa\)), slaganje između ResNet152 modela i procjenitelja je 0,90 za slučaj niske kvalitete i 0,81 za slučaj visokog kvaliteta.Cohenov AlexNet kapa je 0,82 i 0,71 za slučajeve niske kvalitete i visokokvalitetne upotrebe, respektivno.Cohenova kapa jačine signala je 0,52 i 0,27 za slučajeve niske i visokokvalitetne upotrebe, respektivno.
Validacija modela prepoznavanja visokog i niskog kvaliteta na 6\(\x\) slikama ravne ploče od 6 mm pokazuje sposobnost obučenog modela da odredi kvalitet slike kroz različite parametre slike.Kada se za kvalitet slike koriste plitke ploče od 6\(\x\) 6 mm, model niskog kvaliteta imao je AUC od 0,83 (95% CI: 0,69–0,98), a model visokog kvaliteta imao je AUC od 0,85.(95% CI: 0,55–1,00) (Tabela 2).
Vizuelna inspekcija aktivacionih mapa klase ulaznog sloja pokazala je da su sve obučene neuronske mreže koristile karakteristike slike tokom klasifikacije slike (sl. 4A, B).Za slike od 8 \(\ puta \) 8 mm i 6 \(\ puta \) 6 mm, ResNet aktivacijske slike blisko prate vaskulaturu mrežnjače.AlexNet aktivacijske mape također prate krvne sudove mrežnjače, ali s grubljom rezolucijom.
Mape za aktivaciju klase za modele ResNet152 i AlexNet ističu karakteristike vezane za kvalitet slike.(A) Mapa aktivacije klase koja prikazuje koherentnu aktivaciju nakon površne retinalne vaskulature na 8 \(\ puta \) 8 mm validacijskih slika i (B) opseg na manjim 6 \(\ puta \) 6 mm validacijskim slikama.LQ model obučen po kriterijumima niskog kvaliteta, HQ model obučen po kriterijumima visokog kvaliteta.
Ranije je pokazano da kvalitet slike može uvelike uticati na bilo koju kvantifikaciju OCTA slika.Osim toga, prisutnost retinopatije povećava učestalost artefakata slike7,26.Zapravo, u našim podacima, u skladu s prethodnim studijama, pronašli smo značajnu povezanost između porasta starosti i ozbiljnosti bolesti mrežnice i pogoršanja kvaliteta slike (p < 0,001, p = 0,017 za dob i status DR, respektivno; Tabela 1) 27 Stoga je kritično procijeniti kvalitet slike prije izvođenja bilo kakve kvantitativne analize OCTA slika.Većina studija koje analiziraju OCTA slike koriste pragove intenziteta signala koje je prijavila mašina kako bi se isključile slike niskog kvaliteta.Iako se pokazalo da intenzitet signala utiče na kvantifikaciju OCTA parametara, sam visok intenzitet signala možda neće biti dovoljan da isključi slike sa artefaktima slike2,3,28,29.Stoga je neophodno razviti pouzdaniji metod kontrole kvaliteta slike.U tu svrhu, procjenjujemo performanse nadgledanih metoda dubokog učenja u odnosu na snagu signala koju je prijavila mašina.
Razvili smo nekoliko modela za procjenu kvaliteta slike jer različiti slučajevi upotrebe OCTA mogu imati različite zahtjeve za kvalitetom slike.Na primjer, slike bi trebale biti višeg kvaliteta.Osim toga, važni su i specifični kvantitativni parametri od interesa.Na primjer, područje fovealne avaskularne zone ne ovisi o zamućenosti necentralnog medija, već utječe na gustoću krvnih žila.Dok se naše istraživanje nastavlja fokusirati na opći pristup kvaliteti slike, koji nije vezan za zahtjeve bilo kojeg određenog testa, već ima za cilj da direktno zamijeni jačinu signala koju je prijavila mašina, nadamo se da ćemo korisnicima pružiti veći stepen kontrole kako bi može odabrati specifičnu metriku od interesa za korisnika.izaberite model koji odgovara maksimalnom stepenu artefakata slike koji se smatra prihvatljivim.
Za scene niskog kvaliteta i visokog kvaliteta, pokazujemo odlične performanse dubokih konvolucionih neuronskih mreža bez veze, sa AUC-ima od 0,97 i 0,99 i modelima niske kvalitete, respektivno.Takođe demonstriramo superiorne performanse našeg pristupa dubokog učenja u poređenju sa nivoima signala koje prijavljuju samo mašine.Preskakanje veze omogućavaju neuronskim mrežama da nauče karakteristike na više nivoa detalja, hvatajući finije aspekte slike (npr. kontrast) kao i opšte karakteristike (npr. centriranje slike30,31).Budući da se artefakti slike koji utiču na kvalitet slike vjerovatno najbolje identificirati u širokom rasponu, arhitekture neuronskih mreža s nedostajućim vezama mogu pokazati bolje performanse od onih bez zadataka određivanja kvaliteta slike.
Prilikom testiranja našeg modela na 6\(\×6mm) OCTA slikama, primijetili smo smanjenje performansi klasifikacije i za modele visokog i niskog kvaliteta (slika 2), za razliku od veličine modela obučenog za klasifikaciju.U poređenju sa ResNet modelom, AlexNet model ima veći pad.Relativno bolje performanse ResNeta mogu biti posljedica sposobnosti preostalih veza da prenose informacije u više razmjera, što model čini robusnijim za klasifikaciju slika snimljenih na različitim skalama i/ili uvećanjima.
Neke razlike između 8 \(\×\) 8 mm slika i 6 \(\×\) 6 mm slika mogu dovesti do loše klasifikacije, uključujući relativno visok udio slika koje sadrže fovealne avaskularne oblasti, promjene u vidljivosti, vaskularne arkade i nema optičkog živca na slici 6×6 mm.Unatoč tome, naš visokokvalitetni ResNet model uspio je postići AUC od 85% za slike od 6 \(\x\) 6 mm, konfiguraciju za koju model nije bio obučen, što sugerira da su informacije o kvaliteti slike kodirane u neuronskoj mreži je pogodan.za jednu veličinu slike ili konfiguraciju mašine izvan njene obuke (tabela 2).Ohrabrujuće, aktivacijske mape slične ResNet-u i AlexNetu od 8 \(\ puta \) 8 mm i 6 \(\ puta \) 6 mm slike su bile u stanju da istaknu krvne žile retine u oba slučaja, sugerirajući da model ima važne informacije.su primenljive za klasifikaciju oba tipa OCTA slika (slika 4).
Lauerman et al.Procjena kvaliteta slike na OCTA slikama je na sličan način izvedena korištenjem Inception arhitekture, još jedne konvolucione neuronske mreže sa preskakanjem konekcije6,32 koristeći tehnike dubokog učenja.Oni su također ograničili studiju na slike površinskog kapilarnog pleksusa, ali samo koristeći manje slike od 3×3 mm iz Optovue AngioVue, iako su uključeni i pacijenti s različitim horioretinalnim bolestima.Naš rad se temelji na njihovim temeljima, uključujući više modela za rješavanje različitih pragova kvaliteta slike i validaciju rezultata za slike različitih veličina.Također izvještavamo o AUC metrici modela mašinskog učenja i povećavamo njihovu već impresivnu tačnost (90%)6 za modele niskog kvaliteta (96%) i visokog kvaliteta (95,7%)6.
Ova obuka ima nekoliko ograničenja.Prvo, slike su dobijene sa samo jednom OCTA mašinom, uključujući samo slike površinskog kapilarnog pleksusa na 8\(\puta\)8 mm i 6\(\puta\)6 mm.Razlog za isključivanje slika iz dubljih slojeva je taj što artefakti projekcije mogu otežati ručnu procjenu slika i možda manje dosljednom.Nadalje, slike su dobivene samo kod pacijenata sa dijabetesom, za koje se OCTA pojavljuje kao važan dijagnostički i prognostički alat33,34.Iako smo bili u mogućnosti da testiramo naš model na slikama različitih veličina kako bismo osigurali da su rezultati robusni, nismo uspjeli identificirati odgovarajuće skupove podataka iz različitih centara, što je ograničilo našu procjenu generalizacije modela.Iako su slike dobijene samo iz jednog centra, one su dobijene od pacijenata različite etničke i rasne pripadnosti, što je jedinstvena snaga naše studije.Uključujući raznolikost u naš proces obuke, nadamo se da će naši rezultati biti generalizirani u širem smislu i da ćemo izbjeći kodiranje rasne pristranosti u modelima koje treniramo.
Naša studija pokazuje da neuronske mreže koje preskaču vezu mogu biti obučene da postignu visoke performanse u određivanju OCTA kvaliteta slike.Ove modele pružamo kao alate za dalja istraživanja.Budući da različite metrike mogu imati različite zahtjeve za kvalitetom slike, individualni model kontrole kvaliteta može se razviti za svaku metriku koristeći strukturu uspostavljenu ovdje.
Buduća istraživanja bi trebala uključivati ​​slike različitih veličina sa različitih dubina i različitih OCTA mašina kako bi se dobio proces procjene kvaliteta slike dubokog učenja koji se može generalizirati na OCTA platforme i protokole za snimanje.Trenutna istraživanja su također zasnovana na nadgledanim pristupima dubokog učenja koji zahtijevaju ljudsku evaluaciju i procjenu slike, što može biti radno intenzivno i dugotrajno za velike skupove podataka.Ostaje da se vidi da li metode dubokog učenja bez nadzora mogu adekvatno razlikovati slike niske kvalitete i slike visokog kvaliteta.
Kako OCTA tehnologija nastavlja da se razvija, a brzine skeniranja rastu, učestalost artefakata slike i slika lošeg kvaliteta može se smanjiti.Poboljšanja u softveru, kao što je nedavno uvedena funkcija uklanjanja artefakata projekcije, također mogu ublažiti ova ograničenja.Međutim, ostaju mnogi problemi jer snimanje pacijenata sa lošom fiksacijom ili značajnom zamućenošću medija uvijek rezultira artefaktima slike.Kako se OCTA sve više koristi u kliničkim ispitivanjima, potrebno je pažljivo razmatranje kako bi se uspostavile jasne smjernice za prihvatljive nivoe artefakata slike za analizu slike.Primena metoda dubokog učenja na OCTA slike obećava mnogo i potrebna su dalja istraživanja u ovoj oblasti kako bi se razvio robustan pristup kontroli kvaliteta slike.
Kod koji se koristi u trenutnom istraživanju dostupan je u octa-qc spremištu, https://github.com/rahuldhodapkar/octa-qc.Skupovi podataka generisani i/ili analizirani tokom tekuće studije dostupni su od odgovarajućih autora na razuman zahtjev.
Spaide, RF, Fujimoto, JG & Waheed, NK Artefakti slike u angiografiji optičke koherencije.Retina 35, 2163–2180 (2015).
Fenner, BJ et al.Identifikacija karakteristika snimanja koje određuju kvalitet i reproduktivnost mjerenja gustoće retinalnog kapilarnog pleksusa u OCT angiografiji.BR.J. Ophthalmol.102, 509–514 (2018).
Lauerman, JL et al.Utjecaj tehnologije praćenja očiju na kvalitet slike OCT angiografije kod starosne makularne degeneracije.Grave arch.klinički.Exp.oftalmologija.255, 1535–1542 (2017).
Babyuch AS et al.OCTA mjerenja gustine kapilarne perfuzije koriste se za otkrivanje i procjenu makularne ishemije.oftalmološka hirurgija.Lasersko snimanje mrežnice 51, S30–S36 (2020).
He, K., Zhang, X., Ren, S. i Sun, J. Duboko rezidualno učenje za prepoznavanje slika.2016. na IEEE konferenciji o kompjuterskom vidu i prepoznavanju uzoraka (2016).
Lauerman, JL et al.Automatska procjena kvaliteta OCT angiografske slike korištenjem algoritama dubokog učenja.Grave arch.klinički.Exp.oftalmologija.257, 1641–1648 (2019).
Lauermann, J. et al.Prevalencija grešaka segmentacije i artefakata pokreta u OCT angiografiji zavisi od bolesti mrežnjače.Grave arch.klinički.Exp.oftalmologija.256, 1807–1816 (2018).
Pask, Adam et al.Pytorch: Imperativna biblioteka za duboko učenje visokih performansi.Napredna obrada neuronskih informacija.sistem.32, 8026–8037 (2019).
Deng, J. et al.ImageNet: Velika hijerarhijska baza podataka slika.2009 IEEE konferencija o kompjuterskom vidu i prepoznavanju uzoraka.248–255.(2009).
Krizhevsky A., Sutzkever I. i Hinton GE Imagenet klasifikacija korištenjem dubokih konvolucijskih neuronskih mreža.Napredna obrada neuronskih informacija.sistem.25, 1 (2012).


Vrijeme objave: 30.05.2023
  • wechat
  • wechat