Metodi multimodali per il miglioramento della risoluzione di immagini SPECT
Autore
Daniele Brunengo - Università degli studi di Genova - [1994-95]
Documenti
  • Preview
  • Indice
  • Bibliografia
  • Tesi completa: 139 pagine
  • Abstract
    La SPECT (single photon emission computerized tomography, ovvero tomografia computerizzata con emissione di fotoni singoli) è una tecnica di tomografia diagnostica che si basa sull'introduzione nel corpo del paziente di un tracciante radioattivo, ad esempio tramite iniezione o inalazione. A seconda del tipo di tracciante si possono analizzare zone del corpo e patologie diverse: l'esame consiste in sostanza nel conteggio dei fotoni emessi dal tracciante una volta che questo ha raggiunto la parte anatomica di interesse. Conoscendo il numero dei fotoni provenienti da una serie di direzioni diverse si può risalire, tramite un algoritmo di FBP (filtered back-projection), alla concentrazione dell'agente chimico nel sangue o nei tessuti: la distribuzione spaziale di concentrazione può essere visualizzata sullo schermo di un calcolatore tramite un'acquisizione digitale. Il numero delle direzioni disponibili per i conteggi dipende dal diametro dei collimatori utilizzati per individuare i fasci di fotoni.
    È importante sottolineare che nella SPECT i fotoni vengono emessi singolarmente e non a coppie come avviene invece nella tecnica PET (positron emission tomography, ovvero tomografia con emissione di positroni): quest'ultima è basata sulla emissione di positroni che, annichilandosi con elettroni, danno due fotoni in direzioni uguali ed opposte. Questa differenza si traduce in diverse tecniche di acquisizione e diversi traccianti usati.
    Nel seguito ci si riferirà alle immagini in esame come a immagini ASPECT e non SPECT: ASPECT è infatti il nome della macchina utilizzata per le misure di questa tesi. La A iniziale indica la particolare geometria ad anello della macchina.
    L'ASPECT ha essenzialmente lo scopo di fornire immagini del cervello di interesse clinico, che permettano di individuare tumori o altre patologie La macchina ha un sistema di acquisizione completamente digitale che permette di tener conto a priori di errori dovuti alla calibrazione e a vari altri fattori. Le immagini hanno comunque un aspetto piuttosto sfocato a causa della larga risposta all'impulso, detta anche PSF, della macchina: l'immagine finale è infatti il risultato della convoluzione tra quella ''reale'' e la PSF, come avviene per tutti gli apparati sperimentali. Per avvicinarsi il più possibile alla funzione di partenza questo processo va invertito, bisogna cioè ricorrere ad una deconvoluzione. È importante sottolineare che la larghezza della PSF varia a seconda del tracciante adoperato per la misura. Inoltre nel caso del tecnezio è possibile tenere conto a priori dei fotoni scatterati, mentre per lo xenon l'unico modo per tenerne conto è implementare una deconvoluzione. Questo spiega la presenza preponderante in questa tesi di immagini riguardanti esami effettuati con lo xenon o simulazioni degli stessi.
    Il problema della deconvoluzione di un'immagine discretizzata è quasi sempre un problema inverso mal condizionato o numericamente instabile: ciò significa in sostanza che non si può invertire la convoluzione in maniera diretta, perché questo porterebbe ad amplificare enormemente l'errore presente sull'immagine sperimentale.
    La deconvoluzione va allora implementata via software utilizzando metodi particolari, detti regolarizzanti proprio per il loro effetto di regolarizzazione dell'instabilità numerica: si tratta in sostanza di vari filtri in frequenza che tendono a tagliare le alte frequenze, dominate dal rumore. Il terzo capitolo affronta la teoria matematica su cui si fondano questi metodi: essi sono basati su algoritmi differenti tra loro e possono anche partire da premesse del tutto diverse.
    Esistono ad esempio metodi deterministici ed altri probabilistici, metodi iterativi ed altri non iterativi. Ognuno di essi offre inoltre possibilità diverse: i metodi iterativi deterministici permettono di imporre dei vincoli all'immagine ricostruita ad ogni passo, mentre i metodi probabilistici tengono conto del tipo di rumore con cui si ha a che fare.
    Nel quarto capitolo vengono presentate 4 simulazioni che utilizzano come punto di partenza immagini ricavate da uno stesso fantoccio del cervello. Una volta convolute le 4 immagini con una stessa PSF reale e sommato al risultato del rumore gaussiano scorrelato, si ottengono nuove immagini a cui applicare i vari metodi per verificare quantitativamente quali diano i risultati migliori, ossia quali riportino più vicino alla funzione originale.
    Questa tesi è correlata alla categoria


    Skype Me™! Tesionline Srl P.IVA 01096380116   |   Pubblicità   |   Privacy

    .:: segnala questa pagina ::.
    | Scrivici | | Ricerca tesi | | Come pubblicare | | FAQ | | Cinema | | Biografie |
    | Registrati | | Elenco tesi | | Borse di studio | | Personaggi | | Economia | | Libri usati |
    | Parole chiave | | La tesi del giorno | | Cronologia | | Formazione | | Ingegneria | | Glossario |
    | Home personale | | Ultime tesi pubblicate | | Una parola al giorno | | Database dei master | | Sociologia | | Approfondimenti |
      La redazione è a tua disposizione dalle ore 9:00 alle ore 18:30 (dal lunedì al venerdì) - tel. 039 6180216
      Pubblicità   |   Privacy