A partire dagli anni '70, con la diffusione delle prime macchine per tomografia assiale computerizzata, si è assistito ad un'evoluzione sempre piú veloce delle modalitá con cui si acquisiscono, si conservano e si analizzano le immagini che servono come base per la diagnosi medica.
La differenza sostanziale che si è avuta è stato il passaggio da informazioni analogiche, statiche ed inerentemente bidimensionali come quelle date dalla normali immagini radiografiche (raggi X), ad informazioni numeriche, eventualmente dinamiche e, perlopiú, contenenti informazioni tridimensionali. L'elemento determinante che ha permesso questa evoluzione è stata la transizione da sistemi basati su pellicola, come gli apparecchi radiografici, a sistemi basati su computer.
La conseguenza di questo sviluppo è stata la necessitá di generare degli algoritmi e delle metodologie di interpretazione dei dati acquisiti che simulino al meglio la conoscenza del radiologo, che resta, a tutt'oggi, di gran lunga il piú efficiente sistema di elaborazione dei dati medicali conosciuto.
Di conseguenza si tratta di realizzare, in un sistema computerizzato, le stesse operazioni che un radiologo opera sui dati a sua disposizione: eliminazione del rumore (cioè evitare di prendere in considerazione gli artifici introdotti dal macchinario di acquisizione), identificazione dei diversi tessuti e/o aree di interesse (confrontando regioni tra loro limitrofe e sfruttando informazioni morfologiche ed anatomiche) e ricostruzione della situazione reale tridimensionale a partire da molteplici dati bidimensionali. Queste operazioni, in effetti, sono spesso compiute dal radiologo in collaborazione con lo specialista della patologia studiata (il neurochirurgo, l'oncologo, il chirurgo plastico etc.).
Il sistema, dunque, deve riprodurre queste caratteristiche di analisi e sintesi cercando di automatizzare il piú possibile la procedura. Purtroppo siamo ancora molto lontani da una situazione ideale in cui si possano ottenere dei risultati affidandosi solamente alle capacitá deduttive del computer, ma si puó comunque affermare di poter compiere (a livello di ricerca, se non di routine ospedaliera) diagnosi assistite da calcolatore.
Nel seguito descriveremo brevemente alcuni tra i macchinari di acquisizione di dati medicali oggi utilizzati soffermandoci brevemente sulle loro caratteristiche tecniche.
Vedremo poi come si possa ricorrere all'ausilio del computer per l'interpretazione dei dati cos acquisiti nelle due fasi di classificazione dei dati e di ricostruzione delle informazioni tridimensionali.
Cercheremo anche di dare una panoramica delle presenti e future applicazioni pratiche di questi metodi in ambiente ospedaliero.
I tomografi CT sono le apparecchiature digitali più utilizzate nella diagnostica per immagini, sono relativamente poco costosi e la maggior parte degli ospedali ne sono dotati. L'output di un tomografo CT è una serie di matrici transassiali ( slice) allineate perpendicolarmente all'asse definito dalla spina dorsale del paziente. Ogni slice rappresenta una fetta del corpo del paziente di un determinato spessore (tipicamente 1-10 mm).
Schematicamente, l'acquisizione avviene facendo ruotare una serie di emettitori di raggi X e una serie di rilevatori, tra loro solidali, attorno al corpo del paziente (vedi Fig. ).
Per la maggior parte dei tomografi la risoluzione ottenibile per ciascuna matrice varia da 64x64 a 512x512 pixel. La dimensione di ciascun pixel può variare nell'intervallo 0.5-2 mm ed è omogenea nel piano transassiale. Il numero di slice varia in funzione della distanza tra le sezioni e dell'estensione dell'organo da esaminare.
Ciascun pixel idealmente rappresenta le caratteristiche di assorbimento di un piccolo volume del corpo umano individuato dai limiti fisici del pixel stesso. Al momento la CT è l'unica tecnica per cui si è definita una unitá di misura standard (nota come Hounsfield Unit o HU) che ha come riferimento l'acqua (0 HU) e vale, ad esempio -1000 per l'aria e sopra 200 HU per le ossa.
I moderni tomografi riescono ad acquisire una slice in 1-5 secondi. L'intero processo di acquisizione richiede, in media, 30-40 slice, con un tempo che va dai 5 ai 15 minuti e la dose di radiazioni da CT è comparabile con quella di una serie di tradizionali lastre a raggi X.
Sebbene ricostruzioni 3D possono essere generate da qualsiasi serie di slice, la fedeltà dell'immagine finale è dipendente dall'integrità dei dati campionati. Occorre quindi analizzare con cura gli effetti generati sulla qualità dell'immagine finale dai parametri dipendenti dal dispositivo di acquisizione, quali ad esempio la profondità di una slice e la distanza di interscansione. Da tenere presente che seppur tecnicamente si possano ottenere scansioni ad alta risoluzione e di conseguenza ottime immagini, questo per il paziente significa subire più alte dosi di radiazioni e un maggior tempo di attesa all'interno del dispositivo (e quindi maggiori possibilità che il paziente stesso si muova tra una scansione e l'altra con evidenti effetti di distorsione).
L'ultima generazione di tomografi sono i cosiddetti tomografi a spirale (Spiral CT o S-CT) che acquisiscono le immagini muovendo il dispositivo emettitore lungo una traiettoria continua a spirale intorno al corpo del paziente anzichè scandendo per slice (vedi Fig. ). Questa tecnica permette una riduzione sostanziale del tempo di acquisizione sino a poche decine di secondi e la rendono ideale per effettuare diagnosi di organi che si muovono durante la respirazione.
La Risonanza Magnetica Nucleare è, come tecnologia, molto più recente rispetto alla CT ed è tuttora in piena evoluzione. Essa offre caratteristiche uniche rispetto a tutte le altre tecniche di acquisizione in Medical Imaging.
In una MRI il paziente viene posto all'interno di un campo magnetico ad alta intensità che fa sì che i momenti magnetici delle molecole del paziente si allineino alla direzione del campo esterno. Il paziente viene poi irradiato con una serie di impulsi di microonde (a basso livello di radiazione) chiamati impulsi di eccitazione che generano una oscillazione dei momenti magnetici delle molecole precedentemente allineati; in questo modo le molecole cominciano a loro volta a riemettere microonde dopo ogni impulso. Le riemissioni vengono misurate dal tomografo che è in grado di stabilire la localizzazione spaziale delle sorgenti delle microonde riemesse. Il tempo necessario ad ottenere una scansione completa è di circa 5-10 minuti.
I dati così ricavati rappresentano varie caratteristiche della emissione molecolare. Modificando alcuni parametri di controllo del dispositivo quali, ad esempio, la frequenza, il tempo di emissione dell'impulso eccitante, il tempo di ritardo passato per ottenere l'impulso in ritorno, è possibile individuare particolari tipi di molecole, movimenti delle molecole stesse (sangue che fluisce nei vasi) e varie altre caratteristiche.
L'output di un tomografo MRI risulta simile a quello delle CT salvo che le slice rappresentanti fette dell'oggetto sottoposto a scansione possono essere ottenute o su piani transassiali (esattamente come nelle CT) o su piani orientati in qualsiasi modo nello spazio (cosa non possibile per le CT attuali).
Le tecniche ecografiche utilizzano onde acustiche (ultrasuoni) per ricostruire immagini dell'interno di un corpo. Un fascio di onde acustiche ad alta frequenza è diretto all'interno del corpo, le onde riflesse dai diversi tessuti sono poi captate da un trasduttore posto sulla superficie del corpo e trasformate in immagini.
I vantaggi della visualizzazione tramite ultrasuoni sono il costo molto limitato dell'apparecchiatura, se paragonato agli altri macchinari, la possibilitá di ottenere immagini in tempo reale senza particolari problemi di preparazione del paziente.
Benché largamente usata (ad esempio in diagnosi prenatale) per la sua intrinseca innocuitá, questa tecnica pone grossi grossi problemi di ricostruzione per il tipo di immagini, altamente disturbate e distorte, che produce. Nella maggior parte dei casi, inoltre, sono immagini analogiche.
Quando si parla di medicina nucleare ci si riferisce a tecniche in cui una sostanza radioopaca viene immessa nel corpo del paziente da esaminare permettendo cos di rilevare il livello di radiazioni da essa emesso all'interno del corpo. La maggiore differenza rispetto alla CT è data dalla posizione della sorgente radioattiva: in una CT è esterna al paziente e posta in posizione nota, in medicina nucleare è interna al paziente ed in posizione a priori sconosciuta.
L'uso di centinaia di diverse sostanze radioattive permette un'ampia flessibilitá di utilizzo per rilevare fenomeni metabolici tra i piú diversi (si puó ad esempio tracciare il metabolismo di sostanze quali il glucosio, od osservare il circolo sanguigno marcando l'emoglobina).
I due piú comuni tipi di macchinari sono la SPECT (Single Photon Emission Computed Tomography) e la PET (Positron Emission Tomography) che utilizzano, rispettivamente, traccianti che emettono fotoni decadendo e traccianti che emettono coppie positroni-elettroni.
Questo tipo di immagini sono caratterizzate da un accettabile livello di rumore ma da una comprensibilitá meno immediata in quanto evidenziano fenomeni metabolici piuttosto che dati anatomici.
Tecniche che sono al confine tra medicina nucleare e radiologia sono tutte quelle che adoperano materiali radioopachi durante acquisizioni effettuate con CT. In questo caso il materiale iniettato non è fonte di emissione di radiazioni ma serve ad aumentare il contrasto tra certi tessuti (ad esempio tumori) e quelli che li circondano.
Lo scopo della visualizzazione è, infatti, quello di rendere interpretabili nel miglior modo possibili i dati acquisiti dai macchinari descritti in precedenza.
È ovvio che si possono avere molteplici livelli di restituzione a seconda delle caratteristiche che si vogliono esaminare e dei mezzi che si hanno a disposizione (hardware e software).
Il metodo piú diffuso di analisi dei dati consiste nel prendere in considerazione le varie slice bidimensionali ottenute ed analizzarle come se fossero radiografie. Risultati migliori si possono ottenere ricostruendo viste tridimensionali dei dati, interagendo con il modello, eventualmente ricorrendo alla visione stereoscopica o generando animazioni . Una comprensione ancora piú approfondita si puó avere ricorrendo a tecniche ancor piú sofisticate come la simulazione di operazioni complesse sui dati o la visione ad immersione completa (realtá virtuale).
La prima fase di trattamento delle immagini consiste, come generalmente avviene in caso di post-processing di immagini digitali, nella eliminazione, per quanto possibile, dalle immagini del rumore introdotto dai macchinari di acquisizione. Nel caso di immagini medicali si ha un ulteriore problema dato che il soggetto che viene analizzato è un organismo vivente e quindi, durante il periodo di acquisizione (che, ricordiamo, puó durare alcuni minuti), pur con tutti gli accorgimenti adottati per assicurare l'immobilitá, modifica la sua ``forma''. Questo, ad esempio, è uno dei motivi per cui la maggior parte delle ricerche condotte sino ad oggi in questo campo si sono concentrate sul fornire ausilio alla chirurgia ortopedica o alla neurochirurgia; quando si tratta infatti di effettuare analisi su ossa o sul cranio e sul suo contenuto si hanno disturbi scarsi o nulli dovuti al movimento del paziente.
Come abbiamo giá accennato una soluzione a questi problemi puó venire dalla velocizzazione dei macchinari di acquisizione. La riduzione a pochi secondi del tempo di scansione potrebbe infatti consentire di acquisire un intero volume di dati mentre il paziente trattiene il respiro (come avviene usualmente per una radiografia).
Una volta che l'insieme di dati è stato ripulito, riallineato e quindi le varie slice sono state piú o meno ``omogeneizzate'' tra di loro si passa alla seconda fase del processo che comporta ancora l'applicazione di tecniche di elaborazione dell'immagine: la classificazione dell'immagine.
Per classificazione si intende la suddivisione dell'immagine in regioni tra di loro omogenee, secondo parametri che sono stabiliti da chi la esegue. Per fare un esempio che renda l'idea del procedimento, si immagini di avere una fetta bidimensionale di un cranio, all'interno dell'immagine si possono riconoscere, in una situazione non patologica, una serie di tessuti che variano dalla pelle, alle ossa, al grasso, alla materia grigia ed alla materia bianca, per non parlare di tessuti che sono piú difficilmente classificabili, come i vasi sanguigni ed il tessuto connettivo, perché presenti in agglomerati di dimensioni molto piccole.
Il procedimento di segmentazione è la prima fase della classificazione e consiste nel suddividere l'immagine in una serie di regioni primitive tra loro topologicamente connesse, la fase successiva consiste nel catalogare ogni singola regione ed accorpare tra di loro quelle che corrispondono allo stesso tessuto. In Fig. si puó vedere l'immagine originale ottenuta da CT, la stessa immagine dopo che è stata segmentata dando origine a 32 regioni primitive e l'immagine classificata dove le regioni sono ridotte a 3: aria, osso ed altri tessuti.
Il procedimento di segmentazione è molto importante per almeno due motivi. In primo luogo, permettendo di individuare regioni omogenee, consente di effettuare con estrema facilitá delle misurazioni morfometriche altrimenti estremamente complesse; si pensi, ad esempio, alla possibilitá di calcolare, con ragionevole precisione, il volume di una massa tumorale a partire da dati tridimensionali ed a quanto ció possa essere di ausilio alla pianificazione della terapia radiante o di un intervento chirurgico. In secondo luogo consente di classificare i dati a disposizione in maniera tale che siano piú facilmente utilizzabili nel seguito.
Allo stato dell'arte esistono molteplici metodi che consentono di ottenere i risultati mostrati. Si possono suddividere in metodi semi-automatici (talvolta completamente manuali) ed automatici. Quelli piú utilizzati sono i semi-automatici che consentono di individuare contorni, valori di soglia o di assegnare valori ai singoli pixel interattivamente. Essi sono preferiti perché molto sicuri (è difficile per un programma fare errori se si richiede di colorare un pixel selezionato) e semplici da comprendere ed utilizzare.
I metodi automatici sono ancora estremamente fragili, i risultati ottenuti sono difficilemente utilizzati per il lavoro di routine ma si sta tuttavia arrivando ad ottenere dei risultati soddisfacenti utilizzando dei criteri di segmentazione sia deterministici che statistici, che comunque, di solito, si basano su modelli precostruiti per il riconoscimento di regioni di interesse. È interessante notare che alcuni metodi che si vanno affermando utilizzano dei risultati elaborati nel campo della visione computerizzata per cercare di simulare il comportamento dell'occhio umano di fronte a certe immagini.
Una volta filtrati e classificati i dati si procede alla loro ricostruzione e visualizzazione in tre dimensioni.
Le tecniche di visualizzazione volumetrica si possono classificare come:
Utilizzano poligoni o superfici curve come rappresentazione intermedia della superficie di interesse;
Si basano sulla suddivisione del volume in cubi opachi o trasparenti, oppure di poligoni che definiscono le facce dei cubi;
Modellano l'apparenza di una gelatina semi-trasparente utilizzando le leggi dell'ottica per simulare l'andamento dei raggi di luce all'interno del volume.
Una accurata analisi delle tecniche per la visualizzazione di dati volumetrici va al di là dei nostri scopi per cui ci limiteremo ad illustrare le tecniche più interessanti in ambito medicale.
Quest'insieme di tecniche è caratterizzato dalla applicazione di metodi per l'estrazione di una superficie dall'insieme di dati tridimensionale, e per la trasformazione di tale superficie in primitive geometriche da restituire, poi, graficamente.
La prima di queste tecniche ad essere stata applicata è stata la ricostruzione di isosuperfici a partire da isolinee in un insieme di piani paralleli. Si tratta poi di costruire delle griglie di poligoni che congiungano isolinee di piani presi a due a due in maniera tale da formare una superficie connessa.
Un'evoluzione importante si è avuta con l'introduzione della tecnica nota come marching cubes che consiste nel traversare il dataset non come insieme di fette ma come insieme di cubi elementari, per poi individuare, all'interno di ciascun cubo, la porzione della iso-superficie desiderata che lo attraversa (se esiste). Questa tecnica risolve molte delle ambiguità insite nel metodo precedente ed è quella oggi più diffusamente impiegata nella ricostruzione di iso-supefici (vedi Fig. per un esempio).
Il vantaggio principale di questo tipo di tecniche è rappresentato dalla possibilità che danno di sfruttare a pieno le risorse hardware delle workstation grafiche, che sono progettate per visualizzare in maniera estremamente efficiente delle primitive geometriche quali punti, linee, poligoni, etc. Si pensi, ad esempio, che attualmente le capacitá di una workstation grafica raggiungono all'incirca un milione di poligoni ``flat shaded'' e centomila poligoni ``Gouraud shaded'' al secondo. Inoltre, per volumi di dati di dimensione medio-grande, permettono un'interazione molto elevata con il modello geometrico.
Ovviamente esse risentono delle limitazioni insite nella necessità di dover interpolare dati da un grigliato discreto, risultando talvolta inefficienti in presenza di insiemi di dati contenenti un alto livello di rumore numerico o con campionamento non adeguato.
Queste tecniche (comunemente note con il nome di cuberille) consistono nella classificazione del dataset in maniera binaria, ovvero nella suddivisione dei voxel in quelli che contengono una porzione della materia che interessa e quelli che non la contengono.
La tecnica cuberille vera e propria, genera un insieme di cubi (delle dimensioni del voxel) opachi per ognuno dei voxel classificato pieno. Tali cubetti vengono poi resi dal più distante al più vicino all'osservatore in maniera da eliminare automaticamente le superfici nascoste.
Un'evoluzione della tecnica, che permette un notevole aumento della velocità di esecuzione, parte dal principio inverso di lanciare un raggio per ogni pixel e fermarsi non appena si trova un cubo opaco. In questo caso si può anche ottenere un miglioramento della qualità della scena finale analizzando in ogni voxel il gradiente del campo.
Pur essendo relativamente facili da implementare, queste tecniche risentono, come nel caso di estrazione di iso-superfici, della difficoltà di campionare esattamente in maniera binaria il dataset volumetrico.
In letteratura con il termine Direct Volume Rendering viene individuata una famiglia di metodi per visualizzare in modo diretto campi scalari tridimensionali ( data set).
Dal punto di vista generale queste tecniche generano le immagini finali associando a ciascun voxel un colore ed una opacità parziale e successivamente miscelando ( blending) assieme i vari contributi, di colore ed opacità appunto, resi dai voxel proiettati sullo stesso pixel del piano immagine. Queste proiezioni possono essere eseguite sia in image-order (raycasting) che in object-order (splatting).
Il modello fisico su cui si basano le tecniche Direct Volume Rendering è quello di una gelatina colorata semi-trasparente che mantiene in sospensione delle particelle riflettive allineate in modo tale da dare l'apparenza delle superfici racchiuse.
Drebin fu uno dei primi ad utilizzare questo tipo di metodo per visualizzare dati volumetrici medicali. La tecnica proposta consiste nello stimare la frazione di occupazione in un voxel per ciascun materiale che dovrebbe essere presente all'interno del voxel stesso. Da queste informazioni è possibile calcolare un colore ed una opacità parziale per ciascun voxel, trasformando geometricamente ciascuna slice di valori dallo spazio oggetto allo spazio immagine proiettandolo sul piano immagine e miscelando assieme con le porzioni formate dalle precedenti slice.
Altre interessanti tecniche sono state proposte da Westover, Upson e Keeler, Levoy, Sabella. Un dato comune le caratterizza: tutte eseguono l'operazione di blending (cioè la miscelazione dei colori) utilizzando l'algebra per la composizione delle immagini proposta da Porter e Duff producendo globalmente delle immagini simili.
Il Semi-Transparent Volume Rendering offre il vantaggio, rispetto alle tecniche Surface-Based e Binary Voxel, di non indurre una classificazione binaria sui dati; questo permette di visualizzare caratteristiche piccole o non molto definite. Il principale problema di queste tecniche è l'alto costo computazionale che le rende al momento impraticabili per la visualizzazione interattiva.
La fase finale del processo di trattamento dei dati consiste nella loro effettiva presentazione all'utente.
Per far questo si deve tener presente di quali siano le risorse che l'utente ha a disposizione per ``vedere'' i dati. Se possiede solo una workstation con limitate risorse di hardware grafico probabilmente si limiterá a visualizzare immagini bidimensionali, eventualmente istantanee di una scena tridimensionale. Se é dotato di risorse grafiche piú potenti potrá cercare di avere una sessione interattiva con il modello tridimensionale, generato da un programma di estrazione di iso-superfici, che gli permetta di cambiare il punto di vista, le dimensioni dell'oggetto ed eventualmente operare delle operazioni di selezione, tagliando e modificando l'apparenza. Se invece non ha a disposizione hardware grafico potente, ma comunque risorse di calcolo adeguate (magari collegandosi in rete con supercalcolatori remoti), sará piú facile ottenere dei buoni risultati usando delle tecniche di visualizzazione diretta.
Risultati ancora piú significativi si possono avere se si hanno a disposizione dei dispositivi specializzati, come ad esempio degli occhiali a cristalli liquidi che permettono di avere una visione stereoscopica della scena tridimensionale. Ancora piú sofisticati possono essere dei dispositivi (come l' Head Mounted Display o il BOOM) che permettono di ``immergersi'' nei dati ottenendo l'effetto noto come ``realtá virtuale''.
La visualizzazione tridimensionale di dati medicali sta assumendo sempre maggiore rilievo nella visualizzazione scientifica. Ció è dovuto, principalmente, al sempre miglior rapporto prezzo/prestazioni offerto dai calcolatori, le cui prestazioni rendono praticabili soluzioni solo sino a pochi anni fa improponibili.
Sebbene i dispositivi per la diagnostica per immagini (CT, MRI, PET, SPECT) siano dotati a bordo di un computer, il suo utilizzo per le costose procedure di Medical Imaging non è conveniente, in quanto, di norma, tali calcolatori sono tecnologicamente indietro rispetto allo stato dell'arte e le loro potenzialitá sono assorbite dalla fase di ricostruzione bidimensionale delle immagini (che richiede il calcolo di un numero elevato di operazioni metematiche). Ha senso quindi l'utilizzo di un sistema separato (stand-alone) dal dispositivo di acquisizione che consenta maggiore libertá nella sperimentazione di nuove tecniche di lavoro e procedure di analisi di dati medicali.
La ricerca che stiamo conducendo al CRS4, in particolare in collaborazione con gli ospedali Niguarda di Milano e Cisanello di Pisa, si colloca in questo contesto e riguarda lo sviluppo di specifiche funzionalitá per la diagnostica per immagini.
Vediamo alcuni esempi concreti del tipo di attivitá che svolgiamo.
Il primo riguarda la visualizzazione contemporanea di differenti strutture anatomiche, (ossa, tessuti molli, pelle) da dati CT. Questo tipo di ricostruzione tridimensionale, basato su tecniche di visualizzazione volumetrica diretta (raycast), permette al medico di identificare spazialmente la frattura dell'osso (dello zigomo in questo caso) in relazione ai tessuti che la circondano (occhio, pelle) fornendo cos un prezioso strumento di supporto nella formulazione della diagnosi ed eventualmente nella pianificazione dell'intervento chirurgico. Il medico tramite questo strumento puó identificare le strutture da visualizzare (osso, pelle), caratterizzate da ben determinati valori di assorbimento ai raggi X, ed assegnare ad esse delle caratteristiche di trasparenza (opacitá) per poi visualizzarle tridimensionalmente; il tutto con un tempo di attesa intorno ai 3-5 secondi (per un dataset 256x256x40, ossia 40 slice a risoluzione 256x256). L'animazione della sequenza di immagini cos prodotta aiuta il medico ad individuare in modo migliore la localizzazione spaziale della frattura. In Fig. vediamo una serie di fotogrammi estratti da una animazione da noi realizzata.
Ancor piú complessa è la situazione che si presenta quando i dati sono acquisiti nella cavitá addominale, in cui non si ha la rigiditá del sistema di riferimento insita in dati di tipo neuro-radiologico (come il cranio) e si utilizzano dati da MRI anziché da CT. In questo caso, che stiamo iniziando adesso ad affrontare, diventa fondamentale avere un'elevata interazione con lo specialista della materia (il radiologo) in maniera tale che, selezionando opportunamente i parametri del MRI si minimizzi il disallineamento tra le slice dovuto al movimento indotto dalla respirazione del paziente. Nell'esempio che mostriamo in Fig. si sta cercando di misurare il volume di un tumore al fegato. In questo caso si è proceduto all'identificazione del tessuto tumorale con due diversi algoritmi: il primo si basa sull'individuazione, da parte dell'utente, di un contorno approssimativo della regione e poi espande o contrae tale contorno usando i dati locali a disposizione (da qui il nome di active contours); il secondo esegue una segmentazione completa dell'immagine. I tempi di calcolo sono paragonabili, nell'ordine di 10-20 secondi per entrambi.
Vediamo quali possono essere alcuni possibili scenari di applicazioni della visualizzazione medica nella pratica ospedaliera, relativi a simulazione di interventi chirurgici.
Premettiamo che si tratta di fanta-medicina, se ci è concesso questo termine, nel senso che probabilmente in nessun ospedale vengono compiuti questo tipo di interventi. È peraltro vero che le tecniche simulative e di visualizzazione illustrate sono teoricamente e scientificamente possibili giá oggi.
Esistono infatti societá statunitensi che hanno messo in commercio delle workstation per cyber-surgery, dove i chirurghi possono fare addestramento di chirurgia laparoscopica usando reali strumenti chirurgici che danno un feed-back come se incidessero il tessuto, mentre guardano su uno schermo ad alta risoluzione ció che stanno facendo simulato su di un modello tridimensionale dell'organo interessato.
Si deve simulare un intervento per l'asportazione di un tumore al cervelletto.
Il neurochirurgo, una volta effettuata un'analisi CT del cranio del paziente da operare, pianifica l'intervento sul modello tridimensionale ricostruito. La camera ( viewpoint) del sistema di visualizzazione è virtualmente piazzata nel punto da cui il chirurgo vedrá la scena operatoria.
Il sistema fornisce una serie di strumenti che simulano il comportamento degli strumenti chirurgici che saranno utilizzati nel corso dell'operazione: frese, scalpelli, bisturi, divaricatori etc. Ogni volta che uno di tali strumenti interagisce con il volume di dati, il modello viene aggiornato per tenere conto dell'operazione effettuata, quindi, ad esempio, quando la fresa fora il cranio viene eliminata la porzione di osso che è stata asportata.
Indicatori di pericolo sono attivati se il chirurgo si avvicina a dei distretti delicati (ad es.: grossi vasi) consentendo di ritornare al passo precedente.
Nel frattempo in un'altra finestra viene mostrata la situazione aggiornata dell'intervento vista dall'esterno con il tumore opaco ed il resto del cranio semitrasparente. Gli strumenti operatori si muovono all'interno del cranio in risposta ai movimenti del chirurgo e quindi gli indicano dove si trova nel sistema di coordinate globali.
Una volta conclusa una simulazione di operazione si stila il bilancio dei tessuti danneggiati e delle possibili conseguenze sulla situazione generale del paziente. Ad esempio, se è stato toccato il centro della parola, le probabilitá che il paziente abbia dei disturbi al linguaggio.
Se il chirurgo non è soddisfatto dei risultati effettua un nuovo intervento simulato cercando di minimizzare i danni.
Si deve simulare un intervento per la ricomposizione di una frattura cranica in cui si è avuto distruzione di parte del materiale osseo interessato.
Dai dati con CT si ricostruisce un modello tridimensionale che viene anche stereolitografato (la stereolitografia è la tecnica che permette di generare un oggetto solido da un modello numerico mediante solidificazione di un bagno di polimeri). Il chirurgo ortopedico compie dei calcoli sul modello per determinare dove sia opportuno piazzare delle placche metalliche per riassemblare i pezzi di osso. Per far ciò sfrutta la possibilitá di manipolare le singole parti di osso separatamente e di muoverle e riorientarle nello spazio sino a farle combaciare.
Una volta modificato il dataset iniziale con le operazione geometriche sulle ossa e l'inserimento delle placche, decide se si debba ricorrere ad inserti di materiale sintetico o di osso per riempire i vuoti eventualmente lasciati dal materiale distruttosi nel trauma e calcola il volume e la superficie di tali inserti.
La simulazione finale viene eventualmente effettuata sul modello stereolitografato utilizzando gli strumenti operatori reali e verficando il risultato finale.
Si deve simulare l'intervento di asportazione di un tumore al fegato.
A partire da dati CT e MRI si ricostruisce il modello tridimensionale del fegato mettendo in evidenza i circoli arterioso, venoso e biliare.
A seconda dell'estensione del tumore e della sua localizzazione all'interno della massa epatica il chirurgo decide il tipo di resezione da effettuare, basandosi sulle tecniche standard di resezione che sono implementate all'interno del programma di simulazione e che forniscono una serie di alternative al chirurgo tra le quali poter scegliere.
Il sistema calcola, sulla base delle scelte effettuate, le condizioni in cui il fegato si troverá a funzionare e fornisce delle previsioni di massima sul livello di funzionalitá residuo.
È stato deciso di sottoporre un paziente affetto da tumore cerebrale a terapia radiante.
Attraverso programmi di simulazione del trattamento si calcola l'isodose (la quantitá di materiale radioattivo da utilizzare e la lunghezza dell'esposizione). In particolare utilizzando tecnica di inverse scattering si minimizza l'esposizione alla sostanza e la possibilitá che si vadano ad interessare tessuti sani e delicati che circondano il tumore.
La situzione viene visualizzata mostrando, sul modello tridimensionale del cranio del paziente, la posizione dell'emettitore di radiazioni, il cono di apertura del fascio e mettendo in evidenza i tessuti interessati dal passaggio del fascio e da eventuali sue riflessioni.