La figura mostra il campo di temperatura in un combustore per statoreattore convenzionale (ramjet) ottenuto considerando due diversi frazionamenti dell'aria e combustibile all'ingresso.
La simulazione consiste nella soluzione delle equazioni di Navier Stokes mediate nel tempo con modellistica del trasporto turbolento basata sul concetto di viscosita' turbolenta. L'interazione chimica-turbolenza e' invece modellata mediante una funzione densita' di probabilita' per la frazione di miscela nel combustore.
In alto, i profili di temperatura per un combustore simile a quello provato a MBB Gmbh per il futuro lanciatore spaziale SANGER. La stratificazione della temperatura indica che piu' del 50 % del combustibile non e' bruciato. In basso, i profili ottenuti al CRS4 con l'incremento del frazionamento di aria e combustibile all'ingresso, che produce un migliore miscelamento e quindi, oltre ad una maggiore efficienza di combustione, un profilo di temperatura in uscita mediamente piu' elevato e piu' uniforme.
Studi preliminari eseguiti al CRS4 hanno mostrato in tal caso che la riduzione di lunghezza del combustore resa possibile dal miglior miscelamento, e' in grado di produrre una diminuizione apprezzabile delle emissioni di ossido di azoto nell'atmosfera.
Quest'ultimo e' un risultato notevole se si pensa che l'ossido di azoto ha un elevato potere distruttivo della fascia di ozono dove presumibilmente voleranno i futuri spazioplani.
(Fernando Biagioli, CRS4)
Il sole, la terra e molti altri corpi presenti nell'universo presentano al loro esterno un campo magnetico. Esso e' stato osservato fin dall'antichita' ma la sua origine e' rimasta per lungo tempo ignota. Secondo le piu' recenti teorie, esso trae origine all'interno dei corpi stessi. La turbolenza presente nella zona convettiva all'interno del corpo tende ad amplificare il campo magnetico, mentre la resistenza elettrica del materiale tende a dissiparlo. Se l'effetto amplificativo supera la dissipazione, ossia se la turbolenza e' sufficientemente forte, il campo magnetico cresce fino ad un valore medio di saturazione, si ha cosi' il cosiddetto effetto dinamo. I dettagli del meccanismo restano tuttora ignoti, e solo attraverso la simulazione numerica si puo' sperare di comprenderlo al meglio.
Lo studio dell'effetto dinamo e' reso complicato dalla presenza di numerose scale di tempi e di lunghezze, che risultano dalla forte turbolenza. Una simulazione numerica che renda conto di tutte le strutture presenti, dai forti cicloni di grande scala ai piccoli mulinelli dissipativi, richiede pertanto una grandissima risoluzione.
Nella simulazione effettuata la griglia comportava un milione di punti e il calcolo dell'evoluzione temporale ha richiesto 1000 ore di tempo di calcolo del supercalcolatore CRAY-2. I risultati indicano che i moti turbolenti sono dominati da vortici ciclonici (in verde nella figura, quale campo di velocita') che si estendono su tutto lo spessore dello strato convettivo. Una parte del campo magnetico (in rosso) e' prodotta all'interno di questi vortici ed e' trascinata da essi verso l'interno della zona convettiva. Una seconda zona di produzione di campo magnetico si osserva alla base della zona convettiva, dove un'intensa vorticita' (in giallo) e una forte rotazione differenziale agitano il fluido.
(Lorenzo Valdettaro, CRS4)
La simulazione di sistemi costituiti da un gran numero di componenti elementari interagenti tra loro (la soluzione numerica del cosiddetto "problema a N-corpi") e' uno degli strumenti consolidati del calcolo scientifico, complementare a quello della simulazione tramite soluzione di grandi sistemi di equazioni differenziali alle derivate parziali (per esempio per mezzo del metodo degli elementi finiti). Nella simulazione a N-corpi, conosciuta anche come "dinamica molecolare", le proprieta' macroscopiche del sistema sono il risultato statistico della dinamica microscopica, che e' basata su principi primi, ad esempio le equazioni di Newton nel caso classico. Questo permette di simulare sistemi in condizioni non solo complesse, difficilmente modellizzabili analiticamente, ma anche costose o impossibili da realizzare in laboratorio.
La natura intrinsecamente parallela del problema a N-corpi (parallelismo massiccio guidato dai dati) lo rende una applicazione adatta a girare su calcolatori ad architettura parallela con un gran numero di nodi (Massively Parallel Processing -- MPP). Mentre la dinamica molecolare ha una lunga tradizione nello studio di problemi principalmente accademici come in fisica dei liquidi, fisica dei plasmi, astrofisica e cosmologia, l'avvento dei supercomputer MPP ha reso possibile la simulazione di decine di milioni di particelle, aprendo il campo ad applicazioni completamente nuove, sempre piu' rilevanti dal punto di vista tecnologico (materiali avanzati, sintesi di nuovi farmaci, microdinamica della combustione, ecc.).
Le moderne tecniche di visualizzazione scientifica forniscono un contributo notevole alla comprensione dei risultati di questo tipo di simulazioni, che coinvolgono grandi volumi di dati. In figura, il rendering volumetrico 3D mostra come una molecola d'acqua a temperatura ambiente (al centro) vede, in media, le molecole piu' vicine. In rosso gli atomi di ossigeno, in blu gli atomi d'idrogeno.
(Carlo Nardone e Maria Valentini, CRS4)
La determinazione del contenuto in acqua, o grado di saturazione, della parte piu' superficiale del terreno e' di importanza vitale in varie branche dell'idrologia, dell'agricoltura e della climatologia, influendo direttamente nella formazione e nel mantenimento dei patterns climatici a lungo termine e contribuendo notevolmente alla variabilita' climatica temporale. I modelli di circolazione globale (GCM) necessitano di accurati moduli idrologici che descrivano dettagliatamente i principali processi del ciclo dell'acque legati al terreno superficiale, quali infiltrazione, evapotraspirazione, deflussi, ecc. Se da una parte i modelli idrologici convenzionali forniscono una rappresentazione puntuale, non continua di tali processi, i modelli di GCM hanno bisogno di una dettagliata rappresentazione delle variazioni dei vari fenomeni su scala regionale. Informazioni a tale livello di scala sulla variabilita' spazio-temporale del contenuto in acqua superficiale del terreno si possono ottenere attraverso misure ricavate da strumenti remoti (remote sensing), quali radar o satelliti. I dati cosi' ottenuti devono essere calibrati attraverso misure di campo e risultati di simulazioni effettuate con modelli idrologici.
Il bacino idrografico mostrato in figura fa parte del piu' vasto bacino del Zwalm, in Belgio, ed e' uno dei quattro bacini europei proposti per uno studio sulla possibilita' di utilizzo di dati remoti per la mappatura del grado di saturazione del terreno, secondo un programma di ricerca collaborativo tra CRS4, Universita' italiane, francesi, belghe e inglesi. Il bacino di Zwalm e' situato nella zona orientale delle Fiandre, ed e' tributario del fiume Scheldt. La sua area drenante totale e' pari a 114.3 km quadrati ed e' formato da colline e declivi. Nella figura si riporta, in forma di mappa, l'andamento altitudinale del sottobacino dello Zwalm come ricavata da misure da satellite (Digital Elevation Map o DEM) date su particelle quadrate di 50 metri di lato. Tali mappe, insieme con misure storiche di precipitazione, evaporazione e portate, e misure di campo delle proprieta' idrogeologiche del bacino, formano la base portante per la parametrizzazione e discretizzazione del bacino che fornira' l'input necessario per un utilizzo corretto dei modelli idrologici.
(Claudio Paniconi, CRS4)
Nella nostra vita quotidiana siamo circondati da fenomeni che, anche se intuitivamente comprensibili, rappresentano tuttavia un notevole problema quando li si vuole rappresentare con modelli fisico-matematico-numerici descriventi la loro evoluzione temporale.
Una classe di questi fenomeni sono quelli caratterizzati da interfacce delimitanti fluidi con diverse caratteristiche fisico-chimiche che si muovono nello spazio cambiando non solo la loro forma, ma anche la loro struttura topologica. Semplici esempi sono la formazione, coalescenza e rottura di gocce di pioggia, il formarsi e il frangersi in migliaia di goccioline delle onde marine e cosi' via. Difficolta' inerenti a questi problemi sono la non-linearita' del fenomeno, le dimensioni infinitesimali trasversali dell'interfaccia, le variazioni brusche dei parametri fisici nel suo attraversamento (ad esempio il rapporto di densita' acqua/aria e' pari a 1000), ed altre ancora.
Le applicazioni tecnico-scientifiche di questi processi sono molto importanti in diversi campi dell'Ingegneria quali quella aeronautica, motoristica, energetica ed ambientale. Ad esempio, una efficiente nebulizzazione del combustibile ha un notevole impatto sul rendimento della combustione e sulla quantita' e qualita' dei prodotti di scarico.
Il codice tridimensionale SURFER, sviluppato in collaborazione tra il CRS4 e l'universita' di Parigi VI, e' in grado di far evolvere nel tempo l'interfaccia fra due fluidi immiscibili e incomprimibili, tenendo conto di varie forze tra cui quella dovuta alla tensione superficiale. Il codice e' altamente modularizzato in modo da poter essere modificato e parallelizzato facilmente.
La figura mostra la collisione tra due gocce di fluido in un ambiente gassoso. Notare che la goccia risultante dalla collisione continua a ruotare perche' lo scontro non e' centrale. Come gia' accennato, questo tipo di simulazioni possono essere utilizzati nello studio dei meccanismi fondamentali dei processi di nebulizzazione.
(Ruben A. Scardovelli e Gianluigi Zanetti, CRS4, Stephane Zaleski, Universita' di Parigi VI)
In geofisica, l'obiettivo della sintesi acustica e' la ricostruzione mediante tecniche non distruttive della mappa geologica della crosta terrestre. In prima approssimazione, la crosta terrestre e' un mezzo configurato a strati, costituito di formazioni non consolidate (sabbia), formazioni consolidate e permeabili (arenaria) e formazioni compatte ( roccia), ognuna delle quali con specifiche proprieta' meccaniche (velocita' del suono, densita', etc.).
I metodi di prospezione sono basati sull'osservazione del comportamento di onde elastiche, in prima approssimazione di tipo acustico, artificialmente generate alla superfice (per esempio l'esplosione di una carica). Gli impulsi cosi' prodotti penetrano nel sottosuolo e vengono riflessi dagli strati litologici verso la superfice sulla quale incontrano un insieme di ricevitori che misurano l'intensita' del segnale. Ogni ricevitore, sismografo o geofono, produce una traccia costituita tipicamente da 1500 intervalli di tempo di 4ms. Il numero di tracce puo' raggiungere alcune migliaia. Computazioni intensive su vasti insiemi di dati sono necessarie al fine di ottenere informazioni sulla struttura delle crosta terrestre. Si pensi che talvolta una campagna di misura richiede l'elaborazione di circa 100,000 nastri magnetici. Cio' giustifica la necessita' di sviluppare metodi di elaborazione affidabili che implementino schemi numerici veloci eseguibili esclusivamente su architetture MPP.
Per ricostruire un'immagine acustica del sottosuolo, la terra e' modellizzata come una lente disomogenea, dunque fortemente distorcente, in cui ogni punto ha una propria caratteristica di trasmissione.
Nel processo di migrazione il segnale registrato e' ripropagato in profondita' utilizzando un modello matematico basato sull'equazione scalare d'onda. Si tratta dunque di simulare nel senso inverso del tempo il percorso seguito dai raggi. Per illustrare semplicemete il funzionamento con un caso non banale, supponiamo di avere immerso il logo del CRS4 in un mezzo omogeneo (Figura di sinistra: la superficie del terreno e' il lato superiore dell'immagine). Ogni pixel del logo e' considerato un punto riflettente. In seguito ad un esperimento sismico simulato, i ricevitori alla superfice vedono il segnale mostrato nella Figura di centro (in questo caso l'asse verticale rappresenta il tempo). A partire da questa informazione e dalla conoscenza della velocita' di propagazione delle onde, migrando i dati sismici, siamo in grado di ricostruire l'immagine acustica del logo come mostrato nella Figura di destra.
(Zuheyr Alsalihi, Ernesto Bonomi e Gabriella Cabitza, CRS4)
Il campo di moto e' determinato dal rapporto fra la pressione totale del flusso uniforme entrante e la pressione statica vigente all'uscita del canale. Per sufficientemente elevati valori di tale rapporto, il flusso accelera nel tratto convergente del canale, raggiunge le condizioni soniche nella gola ed espande supersonicamente nel tratto divergente. Le condizioni all'uscita sono tali che un'onda d'urto si genera nel tratto divergente riportando il flusso in regime subsonico. La simulazione numerica e' stata effettuata con un valore del rapporto delle pressioni pari a 1.52. Il numero di Mach massimo raggiunto a monte dell'onda d'urto e' pari a 1.4. La particolare geometria del condotto e l'interazione tra onda d'urto e strato limite turbolento generano una zona di flusso separato. Questo e' uno dei casi test piu' noti e usati per validare codici Navier-Stokes bidimensionali. In particolare e' possibile studiare accuratamente i modelli di turbolenza in quanto e' disponibile una notevole mole di misure sperimentali riguardanti la distribuzione di quantita' fluidodinamiche lungo le due superfici solide, e profili di velocita' e dei "Reynolds stresses" all'interno dello strato limite in diverse sezioni del canale. Il codice utilizzato risolve le equazioni bidimensionali di Navier-Stokes mediante formulazione ai volumi finiti. Il calcolo dei flussi convettivi viene effettuato mediante schemi TVD ad alta risoluzione. Viene utilizzato il modello di turbolenza algebrico di Baldwin-Lomax. L'integrazione temporale e' fatta mediante uno schema esplicito Runge-Kutta a cinque stadi. La convergenza verso la soluzione stazionaria viene accelerata mediante l'utilizzazione della tecnica del multigrid. La griglia computazionale consiste di circa 20,000 punti. Il tempo di CPU necessario per raggiungere la soluzione stazionaria e' di circa tre ore sulle piu' potenti workstations diponibili. La memoria necessaria e' ben al di sotto della configurazione minima di 16 Mbytes.
(Marco Mulas, CRS4)
L'applicazione a fini medici o industriali della genetica molecolare richiede la produzione ed accumulazione di enormi quantita' di dati genetici. Questo sara' possibile solo se saranno disponibili tecniche sperimentali capaci di alti tassi di acquisizione dati a basso prezzo, assieme a potenti procedure per l'analisi e la classificazione dei dati.
Uno dei filoni di ricerca piu' promettenti per lo sviluppo di tale tecnologia e' quello basato sul'utilizzazione del processo di ibridizazzione, poiche' questo protocollo sperimentale si presta facilmente ad una parallelizzazione massiccia.
La figura e' l'immagine ottenuta da uno scintillografo ad alta risoluzione, di un filtro per ibridizzazione. Un filtro per ibridizzazione e' un supporto di plastica a cui sono stati fissati chimicamente dei segmenti di DNA in corrispondenza dei nodi di una griglia regolare. La densita' della griglia puo' essere molto fine, ad esempio, il filtro mostrato ha distribuiti sulla sua superfice circa 20,000 frammenti di DNA.
In un esperimento di "ibridizzazione massicciamente parallela" svariati filtri come quello descritto in figura vengono sottoposti, in parallelo, ad un processo di ibridizzazione con un frammento di DNA sconosciuto, marcato radioattivamente. Il frammento sconosciuto si leghera', per ibridizzazione, a quei segmenti con una sotto-sequenza di basi complementare alla propria, e cosi' facendo marchera' radioattivamente quel nodo.
Ciascuna macchia (spot) nella figura rappresenta un avvenuta ibridizzazione. L'estrazione delle ibridizzazioni positive, tra i ventimila esperimenti tentati, e' possibile solo per via automatica. Cio' implica delle sofisticate tecniche di image processing per compensare vari effetti, quali la deformazione del supporto, variazioni in intensita' degli spot, sovrapposizioni parziali ecc.
I dati ottenuti da questa fase dell'analisi, sono poi utilizzati per ricostruire, mediante algoritmi di ottimizzazione combinatoria, informazioni sul frammento sconosciuto di DNA. Ad esempio, mediante esperimenti di questo tipo si puo' stabilire la similarita' tra il frammento in esame e un insieme di sequenze note.
(Ralph Santos, CRS4 e Richard Mott, Imperial Cancer Research Fund, Londra)
Nel mondo scientifico e tecnologico esiste la necessita' di scambiare e condividere programmi, dati, immagini e animazioni. Oggigiorno, una nuova classe di strumenti di calcolo rende questo possibile. I sistemi di Computer Supported Collaborative Work (CSCW) permettono a piu' persone di lavorare in modo interattivo e a distanza sullo stesso materiale.
Fino a poco tempo fa, l'alto costo delle linee dati dedicate come pure la limitata banda passante di Itapac limitavano l'uso di tali tools a reti locali (LAN). Grazie al loro costo competitivo e a una banda passante flessibile (Nx64 kbit/s fino a un massimo di 2 Mbit/s), i servizi Frame Relay rendono possibile l'utilizzo dei tools di CSCW anche attraverso reti geografiche (WAN).
Il CRS4, l'Italtel e la Sip organizzano una dimostrazione allo SMAU per illustrare come la collaborazione a grande distanza tramite computer e' diventata una realta'. Vengono collegate tra loro utilizando la rete pubblica di Frame Relay tre stazioni di lavoro, di cui due al CRS4 (Cagliari) e una allo SMAU (Milano), usando il programma NCSA Collage, come si vede nella figura. I ricercatori del CRS4 collaborano, per esempio, su problemi di Fluidodinamica Computazionale. Viene mostrata, tra le altre cose, una simulazione del flusso attorno all'ala di un aeroplano, e la successiva analisi dei risultati. Il loro lavoro in collaborazione puo' essere visto dallo stand della Sip allo SMAU. Le persone interessate possono a loro volta interagire richiedendo l'invio a maggior risoluzione di alcune parti delle immagini visualizzate, facendo domande, annotando le imagini con l'uso del tool "lavagna elettronica".
(A. Trannoy, CRS4, E. Deluchi, Italtel e G. Tilia, SIP)