martedì 27 dicembre 2011

L'arte onirica che nasce dalla computer vision

Con il post di oggi vi voglio mostrare una singolare opera d'arte che nasce dalla ricerca sull'intelligenza artificiale e, in particolare, sulla visione artificiale (o "computer vision"). L'autore, Antonio Torralba, è professore di ingegneria elettronica e informatica presso l'MIT ed è affiliato al laboratorio di informatica e intelligenza artificiale (CSAIL). Qui Torralba sviluppa sistemi IA in grado di interpretare immagini per riconoscere oggetti dal contesto.

Quando il professor Torralba non è impegnato con le sue ricerche al CSAIL trascorre il suo tempo libero creando opere d'arte digitali, sovrapponendo, tramite tecniche particolari, numerosissime immagini l'una sull'altra. Per creare l'affascinante immagine qui sotto il professore ha usato 150 fotografie, ciascuna contenente una persona al centro dell'immagine. Il risultato somiglia ad un disegno fatto a mano e (almeno a mio parere!), ricorda molto anche il video delle "immagini mentali" ottenuto qualche tempo fa’ tramite risonanza magnetica funzionale da un gruppo di ricercatori americani (di cui abbiamo parlato nel post "vedere nella mente"). Usando questo stesso approccio Torralba ha creato una sorta di dizionario visuale in cui ogni immagine rappresenta visivamente il significato di una parola inglese (qui potete visitare il sito del "dizionario"). Oltre ad essere un interessante progetto artistico di per se, questo database servirà al gruppo di Torralba per addestrare sistemi di visione artificiale: "L'obbiettivo è di sviluppare un sistema capace di riconoscere tutti questi 50.000 oggetti" ha affermato il professore.

sabato 24 dicembre 2011

mercoledì 21 dicembre 2011

Ultrasuoni focalizzati - Il futuro non invasivo della chirurgia

Immaginate una chirurgia che non faccia uso di bisturi. In questa conferenza TED MED, Yoav Medan, vice presidente della InSightec, ci parla di una nuova tecnica chirurgica che utilizza ultrasuoni combinati con la risonanza magnetica per curare lesioni cerebrali, fibromi uterini e diversi tipi di formazioni cancerogene senza bisogno di tagliare alcun tessuto del paziente.

La tecnologia a ultrasuoni focalizzati su cui si basa il lavoro di Medan permette di concentrare fino a 1000 fasci ultrasonici su un bersaglio in profondità all'interno del corpo di un paziente con una precisione di circa un 1 mm.
Proprio come una lente d'ingrandimento può concentrare diversi raggi di luce in un singolo punto, così ogni singolo fascio di ultrasuoni attraversa i tessuti senza avere alcun effetto, ma quando tutti i fasci convergono sull'obbiettivo si ha un consistente aumento di temperatura che uccide il tessuto malato nella stessa maniera in cui i raggi di luce concentrati dalla lente possono bruciare una foglia. L'imaging a risonanza magnetica, permettendo di visualizzare l'interno del corpo e di misurarne la temperatura in modo non invasivo entra in gioco per guidare il trattamento in tempo reale, controllare il puntamento dei fasci e confermare immediatamente la riuscita dell'intervento.

Al momento la chirurgia ad ultrasuoni focalizzati guidata tramite risonanza magnetica è stata approvata dalla FDA (Food and Drug Administration) per il trattamento di fibromi uterini. Inoltre sono in corso trial clinici per il trattamento di metastasi alle ossa, tumori al seno, tumori al cervello e presto ne cominceranno altri anche per la cura di schizofrenia, ictus, tumori alla prostata, al fegato, ai reni e al pancreas. Entro pochi anni ulteriori miglioramenti delle tecniche di immaging molecolare e degli scanner MRI dovrebbero permettere la visualizzazione non invasiva di piccoli agglomerati di cellule. Questi miglioramenti nell'imaging, uniti a nuove tecnologie ultrasoniche già allo studio e nuovi vettori di agenti farmacologici renderebbero possibile tutta una nuova, vasta, gamma di applicazioni mediche. Si va dalla possibilità di identificare e distruggere senza effetti collaterali piccolissime strutture cellulari probabilmente cancerose (cosa che darebbe tutto un nuovo significato all'idea di "diagnosi precoce", rivoluzionando la prevenzione oncologica), a quella di dissolvere coaguli nei vasi sanguigni eliminando gli effetti invalidanti degli ictus. Prima di lasciarvi alla conferenza di Medan, per chi volesse avere ulteriori informazioni, linko qui il sito della Focused Ultrasound Surgery Foudation.

sabato 17 dicembre 2011

Gettare lo sguardo nel mondo quantistico

Nei post precedenti vi ho parlato spesso della crescente importanza della "visualizzazione scientifica" nel campo delle scienze della vita. L'utilità di poter "afferrare visivamente" concetti complicati, però, non si limita affatto alla biologia; anche la fisica, infatti, sta cominciando a sfruttare le opportunità offerte dalla grafica 3D. Come amava ricordare Richard Feynman l'immaginazione e la capacità di visualizzare mentalmente il proprio oggetto di studio è fondamentale per uno scienziato.
In fisica i risultati delle simulazioni numeriche eseguite sui più potenti supercomputers possono essere trasformati in accurate ricostruzioni visive della dinamica del fenomeno che si sta studiando. E' questa, ad esempio, l'origine del video nel quale viene ripercorsa l'evoluzione a grande scala dell'universo che è stato argomento di un precedente post.
Ciò che vi voglio mostrare in questo post è, invece, una applicazione alla fisica delle particelle e alla meccanica quantistica: anche quest'ultima, nonostante la sua fama (peraltro meritata!) di estrema controintuitività può essere "visualizzata".

Il brevissimo video qui sotto mostra come apparirebbe l'interno di una particella del tipo di un protone o di un neutrone, se potessimo "vedere" i campi quantistici dei quarks al suo interno.

I quarks, veri e propri "mattoni fondamentali della materia", sono particelle elementari che in natura non si trovano mai isolati, ma solo uniti in particelle composte dette "adroni", come per esempio il protone e il neutrone. Questo si deve alle particolari caratteristiche dell'"interazione forte" attraverso la quale interagiscono tra di loro.
Alla scala spaziale della fisica delle particelle sono fondamentali gli effetti della meccanica quantistica. La teoria quantistica dei campi (in inglese "Quantum field theory") è l'estensione della meccanica quantistica classica che sta alla base del "modello standard della fisica delle particelle": il modello che descrive tutte le particelle elementari e tre delle quattro forze fondamentali ad oggi note, ossia la interazione forte, quella elettromagnetica e quella debole.
La teoria quantistica dei campi descrive tutte le particelle esistenti non come corpuscoli o "palline" come siamo intuitivamente portati a immaginarle ma come "campi" nello spazio. Un campo è una struttura matematica che ad ogni punto dello spazio associa dei numeri che si possono interpretare come l'"intensità" del campo stesso in quel punto.
In termini più intuitivi è come se le particelle non avessero una posizione definita ma fossero "spalmate" in tutto lo spazio con densità variabile da punto a punto a seconda dell'intensità del campo nel punto stesso (proprio come sono "spalmati" gli elettroni negli orbitali di atomi e molecole).

Il video, realizzato da Massimo Di Pierro della "School of Computing" della DePaul University di Chicago, è frutto di simulazioni numeriche di Cromodinamica quantistica (QCD) su reticolo, termine con cui ci si riferisce genericamente a quell'insieme di tecniche di studio della QCD, la teoria dei quark e dei gluoni, che fanno uso di un reticolo spazio-temporale discreto per "semplificare i calcoli".
Nell'animazione ciò che è rappresentato come spazio pieno "colorato" sono i punti dello spazio all'interno di un adrone in cui i vari campi quantistici assumono la maggior intensità. Il processo rappresentato è di "raffreddamento" del sistema, cioè di passaggio da uno stato di maggiore ad uno di minore energia.

venerdì 16 dicembre 2011

Apoptosi - La fine di una cellula

Se avete apprezzato i post "Biomondi" e "Viaggio nel mitocondrio" allora il video che voglio mostrarvi oggi vi piacerà.
Si tratta di un'altra animazione che raffigura in modo scientificamente accurato il frenetico "mondo molecolare" che si nasconde in ogni momento all'interno delle nostre cellule.
Il video in questione è stato realizzato da Drew Berry, professionista della computer grafica applicata alla visualizzazione scientifica, che è stato definito sul New York Times "lo Spielberg dell'animazione molecolare" (qui potete trovare alcuni degli altri video da lui realizzati).

Ciò a cui state per assistere è il processo di "apoptosi", cioè di morte cellulare programmata di una cellula danneggiata. La distruzione della cellula, innescata tramite una complessa cascata di reazioni biochimiche ad opera di un linfocita T Killer, è necessaria per proteggere il tessuto circostante. Al contrario della necrosi, che è una forma di morte cellulare risultante da un trauma cellulare, l'apoptosi è portata avanti in modo ordinato e regolato, richiede consumo di energia sotto forma di ATP e spesso svolge un ruolo essenziale in molti processi fisiologici.
Nelle prime scene mostrate nel video vediamo il linfocita avvicinarsi alla cellula malata, quando alcune speciali proteine poste sulla sua membrana cellulare si legano agli appositi recettori sulla cellula-bersaglio, all'interno di quest'ultima si innesca una catena di reazioni che porta all'attivazione di una proteina del gruppo delle "caspasi". Queste proteine sono enzimi in grado di "tagliare" e quindi distruggere altre proteine. Le prime caspasi ne attivano altre in una reazione a catena che coinvolge rapidamente l'intera cellula. Nel video è mostrata anche la formazione del complesso proteico apoptosoma che contribuisce a questa cascata di reazioni. Questa sorta di processo di "auto-digestione" della cellula termina quando, come mostrato nella parte finale del video, le caspasi finiscono per recidere i filamenti di actina del citoscheletro che garantiscono integrità strutturale alla cellula. Questo la porta in breve al collasso sotto la sua stessa pressione osmotica.

mercoledì 14 dicembre 2011

Consigli di lettura natalizi

Ormai è quasi Natale, per questo ho deciso, come avviene su molti altri blog scientifici, di proporvi anch'io quattro libri che penso potrebbero farvi buona compagnia nel periodo delle feste.

La prima lettura che vi propongo è: "La scoperta dell'universo. I misteri del cosmo alla luce della teoria dell'informazione" di Charles Seife, matematico e divulgatore scientifico americano. In questo libro l'autore, con un linguaggio sempre chiaro e preciso, mostra come, attraverso la teoria dell'informazione, si possa gettare una luce completamente nuova su tutta la fisica, dalla meccanica quantistica alla teoria della relatività, risolvendo molti apparenti "paradossi" di queste teorie. Nelle pagine di questo appassionante saggio Seife ci mostra anche come la portata rivoluzionaria della teoria dell'informazione non si limiti alla fisica ma abbracci anche la biologia e le neuroscienze, aiutandoci a comprendere cosa sia la vita e come funzioni la nostra mente. Considero questo libro per la sua originalità e la sua profondità uno dei migliori libri di divulgazione scientifica che io abbia mai letto. Per chi fosse interessato, ecco il link alla pagina di amazon del libro.

La seconda lettura che vi consiglio è "Odissea nello zeptospazio. Un viaggio nella fisica dell'LHC" di Gian Francesco Giudice, fisico teorico delle particelle presso il CERN di Ginevra. Questo scorrevole saggio è una guida chiara e comprensibile per apprezzare le scoperte scientifiche che avranno luogo presso l'LHC, prima tra tutte l'eventuale scoperta del famigerato "bosone di Higgs" (di cui proprio in questi giorni si stanno avendo i primi indizi). Il professor Giudice ci guida in questo libro in un affascinante viaggio nel mondo della fisica delle particelle e ci fa conoscere le stupefacenti innovazioni tecnologiche che sono state necessarie per realizzare il più grande esperimento scientifico di sempre. Qui il link alla pagina del libro.

Il terzo saggio che vi consiglio è "On Intelligence" di Jeff Hawkins e Sandra Blakeslee (di cui potete vedere la copertina nell'immagine in alto). Di questo libro, in cui il neuroscienziato Jeff Hawkins espone la sua interessantissima ed innovativa teoria del funzionamento del cervello, abbiamo già parlato in un post precedente, che vi invito a consultare per saperne di più sull'argomento. Se l'inglese non vi spaventa troppo (purtroppo, per quanto ne so, non è mai stato tradotto in italiano) e la domanda "come funziona il cervello?" vi interessa, non potete davvero farvi sfuggire questo libro che costituisce una splendida e originale introduzione alle neuroscienze e all'intelligenza artificiale. Linko qui la pagina di amazon di "On Intelligence"

L'ultimo libro che voglio consigliarvi oggi è, come il precedente, disponibile solo in inglese; si tratta di "The Machinery of Life" del biochimico David Goodsell. Questo saggio, oltre ad essere un ottimo, e peraltro raro, esempio di divulgazione delle biologia molecolare, è perfetto per chi di voi ha apprezzato i precedenti post sulla visualizzazione scientifica dei "mondi molecolari" presenti all'interno delle nostre cellule. L'autore infatti è uno dei pionieri della visualizzazione scientifica in biologia, al suo lavoro, infatti ho intenzione di dedicare, in futuro, un post. "The Machinery of Life" è un viaggio nel microscopico mondo delle macchine molecolari che operano nelle cellule viventi; nel testo vari tipi di cellule e biomolecole sono presentate ai lettori facendo uso di una serie di bellissimi acquerelli scientificamente accurati. Ecco il link della pagina di Amazon del libro, per vedere alcune delle immagini del libro potete visitare la homepage del professor Goodsell.

Buon Natale e buona lettura allora! ;)

martedì 13 dicembre 2011

Scolpire nanoparticelle

In un articolo recentemente pubblicato su "Science", un gruppo di ricercatori dell'"Istituto Catalano di Nanotecnologia" ha dimostrato l'efficacia di un nuovo metodo per produrre nanoparticelle cave dotate di una larga varietà di forme, anche dalla geometria notevolmente complessa. Al di là della loro intrinseca bellezza (che potete ammirare nella foto qui a fianco), simili nanostrutture rappresentano un grande passo avanti per la nanotecnologia grazie alle loro possibili applicazioni nel campo del "drug delivery" e della nanomedicina, della catalisi, e persino come componenti di macchine e robot di dimensioni nanometriche.

Costruire oggetti tridimensionali alla nanoscala, modellandoli secondo necessità, è qualcosa di davvero complicato e che presenta grandissime sfide tecnologiche. Per questo, fino ad oggi, gli scienziati si sono quasi sempre limitati a sfruttare le proprietà di nanotubi e nanostrutture senza modificarne la forma. Procedendo in questo modo, però, i gradi di libertà nell’assemblaggio e nella definizione della struttura di questi "nano-oggetti" sono sempre stati decisamente bassi.
Grazie ai ricercatori catalani autori dell'articolo questo problema adesso potrebbe essere risolto. Controllando grandezze come temperatura, tensione superficiale e forze intermolecolari delle sostanze presenti nell'ambiente circostante è possibile scegliere il grado di uniformità e il tipo di struttura dei nano-oggetti che vengono prodotti a partire da vari materiali. In particolare, ad esempio, lasciando interagire metalli liquidi che hanno tempi di diffusione diversi si possono creare piccoli manufatti bucati o a più strati (effetto Kirkendall). Oppure, mescolando un metallo ridotto (cioè al quale sono stati aggiunti elettroni) con un altro in stato ossidato (con meno elettroni) e con caratteristiche elettrochimiche particolari è possibile ottenere nano-oggetti rivestiti di uno dei due materiali (deposito galvanico). Questi due processi; l'effetto Kirkendall e la galvanizzazione, così come altre tecniche di corrosione, sono comunemente usate alla macroscala in numerosi processi industriali. Per questo motivo, il lavoro degli scienziati catalani è particolarmente promettente dal punto di vista commerciale, vista la relativa facilità con cui queste tecniche possono essere adottate su scala industriale.

"Si apre dunque la strada per un nuovo modo di modellare le nanoparticelle – ha commentato, sempre su Science, Wolfgang Parak dell’Università di Marburg – che finalmente ci permetterà di strutturarle in modo da incontrare perfettamente i nostri bisogni".

Nella figura qui sotto potete trovare le immagini (accostate ai rispettivi schemi) di alcune delle strutture create dai ricercatori; si va da nanoparticelle a forma di scatola aperta, di scatola polimetallica con doppie pareti e pori, fino a scatole compartimentate con pareti interne, nanoaghi di varie forme e fullereni metallici.

lunedì 12 dicembre 2011

Medicina rigenerativa - Stampare organi

In questo post voglio approfondire uno dei temi toccati da Daniel Kraft nella conferenza che è stata argomento di uno scorso post: la medicina rigenerativa.
Con questo termine ci si riferisce normalmente a tutta una ampia gamma di pratiche biomediche, ancora in fase di sviluppo o di recente adozione nella pratica clinica. Queste vanno dalla così detta "terapia cellulare", che consiste nell'inserimento di cellule staminali o cellule progenitrici direttamente nei tessuti in vivo, fino all'"ingegneria tissutale", termine con cui si intende la crescita in vitro di organi e tessuti destinati a trapianti.
Più in generale si può definire "medicina rigenerativa" qualunque pratica medica mirante a "rimpiazzare o rigenerare cellule, tessuti o organi in modo da ristabilire la loro normale funzionalità".
Ciò che vi voglio mostrare è una interessante conferenza in cui Anthony Atala, uno dei padri della medicina rigenerativa, illustra il suo pionieristico lavoro nel campo dell'ingegneria tissutale. Il professor Anthony Atala è direttore del "Wake Forest Institute for Regenerative Medicine", uno dei centri di ricerca più avanzati al mondo nel suo campo. In questo istituto, per la prima volta al mondo, organi "sintetici", cioè cresciuti in laboratorio, sono stati impiantati con successo in pazienti umani. Oggi nel centro diretto da Atala lavora un gruppo interdisciplinare di ricerca che è attualmente impegnato nello sviluppo di più di trenta tipi di organi e tessuti sintetici e di vari generi di terapie cellulari.

In questa conferenza TED il professore mostra un esperimento, ancora nelle sue in fasi iniziali, che potrebbe risolvere un domani il problema della donazione di organi: una stampante 3D che fa uso di cellule viventi per fabbricare reni trapiantabili. Nel video il dottor Atala ci mostra anche diverse avanzate macchine per l'ingegneria dei tessuti presenti nel suo laboratorio, dai bioreattori, dispositivi che mantengono al loro interno condizioni fisiche e chimiche tali da permettere la crescita di cellule o tessuti, fino alle vere e proprie "stampanti di organi" che sono in grado, strato dopo strato, di assemblare tessuti e organi umani funzionali. La possibilità di stampare organi è una delle più grandi promesse della medicina rigenerativa; per intuirne l'importanza basti pensare che, ogni giorno, moltissimi pazienti muoiono a causa della mancata reperibilità di organi disponibili per trapianti e che, negli ultimi dieci anni, se le domande di trapianto sono più che raddoppiate, il numero di trapianti effettuati è rimasto costante.

venerdì 9 dicembre 2011

Il chip che imita il cervello - Hardware neuromorfico

Ho già parlato di "hardware neuromorfico", cioè di circuiti integrati dotati di componenti pensate per imitare il funzionamento di neuroni e sinapsi, nel precedente post "Tre strade per costruire una macchina pensante" (che avevo pensato proprio come un'introduzione a ciò che state per leggere).

Nei giorni scorsi, ricercatori dell'MIT hanno compiuto un passo importante in questo campo riuscendo a realizzare dei chip in grado di imitare il modo in cui le reti di neuroni biologici rispondono e si adattano quando entrano in contatto con nuovi pattern di informazione. Il fenomeno in questione è detto "plasticità neurale" e gioca un ruolo fondamentale in tutte le funzioni cognitive superiori, incluso l'apprendimento e la memoria.
Il chip realizzato dagli scienziati americani è stato progettato in modo che gruppi di transistor possano imitare l'attività dei diversi tipi di canali ionici presenti sui neuroni. Con circa 400 transistor, invece, è possibile simulare sui chip di silicio l'attività di una singola sinapsi.
Sono presenti circa 100 miliardi di neuroni in un cervello umano, ognuno di questi si collega tramite sinapsi a numerosi altri. Le sinapsi sono il punto di contatto tra le pareti cellulari di due neuroni; qui l'impulso nervoso viene trasmesso da un neurone all'altro grazie a particolari sostanze dette neurotrasmettitori (come ad esempio il glutammato o il GABA). Queste, rilasciate dal neurone presinaptico, vanno a legarsi su specifici recettori posti sulla membrana dell'altro (neurone postsinaptico), provocando un cambiamento del potenziale elettrico ai capi della sua membrana cellulare. Il cambiamento del potenziale può innescare l'apertura di canali ionici voltaggio-dipendenti (come quelli di cui parlavamo in questo post), dando il via ad una brusca diminuzione della differenza di potenziale ai capi della membrana (detta depolarizzazione) che propaga l'impulso nervoso al resto del neurone postsinaptico. In questo caso si dice che il neurone in cui avviene la depolarizzazione "spara".
Tutta l'attività sinaptica dipende dai canali ionici, è chiaro quindi quanto sia importante poterne riprodurre il comportamento per ottenere chip neuromorfici biologicamente realistici.
"Ora siamo in grado di regolare finemente i parametri dei circuiti per riprodurre le caratteristiche di specifici canali ionici ed arrivare ad imitare quasi qualunque processo ionico che avviene nei neuroni" ha affermato uno dei ricercatori coinvolti nello studio. In precedenza si era in grado di simulare lo "sparo" dei neuroni e la propagazione dell'impulso nervoso ma non tutte le circostanze che possono esserne all'origine.
Il chip realizzato rappresenta un "significativo miglioramento nello sforzo di incorporare ciò che sappiamo sulla biologia dei neuroni e sulla plasticità sinaptica in un circuito CMOS (acronimo di complementary metal-oxide semiconductor, un tipo di tecnologia utilizzata in elettronica per la progettazione di circuiti integrati)". Secondo Dean Buonomano, professore di neurobiologia all'università della California a Los Angeles, "il livello di realismo biologico è impressionante".

I ricercatori dell'MIT pensano di utilizzare il chip per studiare numerose funzioni cerebrali, come ad esempio il riconoscimento visivo, senza dover ricorrere a costose simulazioni su supercomputer. Un'altra interessante applicazione del dispositivo è come interfaccia neurale, ad esempio per la realizzazione di retine artificiali, o come neuroprotesi. Inoltre, in un futuro forse non troppo lontano,
questi chip neuromorfici potrebbero diventare i "mattoni" con cui costruire una "macchina pensante" del tipo di quelle di cui parlavamo nello scorso post.

mercoledì 7 dicembre 2011

Il SETI riparte da Kepler

Proprio in questi giorni il team della missione spaziale Kepler della NASA ha confermato l’esistenza di Kepler-22b, un pianeta extrasolare che orbita nella “fascia di abitabilità” della sua stella, simile al nostro Sole. Il pianeta, che si trova a circa 600 anni-luce da noi nella direzione della costellazione del cigno, ha un diametro pari a 2,4 volte quello terrestre che lo rende il piò piccolo pianeta potenzialmente abitabile scoperto fino ad oggi. La temperatura media superficiale stimata dagli astronomi è di circa 22 gradi, per questo potrebbe essere presente acqua liquida sulla superficie e, di conseguenza, condizioni adatte allo sviluppo della vita.

La notizia divulgata dalla NASA arriva in contemporanea a quella del Planetary Habitability Laboratory dell'Università di Puerto Rico ad Arecibo che proprio grazie ai dati di Kepler ha condotto una nuova valutazione dell'abitabilità dei pianeti già compresi nell'Habitable Exoplanets Catalog (HEC) che non solo raccoglie i nuovi esopianeti ma li classifica secondo diversi indici di abitabilità. Prima di Kepler-22b solo due esopianeti confermati hanno soddisfatto tutti i criteri di abitabilità nel catalogo: Gliese 581d e HD 85512b, entrambi classificati come esopianeti di tipo terrestre.

E' proprio in questo contesto di ottimi risultati scientifici da parte della missione Kepler che, dopo essere stato fermo per sei mesi a causa di problemi di finanziamenti, riapre l' Allen Telescope Array (ATA) (mostrato in figura).Questo osservatorio radioastronomico è il principale strumento di ricerca del progetto SETI (acronimo di "Search for Extra-Terrestrial Intelligence", cioè "Ricerca di Intelligenza Extraterrestre"). Il SETI è un programma scientifico privato, fondato negli anni settanta da Carl Sagan e Frank Drake, dedicato alla ricerca della vita intelligente extraterrestre abbastanza evoluta da poter inviare segnali radio nel cosmo.
Gli obbiettivi principali della nuova campagna di ascolto dell'ATA saranno proprio gli esopianeti potenzialmente abitabili scoperti negli ultimi tempi dalla missione Kepler.

"Questa è una splendida opportunità per le osservazioni SETI", ha commentato il Dottor Jill Tarter, direttore del "Center for SETI Research" presso il SETI Institute; "Per la prima volta, possiamo puntare i nostri telescopi verso stelle che sappiamo ospitare sistemi planetari contenenti pianeti dalle caratteristiche di abitabilità analoghe a quelle della Terra. Questo tipo di mondi potrebbe essere la casa di altre civiltà in grado di costruire radiotrasmettitori"
Pur non limitandosi a questi, i primi pianeti che verranno esaminati nell'ambito del progetto SETI saranno quelli che si trovano all'interno della "zona di abitabilità" della loro stella. La "zona di abitabilità" contiene tutte le distanze orbitali da una stella che permetterebbero la presenza di acqua liquida sulla superficie di un eventuale pianeta; questa proprietà è molto importante per il tipo di ricerche svolte dal SETI, la maggior parte degli astrobiologi, infatti, concordano sul fatto che la presenza di acqua liquida sia essenziale per l'esistenza della vita. Il telescopio ATA passerà i prossimi due anni osservando questi sistemi planetari alle lunghezze d'onda tra 1 e 10 GHz, una finestra dello spettro elettromagnetico naturalmente silenziosa, riuscendo a monitorare contemporaneamente milioni di canali contemporaneamente.

La ripresa delle operazioni dell'ATA è stata possibile grazie al grande supporto ricevuto da privati cittadini che in questi mesi hanno compiuto donazioni sul sito www.SETIStars.org. Mantenere in attività il programma SETI ha un costo ma il gioco vale decisamente la candela perché, se la ricerca avesse successo, le implicazioni sarebbero davvero senza precedenti, oltre a rispondere alla fondamentale domanda: "Siamo soli nell'universo?" captare un segnale radio prodotto da una civiltà aliena getterebbe una luce completamente nuova su questioni come: "Quanto è probabile la nascita della vita?" "E di forme di vita intelligenti?" "Come potrebbe evolvere la vita nel futuro?". In proposito consiglio la lettura di due interessanti approfondimenti, rispettivamente di Stephen Hawking e di Nick Bostrom, che potete trovare qui e qui, tradotti in italiano sul bel sito Futurology.it.

martedì 6 dicembre 2011

Tre strade per costruire una macchina pensante

Abbiamo già parlato in post precedenti di alcuni progetti, al momento in corso, che mirano a realizzare un vero e proprio "cervello artificiale"; un computer che funzioni secondo gli stessi principi di funzionamento del nostro cervello. Una cosa che non abbiamo detto è, però, che ci sono almeno tre approcci notevolmente diversi alla creazione di una simile macchina pensante.

Il primo, che potremmo definire "di forza bruta", è quello attuato da Hanry Markhram con il suo Blue Brain Project: utilizzare potentissimi supercomputer per simulare un intero cervello a partire dai singoli neuroni. Questo approccio pur presentando numerosi vantaggi ed un enorme interesse scientifico (ad esempio come strumento di ricerca neurobiologica) è decisamente inefficiente dal punto di vista energetico e delle risorse di calcolo.
Per capire il perché è sufficiente dare un'occhiata alle grandezze in gioco.
Per simulare in questo modo un cervello umano servirà un supercomputer con una potenza di calcolo di decine di miliardi di megaflops (i flops, o FLoating point Operations Per Second, sono il numero di operazioni in virgola mobile eseguite in un secondo da un calcolatore), che per il suo funzionamento consumerà probabilmente decine di milioni di watt di potenza (il consumo medio di qualche decina di migliaia di abitazioni). Un supercomputer computer del genere dovrebbe essere disponibile entro una decina d'anni, tuttavia se si pensa che al cervello umano per esibire tutte le sue peculiari proprietà bastano circa 2 miliardi di megaflops e 20 watt di potenza diventa chiaro quanto poco efficiente sia simularne il funzionamento basandosi su una architettura di calcolo classica.
E' probabile che questo tipo di simulazioni rimarranno sempre, almeno per alcuni scopi, le più utili, tuttavia realizzare sistemi di intelligenza artificiale neuroispirati "portatili", come ad esempio quelli per la robotica, con questo metodo non sarà una strada praticabile per molto tempo (almeno fino a quando non si saranno concretizzate le promesse più estreme della nanotecnologia molecolare).
E' proprio per ovviare a tutti i lati negativi del metodo "simulazione diretta" e soddisfare queste diverse esigenze che sono stati pensati gli altri due approcci.

Il secondo è ben rappresentato, ad esempio, dal lavoro di Jeff Hawkins o Deleep George (di cui abbiamo già parlato qui) e consiste nel cercare di carpire dagli studi neuroscentifici la vera "essenza" di ciò che fa il cervello dal punto di vista computazionale, tralasciando i "dettagli neurobiologici" inessenziali (e risparmiando quindi molta capacità di calcolo ed energia). In altre parole trovando "l'algoritmo corticale" di cui parla Hawkins non sarebbe più necessario simulare un cervello nei minimi dettagli per ottenere una macchina dotata di intelligenza e pensiero umano. Infatti basterebbe far "girare" questo "algoritmo dell'intelligenza" direttamente su un computer per ottenere una intelligenza artificiale di livello umano; proprio come per simulare le proprietà di processamento dell'informazione di un circuito non è necessario simularlo a partire dagli atomi che lo costituiscono ma basta disporre di una sua schematizzazione, in altre parole di un modello matematico del suo funzionamento.

Il terzo approccio consiste invece nella creazione di "hardware neuromorfico" cioè di circuiti integrati che implementino direttamente nella loro struttura fisica l'architettura del sistema nervoso tramite componenti progettate per imitare le funzioni di neuroni e sinapsi. La vera sfida in questo caso è l'accuratezza biologica, questa è chiaramente più difficile da ottenere nel realizzare un sistema fisico piuttosto che una simulazione virtuale. Nonostante le difficoltà che presenta questo approccio, in caso di riuscita si avrebbe sicuramente un sistema molto efficiente economico e compatto, quindi perfetto per gli usi "portatili" cui si accennava prima. In questo settore, di evidente rilevanza strategica è in corso una vera e propria corsa tecnologica tra l'Europa con il progetto BrainScales e gli Stati uniti con il progetto SyNAPSE della DARPA in collaborazione con la IBM.

Ciò che vi ho appena raccontato vuole essere una introduzione ad un altro post che pubblicherò a breve, in cui vi parlerò di un importante passo avanti compiuto di recente da ricercatori dell'MIT proprio nel campo dei chip neuromorfici. Restate in ascolto per il resto della storia! ;)

venerdì 2 dicembre 2011

La realtà fisica della funzione d'onda

E' stato recentemente pubblicato sulla rivista arXiv un articolo che potrebbe avere un grosso impatto sulla meccanica quantistica e sul modo di interpretarla. Tre ricercatori hanno mostrato come la funzione d’onda - sulla cui interpretazione i fisici discutono dal 1920 - non sia uno strumento puramente statistico ma un oggetto fisicamente reale.
La funzione d'onda è un oggetto matematico che riassume tutte le informazioni circa uno stato quantistico di una particella. Questa entità matematica viene comunemente utilizzata per determinare le probabilità che le particelle quantistiche mostrino determinate proprietà quando sottoposte ad un processo di misura. Mentre molti fisici hanno sempre interpretato la funzione d'onda come uno strumento statistico che riflette la nostra ignoranza sulle particelle oggetto di valutazione, il lavoro di Matthew F. Pusey, Jonathan Barrett e Terry Rudolph dimostra come essa debba essere considerata come un oggetto fisicamente reale. Nell'abstract dell'articolo i firmatari scrivono:

"Le funzioni d'onda sono gli oggetti matematici alla base della teoria quantistica. E' per questo sorprendente che fino ad ora i fisici non siano stati in grado di trovare un accordo su cosa queste rappresentino. Ci sono, in proposito, almeno due scuole di pensiero, ognuna delle quali antica quasi quanto la teoria quantistica stessa. La prima vede la funzione d'onda come una proprietà fisica di un sistema, proprio come lo sono la posizione o la quantità di moto in meccanica classica. La seconda la vede come un mero strumento statistico, come una distribuzione di probabilità in meccanica statistica. In questo articolo, partendo da pochi assunti largamente condivisi, mostriamo come l'interpretazione statistica della funzione d'onda è inconsistente con le predizioni della meccanica quantistica."

Una coppia di particelle quantistiche si definisce in uno stato di "entanglement" quando è avvenuta una interazione tale che una grandezza osservabile dell'una sia necessariamente complementare a quella dell'altra (ad esempio se una possiede spin -1/2 l'altra deve avere 1/2). In queste condizioni si verifica una sorta di "azione a distanza" per la quale, quando la sovrapposizione di stati di una delle due viene fatta collassare da una misura, istantaneamente, anche la funzione d'onda dell'altra particella collassa nello stato opposto. Questo avviene a prescindere dalla distanza alla quale si trovano le due particelle, apparentemente violando il limite della velocità della luce nella velocità di trasferimento dell'informazione.
E' su alcuni aspetti di questo bizzarro, seppur ben verificato, fenomeno che si basano le considerazioni esposte nel nuovo articolo dei fisici dell'Imperial College di Londra.

La portata teorica del loro lavoro è notevole: "Non vorrei sembrare enfatico, ma credo che a questo documento andrebbe probabilmente applicata la parola 'sismico’ ", spiega Antonio Valentini, fisico teorico specialista in fondamenti quantistici alla Clemson University, in South Carolina.

Il dibattito sull’interpretazione della funzione d'onda risale al 1920. Nell’interpretazione di Copenaghen, introdotta dal fisico danese Niels Bohr, la funzione d'onda era considerata come un mero strumento di calcolo. La linea di pensiero allora più diffusa nella comunità scientifica non incoraggiava a cercare una spiegazione più profonda riguardo alla funzione d'onda.
Anche Albert Einstein favorì un’interpretazione statistica della funzione d'onda; egli pensava addirittura che dovesse esserci qualche altra realtà sottostante non ancora conosciuta, in altre parole delle "variabili nascoste". Oggi numerosi esperimenti escludono nettamente questa possibilità: la natura al suo livello più elementare ha un comportamento intrinsecamente casuale. Altri invece, come il fisico austriaco Erwin Schrödinger, considerarono la funzione d'onda, almeno inizialmente, come un oggetto fisico reale.
Oggi, nonostante l'interpretazione di Copenaghen sia divenuta meno popolare di un tempo, è ancora molto diffusa l'idea che la funzione d'onda rifletta ciò che noi possiamo conoscere del mondo, piuttosto che la realtà fisica. Con l'articolo pubblicato però le cose sono destinate a cambiare; si può davvero dire che in questi giorni si apre un nuovo capitolo nella storia dell'interpretazione della meccanica quantistica.