martedì 27 dicembre 2011

L'arte onirica che nasce dalla computer vision

Con il post di oggi vi voglio mostrare una singolare opera d'arte che nasce dalla ricerca sull'intelligenza artificiale e, in particolare, sulla visione artificiale (o "computer vision"). L'autore, Antonio Torralba, è professore di ingegneria elettronica e informatica presso l'MIT ed è affiliato al laboratorio di informatica e intelligenza artificiale (CSAIL). Qui Torralba sviluppa sistemi IA in grado di interpretare immagini per riconoscere oggetti dal contesto.

Quando il professor Torralba non è impegnato con le sue ricerche al CSAIL trascorre il suo tempo libero creando opere d'arte digitali, sovrapponendo, tramite tecniche particolari, numerosissime immagini l'una sull'altra. Per creare l'affascinante immagine qui sotto il professore ha usato 150 fotografie, ciascuna contenente una persona al centro dell'immagine. Il risultato somiglia ad un disegno fatto a mano e (almeno a mio parere!), ricorda molto anche il video delle "immagini mentali" ottenuto qualche tempo fa’ tramite risonanza magnetica funzionale da un gruppo di ricercatori americani (di cui abbiamo parlato nel post "vedere nella mente"). Usando questo stesso approccio Torralba ha creato una sorta di dizionario visuale in cui ogni immagine rappresenta visivamente il significato di una parola inglese (qui potete visitare il sito del "dizionario"). Oltre ad essere un interessante progetto artistico di per se, questo database servirà al gruppo di Torralba per addestrare sistemi di visione artificiale: "L'obbiettivo è di sviluppare un sistema capace di riconoscere tutti questi 50.000 oggetti" ha affermato il professore.

sabato 24 dicembre 2011

mercoledì 21 dicembre 2011

Ultrasuoni focalizzati - Il futuro non invasivo della chirurgia

Immaginate una chirurgia che non faccia uso di bisturi. In questa conferenza TED MED, Yoav Medan, vice presidente della InSightec, ci parla di una nuova tecnica chirurgica che utilizza ultrasuoni combinati con la risonanza magnetica per curare lesioni cerebrali, fibromi uterini e diversi tipi di formazioni cancerogene senza bisogno di tagliare alcun tessuto del paziente.

La tecnologia a ultrasuoni focalizzati su cui si basa il lavoro di Medan permette di concentrare fino a 1000 fasci ultrasonici su un bersaglio in profondità all'interno del corpo di un paziente con una precisione di circa un 1 mm.
Proprio come una lente d'ingrandimento può concentrare diversi raggi di luce in un singolo punto, così ogni singolo fascio di ultrasuoni attraversa i tessuti senza avere alcun effetto, ma quando tutti i fasci convergono sull'obbiettivo si ha un consistente aumento di temperatura che uccide il tessuto malato nella stessa maniera in cui i raggi di luce concentrati dalla lente possono bruciare una foglia. L'imaging a risonanza magnetica, permettendo di visualizzare l'interno del corpo e di misurarne la temperatura in modo non invasivo entra in gioco per guidare il trattamento in tempo reale, controllare il puntamento dei fasci e confermare immediatamente la riuscita dell'intervento.

Al momento la chirurgia ad ultrasuoni focalizzati guidata tramite risonanza magnetica è stata approvata dalla FDA (Food and Drug Administration) per il trattamento di fibromi uterini. Inoltre sono in corso trial clinici per il trattamento di metastasi alle ossa, tumori al seno, tumori al cervello e presto ne cominceranno altri anche per la cura di schizofrenia, ictus, tumori alla prostata, al fegato, ai reni e al pancreas. Entro pochi anni ulteriori miglioramenti delle tecniche di immaging molecolare e degli scanner MRI dovrebbero permettere la visualizzazione non invasiva di piccoli agglomerati di cellule. Questi miglioramenti nell'imaging, uniti a nuove tecnologie ultrasoniche già allo studio e nuovi vettori di agenti farmacologici renderebbero possibile tutta una nuova, vasta, gamma di applicazioni mediche. Si va dalla possibilità di identificare e distruggere senza effetti collaterali piccolissime strutture cellulari probabilmente cancerose (cosa che darebbe tutto un nuovo significato all'idea di "diagnosi precoce", rivoluzionando la prevenzione oncologica), a quella di dissolvere coaguli nei vasi sanguigni eliminando gli effetti invalidanti degli ictus. Prima di lasciarvi alla conferenza di Medan, per chi volesse avere ulteriori informazioni, linko qui il sito della Focused Ultrasound Surgery Foudation.

sabato 17 dicembre 2011

Gettare lo sguardo nel mondo quantistico

Nei post precedenti vi ho parlato spesso della crescente importanza della "visualizzazione scientifica" nel campo delle scienze della vita. L'utilità di poter "afferrare visivamente" concetti complicati, però, non si limita affatto alla biologia; anche la fisica, infatti, sta cominciando a sfruttare le opportunità offerte dalla grafica 3D. Come amava ricordare Richard Feynman l'immaginazione e la capacità di visualizzare mentalmente il proprio oggetto di studio è fondamentale per uno scienziato.
In fisica i risultati delle simulazioni numeriche eseguite sui più potenti supercomputers possono essere trasformati in accurate ricostruzioni visive della dinamica del fenomeno che si sta studiando. E' questa, ad esempio, l'origine del video nel quale viene ripercorsa l'evoluzione a grande scala dell'universo che è stato argomento di un precedente post.
Ciò che vi voglio mostrare in questo post è, invece, una applicazione alla fisica delle particelle e alla meccanica quantistica: anche quest'ultima, nonostante la sua fama (peraltro meritata!) di estrema controintuitività può essere "visualizzata".

Il brevissimo video qui sotto mostra come apparirebbe l'interno di una particella del tipo di un protone o di un neutrone, se potessimo "vedere" i campi quantistici dei quarks al suo interno.

I quarks, veri e propri "mattoni fondamentali della materia", sono particelle elementari che in natura non si trovano mai isolati, ma solo uniti in particelle composte dette "adroni", come per esempio il protone e il neutrone. Questo si deve alle particolari caratteristiche dell'"interazione forte" attraverso la quale interagiscono tra di loro.
Alla scala spaziale della fisica delle particelle sono fondamentali gli effetti della meccanica quantistica. La teoria quantistica dei campi (in inglese "Quantum field theory") è l'estensione della meccanica quantistica classica che sta alla base del "modello standard della fisica delle particelle": il modello che descrive tutte le particelle elementari e tre delle quattro forze fondamentali ad oggi note, ossia la interazione forte, quella elettromagnetica e quella debole.
La teoria quantistica dei campi descrive tutte le particelle esistenti non come corpuscoli o "palline" come siamo intuitivamente portati a immaginarle ma come "campi" nello spazio. Un campo è una struttura matematica che ad ogni punto dello spazio associa dei numeri che si possono interpretare come l'"intensità" del campo stesso in quel punto.
In termini più intuitivi è come se le particelle non avessero una posizione definita ma fossero "spalmate" in tutto lo spazio con densità variabile da punto a punto a seconda dell'intensità del campo nel punto stesso (proprio come sono "spalmati" gli elettroni negli orbitali di atomi e molecole).

Il video, realizzato da Massimo Di Pierro della "School of Computing" della DePaul University di Chicago, è frutto di simulazioni numeriche di Cromodinamica quantistica (QCD) su reticolo, termine con cui ci si riferisce genericamente a quell'insieme di tecniche di studio della QCD, la teoria dei quark e dei gluoni, che fanno uso di un reticolo spazio-temporale discreto per "semplificare i calcoli".
Nell'animazione ciò che è rappresentato come spazio pieno "colorato" sono i punti dello spazio all'interno di un adrone in cui i vari campi quantistici assumono la maggior intensità. Il processo rappresentato è di "raffreddamento" del sistema, cioè di passaggio da uno stato di maggiore ad uno di minore energia.

venerdì 16 dicembre 2011

Apoptosi - La fine di una cellula

Se avete apprezzato i post "Biomondi" e "Viaggio nel mitocondrio" allora il video che voglio mostrarvi oggi vi piacerà.
Si tratta di un'altra animazione che raffigura in modo scientificamente accurato il frenetico "mondo molecolare" che si nasconde in ogni momento all'interno delle nostre cellule.
Il video in questione è stato realizzato da Drew Berry, professionista della computer grafica applicata alla visualizzazione scientifica, che è stato definito sul New York Times "lo Spielberg dell'animazione molecolare" (qui potete trovare alcuni degli altri video da lui realizzati).

Ciò a cui state per assistere è il processo di "apoptosi", cioè di morte cellulare programmata di una cellula danneggiata. La distruzione della cellula, innescata tramite una complessa cascata di reazioni biochimiche ad opera di un linfocita T Killer, è necessaria per proteggere il tessuto circostante. Al contrario della necrosi, che è una forma di morte cellulare risultante da un trauma cellulare, l'apoptosi è portata avanti in modo ordinato e regolato, richiede consumo di energia sotto forma di ATP e spesso svolge un ruolo essenziale in molti processi fisiologici.
Nelle prime scene mostrate nel video vediamo il linfocita avvicinarsi alla cellula malata, quando alcune speciali proteine poste sulla sua membrana cellulare si legano agli appositi recettori sulla cellula-bersaglio, all'interno di quest'ultima si innesca una catena di reazioni che porta all'attivazione di una proteina del gruppo delle "caspasi". Queste proteine sono enzimi in grado di "tagliare" e quindi distruggere altre proteine. Le prime caspasi ne attivano altre in una reazione a catena che coinvolge rapidamente l'intera cellula. Nel video è mostrata anche la formazione del complesso proteico apoptosoma che contribuisce a questa cascata di reazioni. Questa sorta di processo di "auto-digestione" della cellula termina quando, come mostrato nella parte finale del video, le caspasi finiscono per recidere i filamenti di actina del citoscheletro che garantiscono integrità strutturale alla cellula. Questo la porta in breve al collasso sotto la sua stessa pressione osmotica.

mercoledì 14 dicembre 2011

Consigli di lettura natalizi

Ormai è quasi Natale, per questo ho deciso, come avviene su molti altri blog scientifici, di proporvi anch'io quattro libri che penso potrebbero farvi buona compagnia nel periodo delle feste.

La prima lettura che vi propongo è: "La scoperta dell'universo. I misteri del cosmo alla luce della teoria dell'informazione" di Charles Seife, matematico e divulgatore scientifico americano. In questo libro l'autore, con un linguaggio sempre chiaro e preciso, mostra come, attraverso la teoria dell'informazione, si possa gettare una luce completamente nuova su tutta la fisica, dalla meccanica quantistica alla teoria della relatività, risolvendo molti apparenti "paradossi" di queste teorie. Nelle pagine di questo appassionante saggio Seife ci mostra anche come la portata rivoluzionaria della teoria dell'informazione non si limiti alla fisica ma abbracci anche la biologia e le neuroscienze, aiutandoci a comprendere cosa sia la vita e come funzioni la nostra mente. Considero questo libro per la sua originalità e la sua profondità uno dei migliori libri di divulgazione scientifica che io abbia mai letto. Per chi fosse interessato, ecco il link alla pagina di amazon del libro.

La seconda lettura che vi consiglio è "Odissea nello zeptospazio. Un viaggio nella fisica dell'LHC" di Gian Francesco Giudice, fisico teorico delle particelle presso il CERN di Ginevra. Questo scorrevole saggio è una guida chiara e comprensibile per apprezzare le scoperte scientifiche che avranno luogo presso l'LHC, prima tra tutte l'eventuale scoperta del famigerato "bosone di Higgs" (di cui proprio in questi giorni si stanno avendo i primi indizi). Il professor Giudice ci guida in questo libro in un affascinante viaggio nel mondo della fisica delle particelle e ci fa conoscere le stupefacenti innovazioni tecnologiche che sono state necessarie per realizzare il più grande esperimento scientifico di sempre. Qui il link alla pagina del libro.

Il terzo saggio che vi consiglio è "On Intelligence" di Jeff Hawkins e Sandra Blakeslee (di cui potete vedere la copertina nell'immagine in alto). Di questo libro, in cui il neuroscienziato Jeff Hawkins espone la sua interessantissima ed innovativa teoria del funzionamento del cervello, abbiamo già parlato in un post precedente, che vi invito a consultare per saperne di più sull'argomento. Se l'inglese non vi spaventa troppo (purtroppo, per quanto ne so, non è mai stato tradotto in italiano) e la domanda "come funziona il cervello?" vi interessa, non potete davvero farvi sfuggire questo libro che costituisce una splendida e originale introduzione alle neuroscienze e all'intelligenza artificiale. Linko qui la pagina di amazon di "On Intelligence"

L'ultimo libro che voglio consigliarvi oggi è, come il precedente, disponibile solo in inglese; si tratta di "The Machinery of Life" del biochimico David Goodsell. Questo saggio, oltre ad essere un ottimo, e peraltro raro, esempio di divulgazione delle biologia molecolare, è perfetto per chi di voi ha apprezzato i precedenti post sulla visualizzazione scientifica dei "mondi molecolari" presenti all'interno delle nostre cellule. L'autore infatti è uno dei pionieri della visualizzazione scientifica in biologia, al suo lavoro, infatti ho intenzione di dedicare, in futuro, un post. "The Machinery of Life" è un viaggio nel microscopico mondo delle macchine molecolari che operano nelle cellule viventi; nel testo vari tipi di cellule e biomolecole sono presentate ai lettori facendo uso di una serie di bellissimi acquerelli scientificamente accurati. Ecco il link della pagina di Amazon del libro, per vedere alcune delle immagini del libro potete visitare la homepage del professor Goodsell.

Buon Natale e buona lettura allora! ;)

martedì 13 dicembre 2011

Scolpire nanoparticelle

In un articolo recentemente pubblicato su "Science", un gruppo di ricercatori dell'"Istituto Catalano di Nanotecnologia" ha dimostrato l'efficacia di un nuovo metodo per produrre nanoparticelle cave dotate di una larga varietà di forme, anche dalla geometria notevolmente complessa. Al di là della loro intrinseca bellezza (che potete ammirare nella foto qui a fianco), simili nanostrutture rappresentano un grande passo avanti per la nanotecnologia grazie alle loro possibili applicazioni nel campo del "drug delivery" e della nanomedicina, della catalisi, e persino come componenti di macchine e robot di dimensioni nanometriche.

Costruire oggetti tridimensionali alla nanoscala, modellandoli secondo necessità, è qualcosa di davvero complicato e che presenta grandissime sfide tecnologiche. Per questo, fino ad oggi, gli scienziati si sono quasi sempre limitati a sfruttare le proprietà di nanotubi e nanostrutture senza modificarne la forma. Procedendo in questo modo, però, i gradi di libertà nell’assemblaggio e nella definizione della struttura di questi "nano-oggetti" sono sempre stati decisamente bassi.
Grazie ai ricercatori catalani autori dell'articolo questo problema adesso potrebbe essere risolto. Controllando grandezze come temperatura, tensione superficiale e forze intermolecolari delle sostanze presenti nell'ambiente circostante è possibile scegliere il grado di uniformità e il tipo di struttura dei nano-oggetti che vengono prodotti a partire da vari materiali. In particolare, ad esempio, lasciando interagire metalli liquidi che hanno tempi di diffusione diversi si possono creare piccoli manufatti bucati o a più strati (effetto Kirkendall). Oppure, mescolando un metallo ridotto (cioè al quale sono stati aggiunti elettroni) con un altro in stato ossidato (con meno elettroni) e con caratteristiche elettrochimiche particolari è possibile ottenere nano-oggetti rivestiti di uno dei due materiali (deposito galvanico). Questi due processi; l'effetto Kirkendall e la galvanizzazione, così come altre tecniche di corrosione, sono comunemente usate alla macroscala in numerosi processi industriali. Per questo motivo, il lavoro degli scienziati catalani è particolarmente promettente dal punto di vista commerciale, vista la relativa facilità con cui queste tecniche possono essere adottate su scala industriale.

"Si apre dunque la strada per un nuovo modo di modellare le nanoparticelle – ha commentato, sempre su Science, Wolfgang Parak dell’Università di Marburg – che finalmente ci permetterà di strutturarle in modo da incontrare perfettamente i nostri bisogni".

Nella figura qui sotto potete trovare le immagini (accostate ai rispettivi schemi) di alcune delle strutture create dai ricercatori; si va da nanoparticelle a forma di scatola aperta, di scatola polimetallica con doppie pareti e pori, fino a scatole compartimentate con pareti interne, nanoaghi di varie forme e fullereni metallici.

lunedì 12 dicembre 2011

Medicina rigenerativa - Stampare organi

In questo post voglio approfondire uno dei temi toccati da Daniel Kraft nella conferenza che è stata argomento di uno scorso post: la medicina rigenerativa.
Con questo termine ci si riferisce normalmente a tutta una ampia gamma di pratiche biomediche, ancora in fase di sviluppo o di recente adozione nella pratica clinica. Queste vanno dalla così detta "terapia cellulare", che consiste nell'inserimento di cellule staminali o cellule progenitrici direttamente nei tessuti in vivo, fino all'"ingegneria tissutale", termine con cui si intende la crescita in vitro di organi e tessuti destinati a trapianti.
Più in generale si può definire "medicina rigenerativa" qualunque pratica medica mirante a "rimpiazzare o rigenerare cellule, tessuti o organi in modo da ristabilire la loro normale funzionalità".
Ciò che vi voglio mostrare è una interessante conferenza in cui Anthony Atala, uno dei padri della medicina rigenerativa, illustra il suo pionieristico lavoro nel campo dell'ingegneria tissutale. Il professor Anthony Atala è direttore del "Wake Forest Institute for Regenerative Medicine", uno dei centri di ricerca più avanzati al mondo nel suo campo. In questo istituto, per la prima volta al mondo, organi "sintetici", cioè cresciuti in laboratorio, sono stati impiantati con successo in pazienti umani. Oggi nel centro diretto da Atala lavora un gruppo interdisciplinare di ricerca che è attualmente impegnato nello sviluppo di più di trenta tipi di organi e tessuti sintetici e di vari generi di terapie cellulari.

In questa conferenza TED il professore mostra un esperimento, ancora nelle sue in fasi iniziali, che potrebbe risolvere un domani il problema della donazione di organi: una stampante 3D che fa uso di cellule viventi per fabbricare reni trapiantabili. Nel video il dottor Atala ci mostra anche diverse avanzate macchine per l'ingegneria dei tessuti presenti nel suo laboratorio, dai bioreattori, dispositivi che mantengono al loro interno condizioni fisiche e chimiche tali da permettere la crescita di cellule o tessuti, fino alle vere e proprie "stampanti di organi" che sono in grado, strato dopo strato, di assemblare tessuti e organi umani funzionali. La possibilità di stampare organi è una delle più grandi promesse della medicina rigenerativa; per intuirne l'importanza basti pensare che, ogni giorno, moltissimi pazienti muoiono a causa della mancata reperibilità di organi disponibili per trapianti e che, negli ultimi dieci anni, se le domande di trapianto sono più che raddoppiate, il numero di trapianti effettuati è rimasto costante.

venerdì 9 dicembre 2011

Il chip che imita il cervello - Hardware neuromorfico

Ho già parlato di "hardware neuromorfico", cioè di circuiti integrati dotati di componenti pensate per imitare il funzionamento di neuroni e sinapsi, nel precedente post "Tre strade per costruire una macchina pensante" (che avevo pensato proprio come un'introduzione a ciò che state per leggere).

Nei giorni scorsi, ricercatori dell'MIT hanno compiuto un passo importante in questo campo riuscendo a realizzare dei chip in grado di imitare il modo in cui le reti di neuroni biologici rispondono e si adattano quando entrano in contatto con nuovi pattern di informazione. Il fenomeno in questione è detto "plasticità neurale" e gioca un ruolo fondamentale in tutte le funzioni cognitive superiori, incluso l'apprendimento e la memoria.
Il chip realizzato dagli scienziati americani è stato progettato in modo che gruppi di transistor possano imitare l'attività dei diversi tipi di canali ionici presenti sui neuroni. Con circa 400 transistor, invece, è possibile simulare sui chip di silicio l'attività di una singola sinapsi.
Sono presenti circa 100 miliardi di neuroni in un cervello umano, ognuno di questi si collega tramite sinapsi a numerosi altri. Le sinapsi sono il punto di contatto tra le pareti cellulari di due neuroni; qui l'impulso nervoso viene trasmesso da un neurone all'altro grazie a particolari sostanze dette neurotrasmettitori (come ad esempio il glutammato o il GABA). Queste, rilasciate dal neurone presinaptico, vanno a legarsi su specifici recettori posti sulla membrana dell'altro (neurone postsinaptico), provocando un cambiamento del potenziale elettrico ai capi della sua membrana cellulare. Il cambiamento del potenziale può innescare l'apertura di canali ionici voltaggio-dipendenti (come quelli di cui parlavamo in questo post), dando il via ad una brusca diminuzione della differenza di potenziale ai capi della membrana (detta depolarizzazione) che propaga l'impulso nervoso al resto del neurone postsinaptico. In questo caso si dice che il neurone in cui avviene la depolarizzazione "spara".
Tutta l'attività sinaptica dipende dai canali ionici, è chiaro quindi quanto sia importante poterne riprodurre il comportamento per ottenere chip neuromorfici biologicamente realistici.
"Ora siamo in grado di regolare finemente i parametri dei circuiti per riprodurre le caratteristiche di specifici canali ionici ed arrivare ad imitare quasi qualunque processo ionico che avviene nei neuroni" ha affermato uno dei ricercatori coinvolti nello studio. In precedenza si era in grado di simulare lo "sparo" dei neuroni e la propagazione dell'impulso nervoso ma non tutte le circostanze che possono esserne all'origine.
Il chip realizzato rappresenta un "significativo miglioramento nello sforzo di incorporare ciò che sappiamo sulla biologia dei neuroni e sulla plasticità sinaptica in un circuito CMOS (acronimo di complementary metal-oxide semiconductor, un tipo di tecnologia utilizzata in elettronica per la progettazione di circuiti integrati)". Secondo Dean Buonomano, professore di neurobiologia all'università della California a Los Angeles, "il livello di realismo biologico è impressionante".

I ricercatori dell'MIT pensano di utilizzare il chip per studiare numerose funzioni cerebrali, come ad esempio il riconoscimento visivo, senza dover ricorrere a costose simulazioni su supercomputer. Un'altra interessante applicazione del dispositivo è come interfaccia neurale, ad esempio per la realizzazione di retine artificiali, o come neuroprotesi. Inoltre, in un futuro forse non troppo lontano,
questi chip neuromorfici potrebbero diventare i "mattoni" con cui costruire una "macchina pensante" del tipo di quelle di cui parlavamo nello scorso post.

mercoledì 7 dicembre 2011

Il SETI riparte da Kepler

Proprio in questi giorni il team della missione spaziale Kepler della NASA ha confermato l’esistenza di Kepler-22b, un pianeta extrasolare che orbita nella “fascia di abitabilità” della sua stella, simile al nostro Sole. Il pianeta, che si trova a circa 600 anni-luce da noi nella direzione della costellazione del cigno, ha un diametro pari a 2,4 volte quello terrestre che lo rende il piò piccolo pianeta potenzialmente abitabile scoperto fino ad oggi. La temperatura media superficiale stimata dagli astronomi è di circa 22 gradi, per questo potrebbe essere presente acqua liquida sulla superficie e, di conseguenza, condizioni adatte allo sviluppo della vita.

La notizia divulgata dalla NASA arriva in contemporanea a quella del Planetary Habitability Laboratory dell'Università di Puerto Rico ad Arecibo che proprio grazie ai dati di Kepler ha condotto una nuova valutazione dell'abitabilità dei pianeti già compresi nell'Habitable Exoplanets Catalog (HEC) che non solo raccoglie i nuovi esopianeti ma li classifica secondo diversi indici di abitabilità. Prima di Kepler-22b solo due esopianeti confermati hanno soddisfatto tutti i criteri di abitabilità nel catalogo: Gliese 581d e HD 85512b, entrambi classificati come esopianeti di tipo terrestre.

E' proprio in questo contesto di ottimi risultati scientifici da parte della missione Kepler che, dopo essere stato fermo per sei mesi a causa di problemi di finanziamenti, riapre l' Allen Telescope Array (ATA) (mostrato in figura).Questo osservatorio radioastronomico è il principale strumento di ricerca del progetto SETI (acronimo di "Search for Extra-Terrestrial Intelligence", cioè "Ricerca di Intelligenza Extraterrestre"). Il SETI è un programma scientifico privato, fondato negli anni settanta da Carl Sagan e Frank Drake, dedicato alla ricerca della vita intelligente extraterrestre abbastanza evoluta da poter inviare segnali radio nel cosmo.
Gli obbiettivi principali della nuova campagna di ascolto dell'ATA saranno proprio gli esopianeti potenzialmente abitabili scoperti negli ultimi tempi dalla missione Kepler.

"Questa è una splendida opportunità per le osservazioni SETI", ha commentato il Dottor Jill Tarter, direttore del "Center for SETI Research" presso il SETI Institute; "Per la prima volta, possiamo puntare i nostri telescopi verso stelle che sappiamo ospitare sistemi planetari contenenti pianeti dalle caratteristiche di abitabilità analoghe a quelle della Terra. Questo tipo di mondi potrebbe essere la casa di altre civiltà in grado di costruire radiotrasmettitori"
Pur non limitandosi a questi, i primi pianeti che verranno esaminati nell'ambito del progetto SETI saranno quelli che si trovano all'interno della "zona di abitabilità" della loro stella. La "zona di abitabilità" contiene tutte le distanze orbitali da una stella che permetterebbero la presenza di acqua liquida sulla superficie di un eventuale pianeta; questa proprietà è molto importante per il tipo di ricerche svolte dal SETI, la maggior parte degli astrobiologi, infatti, concordano sul fatto che la presenza di acqua liquida sia essenziale per l'esistenza della vita. Il telescopio ATA passerà i prossimi due anni osservando questi sistemi planetari alle lunghezze d'onda tra 1 e 10 GHz, una finestra dello spettro elettromagnetico naturalmente silenziosa, riuscendo a monitorare contemporaneamente milioni di canali contemporaneamente.

La ripresa delle operazioni dell'ATA è stata possibile grazie al grande supporto ricevuto da privati cittadini che in questi mesi hanno compiuto donazioni sul sito www.SETIStars.org. Mantenere in attività il programma SETI ha un costo ma il gioco vale decisamente la candela perché, se la ricerca avesse successo, le implicazioni sarebbero davvero senza precedenti, oltre a rispondere alla fondamentale domanda: "Siamo soli nell'universo?" captare un segnale radio prodotto da una civiltà aliena getterebbe una luce completamente nuova su questioni come: "Quanto è probabile la nascita della vita?" "E di forme di vita intelligenti?" "Come potrebbe evolvere la vita nel futuro?". In proposito consiglio la lettura di due interessanti approfondimenti, rispettivamente di Stephen Hawking e di Nick Bostrom, che potete trovare qui e qui, tradotti in italiano sul bel sito Futurology.it.

martedì 6 dicembre 2011

Tre strade per costruire una macchina pensante

Abbiamo già parlato in post precedenti di alcuni progetti, al momento in corso, che mirano a realizzare un vero e proprio "cervello artificiale"; un computer che funzioni secondo gli stessi principi di funzionamento del nostro cervello. Una cosa che non abbiamo detto è, però, che ci sono almeno tre approcci notevolmente diversi alla creazione di una simile macchina pensante.

Il primo, che potremmo definire "di forza bruta", è quello attuato da Hanry Markhram con il suo Blue Brain Project: utilizzare potentissimi supercomputer per simulare un intero cervello a partire dai singoli neuroni. Questo approccio pur presentando numerosi vantaggi ed un enorme interesse scientifico (ad esempio come strumento di ricerca neurobiologica) è decisamente inefficiente dal punto di vista energetico e delle risorse di calcolo.
Per capire il perché è sufficiente dare un'occhiata alle grandezze in gioco.
Per simulare in questo modo un cervello umano servirà un supercomputer con una potenza di calcolo di decine di miliardi di megaflops (i flops, o FLoating point Operations Per Second, sono il numero di operazioni in virgola mobile eseguite in un secondo da un calcolatore), che per il suo funzionamento consumerà probabilmente decine di milioni di watt di potenza (il consumo medio di qualche decina di migliaia di abitazioni). Un supercomputer computer del genere dovrebbe essere disponibile entro una decina d'anni, tuttavia se si pensa che al cervello umano per esibire tutte le sue peculiari proprietà bastano circa 2 miliardi di megaflops e 20 watt di potenza diventa chiaro quanto poco efficiente sia simularne il funzionamento basandosi su una architettura di calcolo classica.
E' probabile che questo tipo di simulazioni rimarranno sempre, almeno per alcuni scopi, le più utili, tuttavia realizzare sistemi di intelligenza artificiale neuroispirati "portatili", come ad esempio quelli per la robotica, con questo metodo non sarà una strada praticabile per molto tempo (almeno fino a quando non si saranno concretizzate le promesse più estreme della nanotecnologia molecolare).
E' proprio per ovviare a tutti i lati negativi del metodo "simulazione diretta" e soddisfare queste diverse esigenze che sono stati pensati gli altri due approcci.

Il secondo è ben rappresentato, ad esempio, dal lavoro di Jeff Hawkins o Deleep George (di cui abbiamo già parlato qui) e consiste nel cercare di carpire dagli studi neuroscentifici la vera "essenza" di ciò che fa il cervello dal punto di vista computazionale, tralasciando i "dettagli neurobiologici" inessenziali (e risparmiando quindi molta capacità di calcolo ed energia). In altre parole trovando "l'algoritmo corticale" di cui parla Hawkins non sarebbe più necessario simulare un cervello nei minimi dettagli per ottenere una macchina dotata di intelligenza e pensiero umano. Infatti basterebbe far "girare" questo "algoritmo dell'intelligenza" direttamente su un computer per ottenere una intelligenza artificiale di livello umano; proprio come per simulare le proprietà di processamento dell'informazione di un circuito non è necessario simularlo a partire dagli atomi che lo costituiscono ma basta disporre di una sua schematizzazione, in altre parole di un modello matematico del suo funzionamento.

Il terzo approccio consiste invece nella creazione di "hardware neuromorfico" cioè di circuiti integrati che implementino direttamente nella loro struttura fisica l'architettura del sistema nervoso tramite componenti progettate per imitare le funzioni di neuroni e sinapsi. La vera sfida in questo caso è l'accuratezza biologica, questa è chiaramente più difficile da ottenere nel realizzare un sistema fisico piuttosto che una simulazione virtuale. Nonostante le difficoltà che presenta questo approccio, in caso di riuscita si avrebbe sicuramente un sistema molto efficiente economico e compatto, quindi perfetto per gli usi "portatili" cui si accennava prima. In questo settore, di evidente rilevanza strategica è in corso una vera e propria corsa tecnologica tra l'Europa con il progetto BrainScales e gli Stati uniti con il progetto SyNAPSE della DARPA in collaborazione con la IBM.

Ciò che vi ho appena raccontato vuole essere una introduzione ad un altro post che pubblicherò a breve, in cui vi parlerò di un importante passo avanti compiuto di recente da ricercatori dell'MIT proprio nel campo dei chip neuromorfici. Restate in ascolto per il resto della storia! ;)

venerdì 2 dicembre 2011

La realtà fisica della funzione d'onda

E' stato recentemente pubblicato sulla rivista arXiv un articolo che potrebbe avere un grosso impatto sulla meccanica quantistica e sul modo di interpretarla. Tre ricercatori hanno mostrato come la funzione d’onda - sulla cui interpretazione i fisici discutono dal 1920 - non sia uno strumento puramente statistico ma un oggetto fisicamente reale.
La funzione d'onda è un oggetto matematico che riassume tutte le informazioni circa uno stato quantistico di una particella. Questa entità matematica viene comunemente utilizzata per determinare le probabilità che le particelle quantistiche mostrino determinate proprietà quando sottoposte ad un processo di misura. Mentre molti fisici hanno sempre interpretato la funzione d'onda come uno strumento statistico che riflette la nostra ignoranza sulle particelle oggetto di valutazione, il lavoro di Matthew F. Pusey, Jonathan Barrett e Terry Rudolph dimostra come essa debba essere considerata come un oggetto fisicamente reale. Nell'abstract dell'articolo i firmatari scrivono:

"Le funzioni d'onda sono gli oggetti matematici alla base della teoria quantistica. E' per questo sorprendente che fino ad ora i fisici non siano stati in grado di trovare un accordo su cosa queste rappresentino. Ci sono, in proposito, almeno due scuole di pensiero, ognuna delle quali antica quasi quanto la teoria quantistica stessa. La prima vede la funzione d'onda come una proprietà fisica di un sistema, proprio come lo sono la posizione o la quantità di moto in meccanica classica. La seconda la vede come un mero strumento statistico, come una distribuzione di probabilità in meccanica statistica. In questo articolo, partendo da pochi assunti largamente condivisi, mostriamo come l'interpretazione statistica della funzione d'onda è inconsistente con le predizioni della meccanica quantistica."

Una coppia di particelle quantistiche si definisce in uno stato di "entanglement" quando è avvenuta una interazione tale che una grandezza osservabile dell'una sia necessariamente complementare a quella dell'altra (ad esempio se una possiede spin -1/2 l'altra deve avere 1/2). In queste condizioni si verifica una sorta di "azione a distanza" per la quale, quando la sovrapposizione di stati di una delle due viene fatta collassare da una misura, istantaneamente, anche la funzione d'onda dell'altra particella collassa nello stato opposto. Questo avviene a prescindere dalla distanza alla quale si trovano le due particelle, apparentemente violando il limite della velocità della luce nella velocità di trasferimento dell'informazione.
E' su alcuni aspetti di questo bizzarro, seppur ben verificato, fenomeno che si basano le considerazioni esposte nel nuovo articolo dei fisici dell'Imperial College di Londra.

La portata teorica del loro lavoro è notevole: "Non vorrei sembrare enfatico, ma credo che a questo documento andrebbe probabilmente applicata la parola 'sismico’ ", spiega Antonio Valentini, fisico teorico specialista in fondamenti quantistici alla Clemson University, in South Carolina.

Il dibattito sull’interpretazione della funzione d'onda risale al 1920. Nell’interpretazione di Copenaghen, introdotta dal fisico danese Niels Bohr, la funzione d'onda era considerata come un mero strumento di calcolo. La linea di pensiero allora più diffusa nella comunità scientifica non incoraggiava a cercare una spiegazione più profonda riguardo alla funzione d'onda.
Anche Albert Einstein favorì un’interpretazione statistica della funzione d'onda; egli pensava addirittura che dovesse esserci qualche altra realtà sottostante non ancora conosciuta, in altre parole delle "variabili nascoste". Oggi numerosi esperimenti escludono nettamente questa possibilità: la natura al suo livello più elementare ha un comportamento intrinsecamente casuale. Altri invece, come il fisico austriaco Erwin Schrödinger, considerarono la funzione d'onda, almeno inizialmente, come un oggetto fisico reale.
Oggi, nonostante l'interpretazione di Copenaghen sia divenuta meno popolare di un tempo, è ancora molto diffusa l'idea che la funzione d'onda rifletta ciò che noi possiamo conoscere del mondo, piuttosto che la realtà fisica. Con l'articolo pubblicato però le cose sono destinate a cambiare; si può davvero dire che in questi giorni si apre un nuovo capitolo nella storia dell'interpretazione della meccanica quantistica.

sabato 26 novembre 2011

E-ELT - Il più grande occhio sul cielo

E' di circa un mese fa la notizia che, con una cerimonia ufficiale, il Ministro degli Affari Esteri del Cile, Alfredo Moreno, e il Direttore Generale dell’ESO (European Southern Observatory), Tim de Zeeuw, hanno siglato l’accordo sulla costruzione di E-ELT (European Extremely Large Telescope). L’accordo tra ESO e governo cileno prevede la donazione dei terreni sui quali sorgerà il telescopio, una concessione a lungo termine per crearvi attorno una zona protetta, ed il supporto da parte del governo cileno.

L' European Extremely Large Telescope (E-ELT), progettato per essere il telescopio ottico più grande della prossima generazione, disporrà di uno specchio primario di ben 39 metri.

L'attuale tecnologia di fabbricazione degli specchi pone un limite intorno agli otto metri per quelli costituiti da un singolo pezzo; per questo tutti i più recenti telescopi di grandi dimensioni usano una sorta di fitto "mosaico" di specchi esagonali per formarne di compositi. Un'altra caratteristica dei più recenti telescopi di cui sarà dotato anche E-ELT è un sistema di "ottica adattiva", che, grazie a piccole deformazioni controllate dei suoi specchi, sarà in grado di compensare i disturbi della turbolenza atmosferica rendendo effettivo tutto il potenziale reso disponibile dal grande diametro. Il telescopio sorgerà, presso il Cerro Armazones, una regione del deserto cileno a soli 20 km dal Cerro Paranal dove sorge il VLT (Very Large Telescope), la principale struttura osservativa dell'ESO: un sistema di quattro telescopi ottici separati dal diametro di 8 m ciascuno, affiancati da vari strumenti minori. La costruzione di E-ELT comincerà nei primi mesi del 2012 mentre è nel 2018 che dovrebbero cominciare le prime campagne osservative.

E-ELT affronterà una delle maggiori questioni scientifiche del nostro tempo cercando di rispondere alla domanda "siamo soli nell'universo?". Uno dei suoi obbiettivi infatti sarà quello di individuare ed osservare pianeti di tipo terrestre orbitanti nella fascia di abitabilità della propria stella, riuscendo addirittura a studiarne la composizione chimica atmosferica. Il nuovo telescopio contribuirà anche a sondare la natura di materia ed energia oscura e a migliorare i modelli cosmologici attuali misurando con precisione le proprietà delle prime stelle e galassie. Ma gli astronomi prevedono anche delle sorprese, è molto probabile infatti che nuove ed imprevedibili questioni sorgeranno osservando il cielo con uno strumento senza precedenti come E-ELT.

martedì 22 novembre 2011

Connettomica – Costruire una mappa della mente

Vi segnalo che oggi è stato pubblicato su FuturoProssimo un mio articolo sulla connettomica, la scienza, ancora neonata, della mappatura delle connessioni cerebrali... Ne avevamo già parlato in altri post e in particolare in "I am my connectome - Io sono il mio connettoma" dove vi ho mostrato una conferenza del professor Sebastian Seung sull'argomento.
Se volete saperne di più sugli sviluppi e le prospettive di questa affascinante avventura scientifica, ecco il link all'articolo...

lunedì 21 novembre 2011

Transumanesimo - Un' introduzione

In questo post voglio mostrarvi una conferenza di Nick Bostrom, professore di filosofia all'università di Oxford, che ritengo una buona introduzione ai temi del transumanesimo.
Questi comprendono le più estreme implicazioni e prospettive future degli argomenti scientifici e tecnologici spesso trattati in questo blog: dalle nanotecnologie molecolari (di cui ho già parlato in questo post) alla crionica (potete trovare altre informazioni e approfondimenti qui, qui e qui), fino al "mind uploading" ( approfondimenti qui, in inglese) o alla possibilità di fermare l'invecchiamento grazie a terapie biotecnologiche (di cui abbiamo già parlato di recente). Tutto questo potrebbe sembrare fantascienza ma, grazie al lavoro di chi fa ricerca scientifica, si sta rapidamente concretizzando, anzi, osservando i trends (qui trovate un approfondimento in proposito) di sviluppo di molti settori scientifici e tecnologici, pare possibile, se non probabile, che molto di tutto ciò divenga realtà nel corso di questo secolo o addirittura tra pochi decenni.
Ora forse vi starete chiedendo: "Cos'è il Transumanesimo?"
Per rispondere a questa domanda riporto da wikipedia alcuni dei passi che ritengo più significativi:

"Il transumanesimo o transumanismo (a volte abbreviato con >H o H+ o H-plus) è un movimento culturale che sostiene l'uso delle scoperte scientifiche e tecnologiche per aumentare le capacità fisiche e cognitive e migliorare quegli aspetti della condizione umana che sono considerati indesiderabili, come la malattia e l'invecchiamento, in vista anche di una possibile trasformazione post-umana."

"Seguendo le tradizioni filosofiche dell'Umanesimo rinascimentale, pone gli esseri umani al "centro" dell'universo morale, e sostiene che non esistano forze sovrannaturali che guidino l'umanità. Tende inoltre a preferire discussioni razionali e osservazioni empiriche dei fenomeni naturali e promuove pertanto scienza e ragione.
Seguendo la tradizione scientifica, morale e filosofica del XIX secolo, influenzata dall'Illuminismo e dal Positivismo, il transumanesimo si pone come obiettivo l'utilizzo della conoscenza globale come mezzo in vista di un miglioramento individuale e civile."


"Si cerca di applicare la ragione, la scienza e la tecnologia allo scopo di ridurre la povertà, la malattia, la disabilità, la malnutrizione e i governi oppressivi esistenti nel mondo, per far sì che la realtà materiale della condizione umana soddisfi le promesse di equità e giustizia legale e politica e di automiglioramento, eliminando barriere mentali e fisiche congenite. In riferimento a questo obiettivo molti transumanisti considerano positivamente il potenziale futuro della tecnologia e di sistemi sociali innovativi per il miglioramento della qualità della vita."

Se siete incuriositi o volete approfondire vi consiglio una visita alla pagina introduttiva del bel sito Estropico.org, di dare un occhiata alla pagina "Transumanesimo? Estropia?! Ma dove sono capitato?!" su EstropicoBlog o di guardare la pagina di wikipedia in proposito (linko la pagina in inglese perché più completa della voce italiana).
Dopo questa necessaria premessa torniamo a parlare del video argomento di questo post. Il conferenziere, Nick Bostrom è uno dei padri del transumanesimo, fondatore della "World Transhumanist Association" (ora Humanity+), oggi dirige il "Future of Humanity Institute" presso l'università di Oxford. Questo istituto è un centro di ricerca interdisciplinare pensato per riflettere sulle prospettive e i pericoli che attendono l'umanità nel suo futuro.
Nel video Bostrom specula sulla possibilità di alterare la natura fondamentale dell' umanità per risolvere i problemi più intrinseci dell'esistenza umana.

Ho deciso introdurre questo argomento non solo perché penso che questo possa interessare tutti coloro che seguono gli sviluppi di scienza e tecnologia, ma anche e soprattutto perché, come dicevo nel primo post, ritengo importante che si diffonda una maggior conoscenza anche delle implicazioni più estreme di ciò che, già oggi, si sta realizzando nei laboratori di ricerca di tutto il mondo, in modo tale che si possa instaurare un dibattito pubblico positivo e informato in proposito.

A questo punto non mi resta che auguravi buona visione!

Sconfiggere l'invecchiamento - La prossima sfida per la scienza

Come fa notare Hugo Aguilaniu, biologo molecolare del CNRS (Centre national de la recherche scientifique) all'Ecole normale supérieure di Lione, in un articolo recentemente apparso sul quotidiano "Le Monde" siamo di fronte ad un vero e proprio "tsunami scientifico": ogni mese vengono pubblicati più di 1000 articoli scientifici sulla biologia dell'invecchiamento o sulla "biotecnologia della longevità". Nell'articolo apparso qualche giorno fa sul giornale francese il professor Aguilaniu afferma: "nel prossimo decennio, una molecola in grado di aumentare la durata della vita umana potrebbe essere messa in commercio" , "all'Ecole normale supérieure di Lione" - continua il ricercatore - "riusciamo a far vivere per ben trecento giorni un verme che, normalmente, sopravvivrebbe solo per diciannove. Tutto questo modificando solo 3 coppie di basi nel suo genoma".

Nel giro di una settimana, nei primi giorni di questo mese, sono stati pubblicati tre diversi risultati scientifici ciascuno dei quali segna una vera svolta nella lotta contro l'invecchiamento.

Il primo di questi studi, i cui autori sono un gruppo di ricercatori francesi dell'istituto di genomica funzionale di Montpellier, ha mostrato come cellule prelevate da pazienti ultranovantenni possano essere "ringiovanite", eliminando alcuni tipi di danni cellulari, per riportarle allo stadio di cellule staminali.
I ricercatori si sono concentrati sulla riparazione dei danni provocati nel corso del tempo ai telomeri. I telomeri sono la regione terminale dei cromosomi, composti da DNA altamente ripetuto e non codificante per alcun prodotto proteico, hanno un ruolo determinante nell'evitare la perdita di informazioni durante la duplicazione dei cromosomi stessi. Il risultato ottenuto dai ricercatori, oltre a dimostrare una volta per tutte come l'invecchiamento sia un processo a tutti gli effetti reversibile, apre la strada a numerose possibili applicazioni nel campo della medicina rigenerativa (a cui ho intenzione di dedicare un post a breve).

Il secondo grande risultato di questi giorni è opera di un équipe di ricercatori della Mayo Clinic, in Minnesota, che sono riusciti a "ringiovanire" vari tipi di tessuti nei topi rimovendo le cellule senescenti che sono la causa di molte delle patologie legate all'invecchiamento. A questa notizia ho dedicato un articolo che, nei giorni scorsi, è stato postato su "Futuro Prossimo" (lo linko qui per chi volesse approfondire).

Sempre in questi giorni scienziati svedesi dell'università di Göteborg sono riusciti a ottenere nel lievito gli effetti delle "restrizione calorica" semplicemente aggiungendo nelle cellule un particolare enzima. Il regime di "restrizione calorica" è una dieta poverissima di calorie che induce, anche nei mammiferi, alterazioni metaboliche ancora non del tutto conosciute che causano un significativo aumento della longevità.

Intanto si stanno facendo, anche grazie al continuo miglioramento delle tecniche di sequenziamento del DNA, progressi sempre più rapidi nella ricerca di un "segreto genetico" della longevità. Tanto per fare un esempio è di ottobre la notizia che un gruppo della Emory University ha identificato nei moscerini un gruppo di geni importanti nella regolazione dell'invecchiamento e nella risposta agli stress delle cellule muscolari. Sempre in questo campo è stata di recente lanciato l'"Archon Genomics X Prize" un premio da 10 milioni di dollari (oltre 7 milioni di euro) per i primi che riusciranno a sequenziare l’intero genoma di 100 centenari in soli 100 giorni. Il concorso è sponsorizzato dalla Medco, una compagnia che lavora nel campo della sanità, per promuovere lo sviluppo di tecnologie capaci di perfezionare ancora le tecniche di sequenziamento genetico.
Anche programmi come quelli della fondazione SENS (Strategies for Engineered Negligible Senescence Foundation), una organizzazione che si dedica proprio a realizzare e promuovere la ricerca scientifica mirata a sconfiggere l’invecchiamento, fondata dall'eccentrico e geniale biogerontologo Aubrey de Gray, stanno cominciando riportare i primi successi.

Dan Perry, presidente della "Alliance For Aging Research" ha dichiarato che ci sarà ancora bisogno ancora di molti finanziamenti e di tempo perché i risultati di questa vera e propria "primavera scientifica" si concretizzino nella pratica clinica ma la posta in gioco è alta: "la speranza non è solo quella di estendere la durata della vita, ma soprattutto quella di estendere la durata della vita in buona salute, riducendo l'impatto di diabete, malattie cardiovascolari e cancro, in modo da migliorare la qualità della vita di chi è in là con gli anni".

PS: Se siete interessati all'argomento vi consiglio di leggere anche il più recente post: "Aubrey de Grey e la lotta contro l'invecchiamento".

Crosspostato su Estropico Blog.

sabato 19 novembre 2011

Conferenza web sull'intelligenza arificiale

Voglio segnalarvi che mercoledì 23/11/2011 dalle ore 20:50 alle 21:50 si terrà su Oliproject una lezione-conferenza web a cura di Vittorio Murino, direttore del dipartimento di pattern analysis & computer vision dell'Istituto Italiano di Tecnologia, dal titolo: "Sistemi artificiali “intelligenti”: gli obiettivi raggiunti e le prospettive di domani".
Queta conferenza fa parte di una serie di lezioni-web interattive curate dall’Istituto Italiano di Tecnologia in collaborazione con Oliproject per raccontare al grande pubblico lo stato dell’arte della ricerca di base e applicata in campi che spaziano dalle nanotecnologie alle neuroscienze .

Ecco il link alla pagina dell'evento e la sua descrizione:

Il riconoscimento di oggetti e persone, di ambienti e situazioni, è una delle caratteristiche peculiari dell'intelligenza umana, e negli ultimi anni gli scienziati sono riusciti a trasferirla in parte sui sistemi artificiali rendendoli "intelligenti".
Ma cosa significa per una macchina essere in grado di riconoscere gli oggetti e le situazioni? E quali saranno i vantaggi, e gli svantaggi, che potranno scaturire in futuro da queste tecnologie?

mercoledì 16 novembre 2011

Avviso ai lettori

Voglio avvisarvi che, causa esami universitari, sarò costretto a rallentare un pò il ritmo dei post fino alla fine dell'anno. Cercerò comunque di continuare a pubblicare almeno un post alla settimana. Continuate a seguirmi! :)

Spiegare la coscienza

Nella conferenza che vi voglio mostrare con questo post, Daniel Dennett, filosofo e logico statunitense, da sempre studioso del funzionamento della mente, cerca di diradare i pregiudizi, largamente diffusi, riguardo alla possibilità di spiegare scientificamente la coscienza e l'esperienza soggettiva.

Nel video Dennet ci vuole mostrare come, nonostante ci si creda tutti in qualche modo "esperti" di coscienza per il solo fatto di possederla, si possa essere facilmente ingannati da trucchi ed illusioni ottiche. Queste mettono in luce quanto, a dispetto di quello che crediamo, si sia poco consapevoli di cosa questa sia e di come essa si generi.
E' questa l'illusione su cui germoglia e prospera la convinzione filosofica detta "dualismo cartesiano", che vede il "piano fisico" nettamente separato da un etereo "piano mentale", che spesso rende diffidente il grande pubblico nei confronti degli sforzi scientifici che mirano a "spiegare la mente". Oggi gli sviluppi delle neuroscienze mostrano in modo sempre più palese quanto sia fallace ed insostenibile questa convinzione che, nonostante tutto, come tutti i pregiudizi, è decisamente "dura a morire".
Per approfondire questi argomenti consiglio la lettura di "Sweet Dreams", un bel saggio in cui Dennett mostra come la filosofia finisca spesso per ostacolare lo sviluppo di una scienza della coscienza. Con l'ironia che lo contraddistingue, l'autore passa in rassegna molti dei più noti argomenti filosofici, smontandoli passo dopo passo sulla scorta sia delle conquiste delle scienze cognitive sia di numerosi trucchi ed illusioni ottiche, per mostrare come la coscienza non sia un "mistero" da sacralizzare ma un oggetto di studio da indagare scientificamente.

La conferenza che state per vedere è stata filmata nella stessa occasione di quella di Jeff Hawkins che è stata argomento di un post precedente. Alla fine del suo discorso Dennett, citando proprio Hawkins, sottolinea l'importanza e la necessità di sviluppare vere e proprie "teorie del cervello" del tipo di quella proposta dal neuroscienziato nel suo precedente intervento.

Prima di lasciarvi alla visione del video voglio riproporvi le parole di Enrico Bellone, fisico, filosofo della scienza e direttore del mensile "Le Scienze" per molti anni, recentemente scomparso:

"[Esiste] una convinzione che è popolare in gran parte della filosofia e del senso comune, e che colloca gli umani in una posizione privilegiata rispetto agli altri corpi viventi […] Essa sostiene […] che solo gli umani possiedono una mente immateriale – una variante dell'anima – dove alloggiano le idee […] Le idee, quindi, formerebbero quel mondo spirituale che indichiamo con il nome cultura e al quale solo gli umani possono accedere […] Il mentalismo non è tuttavia in grado di rispondere ai quesiti più elementari che si presentano a chiunque seriamente accetti la distinzione tra mente e corpo […] Dire che la mente è misteriosamente in grado di regolare il corpo equivale insomma a dire che un arcangelo è misteriosamente in grado di regolare l'orbita di Marte. Il mentalismo, quindi, va lasciato ai mistici...
Nel respingere il mentalismo si abbandona anche l'illusione che l'uomo sia la misura di tutte le cose […] Ma nel negare questa illusione antropocentrica non si compie un'operazione di svilimento della nostra specie. Al contrario, si coglie la bellezza dell'attività conoscitiva che si produce negli umani e negli altri corpi viventi, tutti insieme indaffarati nelle loro specifiche azioni di adattamento all'ambiente che li ospita."


Questi passaggi sono tratti da: "Molte nature. Saggio sull'evoluzione culturale", Raffaello Cortina Editore, Milano 2008. Nota: nei sottotitoli del video è erroneamente trascritta la parola "truci" al posto di "trucchi".

lunedì 14 novembre 2011

Il futuro della medicina - FutureMed

Negli anni che stiamo vivendo due fenomeni tra loro collegati stanno trasformando radicalmente il mondo della scienza e della tecnologia.
Questi fenomeni sono la convergenza di campi del sapere prima ritenuti separati e la crescita tecnologica esponenziale.

Il primo è una delle ragioni del nome di questo blog; in questi anni scienze come biologia, fisica, chimica e informatica, si stanno intrecciando sempre più arrivando in certi casi quasi a fondersi in un tutt'uno. La parola chiave in molti campi di ricerca è ormai "interdisciplinarità" e i confini tra le materie si fanno sempre più sfumati. Questa convergenza è spesso chiamata in inglese "NBIC convergence" (dove NIBC sta per nano-bio-info-cogno: nanotecnologie-biologia-informatica-scienze cognitive).

Dell'altro fenomeno, a cui in futuro ho intenzione di dedicare un post a sé, abbiamo già accennato qualcosa in diversi post precedenti. L'archetipo di questa tendenza alla crescita esponenziale della tecnologia è la così detta legge di Moore. Nel 1965, Gordon Moore cofondatore della Intel, in base al trend già allora in atto, formulò la seguente legge empirica: "Le prestazioni dei processori, e il numero di transistor ad esso relativo, raddoppiano ogni 18 mesi".
Fino ad oggi, per più di 40 anni, l'evoluzione dei componenti elettronici ha sempre seguito la predizione di Moore e non si intravvede nessun cenno che questo trend si debba arrestare in un prossimo futuro.
Nel tempo si è scoperto che questo tipo di sviluppo esponenziale non riguarda solo l'elettronica ma si trova anche in numerosi altri settori tecnologici: dalla miniaturizzazione dei componenti meccanici alle tecniche di sequenziamento del DNA.

E' probabile che i due processi appena descritti trasformino, nei prossimi decenni, quasi ogni aspetto della nostra civiltà. La medicina non fa eccezione; anche questa subirà radicali mutamenti a seguito della rivoluzione silenziosa che ci troviamo a vivere.

Il video che vi voglio mostrare in questo post parla proprio di questo:
Daniel Kraft, oncologo, professore all'università di Stanford e membro della Singularity University, ci offre, in questa conferenza TED, una rapida panoramica delle tecnologie, delle idee e dei progetti che stanno per trasformare la pratica clinica.
Daniel Kraft è anche direttore esecutivo di "FutureMed" un evento di cinque giorni, patrocinato dalla Singularity University che, arrivato alla sua seconda edizione, si terrà dal 6 all' 11 febbraio, presso l'Ames Research Park della NASA, in California. Il programma Future Med è pensato proprio per informare, educare e preparare medici, imprenditori e decisori politici, riguardo alle grandi opportunità e conseguenze dovute alla crescita esponenziale delle tecnologie convergenti nel settore sanitario. Il video che state per vedere è anche una sorta di introduzione a "Future Med".

giovedì 10 novembre 2011

Marte, prossima frontiera?

Si è conclusa in questi giorni la simulazione di una missione spaziale su Marte: "Mars 500". Per 520 giorni i sei astronauti Alexei Sitev, Sukhrob Kamolov, Alexander Smoleevsky, Romain Charles, Wang Yue e l'italo-colombiano Diego Urbina, sono stati chiusi, all’interno del Russian Institute for Biomedical Problems di Mosca, in una struttura di isolamento che simulava col massimo realismo possibile l'interno di una navicella spaziale in viaggio verso marte.

Quella che si è conclusa questo 4 novembre è stata una vera e propria "prova generale" di un viaggio di andata e ritorno verso il pianeta rosso, necessaria per testare le reazioni psicologiche e fisiologiche degli astronauti ad un periodo di isolamento così lungo.
I membri dell'equipaggio, per questo motivo, sono stati sottoposti a moltissime ore di esperimenti: i loro cervelli sono stati monitorati e i loro organismi tenuti sotto controllo, sono stati registrati i valori di stress, dei livelli ormonali, le risposte del sistema immunitario, la qualità del sonno e il tono del loro umore.

Anche se gli scienziati impiegheranno circa un anno per analizzare i dati ottenuti e pianificare ulteriori esperimenti si può già dire che il progetto sia stato un successo. Patrik Sundblad, specialista ESA in Scienze della vita ha dichiarato:“l’equipaggio può sopravvivere all’isolamento inevitabile che richiede una missione di andata e ritorno su Marte. Psicologicamente si può fare”.

Ma quali sono le prospettive di realizzazione di un viaggio con equipaggio umano verso marte in un prossimo futuro?

La NASA, sotto l'amministrazione Obama, ha rivolto la sua attenzione altrove, verso una possibile missione su un asteroide verso il 2025. Di una missione americana alla volta del pianeta rosso, almeno per il momento, non se ne parla quindi fino a dopo il 2030. Anche l'ESA con il suo "Programma Aurora" pone come data per una missione umana su marte il 2030. Anche per le altre agenzie spaziali e per le potenze emergenti in campo spaziale come l'India ma soprattutto la Cina una missione di questo tipo è ancora lontana.
Dai privati, che negli Stati Uniti stanno rivoluzionando la scena del volo spaziale, sembra arrivare qualche speranza in più. Vanno in questo senso recenti dichiarazioni di Elon Musk, fondatore di SpaceX.
E Tuttavia forse è ancora troppo presto per dire se tutte le aspettative in proposito riusciranno a concretizzarsi nel modo sperato.

Una affascinante proposta di missione umana verso Marte è "Mars Direct". Questo progetto di missione è stato elaborato da Robert Zubrin, ingegnere areospaziale e scrittore americano, grande sostenitore della colonizzazione umana su marte, che l'ha esposta estesamente nel libro "The Case for Mars". Il principale punto di forza di "Mars Direct" è di essere stata pensata come una missione efficiente dal punto di vista dei costi e realizzabile in un tempo relativamente breve utilizzando esclusivamente tecnologie già in uso.
Per promuovere l'obiettivo dell'esplorazione e dell'insediamento umano sul pianeta rosso Zubrin ha fondato la "Mars Society" (che possiede anche un capitolo italiano di cui linko il sito).
In futuro vorrei dedicare altri post a questi argomenti. Per ora vi voglio lasciarvi con un bel video artistico che illustra visivamente le fasi di un primo viaggio verso Marte realizzato secondo lo schema di MarsDirect.

Nella prima parte del video vediamo la partenza e l'atterraggio della "navicella di rientro" senza equipaggio a bordo che precede il viaggio degli astronauti vero e proprio. Subito dopo l'arrivo su Marte di questa prima navicella, grazie a rover robotizzati, vengono ricaricati i serbatoi del modulo di rientro utilizzando le risorse presenti sul suolo marziano e viene piazzato un radiofaro per guidare l'atterraggio della seconda navicella. In seguito il video mostra proprio il viaggio di quest'ultima che, con gli astronauti a bordo, viene messa in rotazione per simulare la gravità lungo il tragitto tra Marte e la Terra.
Dopo il lancio di un secondo modulo di rientro da utilizzare in caso di malfunzionamento del primo o, nel caso tutto vada secondo i piani, per una seconda missione, viene mostrato lo storico momento in cui, per la prima volta un portellone si apre schiudendo alla vista di un astronauta umano il paesaggio del pianeta rosso.
Per chi fosse interessato ad approfondire questi argomenti consiglio la visione dell'interessante documentario (in inglese) "The Mars Underground" disponibile su YouTube in 6 parti di cui linko la prima.

mercoledì 9 novembre 2011

Omaggio a Carl Sagan

Carl Sagan è stato, a mio parere, il miglior divulgatore scientifico di tutti i tempi. Le sue riflessioni, il suo modo di spiegare la scienza ma soprattutto il metodo ed il pensiero scientifico, rimangono qualcosa di unico.
Oggi ricorre il settantasettesimo anniversario della sua nascita, per questo, voglio ricordarlo con il video qui sotto.
Più recente puntata della serie "The Sagan Series", gemella di "The Feynman Series" (di cui abbiamo parlato qui), in questo video possiamo ascoltare alcuni pensieri di Sagan sull'importante eredità lasciataci dal programma Apollo; un messaggio di speranza e di fiducia in un futuro migliore che oggi più che mai ci sarebbe bisogno di riscoprire.

Potete trovare tutte le precedenti, bellissime puntate di "The Sagan Series" sul sito del progetto. Come sempre, per far apparire i sottotitoli in inglese o in italiano, basta cliccare sul pulsantino "cc" in basso a destra sulla barra del video.
Voglio concludere questo post con la stessa dedica fatta dagli autori di "The Sagan Series" sul loro sito:

Here's to you, Carl. An inspiration.

martedì 8 novembre 2011

"Curare" l'invecchiamento riparando i danni del tempo

Linko qui un articolo che ho recentemente pubblicato sul bel sito "FuturoProssimo" nell'ambito della mia collaborazione con questo sito ed Estropico.
L'articolo in questione parla di uno studio di recente pubblicazione che dimostra come sia possibile "curare" almeno una parte dei danni provocati dall'invecchiamento ad un tessuto rimuovendo selettivamente le cellule "senescenti" presenti al suo interno.

domenica 6 novembre 2011

Geminoid - Un gemello robotico

In questp post parleremo nuovamente di robotica.
Hiroshi Ishiguro, ricercatore all'ATR ("Intelligent Robotics and Communication Laboratories") di Kyoto e professore all'università di Osaka, si occupa di creare androidi, cioè robot dalle fattezze umane, di aspetto ultra-realistico. L'obbiettivo di Ishiguro è quello di realizzare un avanzatissimo sistema robotico di telepresenza che permetta ad un utilizzatore di partecipare a meeting e convegni pur non essendo fisicamente presene sul posto. Patecipare a incontri di lavoro virtuali in videoconferenza è, per molti, già una realtà quotidiana, tuttavia il sistema progettato dal professore permetterebbe di avere a disposizione un vero e proprio "avatar" in grado di spostarsi ed interagire fisicamente con cose e persone.
I "Geminoid" sono reallizzati dal professore per essere dei veri e propri "gemelli robotici" della persona per la quale sono costruiti. Questa può controllarne i movimenti, le espressioni facciali e la voce a distanza, semplicemente stando davanti ad un computer con una videocamera ed un microfono.

Nel video qui sotto si vede l'ultima creazione di Hiroshi Ishiguro: "Geminoid F", un androide femminile copia di una ragazza sui vent'anni. Il robot è in grado di cambiare le proprie espressioni facciali in modo più naturale degli androidi realizzati in precedenza. Inoltre, a differenza ai precedenti modelli, è stato possibile raccogliere all'interno della struttura del robot tutti i componenti meccanici e di controllo necessari al suo funzionamento.

Costruire robot androidi dall'aspetto e dalle espressioni facciali realistiche è sicuramente utile, oltre che per applicazioni di telepresenza, anche nel campo della robotica personale ed assistenziale, in quanto questa capacità può facilitare l'interazione tra esseri umani e macchine.
Per intuire quali siano le prospettive della robotica umanoide provate ad immaginare il robot che risulterebbe, ad esempio, riunendo in un unico dispositivo i punti di forza dei protagonisti degli ultimi tre post di robotica di questo blog (quello che state leggendo, questo e questo). Per ora non è possibile integrare tutti questi sistemi nel ristretto volume del "corpo" di un robot umanoide, tuttavia la miniaturizzazione di componenti elettronici e meccanici avanza molto rapidamente. Probabilmente è solo questione di tempo prima che i robot a cui ci ha abituato la fantascienza diventino realtà.

mercoledì 2 novembre 2011

Viaggio nel mitocondrio

Con questo post voglio mostrarvi un altro ottimo lavoro di "visualizzazione scientifica" come quello che è stato protagonista di uno dei primi post di questo blog.

Realizzato dalla compagnia di animazioni scientifiche XVIVO (di cui vale la pena visitare il bel sito) con la collaborazione dell'università di Harvard, questo video si inserisce in un progetto che mira a "migliorare la didattica universitaria della biologia molecolare" grazie a innovativi sistemi di visualizzazione scientifica che mostrino nel modo più immediato e scientificamente accurato possibile i complessi meccanismi molecolari della vita.

L'animazione qui sotto si concentra sul processo di produzione dell'adenosina trifosfato (ATP). L'ATP è la molecola che conserva l'energia chimica liberata dalla demolizione di molecole che avviene, ad esempio, nel corso della respirazione cellulare. La funzione biologica dell'ATP è fondamentale. Quando è necessario, la molecola di ATP viene trasformata in ADP (adenosina difosfato) con il distacco di un gruppo fosfato; è questa reazione che, liberando l'energia precedentemente immagazzinata nel legame, fornisce l'energia necessaria per quasi qualunque tipo di attività cellulare. Si può davvero dire che l'ATP si comporti da "moneta corrente" energetica della cellula.

Sul sito "BioVisions", nato grazie alla collaborazione tra Harvard e XVIVO,è possibile trovare anche la prima animazione realizzata nell'ambito di questa collaborazione: "The Inner Life of the Cell" ("la vita interna di una cellula"), che rappresenta un viaggio virtuale all'interno di un globulo bianco non dissimile da quello di cui si era parlato nel post cui accennavo prima.

Personalmente, trovo particolarmente notevole la seconda parte del video (dal minuto 2.30), nella quale è mostrato all'opera il complesso molecolare detto "ATP Sintetasi" dove vengono sintetizzate le molecole di ATP durante la così detta "fosforilazione ossidativa". Come si può vedere nell'animazione, questa vera e propria "macchina molecolare", si comporta come una sorta di "mulino" con tanto di "ingranaggi proteici", sfruttando il fusso di ioni tra un lato e l'altro della membrana cellulare su cui è posta, per assemblare le molecole di ATP.
Penso che queste immagini valgano più di mille parole nel mostrare come il nostro organismo si possa veramente considerare un meraviglioso e complesso "meccanismo nanotecnologico" forgiato da miliardi di anni di evoluzione.

martedì 1 novembre 2011

PETMAN - Lo stato dell'arte della robotica umanoide

In questo post voglio parlare di PETMAN ("Protection Ensemble Test Mannequin"). Questo notevole robot antropomorfo è stato sviluppato per la DARPA ("Defense Advanced Research Projects Agency", agenzia governativa del Dipartimento della Difesa degli Stati Uniti per lo sviluppo di nuove tecnologie ad uso militare) dalla "Boston Dynamics", una azienda di ricerca e sviluppo, spin-off dell'MIT.
PETMAN, a differenza di molti altri robot che sono già tuttora comunemente utilizzati dall'esercito americano, non è stato progettato per il combattimento ma, come dice il suo nome, per testare indumenti protettivi. A differenza dei precedenti dispositivi utilizzati per lo stesso scopo, il raffinatissimo PETMAN è in grado di restare in equilibrio muovendosi liberamente, camminare, arrampicarsi e eseguire una vastissima gamma di movimenti che potrebbe compiere un essere umano. Per svolgere al meglio la sua funzione di tester per tute protettive, il robot è progettato per simulare persino la respirazione e la sudorazione che si avrebbero in esseri umani intenti a compiere determinati movimenti.
Sicuramente, in futuro, macchine come PETMAN potrebbero trovare impieghi nei campi più diversi, dall'uso militare vero e proprio a compiti di salvataggio in condizioni ambientali difficili.

Il video qui sotto che mostra PETMAN all'opera è interessante perchè permette di farsi un'idea di quale sia, oggi, lo stato dell'arte della robotica umanoide: le prestazioni sono già notevoli, il principale ostacolo che rimane da superare per rendere più versatili ed utilizzabili robot come questi è la mancanza di sistemi di immagazzinamento di energia adeguati a renderli autonomi per lunghi periodi di tempo.

domenica 30 ottobre 2011

Symphony of science - The Quantum World

Oggi, come nelle domeniche passate, voglio postare qualcosa di leggero.

Il video musicale che vi propongo si intitola "The Quantum World" ("Il mondo quantistico") ed è, per ora, l'ultimo di undici video analoghi della serie "Symphony of Science".
Symphony of Science è un progetto musicale creato dal musicista americano John Boswell. Il progetto mira a "diffondere la conoscenza e la filosofia della Scienza attraverso remix musicali".
Boswell ha mixato, insieme a sue musiche originali, campioni audio e video di interventi televisivi di scienziati e divulgatori come Carl Sagan, Richard Feynman o Stephen Hawking.

"The Quantum World" ha come tema la meccanica quantistica e le particelle elementari; nel video compaiono l'attore Morgan Freeman, Stephen Hawking, Michio Kaku, Brian Cox, Richard Feynman e Frank Close.
Come sempre si possono attivare i sottotitoli (in inglese) cliccando sul pulsante "cc" in basso a destra nel box del video.

giovedì 27 ottobre 2011

Un interruttore di luce per i neuroni

Controllare selettivamente l'attività dei neuroni nel cervello semplicemente illuminandoli con luce di una certa lunghezza d'onda.
E' proprio questo ciò che sono in grado di fare ricercatori come Ed Boyden, professore di neuroscienze all'MIT, grazie alla tecnica chiamata "optogenetica".
Il video che vi propongo in questo post è una conferenza TED in cui il neuroscienziato americano illustra il suo pionieristico lavoro.

Ed Boyden, fisico ed ingegnere di formazione, è professore presso il dipartimento di bioingegneria dell'MIT e ricercatore presso il "McGovern Institute for Brain Research" sempre all'MIT ed è riconosciuto, insieme a Karl Deisseroth dell'università di Stanford, come uno dei "padri fondatori" dell'optogenetica.
Questa tecnologia si basa su una proteina del gruppo delle "opsine" chiamata "canalrodopsina-2", questa molecola, che si trova come fotorecettore nelle alghe verdi, si comporta da canale ionico fotoattivabile: quando della luce viene assorbita dalla proteina questa cambia la sua conformazione permettendo un passaggio di ioni attraverso la membrana cellulare sulla quale si trova. Tutto ciò provoca un cambiamento del potenziale elettrico tra i due lati della membrana e questo può dare il via alla partenza di un impulso nervoso (è questo il meccanismo che consente all'alga di "sentire" la luce tramite la canalrodopsina).
La tecnica ideata da Boyden e Deisseroth consiste nell'inserire nel codice genetico dei neuroni dei topi soggetti dei loro esperimenti il gene dell'alga verde che codifica per la produzione della canalrodopsina-2. Questo è possibile usando un metodo analogo a quello su cui si basa la così detta "terapia genica", cioè infettando i neuroni con virus ingegnerizzati in modo da inserire i nuovi geni all'interno del DNA delle cellule.
Una volta che i neuroni esprimono sulla loro membrana le proteine fotosensibili è sufficiente illuminarli tramite una fibra ottica impiantata nel cranio delle cavie per inibire o stimolare la partenza di impulsi nervosi dai singoli neuroni.

Questo metodo, che fin dalla sua invenzione, nel 2005, è stato largamente adottato dai neuroscienziati come strumento di ricerca, presenta anche vastissime potenzialità terapeutiche. Grazie al livello di controllo del cervello senza precedenti raggiungibile grazie all'optogenomica, proprio Ed Boyden è stato in grado di curare dei topi affetti dall'analogo murino del disturbo post traumatico da stress e certe forme di cecità. Nel campo delle neuroprotesi questa tecnologia ha realmente grandi prospettive.

Per quanto riguarda le applicazioni, molto interessante è anche la brevissima sessione finale di domande e risposte, in cui vengono chiaramente sottolineate le enormi implicazioni di una tecnica di manipolazione dei neuroni come quella messa a punto da Boyden.
Questa, infatti, mette a portata di mano l'indispensabile verifica sperimentale dei modelli quantitativi della funzione cerebrale prodotti dalle neuroscienze teoriche e computazionali (di cui abbiamo parlato in un recente post). Inoltre, poter attivare selettivamente i neuroni con la luce, non solo permetterà capire meglio in codice neurale (cioè il modo in cui l'attività dei neuroni codifica pensieri emozioni ecc...), ma potrebbe anche portare alla realizzazione di veri e propri "co-processori neurali" in grado di "uploadare" o "downloadare" contenuti mentali direttamente nei cervelli.

Tutto questo era fantascienza fino a pochi anni fa’, ma oggi, con i passi da gigante che le neuroscienze stanno compiendo, comincia a divenire realtà. Come si era già detto in un post precedente, citando proprio il professor Boyden: "stiamo entrando in un rinascimento neurotecnologico nel quale gli strumenti a disposizione per comprendere e reingegerizzare il cervello e le sue funzioni si stanno espandendo sia in ampiezza che in profondità ad una velocità senza precedenti".
Con questo non mi resta che lasciare la parola a Boyden.

Buona visione!