domenica 30 ottobre 2011

Symphony of science - The Quantum World

Oggi, come nelle domeniche passate, voglio postare qualcosa di leggero.

Il video musicale che vi propongo si intitola "The Quantum World" ("Il mondo quantistico") ed è, per ora, l'ultimo di undici video analoghi della serie "Symphony of Science".
Symphony of Science è un progetto musicale creato dal musicista americano John Boswell. Il progetto mira a "diffondere la conoscenza e la filosofia della Scienza attraverso remix musicali".
Boswell ha mixato, insieme a sue musiche originali, campioni audio e video di interventi televisivi di scienziati e divulgatori come Carl Sagan, Richard Feynman o Stephen Hawking.

"The Quantum World" ha come tema la meccanica quantistica e le particelle elementari; nel video compaiono l'attore Morgan Freeman, Stephen Hawking, Michio Kaku, Brian Cox, Richard Feynman e Frank Close.
Come sempre si possono attivare i sottotitoli (in inglese) cliccando sul pulsante "cc" in basso a destra nel box del video.

giovedì 27 ottobre 2011

Un interruttore di luce per i neuroni

Controllare selettivamente l'attività dei neuroni nel cervello semplicemente illuminandoli con luce di una certa lunghezza d'onda.
E' proprio questo ciò che sono in grado di fare ricercatori come Ed Boyden, professore di neuroscienze all'MIT, grazie alla tecnica chiamata "optogenetica".
Il video che vi propongo in questo post è una conferenza TED in cui il neuroscienziato americano illustra il suo pionieristico lavoro.

Ed Boyden, fisico ed ingegnere di formazione, è professore presso il dipartimento di bioingegneria dell'MIT e ricercatore presso il "McGovern Institute for Brain Research" sempre all'MIT ed è riconosciuto, insieme a Karl Deisseroth dell'università di Stanford, come uno dei "padri fondatori" dell'optogenetica.
Questa tecnologia si basa su una proteina del gruppo delle "opsine" chiamata "canalrodopsina-2", questa molecola, che si trova come fotorecettore nelle alghe verdi, si comporta da canale ionico fotoattivabile: quando della luce viene assorbita dalla proteina questa cambia la sua conformazione permettendo un passaggio di ioni attraverso la membrana cellulare sulla quale si trova. Tutto ciò provoca un cambiamento del potenziale elettrico tra i due lati della membrana e questo può dare il via alla partenza di un impulso nervoso (è questo il meccanismo che consente all'alga di "sentire" la luce tramite la canalrodopsina).
La tecnica ideata da Boyden e Deisseroth consiste nell'inserire nel codice genetico dei neuroni dei topi soggetti dei loro esperimenti il gene dell'alga verde che codifica per la produzione della canalrodopsina-2. Questo è possibile usando un metodo analogo a quello su cui si basa la così detta "terapia genica", cioè infettando i neuroni con virus ingegnerizzati in modo da inserire i nuovi geni all'interno del DNA delle cellule.
Una volta che i neuroni esprimono sulla loro membrana le proteine fotosensibili è sufficiente illuminarli tramite una fibra ottica impiantata nel cranio delle cavie per inibire o stimolare la partenza di impulsi nervosi dai singoli neuroni.

Questo metodo, che fin dalla sua invenzione, nel 2005, è stato largamente adottato dai neuroscienziati come strumento di ricerca, presenta anche vastissime potenzialità terapeutiche. Grazie al livello di controllo del cervello senza precedenti raggiungibile grazie all'optogenomica, proprio Ed Boyden è stato in grado di curare dei topi affetti dall'analogo murino del disturbo post traumatico da stress e certe forme di cecità. Nel campo delle neuroprotesi questa tecnologia ha realmente grandi prospettive.

Per quanto riguarda le applicazioni, molto interessante è anche la brevissima sessione finale di domande e risposte, in cui vengono chiaramente sottolineate le enormi implicazioni di una tecnica di manipolazione dei neuroni come quella messa a punto da Boyden.
Questa, infatti, mette a portata di mano l'indispensabile verifica sperimentale dei modelli quantitativi della funzione cerebrale prodotti dalle neuroscienze teoriche e computazionali (di cui abbiamo parlato in un recente post). Inoltre, poter attivare selettivamente i neuroni con la luce, non solo permetterà capire meglio in codice neurale (cioè il modo in cui l'attività dei neuroni codifica pensieri emozioni ecc...), ma potrebbe anche portare alla realizzazione di veri e propri "co-processori neurali" in grado di "uploadare" o "downloadare" contenuti mentali direttamente nei cervelli.

Tutto questo era fantascienza fino a pochi anni fa’, ma oggi, con i passi da gigante che le neuroscienze stanno compiendo, comincia a divenire realtà. Come si era già detto in un post precedente, citando proprio il professor Boyden: "stiamo entrando in un rinascimento neurotecnologico nel quale gli strumenti a disposizione per comprendere e reingegerizzare il cervello e le sue funzioni si stanno espandendo sia in ampiezza che in profondità ad una velocità senza precedenti".
Con questo non mi resta che lasciare la parola a Boyden.

Buona visione!

mercoledì 26 ottobre 2011

L'universo in 4D

Oggi questo blog compie il suo primo mese di vita, per festeggiare voglio postare un video che ho trovato molto affascinante e di estrema bellezza.
Nel video che vi voglio mostrare, frutto di accuratissime simulazioni numeriche eseguite su potenti supercomputer, voliamo attraverso il cosmo in evoluzione, ripercorrendo in circa 6 minuti buona parte della storia dell'universo.
All'inizio del nostro viaggio ci troviamo in un tempo molto remoto, poche centinaia di milioni di anni dopo il big bang (avvenne circa 13.7 miliardi di anni fa), alla fine della così detta epoca oscura. Questo nome si deve al fatto che, a quest'epoca, l'universo risultava "opaco", non trasparente ai fotoni. Dopo pochi istanti di video assistiamo alla così detta "ricombinazione", questo momento corrisponde a quando il denso e caldissimo plasma di fotoni, protoni, elettroni e neutroni che riempiva l'universo si raffreddò (in conseguenza all'espansione dell'universo) a sufficienza da permettere agli elettroni di legarsi ai nuclei formando atomi di idrogeno e facendo diventare l'universo trasparente.
E' a quest'epoca che risale la così detta radiazione cosmica di fondo, composta dai fotoni che vennero rilasciati a seguito della ricombinazione. Questa rappresenta ciò che di più antico possiamo osservare oggi nel cielo.
In seguito a questi eventi la materia si trovò per la prima volta in uno stato neutro e più freddo. E' a questo punto, circa 750 milioni di anni dopo il big bang, che enormi nubi di idrogeno cominciarono a collassare su se stesse a causa dell'interazione gravitazionale, cominciando a formare le prime protogalassie insieme alla prima generazione di stelle.
La radiazione emessa da queste stelle ionizzò il gas rimasto, spazzandolo via e mettendo a nudo le strutture filamentose di gas più denso formatesi fino a quel momento per l'azione della gravità.
Proseguendo nel tempo strutture più grandi cominciarono a formarsi dalla fusione di altre più piccole. Questi processi diedero origine alle strutture più grandi che possiamo osservare oggi nell'universo, gli ammassi e superammassi di galassie, connessi tra loro da altre strutture filamentose di gas.
Il nostro viaggio cosmico termina zoomando su una galassia a spirale simile alla nostra Via Lattea.

Il filmato, frutto della collaborazione tra ricercatori italiani e gli scienziati del Max-Planck-Institute for Astrophysics, è stato in esposizione presso il planetario di Torino. Per apprezzarne appieno la bellezza consiglio di guardarlo in HD a tutto schermo.

martedì 25 ottobre 2011

Benvenuti nell'era della genomica

Nella conferenza TEDxBoston che ho deciso di mostrarvi in questo post Richard Resnick, bioinformatico e imprenditore americano, presidente della società Genome Quest, mostra come tecnologie di sequenziamento del DNA sempre più veloci ed economiche sono sul punto di trasformare radicalmente la sanità e, probabilmente, anche tutta la nostra società.

La genomica è una branca della biologia molecolare che si occupa dello studio del genoma degli organismi viventi; in particolare si occupa di determinarne struttura, contenuto e funzione. La genomica si basa necessariamente sulla bioinformatica per l'elaborazione e la visualizzazione dell'enorme quantità di dati che le analisi dei genomi producono.

Grazie alle scoperte derivanti dal sequenziamento del genoma umano e al continuo miglioramento dei metodi di analisi del DNA sta nascendo la così detta "medicina personalizzata". Con questo termine si intende l'applicazione delle conoscenze genetiche nella pratica clinica che permette di definire terapie "su misura" per ogni paziente. Ad esempio, grazie a studi epidemiologici sull'incidenza di una data patologia in corrispondenza di un particolare profilo genetico, è possibile, conoscendo il codice genetico di un individuo, determinare il rischio che costui ha di sviluppare quella patologia.

Già oggi al costo di circa 100 dollari è possibile far analizzare, almeno parzialmente, il proprio genoma da aziende come la 23andMe. Ciò che offre questo tipo di servizi è l'analisi di una frazione significativa degli SNP presenti nel proprio genoma.

Un polimorfismo a singolo nucleotide (dall'inglese Single Nucleotide Polymorphism o SNP) è un polimorfismo, cioè una variazione, del materiale genico a carico di un unico nucleotide che si riscontra in una frazione della popolazione superiore all'1% (polimorfismi che si riscontrano con una frequenza minore sono normalmente chiamati mutazioni).
La conoscenza degli SNPs può essere molto utile nella pratica medica poiché queste variazioni possono influenzare lo sviluppo delle patologie, la risposta a patogeni o ad agenti chimici come i farmaci. Grazie alla conoscenza degli SNPs è possibile, ad esempio, conoscere l'effetto di un farmaco su un individuo ancor prima della somministrazione (queste sono le basi della così detta "farmacogenomica").

Il servizio offerto dalla 23andMe però non si limita a fornire semplicemente dati di rilevanza medica, i dati sugli SNPs hanno anche una rilevanza "genealogica", possono anche essere usati, ad esempio, per rintracciare lontani parenti e individuare le zone di probabile provenienza dei propri antenati.

A chi fosse interessato alla genomica e alla medicina personalizzata raccomando di visitare il bel blog "my GenomiX" (che trovate anche nella colonna dei blog a destra)
in cui si approfondiscono proprio i temi della genomica personale e della medicina personalizzata.

Nella sua conferenza Resnik accenna anche a come la "rivoluzione genomica" potrebbe dare un forte impulso allo sviluppo ed alla produzione di colture OGM e di come questo potrebbe essere la strada per risolvere il problema della fame in un mondo in cui la popolazione continua a crescere a ritmi molto sostenuti. A questo proposito consiglio la visione del blog di Dario Bressanini "Scienza in cucina" (anche questo nella colonna a destra) che spesso dedica post all'argomento. Il tentativo dell'autore è quello di riportare il dibattito pubblico italiano in materia su un piano più razionale e scientifico rispetto a come viene normalmente affrontata la questione dai media del nostro paese.

Fatte queste premesse lascio la parola a Richard Resnik. Buona visione!

domenica 23 ottobre 2011

On Intelligence - Come funziona il cervello

Come funziona il cervello?

Questa è sicuramente una delle domande più fondamentali a cui sta cercando di rispondere la scienza moderna.
Come dicevo già in un post precedente, nel corso degli anni i neuroscienziati hanno accumulato una immensa mole di dati di tutti i tipi sul cervello e sul suo funzionamento. Ciò che è sempre mancato alle neuroscienze e che solo da pochi anni sta emergendo è un quadro complessivo di riferimento, una vera e propria "Teoria del Cervello".
Tuttavia le neuroscienze teoriche e computazionali sono, oggi, un settore in rapidissima crescita. Progetti come il Blue Brain Project (di cui abbiamo già parlato) stanno cercando di rispondere a questa necessità di organizzare i dati sperimentali in un modello teorico quantitativo costruendo una accurata simulazione dell'intero cervello umano.
Un altro interessantissimo approccio che cerca di offrire un quadro di riferimento alla ricerca neuroscientifica è ciò di cui vi voglio parlare in questo post. Il "Memory-prediction framework" è una teoria della funzione cerebrale ideata dall'ingegnere e neuroscienziato americano Jeff Hawkins che ha avuto - e sta avendo tutt'ora - notevoli ripercussioni su tutta la ricerca neuroscientifica. La teoria è esposta in modo divulgativo nello splendido saggio, pubblicato nel 2004, "On Intelligence" (di cui consiglio vivamente la lettura).

La teoria propone che la notevole uniformità anatomica del tessuto neocorticale, presente anche tra aree del cervello coinvolte nella più diversa gamma di attività cognitive, rifletta la presenza di un unico "algoritmo corticale" alla base di tutte le attività di elaborazione dell'informazione nel cervello.

La neocorteccia è composta di 6 fogli o strati che operano come livelli funzionali distinti di elaborazione dell'informazione ad un livello di "astrazione" crescente; il primo strato processa schemi di attività neurale che codificano informazione sensoriale relativamente "grezza", i livelli successivi processano schemi di attività a scala più vasta provenienti dai livelli sottostanti in base agli stati di attivazione dei livelli gerarchici che li sovrastano. Operando secondo il principio computazionale di base a cui si accennava prima il cervello sarebbe quindi costantemente impegnato nel confrontare gli imput in arrivo dal sistema nervoso periferico (e quindi dai sensi) ai livelli più bassi della gerarchia corticale con le previsioni in arrivo dai livelli più alti della gerarchia stessa.
Il continuo confronto tra queste previsioni basate sulla memoria di passate sequenze temporali di schemi di attivazione neurale, e gli schemi di attivazione provenienti dal basso della gerarchia sarebbe ciò che fa emergere l'intelligenza tipica dell'uomo.
E' proprio per sottolineare l'importanza della memorizzazione e predizione di schemi di attività neurale nel funzionamento del cervello e dell'intelligenza che la teoria è stata battezzata col nome di "Memory-prediction framework".

L'idea proposta da Hawkins considera il cervello come un sistema di memoria gerarchica anticipatoria; questa visione, in effetti, trova ormai una larga diffusione e accettazione da parte dell'intera comunità neuroscientifica.

La teoria di Hawkins promette di trasformare il campo dell'intelligenza artificiale e sta avendo già le prime applicazioni pratiche. Numenta, la società fondata da Hawkins per commercializzare le ricadute pratiche del suo lavoro, sta per lanciare i primi programmi basati sull'algoritmo "Hierarchical temporal memory" (HTM) ("memoria temporale gerarchica"), ispirato all'"algoritmo corticale".
Anche Dileep George, allievo di Hawkins, ha fondato la Vicarious Systems e si prepara mettere sul mercato prodotti basati sui principi computazionali della neocorteccia.

Spiegare chiaramente e in poche righe la teoria di Hawkins non è davvero cosa facile, tuttavia credo che per il suo grande interesse e la sua capacità di gettare veramente una nuova luce sul funzionamento della mente questa meriti davvero di essere divulgata. E' per questo che mi riservo in futuro di pubblicare altri post su questo argomento, spiegando magari la teoria un po’ più nel dettaglio.

In conclusione, oltre a raccomandarvi ancora una volta la lettura di "On Intelligence" voglio mostrarvi questa bella conferenza TED, registrata nel 2003, in cui lo stesso Hawkins presenta il proprio approccio alle Neuroscienze.



Per chi volesse approfondire l'argomento in rete è disponibile sul sito di Numenta un documento (in inglese) di presentazione dell'algoritmo HTM che espone in modo divulgativo alcuni aspetti del memory prediction framework per poi entrare più nel dettaglio tecnico. Sempre per approfondire l'argomento da un punto di vista meno divulgativo è disponibile online la tesi di Dottorato a Stanford di Dileep George in cui si parla sempre dell'HTM.

sabato 22 ottobre 2011

The Feynman series (parte 3) - La curiosità

In questo terzo ( e per ora ultimo) video di The Feynman Series si parla della curiosità, il primo motore dell'indagine scientifica del mondo. Si parla del senso di meraviglia che si prova a pensare che tutta la splendida complessità del mondo che ci circonda ogni giorno emerga dall'interazione di pochi costituenti elementari secondo poche semplici leggi. E' il fascino di scoprire come funziona il mondo, quanto spesso la realtà superi la fantasia, che spinge milioni di persone nel mondo a dedicarsi alla scienza, la fantastica avventura che sta portando la nostra specie a esplorare e conoscere il suo ambiente.
A questo proposito voglio citare ancora una volta Carl Sagan:

“Noi siamo l'incarnazione locale di un Cosmo cresciuto fino all'autocoscienza. Abbiamo incominciato a comprendere la nostra origine: siamo materia stellare che medita sulle stelle. […] Noi siamo il modo in cui l’universo conosce se stesso”


giovedì 20 ottobre 2011

La "scienza ufficiale"

Il post precedente in cui si è parlato del "principio di autorità" mi dà l'occasione per fare una piccola riflessione su un termine che sta diventando sempre più di uso comune, anche grazie a trasmissioni di dubbia qualità come "Voyager" o "Mistero": scienza ufficiale.

Questo è un termine che, a mio pare, porta con sé tutta una serie di pesanti fraintendimenti sulla natura stessa della scienza.

Tanto per cominciare la scienza non è tanto un corpus di conoscenze, è piuttosto un "metodo", un modo di ragionare. Credo che la stragrande maggioranza degli scienziati concorderebbero con me nel dire che una affermazione sul mondo ha "validità scientifica" quando chiunque, basandosi sulla sola logica e sulla accettazione dei "fatti sperimentali" evidenti a tutti concorderebbe con essa.
Questo, mettendo da parte, almeno momentaneamente, ogni altra credenza sul mondo che non soddisfi questi stessi criteri di "universalità".

Il corpus delle conoscenze scientifiche, inoltre, è tutto tranne che statico, ogni teoria è valida fino a che non entra in contrasto con nuove evidenze sperimentali. In questo caso la teoria deve essere riformulata in modo da dare conto di tutti i fenomeni osservati nel suo campo di validità.

Sono questi i motivi per cui la scienza è qualcosa di intrinsecamente democratico, laico e antidogmatico; non esiste, come vorrebbero i complottisti, una sorta di "setta" o società segreta chiamata "scienza ufficiale" che decreta ciò che è scienza o ciò che non lo è. Infatti il confine tra scienza e "non-scienza" è spesso sfumato, all'interno della comunità scientifica devono trovare spazio le opinioni più opposte e le congetture più ardite fino a che queste soddisfano il "criterio di scientificità" delineato più sopra.

Non bisogna confondere scetticismo e spirito critico con conservatorismo, i buoni scienziati non temono i dati in contrasto con le teorie scientifiche al momento più accettate, anzi, li cercano in continuazione per poter formulare teorie che descrivano sempre meglio il mondo in cui viviamo.
Bisogna però sempre essere diffidenti nei confronti di nuovi dati. Affinché il discorso scientifico possa svilupparsi su fondamenta solide tutte le nuove evidenze devono essere valutate criticamente prima di essere accettate.
A questo proposito mi viene da citare Carl Sagan con il video qua sotto (premere sul pulsantino cc per visualizzare i sottotitoli):

"affermazioni straordinarie richiedono prove straordinarie"



Quanto detto non significa certo che la comunità scientifica e gli scienziati siano sempre immuni a distorsioni e dinamiche sociali "patologiche" che "inceppano" il meccanismo di corretto funzionamento dell'impresa scientifica. A questo proposito, per approfondire, consiglio vivamente la lettura del bellissimo saggio di Lee Smolin "L'universo senza stringhe" che oltre ad essere un interessante testo di divulgazione di fisica teorica è anche un ottimo saggio di sociologia della scienza.

The Feynman series (parte 2) - L'autorità

In questo secondo video di The Feynman Series, Richard Feynman critica il rispetto per l'autorità quando questa è solo una vuota convenzione sociale. Il pensiero scientifico per sua natura rifiuta il principio di autorità, lo spirito critico e la non-accettazione passiva di idee e affermazioni costituiscono infatti uno dei cardini della mentalità scientifica.

Come al solito, per far apparire i sottotitoli in inglese basta cliccare sul pulsantino "cc" in basso a destra sulla barra del video.

mercoledì 19 ottobre 2011

Pensieri sul futuro dell'evoluzione

Ho appena pubblicato un post su Estropico in cui espongo alcune mie considerazioni personali sul futuro dell’evoluzione dopo la comparsa di forme di vita intelligenti; un argomento che mi ha sempre affascinato molto. Le mie sono riflessioni filosofiche che pur non avendo alcuna pretesa di scientificità, penso possano essere condivisibili e interessanti per chiunque sia incuriosito dalla scienza e dal futuro della vita.
Se volete leggere il mio articolo ecco il link...

Buona lettura!

martedì 18 ottobre 2011

Il robot capace di apprendere

In questo post voglio parlare di robotica e intelligenza artificiale. In particolare di un robot che possiede la peculiare capacità umana di imparare dall'esperienza per affrontare situazioni nuove.

L'idea di un robot capace di apprendere da solo il modo di svolgere dei compiti per i quali non è stato programmato usando oggetti mai visti prima è un idea da tempo protagonista della fantascienza che, solo oggi, grazie al lavoro di ricercatori come Osamu Hasegawa, professore associato presso l'istituto di tecnologia di Tokyo, sta diventando realtà.

L'aspetto veramente innovativo della macchina creata dal professor Hasegawa è la sua intelligenza artificiale, basata sulla tecnologia delle "reti neurali incrementali auto-organizzanti" o SOINN ("Self-Organizing Incremental Neural Network") che si ispira al funzionamento del cervello umano.
Le reti neurali usate dai ricercatori dell'istituto di tecnologia di Tokyo sono un particolare tipo di reti neurali artificiali. Con questo termine si intendono genericamente tutti i modelli matematici che imitano le caratteristiche di elaborazione dell'informazione delle reti neurali biologiche di cui è costituito il nostro cervello.
Grazie a questa tecnologia il robot esamina l'ambiente attorno a sé, integrando tutti i dati sensoriali raccolti con le sue conoscenze pregresse e organizzandole in un quadro coerente grazie al quale è poi in grado di dedurre in che modo portare a termine gli ordini che gli vengono impartiti.
Se necessario l'algoritmo SOINN è in grado di svolgere autonomamente ricerche su internet per reperire le informazioni, ad esempio il nome di un oggetto, che gli mancano per capire come portare a termine una determinata azione. In futuro potrebbe anche essere in grado di condividere l'esperienza di altri robot già in grado di eseguire un determinato compito. Operando in questo modo inoltre, con il tempo, la macchina diventa poco alla volta sempre più capace ed intelligente.

Inoltre, come gli esseri umani, il sistema SOINN è in grado di filtrare il "rumore", cioè le informazioni insignificanti che potrebbero confondere altri robot.
La macchina è in grado di "riconoscimento invariante". Questo è uno dei meccanismi più fondamentali con cui opera il cervello umano; noi siamo così "abili" nel riconoscimento invariante che non siamo nemmeno consapevoli di usarlo continuamente. Il riconoscimento invariante è ad esempio quel processo che ci permette di identificare uno stesso oggetto sotto diversi angoli o illuminato in modi differenti nonostante esso appaia, di volta in volta, molto diverso da prima.

Un robot con tutte queste capacità quando sarà pronto per essere commercializzato potrebbe dimostrarsi di inestimabile utilità come aiuto in casa o nella vita di tutti i giorni.
Ad esempio, proprio come in un film di fantascienza, si potrebbe domandare ad un robot "portami la salsa di soia sul tavolo di cucina" e questo potrebbe cercare su internet cosa sia la salsa di soia par poterla identificare una volta arrivato in cucina.

Ma bisogna essere cauti con un robot capace di apprendere ricorda il professore: "un coltello da cucina è un oggetto utile ma può anche diventare un arma", "la tecnologia sta avanzando ad una velocità enorme; è necessario che la società discuta di come, e quando, queste tecnologie dovrebbero essere usate finché esse sono ancora nella loro fase embrionale"

Nel video, in inglese, si vede all'opera il robot sul quale è implementato l'algoritmo SOINN; questo è senza gambe perché la ricerca del professor Hasegawa si concentra sulle capacità di "ragionamento" e manipolazione degli oggetti per le quali la capacità di locomozione non è strettamente necessaria. Tuttavia la locomozione dei robot è un campo di ricerca molto attivo e in futuro la tecnologia SOINN sarà sicuramente applicata anche a robot in grado di spostarsi.

lunedì 17 ottobre 2011

The Feynman series (parte 1) - La bellezza

Con questo post e quelli che seguiranno voglio dare spazio a una serie di video, realizzati utilizzando i monologhi di Richard Feynman, nati nella speranza di promuovere l'educazione e la cultura scientifica presso il grande pubblico.
The Feynman Series è un progetto realizzato dagli stessi autori di The Sagan Series; una serie di analoghi video realizzati con i bellissimi mologhi di Carl Sagan a cui, in futruro, ho intenzione di dedicare un post a sé.
Nel primo di questi video Feynman parla di come la conoscenza scientifica permetta di apprezzare maggiormente la bellezza mondo che ci circonda (questo monologo era già stato, di recente, argomento di un post) e dell'importanza del dubbio.

Per far apparire i sottotitoli in inglese basta cliccare sul pulsantino "cc" in basso a destra sulla barra del video.

domenica 16 ottobre 2011

Punti di vista...

E' venuto il momento dell'ormai consueto post umoristico domenicale.
In questa tabella si può leggere come le persone nella scienza si vedono l'un l'altra... ;)

sabato 15 ottobre 2011

Muscoli artificiali di carbonio

Dopo una breve pausa, riprendiamo a parlare di nanotecnologia.

L'articolo pubblicato l'altro ieri sulla prestigiosa rivista Science è sicuramente un importante passo avanti sulla strada della miniaturizzazione di attuatori meccanici (cioè dispositivi che esercitano una forza per mettere in movimento o controllare sistemi meccanici), indispensabili per realizzare sempre più complessi e raffinati sistemi nano- e micro-elettromeccanici (NEMS e MEMS), sviluppando così il pieno potenziale della nanotecnologia.
Gli scienziati autori dell'articolo sono riusciti a realizzare dei veri e propri "muscoli artificiali" costituiti da nanotubi di carbonio intessuti assieme elicoidalmente un pò come le fibre che compongono una corda.
I nanotubi di carbonio, strutture cilindriche composte da un singolo strato di atomi di carbonio avvolto su se stesso, sono, da tempo, al centro dell'attenzione dei ricercatori che si occupano di nanotecnologia a causa delle loro eccezionali caratteristiche elettoniche e meccaniche.
Il "muscolo artificiale" prodotto dagli scienziati misura un diametro di appena 15 micron (10^(-6) m) e, se tenuto in una soluzione elettrolitica e sottoposto ad una tensione elettrica si contrae, torcendosi, funzionando analogamente ai muscoli costituiti di fibre elicoidali che si trovano in natura nella proboscide degli elefanti o nei tentacoli dei polpi.

Il meccanismo di funzionamento è questo:
quando il fascio di nanotubi è sottoposto a tensione tramite elettrodi applicati ai suoi capi gli ioni contenuti nella soluzione elettrolitica migrano verso l'interno della fibra per compensare la carica elettronica negativa in transito all'interno dei nanotubi stessi. Questi, essendo porosi, vengono penetrati dagli ioni che, accumulandosi, ne provocano un aumento di volume accompagnato da un accorciamento della loro lunghezza il quale a sua volta mette in torsione l'intera fibra. La torsione può essere invertita invertendo la differenza di potenziale applicata dagli elettrodi. Nell'immagine è evidenziato l'angolo di torsione della fibra "fotografata" con un microscopio elettronico.

Per dimostrare l'efficacia del loro dispositivo i ricercatori lo hanno già utilizzato come miscelatore integrato all'interno di un chip microfluidico.I chip microfluidici sono dispositivi miniaturizzati, anche chiamati Lab-on-a-chip, in grado di svolgere da soli molte analisi chimiche e fisiche di sostenze che vengono depositate su di essi.

I motori elettrici che usiamo comunemete alla macroscala, indispensabili per il funzionamento di quasi qualunque tipo di macchina, sono molto difficili da miniaturizzare per la loro notevole complessità. Il micro-motore elettrico ottenuto dai ricercatori però segna un traguardo importantissimo, essendo il primo mai prodotto alla sua scala ad avere un efficienza relativa in termini di massa comparabile con quella dei motori elettrici macroscopici.
Grazie a questi muscoli artificiali potranno essere più facilmente miniaturizzate pompe, motori, turbine e compressori, inoltre questa tecnologia potrebbe risultare utilissima nel campo della robotica o per la realizzazione di protesi robotiche.

mercoledì 12 ottobre 2011

Conferenza web sulle nanotecnologie

Voglio segnalarvi che lunedì 17/10/2011 dalle ore 20:50 alle 21:50 si terrà su Oliproject una lezione-conferenza web a cura di Alberto Diaspro, fisico genovese presidente della "associazione delle società europee di biofisica" (EBSA), dal titolo: "La rivoluzione delle Nanotecnologie: cosa sono e come stanno cambiando la scienza".
Oilproject è una scuola virtuale, gratuita ed aperta a tutti, in cui si discute di attualità, economia, letteratura, filosofia, Internet e politica.
Ecco il link alla pagina dell'evento e la sua descrizione:

Dall'intuizione di Galileo Galilei ai sogni di Richard Feynman: come un microscopio può diventare un nanoscopio senza violare le leggi della fisica.

Grazie alle Nanotecnologie, siamo oggi in grado di operare sulla materia a scala atomica e molecolare, aprendo così la strada ad infinite applicazioni per le discipline scientifiche e le pratiche umane.
Ma lavorare con le Nanotecnologie significa anche andare oltre i limiti classici dell'ottica, senza violare le leggi della fisica. Se Galileo con il suo cannocchiale rivoluzionò l'astronomia, la nano-ottica sta cambiando il modo di studiare la biologia cellulare introducendo super-microscopi che permetteranno di "vedere" organi e tessuti al livello nanometrico.

In questo evento web, Alberto Diaspro, Direttore del Dipartimento di Nanofisica dell'Istituto Italiano di Tecnologia, risponderà ai vostri quesiti e alle vostre curiosità dopo una breve introduzione alla materia. Chiunque potrà inviare domande, votare quelle altrui e discutere in chat.

Questa non è che la prima di una serie di lezioni-web interattive curate dall’Istituto Italiano di Tecnologia in collaborazione con Oliproject per raccontare al grande pubblico lo stato dell’arte della ricerca di base e applicata in campi che spaziano dalle nanotecnologie alle neuroscienze .

martedì 11 ottobre 2011

Vedere nella mente

E' di qualche giorno fa la notizia che un gruppo di ricercatori è riuscito letteralmente a "leggere nella mente" di una persona e riprodurre al computer le immagini che questa stava vedendo con i propri occhi. Lo studio pubblicato di recente sulla rivista "Current Biology" apre davvero una nuova "finestra sulla mente".

Basandosi sulle conoscenze accumulate negli anni riguardo al modo in cui il cervello elabora le informazioni visive i ricercatori dell'Università di Berkeley sono riusciti a sviluppare un algoritmo che analizza i dati sull'attività cerebrale ottenuti con la risonanza magnetica funzionale (fMRI) per ricostruire ciò che un soggetto sottoposto a scansione è intento a guardare.

Già negli anni passati si era riusciti a ricostruire "immagini mentali" statiche a partire dalla conoscenza dell'attività cerebrale di soggetti umani sottoposti a risonanza magnetica funzionale. Tuttavia questa è la prima volta che si riescono a ricostruire al computer immagini in movimento percepite da una persona intenta a guardare un video.
La risonanza magnetica funzionale è un particolare metodo di immaging cerebrale, usatissimo nella ricerca neuroscientifica, che si basa sui principi della risonanza magnetica e permette di determinare l’attività neurale misurando il flusso di sangue e i livelli di ossigenazione nel cervello.

L'esperimento si è svolto in questo modo:
I ricercatori guidati da Shinji Nishimoto si sono sottoposti alla risonanza magnetica funzionale durante la visione di diverse ore di trailer e spezzoni di film, registrando le immagini generate dalla risonanza magnetica per ciascun fotogramma visualizzato. A questo punto Nishimoto e colleghi hanno cercato di ricostruire l’attività neurale associata alle immagini generate dalla fMRI per costruendo un modello matematico che metta in relazione il flusso di sangue che si osserva con la fMRI (e l’attività neuronale associata) con le immagini mostrate.
In altre parole grazie a questo modello gli scienziati sono stati in grado di tradurre le immagini sullo schermo (forme e movimenti) nel "linguaggio" del nostro cervello (attività neurale).
Fatto questo i neuroscienziati hanno selezionato su YouTube 18 milioni di secondi di sequenze video, ognuna delle quali è stata associata allo stato di attivazione cerebrale predetto dal modello.
Per usare nuovamente la metafora di prima è come se i ricercatori avessero creato una sorta di "dizionario" del linguaggio del cervello nel quale ad ogni particolare schema di attivazione cerebrale corrisponde un fotogramma.
A questo punto, per testare il modello, i soggetti sperimentali sono stati soggetti ad una nuova scansione mentre guardavano dei nuovi video. Partendo dalla "libreria" ottenuta nella precedente fase del loro lavoro, e selezionato le scene correlate ad attività cerebrali più simili a quelle osservate sperimentalmente, il gruppo è riuscito ad ottenere il risultato mostrato nel video più sotto.

Nonostante i risultati siano già notevoli questa tecnica di "lettura della mente" ha ancora alcuni limiti. Lo studio infatti si è concentrato solamente sulla corteccia visuale primaria, e non su tutte le aree coinvolte nell'elaborazione delle immagini. Inoltre l’algoritmo era realizzato su misura per ciascun individuo preso in esame.
La forte sfocatura delle immagini prodotte potrebbe essere migliorata in futuro realizzando un modello più dettagliato e/o aumentando il campionamento di immagini usate per costruire la "libreria" che correla immagini e attività neurale (per restare nella metafora, aumentando le "voci" del dizionario).

Le possibili applicazioni future di questa tecnica sono innumerevoli e vanno dall'utilizo nel campo delle interfacce cervello-macchina(BMI) alla possibilità di sviluppare migliori sistemi di visione artificiale per i robot.
Secondo uno dei partecipanti allo studio “Questo è un enorme passo avanti nel ricostruire il mondo di immagini interiori di ognuno di noi”, grazie alla tecnica sviluppata infatti, in futuro potrebbe essere possibile "vedere" letteralmente gli stati emotivi, le intenzioni o persino i sogni di persone soggette a scansione cerebrale.
Chissà cosa avrebbe detto Freud se avesse potuto vedere tutto questo!

Ecco il video realizzato dai ricercatori...(a sinistra ci sono le immagini mostrate a destra quelle ricostruite)

lunedì 10 ottobre 2011

La scienza e la bellezza del mondo

L'immagine spiritosa del post precedente offre in realtà un ottimo spunto per fare una riflessione piuttosto profonda sulla "visione scientifica del mondo".

Purtroppo, anche tra persone che possiedono una solida cultura umanistica è spesso diffuso il pregudizio che le scienze siano qualcosa di povero di emozione e asettico.
Per chiarire meglio cosa intendo, riporto poche righe tratte da "La fisica di Feynman" ("The Feynman Lectures on Physics"): uno dei manuali universitari di fisica di più grande successo nel mondo, pubblicato in più volumi nel 1964, a cura di Richard Feynman. Non me ne vogliano i poeti! ;)

Non nuoce al mistero il saperne qualcosa. Perché la realtà è tanto più meravigliosa di quanto artista alcuno del passato immaginasse! Perché i poeti del presente non ne parlano? Che uomini sono i poeti che parlerebbero di Giove se fosse simile a un uomo, ma se egli è un’immensa sfera ruotante di metano e di ammoniaca restano in silenzio?

(Richard Feynman, La Fisica di Feynman, vol. I-1, cap. 3-4, 1994, p. 3-9)


In questo video, lo stesso Richard Feynman spiega le ragioni per cui uno "scienziato", o più in generale chi possiede una certa cultura scientifica, può in realtà ammirare doppiamente le bellezze della natura e del mondo che ci circonda ogni giorno, nel caso particolare di un fiore, rispetto a un "non-scienziato".

domenica 9 ottobre 2011

Il mondo visto dagli scienziati

Ecco il secondo post umoristico domenicale. Direi che queste due immagini si commentano da sole...































E voi quante di queste formule sapete riconoscere? ;)

venerdì 7 ottobre 2011

Il tatto virtuale

L'esperimento descritto in un articolo pubblicato pochi giorni fa sulla prestigiosa rivista "Nature" potebbe trasformare radicalmente il campo delle interfacce cervello-macchina (o BMI dall'inglese Brain Machine Interface).
Un gruppo di ricercatori della Duke University guidati dal famoso neuroscienziato Miguel Nicolelis è riuscito a realizzare un impianto neurale tale da permettere a delle scimmie non solo di controllare una mano virtuale con il pensiero, ma anche - e qui sta la novità - di ricevere un feedback tattile dell'oggetto virtuale che stavano maneggiando. Le scimmie a cui è stato impiantato il dispositivo erano in grado di sentire l'oggetto con il tatto proprio come se si trattasse di un oggetto reale, tanto da distinguere i differenti tipi di trama che caratterizzavano diversi oggetti mostrati loro dagli sperimentatori.
Per provare l'efficacia del'interfaccia neurale sono stati mostrati alle scimmie oggetti virtuali che apparivano identici alla vista ma che erano stati programmati in modo da avere una trama tattile differente. Il senso del tatto virtuale fornito dal dispositivo ha permesso alle scimmie di discriminare i diversi oggetti che si sono trovate a manipolare.
Il feedback tattile, costituito da un segnale modellato sulla struttutra dei segnali effettivamente inviati dagli arti biologici al sistema nervoso centrale, è stato trasmesso al cervello dei primati stimolando elettricamente una particolare parte della loro corteccia cerebrale tramite precisissimi microelettrodi accuratamente posizionati (la tecnica usata prende il nome di ICMS "IntraCortical Micro Stimulation").

Questo potrebbe essere il primo passo verso la creazione di una realtà virtuale veramente immersiva dove si possa davvero "sentire", anche col tatto, il mondo virtuale attorno a sé. Questa tecnologia potrebbe essere anche utilizzata per costruire migliori arti protesici che ripristinino anche il senso del tatto oltre che la capacità motoria, per facilitare il controllo di interi esoscheletri robotici o per aiutare pazienti paralizzati.

La tecnologia delle interfacce cervello-macchina si sta sviluppando a una velocità sorprendente negli ultimi anni, tuttavia il dispositivo realizzato dai neuroingegneri della Duke University rappresenta un vero e proprio salto di qualità rispetto al passato, aprendo di fatto il campo delle interfacce cervello-macchina-cervello (BMBI in inglese).La possibilità di ricevere feedback tattili al seguito di un comando motorio è molto importante; la bidirezionalità della comunicazione tra arti e cervello è infatti la chiave delle notevoli abilità dell'uomo e di altri animali nel manipolare gli oggetti.

giovedì 6 ottobre 2011

Bolshoi

Dall'infinitamente piccolo all'infinitamente grande.
Cambiamo decisamente scala dal precedente post parlando di cosmologia.
La simulazione "Bolshoi" è il più grande e dettagliato modello cosmologico dell'evoluzione dell’Universo mai realizzato; "bolshoi" in russo significa "grande" e grande, in effetti, è stato il lavoro dei ricercatori dell'Università della California di Santa Cruz e della Nasa che l'hanno realizzata. Il primo di una serie di articoli che descrivono Bolshoi e le sue implicazioni per la cosmologia sta per essere pubblicato in questi giorni su "Astrophysical Journal".
Bolshoi si basa su dati raccolti sia tramite osservazioni da terra che dalla missione spaziale Wilkinson Microwave Anisotropy Probe (Wmap). Questa, per diversi anni, è stata impegnata a mappare le variazioni della radiazione cosmica di fondo: ciò che di più antico si possa osservare nel cielo, il residuo della radiazione termica emessa poco dopo il big bang.

Bolshoi ha permesso di ricostruire l'evoluzione di un immenso volume di spazio: un cubo di un miliardo di anni luce di lato che, nonostante le gigantesche dimensioni, rappresenta solo una porzione ridotta ma rappresentativa dell'intero Universo visibile (che ha un raggio di 46 miliardi di anni luce).
Uno dei principali motivi di interesse della simulazione è che essa non ci permette di ricostruire solo la storia della materia a tutt'oggi visibile, ma anche quella che, pur essendoci invisibile, produce significativi effetti gravitazionali sugli oggetti osservabili: la materia oscura. Gli astronomi sperano che la simulazione possa facilitare la ricerca di questa sfuggente forma di materia che con la sua massa domina l'evoluzione delle strutture a grande scala del Cosmo; dalle singole galassie ai superammassi.
In passato erano già state realizzate altre simulazioni di questo tipo: la più recente è la "Millennium Run", che è stata la base di circa 400 diversi articoli dal 2005 ad oggi. La simulazione Bolshoi, che ha richiesto 6 milioni di ore cpu per essere portata a termine dall'avanzatissimo supercomputer "Pleiades", supera la precedente sia in risoluzione che in accuratezza potendo contare su più vaste risorse di calcolo e su misurazioni più precise dei parametri cosmologici alla base del modello.

Il video rappresenta la visualizzazione della materia oscura presente in una regione di spazio che costituisce un millesimo del volume simulato da Bolshoi. Nella zona centrale è visibile l'alone di materia oscura di un grosso cluster di galassie.
Per apprezzarne la bellezza vi consiglio di guardare il video in HD in modalità schermo intero.

mercoledì 5 ottobre 2011

Immagini dal nanomondo

La frase di Feynman che ho citato in uno dei primi post riguardo alle meraviglie invisibili che la scienza ci rivela si adatta benissimo anche a ciò che vi voglio mostrare ora. Le immagini qui sotto, in cui scienza e arte si fondono nel mostrarci i quasi onirici paesaggi dell'ultrapiccolo, sono tratte da "Blowup. Immagini del nanomondo", un progetto del Centro Nazionale S3 di Modena del CnrNano.


Punta d'oro usata per “leggere” la superficie di campioni con la tecnica di microscopia ottica a campo prossimo (SNOM). La punta è stata assottigliata per aumentare la precisione delle letture. L’apice misura poche decine di nanometri. Esperimento: G.C. Gazzadi, CnrNano Modena – P.Gucciardi, CNR-IPCF, Messina, Artwork: Lucia Covi


Leva di dimensioni nanometriche ‘scolpita’ nel silicio con un fascio di ioni focalizzati. Una nanostruttura di questo tipo, sospesa e libera di oscillare, può funzionare come una bilancia ultra-sensibile, fino a oggetti di pochi femtogrammi (un femtogrammo è 10^(-15)g). Potrebbe essere impiegata come biosensore per virus o molecole biologiche. La leva è lunga 2 micrometri, larga 215 nanometri e spessa 140 nanometri. Esperimento: , G.C.Gazzadi, S. Frabboni, CnrNano Modena. Artwork: Lucia Covi


Foro su uno strato di polietilene, di diametro pari a 6 micron: per ‘scolpire’ la materia con precisione micrometrica come in questo caso si usano fasci di ioni focalizzati. Esperimento: G.C. Gazzadi, CnrNano, Modena. Artwork: Lucia Covi.

Esempio di nanolavorazione di superfici: dettaglio di un foro micrometrico scavato in uno strato ultrasottile di nitruro di titanio; il titanio rende la superficie sottostante resistente all’usura e i fori riducono l’attrito alla macroscala. Esperimento: G.C. Gazzadi, S3 CnrNano Modena e STARsrl, Modena. Artwork: Lucia Covi.

Introduzione alla nanotecnologia

La nanotecnologia è la disciplina che si occupa di come manipolare la materia alla scala atomica e molecolare. Il suo scopo è quello di sviluppare strutture e dispositivi controllandone le caratteristiche alla scala nanometrica (10^(-9)m). A questa scala diventano rilevanti gli effetti quanto-meccanici mentre forze come l'attrito e la gravità che dominano la dinamica dei corpi macroscopici risultano trascurabili.
Alla base della nanotecnologia c'è la nanoscienza: in questa categoria rientrano a buon diritto tutte le scienze che studiano fenomeni naturali che avvengono alla nanoscala; a questo livello, infatti, fisica chimica e biologia convergono in questo unico campo di studi dove i confini tra le discipline sono molto sfumati e interdisciplinarità è la parola d'ordine.
Come idea, le nanotecnologie nacquero nel 1959 quando Richard Feynman tenne l'ormai leggendaria conferenza dal titolo "There's Plenty of Room at the Bottom" (C’è un sacco di spazio laggiù) in cui veniva introdotta l'idea che dal mondo dell'ultra-piccolo sarebbero potuti arrivare grandi cambiamenti a livello macroscopico.
Tuttavia, la vera nascita della nanoscienza e della nanotecnologia coincide con l'introduzione dei microscopi a scansione che, per la prima volta, hanno permesso di vedere e manipolare direttamente atomi e molecole (la figura in alto mostra proprio l'immagine di alcuni atomi di platino ottenuta con un microscopio a scansione).
Oggi le applicazioni pratiche della nanotecnologie sono in rapido sviluppo e senza che ce ne rendiamo conto prodotti nanotecnologici stanno entrando nella nostra vita di tutti i giorni; l'industria dell'elettronica, quella chimica e l'ingegneria dei materiali sono campi in cui la nanotecnologia trova quotidianamente, già oggi, un largo utilizzo.

Tuttavia il potenziale della tecnologia dell'ultrapiccolo è ancora ben lontano dell'essere pienamente sfruttato, rivoluzionarie si prospettano le applicazioni alla biologia ed alla medicina. Come ci mostrano la biologia molecolare e la biochimica, gli organismi viventi non sono altro che complessissimi e raffinati meccanismi molecolari il cui funzionamento si potrebbe controllare con metodi nanotecnologici. La vita in sé, del resto, è un vero e proprio esempio di avanzatissima nanotecnologia "naturale" forgiata dall'evoluzione in milioni di anni.

L'ultima frontiera della nanotecnologia, al momento ancora molto distante, sarà probabilmente quella teorizzata dal pioniere delle nanotecnologie Eric Drexler che, nel 1986 pubbicò il libro "Engines of Creation: The Coming Era of Nanotechnology", nel quale riprendendo le idee di Feynman introduceva il concetto di "assemblatore molecolare": una nanomacchina capace di costruire copie di se stessa e di qualunque altro oggetto di arbitraria complessità partendo solo dai suoi componenti chimici grezzi e dalla conoscenza della sua struttura atomica. Questa branca della nanotecnologia ancora nella sua infanzia, comunemente chiamata "nanotecnologia molecolare", è strettamente connessa con la così detta nanorobotica: il campo di ricerca di chi si occupa di come creare robot alla scala nanometrica.

Scriverò ancora sulla nanotecnologia ma per chiudere questo post voglio mostrarvi questo video che permette di intuire fino in fondo le potenzialità future delle nanotecnologie. Il video realizzato da Zyvex (la prima azienda ad occuparsi di nanotecnologia molecolare) mostra quello che potrebbe essere il funzionamento di un sistema produttivo alla nanoscala in grado di comportarsi come gli assemblatori molecolari proposti da Drexler.

Quello che vedrete in questo video per ora è un sogno; un sogno che, però, grazie alla passione, l'impegno e la fantasia di migliaia di scienziati in tutto il mondo potrebbe divenire realtà.

martedì 4 ottobre 2011

ALMA

Inaugurato in questi giorni l'ALMA - Atacama Large Millimetre/sub-millimetre Array - è sicuramente uno dei più grandi progetti internazionali dedicati all'osservazione astronomica previsti per questa decade. Frutto di una vasta collaborazione tra organizzazioni di ricerca Nordamericane Europee e Giapponesi, questo rivoluzionario radiotelescopio è situato sull'altopiano di Chajnantor, a 5000 metri di altitudine, nel nord del Cile. La struttura, quando opererà a pieno regime, consisterà di 66 antenne radio mobili alte dodici metri e larghe 7, sparse in una regione di circa 12 km di diametro. Sfruttando la tecnica dell'interferometria radio, tutte le antenne potranno operare come un unico immenso radiotelescopio con una risoluzione mai raggiunta prima. Come dice il nome, questo osservatorio scruterà il cielo nelle lunghezze d'onda millimetriche e submillimetriche, aprendo, grazie alla sua risoluzione, una finestra completamente nuova sul cosmo. La luce a queste lunghezze d'onda, invisibile all'occho umano, è emessa da oggetti più freddi delle stelle che possiamo normalmente osservare nel visibile. Questo fatto renderà possibile studiare la formazione planetaria, l'astrochimica, rivelare la radiazione emessa dalle più distanti galassie e persino arrivare a osservare direttamente esopianeti, con la possibilità di scoprire le prime tracce di vita al di fuori del nostro pianeta.

Ecco il video di presentazione di questo straordinario progetto che, da un aspro deserto andino contribuirà ad espandere la nostara conoscenza del cosmo.



Sul sito di "Le Scienze" si può trovare una bella fotogalleria su ALMA.

Blue Brain - Human Brain Project

Ricostruire il cervello pezzo per pezzo in un supercomputer.
Questo è l'obbiettivo del progetto Blue Brain, avviato nel maggio 2005 dalla IBM in collaborazione con Henry Markram neuroscienziato dell'École Polytechnique di Losanna in Svizzera. La portata epocale di un simile obbiettivo appare subito chiara; infatti non solo la costruzione di un cervello virtuale metterebbe nelle mani degli scienziati uno strumento formidabile par arrivare ad una miglior comprensione della mente e dei suoi disturbi, ma coinciderebbe con la realizzazione della prima macchina potenzialmente in grado di pensare e persino di provare emozioni come noi esseri umani. La motivazione dichiarata del progetto è quella di costituire una piattaforma per esperimenti neuroscientifici "in silico" (cioè simulati al computer) che permetta di riassumere e sintetizzare in un quadro coerente l'immensa mole di dati neurobiologici e comportamentali che la ricerca produce ogni giorno.
La potenza di calcolo necessaria per una simile impresa è notevole: ogni neurone simulato richiede la potenza di calcolo di un piccolo computer portatile. Nonostante ciò la tecnologia dei supercomputer, seguendo il trend di crescita esponenziale delle prestazioni dell'elettronica in atto ormai da decenni, si sta rapidamente avvicinando ai livelli necessari a rendere la simulazione di un intero cervello umano una possibilità concreta.
Ad oggi i ricercatori del Blue Brain Project sono già riusciti a compiere il primo passo verso il loro obbiettivo. E' stata completata la simulazione di una intera colonna neocorticale (la più piccola parte funzionale del cervello responsabile delle funzioni più elevate e del pensiero cosciente) del cervello di topo. Questa complessa rete neurale, costituita di 10.000 neuroni nei topi, ha le dimensioni di una punta di spillo e si ripete moltissime volte a formare l'intera neocorteccia. Il cervello umano possiede circa 2.000.000 di colonne di 100.000 neuroni ciascuna.
In questi sei anni il progetto è stato un successo, il team di Henry Markram ha messo a punto tutte le tecniche necessarie per costruire modelli biologicamente accurati dei neuroni,spingendo la simulazione, quando necessario, fino al dettaglio molecolare. I modelli così generati hanno mostrato gli stessi comportamenti osservati nei cervelli biologici in anni di sperimentazione neuroscientifica.
Grazie agli ottimi risultati il gruppo di ricercatori del politecnico di Losanna, insieme insieme agli scienziati di altre dodici importanti istituzioni europee di ricerca, ha potuto proporre lo Human Brain Project. Un iniziativa su vasta scala a livello europeo che si prefigge lo scopo il raggiungimento dell'obbiettivo originale del Blue Brain Project, realizzare la simulazione completa di un cervello umano, in soli 10 anni.
Dopo essere stato finanziato dall'unione europea con 1.4 milioni di euro come progetto pilota lo Human Brain Project è ora in attesa dell'attribuzione di un finanziamento di 1.61 miliardi di euro in dieci anni e il suo completamento è previsto per il 2024.

In futuro dedicherò sicuramente altri post a questo affascinante progetto.
Per ora potete godervi il video qui sotto nel quale navighiamo all'interno dell'intrico di neuroni che compongono una delle colonne neocorticali ricostruite dai neuroscienziati del Blue Brain Project.

domenica 2 ottobre 2011

I neutrini di Majorana

Dopo il clamoroso annuncio da parte dei ricercatori dell'esperimento OPERA riguardo all'osservazione di neutrini più veloci della luce la comunità scientifica, oltre ad attivarsi per confermare o smentire il risultato, si sta interrogando sulle possibili spiegazioni di un simile fenomeno. In un articolo recentemente pubblicato sul sito arxiv.org i fisici dell' università di Padova Fabrizio Tamburini e Marco Laveder affermano che la possibilità un comportamento "superluminale" da parte dei neutrini fosse già stata ipotizzata nel passato, e non qualche anno fa ma addirittura nel 1932. Rileggendo gli appunti scritti quasi ottanta anni fa dal geniale Ettore Majorana i due si sono convinti che la sua teoria sulle particelle elementari dia delle predizioni in ottimo accordo con i risultati dell’esperimento OPERA. Majorana, ipotizzava infatti che, in particolari condizioni, le particelle elementari possano assumere una massa ‘immaginaria’(cioè descritta da un numero immaginario). Questa insolita proprietà potrebbe liberare le particelle dai limiti imposti della Relatività di Einstein permettendo loro di viaggiare più veloci della luce pur rispettandone le equazioni.
In particolare i neutrini potrebbero diventare "tachionici", cioè viaggiare a velocità superiore a quella della luce se costretti ad attraversare un materiale molto denso. Questo è proprio ciò che è avvenuto ai neutrini dell'esperimento OPERA che, sparati dal CERN verso i laboratori nazionali del Gran Sasso hanno attraversato ben 730 Km di roccia prima di interagire con il rivelatore.
Questa teoria appare ancora più promettente se si pensa che si accorda perfettamente con gli altri dati già noti riguardo alla velocità dei neutrini. Infatti altri indizi, seppur meno significativi dal punto di vista statistico, di neutrini viaggianti a velocità superluminali erano già stati raccolti dall'esperimento americano MINOS anche nel quale questi dovevano attraversare un lungo tratto di sottosuolo. Anche il fatto che con la comparsa di supernovae si registri un aumento del flusso di neutrini, evidenza sperimentale in contrasto con il fatto che i neutrini viaggino "sempre" più veloci della luce, concorda con la teoria di Majorana secondo la quale nel vuoto spaziale, in condizione di bassissima densità, i neutrini non dovrebbero diventare tachionici.
Se tutto ciò fosse confermato la validazione di questa previsione si aggiungerebbe alla già lunga lista di successi di questo grande scienziato italiano scomparso nel nulla 80 anni fa.

Del dot B

Oggi è domenica e voglio concedermi un post umoristico!

Se conoscete “Let It Be” dei Beatles e le equazioni di Maxwell apprezzerete sicuramente questo brillante esempio di “umorismo fisico” che gira da un po’ di tempo tra gli studenti del secondo anno di fisica qui a Torino ( e se per caso vi stavate chiedendo quali corsi stesse frequentando in questo periodo l’autore: ecco, ora avete la risposta! ;) ).

Buon ascolto!