Il Comitato I Malati Invisibili è presente e attivo nel territorio nazionale da aprile 2014.

(+39) 000 0000 000

info@imalatiinvisibili.it
Via Monte Suello 1/12a – 16129 Genova (IT)

Salva

Articoli recenti

CF 95173870106

info@imalatiinvisibili.it

Via Monte Suello 1/12A

16129 Genova (IT)

Tecnica di intelligenza artificiale – Biologia, sviluppo di modelli predittivi nel settore biomedico e farmaceutico

Una tecnica di intelligenza artificiale fornisce un potente strumento per il rilevamento e la classificazione dei dati biologici, e per lo sviluppo di modelli predittivi nel settore biomedico e in quello farmaceutico. Ma prima di poterla usare in modo esteso, i ricercatori devono vincere alcune sfide

Quattro anni fa gli scienziati di Google hanno bussato alla porta del neuroscienziato Steve Finkbeiner. I ricercatori facevano parte di Google Accelerated Science, una divisione di ricerca di Mountain View, in California, che mira a usare le tecnologie di Google per accelerare le scoperte scientifiche. Erano interessati ad applicare l’apprendimento profondo (deep learning) alle montagne di dati di imaging generati dal gruppo di Finkbeiner al Gladstone Institute of Neurological Disease a San Francisco, sempre in California.

Gli algoritmi di apprendimento profondo acquisiscono caratteristiche grezze da un insieme di dati estremamente ampio e classificato (come una raccolta di immagini o genomi), e le usano per creare uno strumento predittivo basato su schemi sepolti nello stesso insieme di dati. Una volta allenati, gli algoritmi possono usare questo addestramento per analizzare altri dati, a volte provenienti da fonti differenti.

La tecnica può essere usata per “affrontare problemi molto complicati, e può essere in grado di vedere una struttura in quantità di dati troppo grandi e complesse per essere elaborate dal cervello umano”, dice Finkbeiner.

Il gruppo di Finkbeiner produce valanghe di dati grazie a una strategia di imaging ad alta velocità nota come microscopia robotizzata, sviluppata per lo studio delle cellule cerebrali. Il gruppo però non era in grado di analizzare i dati alla stessa velocità con cui li acquisiva; così Finkbeiner ha accolto con favore l’opportunità di collaborare con Google.

“Anni fa non avevo un’idea chiara di quali problemi poter affrontare con l’apprendimento profondo, ma sapevo che generavamo dati due o tre volte più velocemente di quanto li potessimo analizzare”, dice.

Oggi questi sforzi iniziano a essere ripagati. Il gruppo di Finkbeiner e gli scienziati di Google hanno creato un algoritmo di apprendimento profondo usando due serie di cellule, una marcata artificialmente per evidenziare le caratteristiche che di norma gli scienziati non riescono a vedere, l’altra non marcata. Quando in seguito l’algoritmo ha analizzato immagini di cellule non marcate che non aveva mai visto prima, dice Finkbeiner,”è stato sorprendentemente bravo a prevedere quali avrebbero dovuto essere le marcature per quelle immagini”. Uno studio che illustra in dettaglio il lavoro è in corso di pubblicazione.

Il successo di Finkbeiner evidenzia come l’apprendimento profondo, uno dei rami più promettenti dell’intelligenza artificiale, si stia facendo strada in biologia. Gli algoritmi stanno già infiltrandosi nella vita moderna attraverso smartphone, assistenti virtuali e automobili a guida autonoma. In biologia, gli algoritmi di apprendimento profondo si immergono nei dati in modi che gli esseri umani non possono fare, rilevando caratteristiche che altrimenti potrebbero essere impossibili da rilevare. I ricercatori usano gli algoritmi per classificare immagini di cellule, creare connessioni genomiche, anticipare la scoperta di farmaci e addirittura trovare collegamenti tra diversi tipi di dati, come la genomica e le immagini delle cartelle cliniche elettroniche.

Sul server di preprint bioRxiv ci sono oltre 440 gli articoli che parlano di apprendimento profondo; PubMed elenca oltre 700 riferimenti bibliografici nel 2017. Questi strumenti stanno per diventare ampiamente disponibili a biologi e ricercatori clinici. Ma gli scienziati devono affrontare delle sfide per capire che cosa fanno questi programmi, e per assicurarsi che non sbaglino.

L’addestramento degli algoritmi intelligenti
Gli algoritmi di apprendimento profondo (si veda l’illustrazione Deep thoughts) si basano su reti neurali, un modello computazionale proposto per la prima volta negli anni quaranta, in cui strati di nodi neuronali imitano il modo in cui il cervello umano analizza le informazioni. Fino a cinque anni fa, gli algoritmi di apprendimento automatico basati su reti neurali si affidavano ai ricercatori per elaborare le informazioni grezze in una forma più significativa prima di inserirle nei modelli, dice Casey Greene, biologo computazionale all’Università della Pennsylvania a Filadelfia. Ma l’esplosione delle dimensioni degli insiemi di dati – per esempio da fonti come le foto degli smartphone o il sequenziamento genomico su larga scala – e le innovazioni algoritmiche hanno permesso agli esseri umani di fare un passo indietro. Questo progresso nell’apprendimento delle macchine – la parte “profonda” – costringe i computer, non i loro programmatori umani, a trovare le relazioni significative incorporate nei pixel e nelle basi nucleotidiche. I livelli della rete neurale filtrano e ordinano le informazioni, e contemporaneamente comunicano tra loro permettendo così a ciascun livello di perfezionare l’output del precedente.

Alla fine, questo processo permette a un algoritmo addestrato di analizzare un’immagine nuova e di identificarla correttamente come, per esempio, Charles Darwin o una cellula malata. Ma via via che i ricercatori si allontanano dagli algoritmi, non possono più controllare il processo di classificazione o addirittura spiegare con precisione che cosa fa il programma. Anche se queste reti di apprendimento profondo possono essere incredibilmente accurate nelle previsioni, dice Finkbeiner, “a volte è ancora difficile capire che cosa vede la rete che le permette di fare una previsione così buona”.

Tuttavia, molte sottodiscipline della biologia, tra cui l’imaging, stanno raccogliendo i frutti di queste previsioni. Una decina di anni fa, il software per l’analisi automatizzata delle immagini biologiche si concentrava sulla misurazione di singoli parametri in un insieme di immagini. Per esempio, nel 2005 Anne Carpenter, biologa computazionale del Broad Institute – una collaborazione fra Massachusetts Institute of Technology e Harvard University – ha rilasciato un pacchetto software open source chiamato CellProfiler per aiutare i biologi a misurare quantitativamente caratteristiche individuali: il numero di cellule fluorescenti in un campo microscopico, per esempio, o la lunghezza di un pesce zebra.

Ma l’apprendimento profondo permette al suo gruppo di andare oltre. “Iniziamo a misurare cose che i biologi non si rendono neppure conto di voler misurare nelle immagini “, dice. La registrazione e la combinazione di caratteristiche visive come la colorazione del DNA, la consistenza degli organelli e la qualità degli spazi vuoti in una cellula possono produrre migliaia di caratteristiche, ognuna delle quali può rivelare nuove informazioni. La versione attuale di CellProfiler include elementi di apprendimento profondo, e il prossimo anno il suo gruppo vuole aggiungere strumenti di apprendimento profondo più sofisticati.

“La maggior parte delle persone ha difficoltà a capirlo – dice Carpenter – ma in una singola immagine di cellule c’è la stessa quantità di informazioni, forse più grande in realtà, che in un’analisi trascrittomica di una popolazione cellulare “.

Questo tipo di elaborazione permette a Carpenter di adottare e sfruttare un approccio meno supervisionato per tradurre le immagini delle cellule in fenotipi associati a malattie. Carpenter è consulente scientifica di Recursion Pharmaceuticals a Salt Lake City, nello Utah, che usa i suoi strumenti di apprendimento profondo per malattie rare legate a singoli geni con l’obiettivo di sviluppare farmaci.

Strumenti per immergersi in profondità

Gli strumenti di apprendimento profondo si stanno evolvendo rapidamente e per trarne vantaggio i laboratori avranno bisogno di competenze computazionali dedicate, di collaborazioni o di entrambe.

Prima di tutto invitate a pranzo un collega con esperienza nel settore dell’apprendimento profondo e chiedetegli se la strategia potrebbe essere utile, consiglia Finkbeiner. Con alcuni insiemi di dati, per esempio quelli di imaging, un programma già disponibile potrebbe funzionare; per progetti più complessi, meglio considerare un collaboratore, dice. Workshop e incontri possono offrire opportunità di formazione.

L’accesso alle risorse di cloud computing significa che i ricercatori potrebbero non avere bisogno di un cluster di computer nel proprio istituto per sfruttare l’apprendimento profondo, potendo eseguire il calcolo altrove. TensorFlow di Google, una piattaforma open-source per la costruzione di algoritmi di apprendimento profondo, è disponibile su GitHub, un sito web per la condivisione di software, come lo è anche una versione open-source di DeepVariant, uno strumento per identificare accuratamente la variazione genetica…”

Per continuare a leggere la news originale:

Fonte: “L’apprendimento profondo della biologia”, Le Scienze

Tratto dahttp://www.lescienze.it/news/2018/02/24/news/apprendimento_profond_o_deep_learning_biologia-3876561/