Quante volte ci è capitato di non riuscire a trasmettere, con uno scatto, la bellezza del panorama che avevamo davanti? Ci viene in soccorso un team di ricercatori dell’università di Washington ha sviluppato e reso noto un metodo di deep learning che consente di mettere in moto le fotografie e trasformarle in video, con un effetto estremamente realistico. A partire da una singola immagine, congelata nel tempo, l’algoritmo può animare – per ora – qualsiasi oggetto o materiale che scorre, come l’acqua, le nuvole e il fumo, generando un filmato che (potenzialmente) può durare all’infinito.

Come funziona? Tanto per cominciare, il sistema opera delle previsioni su come si muoverebbero realmente gli oggetti inquadrati quando è stata scattata la foto, quindi mette in gioco tali informazioni per generare l’animazione. Per ottenerlo, gli scienziati hanno praticamente “addestrato” una rete neurale mediante l’analisi di migliaia di video di panorami con oggetti in movimento, nel caso degli esempi che vi riportiamo in questo video, di cascate e corsi d’acqua. Consentendo al software di imparare a fare previsioni corrette sul possibile movimento a partire anche solo da un singolo fotogramma: la rete ha di fatto imparato a capire quali indizi erano funzionali allo scopo, come per esempio le onde e le increspature in un flusso d’acqua.

Il prossimo passo è quello di applicarlo anche alle persone, per esempio generando il movimento dei capelli che fluttuano col vento, ma per questo goal c’è ancora del lavoro da fare.

(Credit video: University of Washington)

The post Usare il deep learning per trasformare una foto in un video appeared first on Wired.



Leggi l’articolo su wired.it