Creare scene 3D immersive partendo da semplici fotografie

ADOP: Approximate Differentiable One-Pixel Point Rendering

ADOP, Approximate Differentiable One-Pixel Point Rendering, un sistema AI sviluppato da Darius Rückert e da altri ricercatori dell’Università di Erlangen-Norimberga, in Germania, è in grado di trasformare una serie immagini fisse in una simulazione 3D immersiva e ad alta definizione.

All’algoritmo servono una selezione di immagini della scena e un modello 3D approssimativo creato con un comune software chiamato COLMAP, dopodiché il sistema di intelligenza artificiale ricrea con precisione la scena da ogni punto di vista.

In teoria il sistema sarebbe in grado di creare la scena con sole due fotografie, ma in quel caso non sarebbe molto preciso. Più immagini si usano, meglio sarà la resa. Con circa 300/350 immagini la ricostruzione è molto accurata, come si può vedere in questo video:

Finora effetti del genere erano possibili, ma solo con frequenti interventi manuali e lavoro umano. Questo modello, invece, una volta forniti i dati realizza la scena in maniera completamente autonoma.

Il codice è su Github, mentre il paper è disponibile qui.

Sono Head of Artificial Intelligence di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti all'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale.