Il video di GTA5 è incredibile. L’IA lo ha reso fotorealistico

Sfruttando una sofisticata IA intelligenza artificiale, alcuni membri del team Intel Labs hanno trasformato GTA5 in qualcosa di realmente sorprendente, avvicinandosi quanto più possibile alla realta, il tutto dimostrato tramite un video fotorealistico.

Tramite la fucina di innovazioni rappresentata dagli Intel Labs, è stato usato proprio GTA V come materia di studio per presentare un “approccio per migliorare il realismo delle immagini sintetiche“.

Un documento intitolato “Enhancing photorealism enhancement“, corredato dal video di cui sopra, ci spiega cosa intende Intel con “miglioramento del miglioramento del fotorealismo“.

Il lavoro di Stephan R. Richter, Hassan Abu AlHaija e Vladlen Koltun si basa su una rete convoluzionale, un tipo di rete neurale, che “sfrutta rappresentazioni intermedie prodotte da pipeline di rendering convenzionali”. Intel parla dei G-buffer, ossia dei buffer intermedi prodotti dai motori di gioco durante il processo di rendering. Questi buffer hanno informazioni dettagliate su geometria, materiali e illuminazione nella scena. Ed è proprio usando questi attributi che Intel ha addestrato una rete convoluzionale per migliorare il realismo di quanto prodotto dalla pipeline di rendering.

Il team di Intel si è avvalso del database di Cityscape con migliaia di immagini di una cittadina tedesca per addestrare la propria rete neurale a vivisezionare le immagini del gioco, sostanzialmente ordinandole su diversi livelli, in modo da “sovrapporre” gli attribuiti realistici delle immagini di Cityscape sulla grafica di GTA.

Tecnicismi a parte, questo metodo si fonde con rendering in tempo reale tradizionale per restituirci una grafica più reale. E con questo non stiamo dicendo che è necessariamente di maggiore impatto o che possa piacere a tutti: non sempre una rappresentazione aderente alla realtà è migliore ai nostri occhi. Come vedete nel filmato, cambiano la tonalità della luce, dei colori, ma ci sono anche effetti visibili sulla vegetazione, i riflessi, le ombre e la distanza visiva.

“Ci aspettiamo che il nostro metodo continui a beneficiare delle future pipeline grafiche e sia compatibile con il ray tracing in tempo reale“, scrivono i ricercatori nel documento. “L’inferenza nel nostro approccio in questa implementazione attualmente non ottimizzata richiede mezzo secondo su una GeForce RTX 3090. Poiché i G-buffer usati come input sono prodotti nativamente sulla GPU, il nostro metodo potrebbe essere integrato più profondamente nei motori di gioco, incrementando l’efficienza e possibilmente avanzando ulteriormente il livello di realismo“.

Quanto all’impatto prestazionale, non se ne parla in modo esplicito ma i ricercatori ritengono che, con l’hardware giusto e un’ulteriore ottimizzazione, le immagini di gioco potrebbero essere migliorate dalla loro rete convoluzionale a “velocità interattive”, ossia in tempo reale. Non sembra quindi che vi sia bisogno di una potenza incredibilmente elevata per produrre immagini di questo genere, semmai potrebbe essere necessario un aggiornamento del software.

Ultimi articoli

spot_img

Related articles