Intel lancia uno strumento AI per valutare la qualità delle immagini nei giochi
Il Computer Graphics Visual Quality Metric di Intel fornisce misurazioni oggettive della qualità delle immagini nei giochi moderni.
Intel ha rilasciato il Computer Graphics Visual Quality Metric (CGVQM), un innovativo strumento alimentato da intelligenza artificiale per valutare in modo oggettivo la qualità delle immagini nei videogiochi moderni. Disponibile su GitHub come applicazione PyTorch, il CGVQM si propone come alternativa ai metodi tradizionali come il peak signal-to-noise ratio (PSNR), che spesso non riescono a catturare tutte le sfumature delle distorsioni presenti nei giochi in tempo reale.
I ricercatori di Intel hanno sviluppato un dataset, il Computer Graphics Visual Quality Dataset (CGVQD), che include varie distorsioni legate a tecniche di rendering moderne. Un modello AI è stato addestrato per valutare queste distorsioni, utilizzando una rete neurale convoluzionale 3D basata su ResNet, in grado di analizzare sia informazioni spaziali che temporali.
Il CGVQM si distingue per la sua capacità di generalizzare l'identificazione delle distorsioni anche su video non contenuti nel dataset di allenamento. Questo rende il modello un utile strumento per valutare la qualità delle immagini nei giochi in tempo reale.
Il team di ricerca suggerisce che future evoluzioni potrebbero includere reti neurali transformer e l'uso di vettori di flusso ottico per migliorare ulteriormente le prestazioni del modello.
Cos'è il Computer Graphics Visual Quality Metric (CGVQM) sviluppato da Intel?
Il CGVQM è uno strumento basato sull'intelligenza artificiale progettato da Intel per valutare oggettivamente la qualità delle immagini nei videogiochi moderni. Utilizza una rete neurale convoluzionale 3D basata su ResNet per analizzare sia le informazioni spaziali che temporali, superando le limitazioni dei metodi tradizionali come il PSNR.
Quali sono le principali distorsioni che il CGVQM è in grado di identificare?
Il CGVQM è progettato per rilevare distorsioni introdotte da tecniche di rendering avanzate, tra cui supersampling neurale, sintesi di nuove viste, path tracing, denoising neurale, interpolazione di frame e shading a tasso variabile.
In che modo il CGVQM migliora rispetto ai metodi tradizionali di valutazione della qualità video?
Il CGVQM supera i metodi tradizionali come il PSNR, che spesso non catturano tutte le sfumature delle distorsioni nei giochi in tempo reale. Grazie all'uso di una rete neurale convoluzionale 3D, il CGVQM analizza sia le informazioni spaziali che temporali, offrendo una valutazione più accurata della qualità visiva.
Qual è l'importanza del dataset CGVQD nello sviluppo del CGVQM?
Il Computer Graphics Visual Quality Dataset
Come si confronta il CGVQM con altre metriche di qualità video esistenti?
Le valutazioni hanno mostrato che le metriche di qualità video esistenti performano in modo subottimale su distorsioni introdotte da tecniche di rendering avanzate, con una correlazione massima di Pearson di 0,78. Il CGVQM, invece, supera significativamente queste metriche, offrendo sia mappe di errore per pixel che punteggi di qualità globali.
Quali sono le potenziali evoluzioni future del CGVQM?
Il team di ricerca suggerisce che future evoluzioni del CGVQM potrebbero includere l'integrazione di reti neurali transformer e l'uso di vettori di flusso ottico per migliorare ulteriormente le prestazioni del modello.