Immagine: VideoLAN
VideoLAN ha lanciato una nuova versione del lettore multimediale VLC che include il supporto per RTX Video Super Resolution (VSR), la nuova tecnologia di NVIDIA per l’upscaling di video di qualità inferiore con l’aiuto dell’intelligenza artificiale e una rete di deep learning. VLC 3.0.19 RTX Vetinari è una versione speciale del ramo”Vetinari”del popolare lettore multimediale con l’upscaling RTX, VideoLAN ha confermato e, secondo il registro delle modifiche, questa versione di VLC attiva l’upscaling VSR per impostazione predefinita sulle GPU NVIDIA GeForce RTX che supportano la funzione (ad esempio, GeForce RTX serie 30 e 40). Alcuni utenti affermano che NVIDIA VSR è in grado di eseguire l’upscaling dei video così come madVR, il popolarissimo renderer video di madshi che consente agli utenti di scegliere tra vari upscaler di alta qualità, compresi i modelli NGU ad alta intensità di GPU, ma basati su alcuni dei confronti che sono stati condivisi online (1, 2), la ricezione dei risultati varia sicuramente da utente a utente.
Da un NVIDIA post:
RTX VSR è una svolta nell’elaborazione dei pixel AI che migliora notevolmente la qualità dei contenuti video in streaming oltre al rilevamento dei bordi e alla nitidezza delle funzionalità.
Gli artefatti di compressione a blocchi sono un problema persistente nei video in streaming. Che sia colpa del server, del client o del contenuto stesso, i problemi spesso vengono amplificati con l’upscaling tradizionale, lasciando un’esperienza visiva meno piacevole per chi guarda i contenuti in streaming.
RTX VSR riduce o elimina gli artefatti causati dalla compressione video, come blocchi, artefatti che squillano attorno ai bordi, sbiadimento dei dettagli ad alta frequenza e bande su aree piatte, riducendo al contempo le trame perse. Inoltre, rende più nitidi bordi e dettagli.
La tecnologia utilizza una rete di deep learning che esegue l’upscaling e la riduzione degli artefatti di compressione in un unico passaggio. La rete analizza il fotogramma video a bassa risoluzione e prevede l’immagine residua alla risoluzione target. Questa immagine residua viene quindi sovrapposta a un’immagine tradizionale ingrandita, correggendo gli errori degli artefatti e rendendo più nitidi i bordi in modo che corrispondano alla risoluzione di output.
La rete di deep learning viene addestrata su un’ampia gamma di contenuti con vari livelli di compressione. Apprende i tipi di artefatti di compressione presenti nei video a bassa risoluzione o di bassa qualità che sono altrimenti assenti nelle immagini non compresse come riferimento per l’addestramento della rete. Viene utilizzata un’ampia valutazione visiva per garantire che il modello generato sia efficace su quasi tutti i contenuti del mondo reale e di gioco.
Unisciti alla discussione per questo post sui nostri forum…