Die beste externe FI?
-
-
Hab ich das richtig gemacht ?
unpack "rife_v2" into SVP 4\rife\models (i.e. there must be SVP 4\rife\models\rife_v2\rife_v4.6.onnx) - CHECK
replace SVP 4\rife\vsmlrt.py - CHECK
SVP neugestartet und Anwendungseinstellungen auf:
Bedeutet doch das Profil RIFE AI (3x) soll bei allen Filmen die unter 2160 sind und mit mpv (Player) abgespielt werden aktiv sein, oder ?
-
Hab ich das richtig gemacht ?
unpack "rife_v2" into SVP 4\rife\models (i.e. there must be SVP 4\rife\models\rife_v2\rife_v4.6.onnx) - CHECK
replace SVP 4\rife\vsmlrt.py - CHECK
SVP neugestartet und Anwendungseinstellungen auf:
Bedeutet doch das Profil RIFE AI (3x) soll bei allen Filmen die unter 2160 sind und mit mpv (Player) abgespielt werden aktiv sein, oder ?
x3? 2,5 wären bei 23,976= 59,94
-
Bei 3x dachte ich erstmal an eine Art Stress Test, ich sehe ehrlich gesagt keinen Unterschied zwischen 2,5x und 3x.
Aber irgendwie kommt meine 3060ti dabei nichts ins Schwitzen, so um die 14% Last zeigt mir SVP an, und das wundert mich doch
bei RIFE AI mit allen Settings auf MAX.
-
Bei 3x dachte ich erstmal an eine Art Stress Test, ich sehe ehrlich gesagt keinen Unterschied zwischen 2,5x und 3x.
Aber irgendwie kommt meine 3060ti dabei nichts ins Schwitzen, so um die 14% Last zeigt mir SVP an, und das wundert mich doch
bei RIFE AI mit allen Settings auf MAX.
Dann läuft da was nicht richtig, rife ist anspruchsvoller als madvr. Filter korrekt aktiviert?
Meine 3070 läuft auf 90% bei Rife 4.4, 4.6 ist gar nicht erst möglich
-
Das ist eine gute Frage, ich glaube nein, aber finde den Fehler nicht.
Habe SVP neu installiert mit folgenden Optionen:
Dann habe ich meinen madVR 165 Ordner Inhalt nach "C:\Program Files (x86)\SVP 4\madVR " kopiert und anschließend,
der Anleitung folgend Avisynth 3.7.2 manuell.
Das RIFE AI Profil ist da und TensorRT ausgewählt
Im MPC-HC habe ich VPS eingestellt als prefered:
Was ich nicht im Menü finde sind die Variablen für VPS, bei mir will er nur VLC und MPV setzen:
Starte ich nun einen Film im MPC-HC, standsarmäßig automatic (wo kann man das denn ändern ?).
Wechsle ich im SVP manuell auf RIFE AI, so bekomme ich eine dauerhafte Fehlermeldung ins Bild und der FIlm läuft ohne eine Art der Vorberechnung:
Habe wie erwähnt nochmal von Vorne angefangen, die V2 Models sind aktuell nicht auf dem HTPC.
Bin für jede Hilfe dankbar
EDIT: Stelle ich RIFE 4.4 ein, so öffnet sich die CMD und ich warte brav 3 Minuten beginnt der Film, aber ebenfalls mit der Fehlermeldung.
Code
Alles anzeigen&&&& RUNNING TensorRT.trtexec [TensorRT v8501] # C:/Program Files (x86)/SVP 4/rife\vsmlrt-cuda\trtexec --onnx=C:/Program Files (x86)/SVP 4/rife\models\rife\rife_v4.4.onnx --timingCacheFile=C:\Users\HTPC_User\AppData\Roaming\SVP4\cache\Program Files (x86)/SVP 4/rife\models\rife\rife_v4.4.onnx.1920x800_fp16_trt-8502_cudnn_I-fp16_O-fp16_NVIDIA-GeForce-RTX-3060-Ti_a8b3b7a9.engine.cache --device=0 --saveEngine=C:\Users\HTPC_User\AppData\Roaming\SVP4\cache\Program Files (x86)/SVP 4/rife\models\rife\rife_v4.4.onnx.1920x800_fp16_trt-8502_cudnn_I-fp16_O-fp16_NVIDIA-GeForce-RTX-3060-Ti_a8b3b7a9.engine --shapes=input:1x11x800x1920 --fp16 --tacticSources=-CUBLAS,-CUBLAS_LT --useCudaGraph --noDataTransfers --inputIOFormats=fp16:chw --outputIOFormats=fp16:chw [03/12/2023-13:59:09] [I] === Model Options === [03/12/2023-13:59:09] [I] Format: ONNX [03/12/2023-13:59:09] [I] Model: C:/Program Files (x86)/SVP 4/rife\models\rife\rife_v4.4.onnx [03/12/2023-13:59:09] [I] Output: [03/12/2023-13:59:09] [I] === Build Options === [03/12/2023-13:59:09] [I] Max batch: explicit batch [03/12/2023-13:59:09] [I] Memory Pools: workspace: default, dlaSRAM: default, dlaLocalDRAM: default, dlaGlobalDRAM: default [03/12/2023-13:59:09] [I] minTiming: 1 [03/12/2023-13:59:09] [I] avgTiming: 8 [03/12/2023-13:59:09] [I] Precision: FP32+FP16 [03/12/2023-13:59:09] [I] LayerPrecisions: [03/12/2023-13:59:09] [I] Calibration: [03/12/2023-13:59:09] [I] Refit: Disabled [03/12/2023-13:59:09] [I] Sparsity: Disabled [03/12/2023-13:59:09] [I] Safe mode: Disabled [03/12/2023-13:59:09] [I] DirectIO mode: Disabled [03/12/2023-13:59:09] [I] Restricted mode: Disabled [03/12/2023-13:59:09] [I] Build only: Disabled [03/12/2023-13:59:09] [I] Save engine: C:\Users\HTPC_User\AppData\Roaming\SVP4\cache\Program Files (x86)/SVP 4/rife\models\rife\rife_v4.4.onnx.1920x800_fp16_trt-8502_cudnn_I-fp16_O-fp16_NVIDIA-GeForce-RTX-3060-Ti_a8b3b7a9.engine [03/12/2023-13:59:09] [I] Load engine: [03/12/2023-13:59:09] [I] Profiling verbosity: 0 [03/12/2023-13:59:09] [I] Tactic sources: cublas [OFF], cublasLt [OFF], [03/12/2023-13:59:09] [I] timingCacheMode: global [03/12/2023-13:59:09] [I] timingCacheFile: C:\Users\HTPC_User\AppData\Roaming\SVP4\cache\Program Files (x86)/SVP 4/rife\models\rife\rife_v4.4.onnx.1920x800_fp16_trt-8502_cudnn_I-fp16_O-fp16_NVIDIA-GeForce-RTX-3060-Ti_a8b3b7a9.engine.cache [03/12/2023-13:59:09] [I] Heuristic: Disabled [03/12/2023-13:59:09] [I] Preview Features: Use default preview flags. [03/12/2023-13:59:09] [I] Input(s): fp16:chw [03/12/2023-13:59:09] [I] Output(s): fp16:chw [03/12/2023-13:59:09] [I] Input build shape: input=1x11x800x1920+1x11x800x1920+1x11x800x1920 [03/12/2023-13:59:09] [I] Input calibration shapes: model [03/12/2023-13:59:09] [I] === System Options === [03/12/2023-13:59:09] [I] Device: 0 [03/12/2023-13:59:09] [I] DLACore: [03/12/2023-13:59:09] [I] Plugins: [03/12/2023-13:59:09] [I] === Inference Options === [03/12/2023-13:59:09] [I] Batch: Explicit [03/12/2023-13:59:09] [I] Input inference shape: input=1x11x800x1920 [03/12/2023-13:59:09] [I] Iterations: 10 [03/12/2023-13:59:09] [I] Duration: 3s (+ 200ms warm up) [03/12/2023-13:59:09] [I] Sleep time: 0ms [03/12/2023-13:59:09] [I] Idle time: 0ms [03/12/2023-13:59:09] [I] Streams: 1 [03/12/2023-13:59:09] [I] ExposeDMA: Disabled [03/12/2023-13:59:09] [I] Data transfers: Disabled [03/12/2023-13:59:09] [I] Spin-wait: Disabled [03/12/2023-13:59:09] [I] Multithreading: Disabled [03/12/2023-13:59:09] [I] CUDA Graph: Enabled [03/12/2023-13:59:09] [I] Separate profiling: Disabled [03/12/2023-13:59:09] [I] Time Deserialize: Disabled [03/12/2023-13:59:09] [I] Time Refit: Disabled [03/12/2023-13:59:09] [I] NVTX verbosity: 0 [03/12/2023-13:59:09] [I] Persistent Cache Ratio: 0 [03/12/2023-13:59:09] [I] Inputs: [03/12/2023-13:59:09] [I] === Reporting Options === [03/12/2023-13:59:09] [I] Verbose: Disabled [03/12/2023-13:59:09] [I] Averages: 10 inferences [03/12/2023-13:59:09] [I] Percentiles: 90,95,99 [03/12/2023-13:59:09] [I] Dump refittable layers:Disabled [03/12/2023-13:59:09] [I] Dump output: Disabled [03/12/2023-13:59:09] [I] Profile: Disabled [03/12/2023-13:59:09] [I] Export timing to JSON file: [03/12/2023-13:59:09] [I] Export output to JSON file: [03/12/2023-13:59:09] [I] Export profile to JSON file: [03/12/2023-13:59:09] [I] [03/12/2023-13:59:09] [I] === Device Information === [03/12/2023-13:59:09] [I] Selected Device: NVIDIA GeForce RTX 3060 Ti [03/12/2023-13:59:09] [I] Compute Capability: 8.6 [03/12/2023-13:59:09] [I] SMs: 38 [03/12/2023-13:59:09] [I] Compute Clock Rate: 1.665 GHz [03/12/2023-13:59:09] [I] Device Global Memory: 8191 MiB [03/12/2023-13:59:09] [I] Shared Memory per SM: 100 KiB [03/12/2023-13:59:09] [I] Memory Bus Width: 256 bits (ECC disabled) [03/12/2023-13:59:09] [I] Memory Clock Rate: 7.001 GHz [03/12/2023-13:59:09] [I] [03/12/2023-13:59:09] [I] TensorRT version: 8.5.1 [03/12/2023-13:59:10] [I] [TRT] [MemUsageChange] Init CUDA: CPU +413, GPU +0, now: CPU 11023, GPU 1183 (MiB) [03/12/2023-13:59:11] [I] [TRT] [MemUsageChange] Init builder kernel library: CPU +480, GPU +118, now: CPU 11926, GPU 1301 (MiB) [03/12/2023-13:59:11] [W] [TRT] CUDA lazy loading is not enabled. Enabling it can significantly reduce device memory usage. See `CUDA_MODULE_LOADING` in https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#env-vars [03/12/2023-13:59:11] [I] Start parsing network model [03/12/2023-13:59:11] [I] [TRT] ---------------------------------------------------------------- [03/12/2023-13:59:11] [I] [TRT] Input filename: C:/Program Files (x86)/SVP 4/rife\models\rife\rife_v4.4.onnx [03/12/2023-13:59:11] [I] [TRT] ONNX IR version: 0.0.8 [03/12/2023-13:59:11] [I] [TRT] Opset version: 16 [03/12/2023-13:59:11] [I] [TRT] Producer name: pytorch [03/12/2023-13:59:11] [I] [TRT] Producer version: 1.12.0 [03/12/2023-13:59:11] [I] [TRT] Domain: [03/12/2023-13:59:11] [I] [TRT] Model version: 0 [03/12/2023-13:59:11] [I] [TRT] Doc string: [03/12/2023-13:59:11] [I] [TRT] ---------------------------------------------------------------- [03/12/2023-13:59:11] [W] [TRT] onnx2trt_utils.cpp:377: Your ONNX model has been generated with INT64 weights, while TensorRT does not natively support INT64. Attempting to cast down to INT32. [03/12/2023-13:59:11] [I] Finish parsing network model [03/12/2023-13:59:11] [W] Could not read timing cache from: C:\Users\HTPC_User\AppData\Roaming\SVP4\cache\Program Files (x86)/SVP 4/rife\models\rife\rife_v4.4.onnx.1920x800_fp16_trt-8502_cudnn_I-fp16_O-fp16_NVIDIA-GeForce-RTX-3060-Ti_a8b3b7a9.engine.cache. A new timing cache will be generated and written. [03/12/2023-13:59:12] [I] [TRT] [MemUsageChange] Init cuDNN: CPU +1109, GPU +406, now: CPU 12710, GPU 1707 (MiB) [03/12/2023-13:59:12] [I] [TRT] Global timing cache in use. Profiling results in this builder pass will be stored.
-
-
Kannst du es mal mit dem MPV testen? Und mit dem Originalsetting von SVP, d.h. ohne mauelle Installation von Modelle ?
pillepalle123 Hoffe es ist ok, dass wir hier nur auf SVP bezogen schreiben?
-
Bei MPV kommt keinerlei Meldung nach dem Wechsel auf RIFE AI.
In MPV bekomme ich allerdings auch keine SVP Anzeige was die Bildrate angeht.
Da ich MPV noch nie wirklich genutzt habe, weiß ich nicht ob das normal ist. Einstellen kann ich da nix (Rechtsklick bzw. ALT bringt keinerlei Menüs).
-
Und wenn du mal ein anderes Profil verwendest, ohne Rife?
Die Anzeige von SVP muss auf jedenfall kommen, ansonsten ist SVP nicht aktiv
-
-
Ok, dann geht SVP prinzipiell.
Es gibt auch ein Log in SVP. Hast du da schon mal reingeschaut, wenn du Rife nimmst? Vielleicht kommt da noch eine Fehlermeldung die dann vielleich weiterhilft.
(In dem Menü mit den vertikalen Punkten)
-
Meine Fresse bin ich ein Trottel
Ich habe die vsmirt.py per Rechtsklick aus der File Übersicht in GitHub gespeichert und auch brav
die Bool Werte editiert.
Eben fiel mir das auf, dass ganz oben DOCTYPE steht.
Also anständig denn Code per Copy&Paste in die Datei kopiert und die Bool Werte erneut angepasst,
jetzt macht der Textblock auch mehr Sinn für ein Python Skript.
Im MPV funktioniert es jetzt bedingt, er zeigt beim Wechsel auf RIFE AI die SVP Meldung an, allerdings mit Farbfehler (s/w).
Außerdem kommt die CMD mit den richtigen Models hoch.
Zitat&&&& RUNNING TensorRT.trtexec [TensorRT v8501] # C:/Program Files (x86)/SVP 4/rife\vsmlrt-cuda\trtexec --onnx=C:/Program Files (x86)/SVP 4/rife\models\rife_v2\rife_v4.6_ensemble.onnx --timingCacheFile=C:\Users\HTPC_U~1\AppData\Local\Temp\Program Files (x86)/SVP 4/rife\models\rife_v2\rife_v4.6_ensemble.onnx.3840x2144_fp16_trt-8502_cudnn_I-fp16_O-fp16_NVIDIA-GeForce-RTX-3060-Ti_f0d2d789.engine.cache --device=0 --saveEngine=C:\Users\HTPC_U~1\AppData\Local\Temp\Program Files (x86)/SVP 4/rife\models\rife_v2\rife_v4.6_ensemble.onnx.3840x2144_fp16_trt-8502_cudnn_I-fp16_O-fp16_NVIDIA-GeForce-RTX-3060-Ti_f0d2d789.engine --shapes=input:1x7x2144x3840 --fp16 --tacticSources=-CUBLAS,-CUBLAS_LT --useCudaGraph --noDataTransfers --inputIOFormats=fp16:chw --outputIOFormats=fp16:chw
[03/12/2023-15:50:25] [I] === Model Options ===
[03/12/2023-15:50:25] [I] Format: ONNX
[03/12/2023-15:50:25] [I] Model: C:/Program Files (x86)/SVP 4/rife\models\rife_v2\rife_v4.6_ensemble.onnx
[03/12/2023-15:50:25] [I] Output:
[03/12/2023-15:50:25] [I] === Build Options ===
[03/12/2023-15:50:25] [I] Max batch: explicit batch
[03/12/2023-15:50:25] [I] Memory Pools: workspace: default, dlaSRAM: default, dlaLocalDRAM: default, dlaGlobalDRAM: default
[03/12/2023-15:50:25] [I] minTiming: 1
[03/12/2023-15:50:25] [I] avgTiming: 8
[03/12/2023-15:50:25] [I] Precision: FP32+FP16
[03/12/2023-15:50:25] [I] LayerPrecisions:
[03/12/2023-15:50:25] [I] Calibration:
[03/12/2023-15:50:25] [I] Refit: Disabled
[03/12/2023-15:50:25] [I] Sparsity: Disabled
[03/12/2023-15:50:25] [I] Safe mode: Disabled
[03/12/2023-15:50:25] [I] DirectIO mode: Disabled
[03/12/2023-15:50:25] [I] Restricted mode: Disabled
[03/12/2023-15:50:25] [I] Build only: Disabled
[03/12/2023-15:50:25] [I] Save engine: C:\Users\HTPC_U~1\AppData\Local\Temp\Program Files (x86)/SVP 4/rife\models\rife_v2\rife_v4.6_ensemble.onnx.3840x2144_fp16_trt-8502_cudnn_I-fp16_O-fp16_NVIDIA-GeForce-RTX-3060-Ti_f0d2d789.engine
[03/12/2023-15:50:25] [I] Load engine:
[03/12/2023-15:50:25] [I] Profiling verbosity: 0
[03/12/2023-15:50:25] [I] Tactic sources: cublas [OFF], cublasLt [OFF],
[03/12/2023-15:50:25] [I] timingCacheMode: global
[03/12/2023-15:50:25] [I] timingCacheFile: C:\Users\HTPC_U~1\AppData\Local\Temp\Program Files (x86)/SVP 4/rife\models\rife_v2\rife_v4.6_ensemble.onnx.3840x2144_fp16_trt-8502_cudnn_I-fp16_O-fp16_NVIDIA-GeForce-RTX-3060-Ti_f0d2d789.engine.cache
[03/12/2023-15:50:25] [I] Heuristic: Disabled
[03/12/2023-15:50:25] [I] Preview Features: Use default preview flags.
[03/12/2023-15:50:25] [I] Input(s): fp16:chw
[03/12/2023-15:50:25] [I] Output(s): fp16:chw
[03/12/2023-15:50:25] [I] Input build shape: input=1x7x2144x3840+1x7x2144x3840+1x7x2144x3840
[03/12/2023-15:50:25] [I] Input calibration shapes: model
[03/12/2023-15:50:25] [I] === System Options ===
[03/12/2023-15:50:25] [I] Device: 0
[03/12/2023-15:50:25] [I] DLACore:
[03/12/2023-15:50:25] [I] Plugins:
[03/12/2023-15:50:25] [I] === Inference Options ===
[03/12/2023-15:50:25] [I] Batch: Explicit
[03/12/2023-15:50:25] [I] Input inference shape: input=1x7x2144x3840
[03/12/2023-15:50:25] [I] Iterations: 10
[03/12/2023-15:50:25] [I] Duration: 3s (+ 200ms warm up)
[03/12/2023-15:50:25] [I] Sleep time: 0ms
[03/12/2023-15:50:25] [I] Idle time: 0ms
[03/12/2023-15:50:25] [I] Streams: 1
[03/12/2023-15:50:25] [I] ExposeDMA: Disabled
[03/12/2023-15:50:25] [I] Data transfers: Disabled
[03/12/2023-15:50:25] [I] Spin-wait: Disabled
[03/12/2023-15:50:25] [I] Multithreading: Disabled
[03/12/2023-15:50:25] [I] CUDA Graph: Enabled
[03/12/2023-15:50:25] [I] Separate profiling: Disabled
[03/12/2023-15:50:25] [I] Time Deserialize: Disabled
[03/12/2023-15:50:25] [I] Time Refit: Disabled
[03/12/2023-15:50:25] [I] NVTX verbosity: 0
[03/12/2023-15:50:25] [I] Persistent Cache Ratio: 0
[03/12/2023-15:50:25] [I] Inputs:
[03/12/2023-15:50:25] [I] === Reporting Options ===
[03/12/2023-15:50:25] [I] Verbose: Disabled
[03/12/2023-15:50:25] [I] Averages: 10 inferences
[03/12/2023-15:50:25] [I] Percentiles: 90,95,99
[03/12/2023-15:50:25] [I] Dump refittable layers:Disabled
[03/12/2023-15:50:25] [I] Dump output: Disabled
[03/12/2023-15:50:25] [I] Profile: Disabled
[03/12/2023-15:50:25] [I] Export timing to JSON file:
[03/12/2023-15:50:25] [I] Export output to JSON file:
[03/12/2023-15:50:25] [I] Export profile to JSON file:
[03/12/2023-15:50:25] [I]
[03/12/2023-15:50:25] [I] === Device Information ===
[03/12/2023-15:50:25] [I] Selected Device: NVIDIA GeForce RTX 3060 Ti
[03/12/2023-15:50:25] [I] Compute Capability: 8.6
[03/12/2023-15:50:25] [I] SMs: 38
[03/12/2023-15:50:25] [I] Compute Clock Rate: 1.665 GHz
[03/12/2023-15:50:25] [I] Device Global Memory: 8191 MiB
[03/12/2023-15:50:25] [I] Shared Memory per SM: 100 KiB
[03/12/2023-15:50:25] [I] Memory Bus Width: 256 bits (ECC disabled)
[03/12/2023-15:50:25] [I] Memory Clock Rate: 7.001 GHz
[03/12/2023-15:50:25] [I]
[03/12/2023-15:50:25] [I] TensorRT version: 8.5.1
[03/12/2023-15:50:26] [I] [TRT] [MemUsageChange] Init CUDA: CPU +449, GPU +0, now: CPU 10062, GPU 1183 (MiB)
[03/12/2023-15:50:28] [I] [TRT] [MemUsageChange] Init builder kernel library: CPU +423, GPU +118, now: CPU 10968, GPU 1301 (MiB)
[03/12/2023-15:50:28] [W] [TRT] CUDA lazy loading is not enabled. Enabling it can significantly reduce device memory usage. See `CUDA_MODULE_LOADING` in https://docs.nvidia.com/cuda/c…guide/index.html#env-vars
[03/12/2023-15:50:28] [I] Start parsing network model
[03/12/2023-15:50:28] [I] [TRT] ----------------------------------------------------------------
[03/12/2023-15:50:28] [I] [TRT] Input filename: C:/Program Files (x86)/SVP 4/rife\models\rife_v2\rife_v4.6_ensemble.onnx
[03/12/2023-15:50:28] [I] [TRT] ONNX IR version: 0.0.8
[03/12/2023-15:50:28] [I] [TRT] Opset version: 16
[03/12/2023-15:50:28] [I] [TRT] Producer name: pytorch
[03/12/2023-15:50:28] [I] [TRT] Producer version: 2.0.0
[03/12/2023-15:50:28] [I] [TRT] Domain:
[03/12/2023-15:50:28] [I] [TRT] Model version: 0
[03/12/2023-15:50:28] [I] [TRT] Doc string:
[03/12/2023-15:50:28] [I] [TRT] ----------------------------------------------------------------
[03/12/2023-15:50:28] [W] [TRT] onnx2trt_utils.cpp:377: Your ONNX model has been generated with INT64 weights, while TensorRT does not natively support INT64. Attempting to cast down to INT32.
[03/12/2023-15:50:28] [W] [TRT] onnx2trt_utils.cpp:403: One or more weights outside the range of INT32 was clamped
[03/12/2023-15:50:28] [W] [TRT] onnx2trt_utils.cpp:403: One or more weights outside the range of INT32 was clamped
[03/12/2023-15:50:28] [W] [TRT] onnx2trt_utils.cpp:403: One or more weights outside the range of INT32 was clamped
[03/12/2023-15:50:28] [W] [TRT] onnx2trt_utils.cpp:403: One or more weights outside the range of INT32 was clamped
[03/12/2023-15:50:29] [W] [TRT] onnx2trt_utils.cpp:403: One or more weights outside the range of INT32 was clamped
[03/12/2023-15:50:29] [I] Finish parsing network model
[03/12/2023-15:50:29] [W] Could not read timing cache from: C:\Users\HTPC_U~1\AppData\Local\Temp\Program Files (x86)/SVP 4/rife\models\rife_v2\rife_v4.6_ensemble.onnx.3840x2144_fp16_trt-8502_cudnn_I-fp16_O-fp16_NVIDIA-GeForce-RTX-3060-Ti_f0d2d789.engine.cache. A new timing cache will be generated and written.
[03/12/2023-15:50:31] [I] [TRT] [MemUsageChange] Init cuDNN: CPU +1090, GPU +406, now: CPU 11762, GPU 1707 (MiB)
[03/12/2023-15:50:31] [I] [TRT] Global timing cache in use. Profiling results in this builder pass will be stored.
[03/12/2023-15:58:33] [I] [TRT] Total Activation Memory: 15198938624
[03/12/2023-15:59:49] [I] [TRT] Detected 4 inputs and 1 output network tensors.
[03/12/2023-15:59:49] [I] [TRT] Total Host Persistent Memory: 169056
[03/12/2023-15:59:49] [I] [TRT] Total Device Persistent Memory: 97262592
[03/12/2023-15:59:49] [I] [TRT] Total Scratch Memory: 98795520
[03/12/2023-15:59:49] [I] [TRT] [MemUsageStats] Peak memory usage of TRT CPU/GPU memory allocators: CPU 56 MiB, GPU 4736 MiB
[03/12/2023-15:59:49] [I] [TRT] [BlockAssignment] Started assigning block shifts. This will take 168 steps to complete.
[03/12/2023-15:59:49] [I] [TRT] [BlockAssignment] Algorithm ShiftNTopDown took 15.1665ms to assign 13 blocks to 168 nodes requiring 1202013184 bytes.
[03/12/2023-15:59:49] [I] [TRT] Total Activation Memory: 1202013184
[03/12/2023-15:59:50] [W] [TRT] TensorRT encountered issues when converting weights between types and that could affect accuracy.
[03/12/2023-15:59:50] [W] [TRT] If this is not the desired behavior, please modify the weights or retrain with regularization to adjust the magnitude of the weights.
[03/12/2023-15:59:50] [W] [TRT] Check verbose logs for the list of affected weights.
[03/12/2023-15:59:50] [W] [TRT] - 88 weights are affected by this issue: Detected subnormal FP16 values.
[03/12/2023-15:59:50] [W] [TRT] - 16 weights are affected by this issue: Detected values less than smallest positive FP16 subnormal value and converted them to the FP16 minimum subnormalized value.
[03/12/2023-15:59:50] [I] [TRT] [MemUsageChange] TensorRT-managed allocation in building engine: CPU +20, GPU +103, now: CPU 20, GPU 103 (MiB)
[03/12/2023-15:59:50] [I] [TRT] [MemUsageChange] Init CUDA: CPU +0, GPU +0, now: CPU 13380, GPU 1933 (MiB)
[03/12/2023-15:59:50] [W] [TRT] CUDA lazy loading is not enabled. Enabling it can significantly reduce device memory usage. See `CUDA_MODULE_LOADING` in https://docs.nvidia.com/cuda/c…guide/index.html#env-vars
[03/12/2023-15:59:50] [I] Saved 274240 bytes of timing cache to C:\Users\HTPC_U~1\AppData\Local\Temp\Program Files (x86)/SVP 4/rife\models\rife_v2\rife_v4.6_ensemble.onnx.3840x2144_fp16_trt-8502_cudnn_I-fp16_O-fp16_NVIDIA-GeForce-RTX-3060-Ti_f0d2d789.engine.cache
[03/12/2023-15:59:50] [I] Engine built in 564.417 sec.
[03/12/2023-15:59:50] [I] [TRT] Loaded engine size: 10 MiB
[03/12/2023-15:59:50] [I] [TRT] [MemUsageChange] TensorRT-managed allocation in engine deserialization: CPU +0, GPU +102, now: CPU 0, GPU 102 (MiB)
[03/12/2023-15:59:50] [I] Engine deserialized in 0.0180156 sec.
[03/12/2023-15:59:50] [I] [TRT] [MemUsageChange] TensorRT-managed allocation in IExecutionContext creation: CPU +0, GPU +1239, now: CPU 0, GPU 1341 (MiB)
[03/12/2023-15:59:50] [W] [TRT] CUDA lazy loading is not enabled. Enabling it can significantly reduce device memory usage. See `CUDA_MODULE_LOADING` in https://docs.nvidia.com/cuda/c…guide/index.html#env-vars
[03/12/2023-15:59:50] [I] Setting persistentCacheLimit to 0 bytes.
[03/12/2023-15:59:50] [I] Using random values for input input
[03/12/2023-15:59:51] [I] Created input binding for input with dimensions 1x7x2144x3840
[03/12/2023-15:59:51] [I] Using random values for output output
[03/12/2023-15:59:51] [I] Created output binding for output with dimensions 1x3x2144x3840
[03/12/2023-15:59:51] [I] Starting inference
Nachdem das beendet ist (2x knapp 10min bei The Hateful 8 UHD) läuft der Film an, aber der Cache ist mit 32secs winzig und nach 40secs bleibt
das Bild stehen, weil der Cache leer ist (lt. SVP ist die GPU zwischen 60 und 70%).
Wohlgemerkt bei RIFE AI 4.6 und den folgenden Settings:
Switche ich auf AI Model 4.4, so dauert die CMD fast 25 Minuten. Starte ich die Wiedergabe des gleichen Films erneut, beginnt die CMD wieder zu laufen,
ich dachte die Ergebnisse würden gespeichert werden, und man muss es nicht jedes Mal machen ?
Wie auch immer, hier das gleiche Ergebnis, ein winziger Cache läuft leer, dann hängt es für 1-2 Sekunden und läuft stotternd weiter bei 67% GPU Last.
Ich glaube mittlerweile, dass mein i3 -12100 hier die Limitierung ist und nicht die 3060ti.
Schalte ich auf automatisch kann ich den Film mit fix 60fps ohne Probleme laufen lassen im mpv.
Ebenso in MPC-HC.
Rife-AI funktioniert hingegen nicht beim MPC-HC (weder mit Vaporsynth noch mit Avisynth) der Player crashed nach max. 5 Sekunden ohne Fehlermeldung.
Scheint als ob ich das Projekt RIFE zurückstellen muss, bis ich mir irgendwann mal nen neuen HTPC baue. Das ist aber nicht in Sicht.
Meiner ist ja erst wenige Monate als und für MadVR absolut ausreichend.
Danke für eure Hilfe. Wie immer tolle Hilfe hier im Forum
-
Meine Fresse bin ich ein Trottel
Ich habe die vsmirt.py per Rechtsklick aus der File Übersicht in GitHub gespeichert und auch brav
die Bool Werte editiert.
Eben fiel mir das auf, dass ganz oben DOCTYPE steht.
Also anständig denn Code per Copy&Paste in die Datei kopiert und die Bool Werte erneut angepasst,
jetzt macht der Textblock auch mehr Sinn für ein Python Skript.
Im MPV funktioniert es jetzt bedingt, er zeigt beim Wechsel auf RIFE AI die SVP Meldung an, allerdings mit Farbfehler (s/w).
Außerdem kommt die CMD mit den richtigen Models hoch.
Nachdem das beendet ist (2x knapp 10min bei The Hateful 8 UHD) läuft der Film an, aber der Cache ist mit 32secs winzig und nach 40secs bleibt
das Bild stehen, weil der Cache leer ist (lt. SVP ist die GPU zwischen 60 und 70%).
Wohlgemerkt bei RIFE AI 4.6 und den folgenden Settings:
Switche ich auf AI Model 4.4, so dauert die CMD fast 25 Minuten. Starte ich die Wiedergabe des gleichen Films erneut, beginnt die CMD wieder zu laufen,
ich dachte die Ergebnisse würden gespeichert werden, und man muss es nicht jedes Mal machen ?
Wie auch immer, hier das gleiche Ergebnis, ein winziger Cache läuft leer, dann hängt es für 1-2 Sekunden und läuft stotternd weiter bei 67% GPU Last.
Ich glaube mittlerweile, dass mein i3 -12100 hier die Limitierung ist und nicht die 3060ti.
Schalte ich auf automatisch kann ich den Film mit fix 60fps ohne Probleme laufen lassen im mpv.
Ebenso in MPC-HC.
Rife-AI funktioniert hingegen nicht beim MPC-HC (weder mit Vaporsynth noch mit Avisynth) der Player crashed nach max. 5 Sekunden ohne Fehlermeldung.
Scheint als ob ich das Projekt RIFE zurückstellen muss, bis ich mir irgendwann mal nen neuen HTPC baue. Das ist aber nicht in Sicht.
Meiner ist ja erst wenige Monate als und für MadVR absolut ausreichend.
Danke für eure Hilfe. Wie immer tolle Hilfe hier im Forum
Leider gibts zu viele Faktoren, wo dein Problem liegen kann. Aber kann dir sagen, Rife läuft auf GPU Basis. Das ist ja nur eine Implementierung & hat mit SVP nicht viel zu tun, welches selbst auf CPU Basis läuft.
MPC-HC ist auch nicht Problem,da ich es selbst nutze.BE Player für madvr & HC für Rife.
-
Wegen dem Black/White Problem musste folgendes Installieren:
-
Du schaust ja UHD, oder? Dafür reicht die 3060 TI nicht aus
Die Energieeinstellungen hast du gemacht? Beitrag #101 Klick mich
-
-
Und wie sieht es bei Full-HD aus? Geht es damit?
Weil ja die Datenmenge für UHD um den Faktor 4 höher ist, muß auch die ensprechende Tensor/Cuda Leistung in der Grafikkarte vorhanden sein.
Siehe hier die Vorgaben von SVP selber: Grafikkarte für Rife
-
Wenn ich einen FullHD Film (Avengers) abspiele, kann ich auf RIFE AI umschalten sofern ich bei Avisynth bleibe und "an Bildschirm" einstelle.
Es startet dann allerdings keine CMD. Gehe ich auf x2 oder x2.5 stottert es.
Stelle ich auf VPS um, so öffnet sich zwar die CMD, aber die bleibt leer (5 Min gewartet) während im Hintergrund nur der Ton läuft.
-
Du könntest mal das SVPCode testen, diese Funktion rechnet den Film hoch und kann auch dabei Rife benutzen. Es zeigt dir dann auch die möglichen FPS mit deiner Grafikkarte an. Mit diesem Test kannst du mal die Playerprobleme umgehen und schauen ob es mit Rife alleine klappt.
Jetzt mitmachen!
Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!