О! Приветствую! Я конечно не возьмусь утверждать, что либо, так как всё же не являюсь специалистом в данной области(разбор процесса кодирования видео на уровне API)... Но изложу ход своей мысли. Уже довольно давно наложение слоёв в интерфейсе Premiere и в процессе кодирования, просчитывается именно GPU усткорителем(конечно же при условии, что оный включён). Соответственно и информацию о текущем кадре, рендерер получает исходя из данных полученных в результате вычислений GPU, а не CPU. Что мы имеем в итоге, исходя из моего предположения(если оно конечно же вернО)? Некоторые участки видео кодируются с помощью CPU, а некоторые с помощью GPU, образно говоря из разных песочниц. Таким образом, !возможно!, в момент смены источника просчёта, рендерер просто ничего не знает о битрейте предыдущих кадров и результатом этого и является неожиданный провал.
Всё то, что я изложил выше, конечно же вполне можно назвать профанацией.. ))) и я не стану с этим спорить, Но есть у меня одно правило, нажитое собственным опытом в процессе работы как в Premiere, так и в AE.
Если возможно обойтись в процессе рендера без GPU - отключи его!
Потому как именно с ним, уже с давних пор(ещё во-времена OpenGL) как раз таки и происходят всевозможные мелкие(иногда и крупные) и эпизодичные проблемы, в виде артефактов, неадекватного просчёта альфа-каналов, теней и т.д.... Многообещающая и разрекламированная технология CUDA, по утверждениям разработчиков которой, все эти болячки были искоренены, перенял все эти проблемы, как наследник перенимает генные недуги от предков слегка видоизменёнными...
Как то так..))