태그 보관물: mixing

mixing

ffmpeg를 사용하여 오디오 / 비디오 파일을 오프셋이있는 오디오 파일과 혼합하는 방법은 무엇입니까? vp8, yuv420p, 480×640,

ffmpeg를 사용하여 결합하려는 두 개의 미디어 파일이 있습니다.

  1. 파일 1에는 오디오 및 비디오가 포함되어 있으며 시간 = 0 초에 시작됩니다.
  2. 파일 2에 오디오 만 포함되어 있으며이 파일의 시작 시간은 2.5 초입니다.

ffmpeg를 사용하여 이러한 파일을 오디오 파일과 올바르게 오프셋하는 방법은 무엇입니까?

이것이 내가 시도한 것입니다.

ffmpeg -i video_and_audio.webm -itsoffset 2.5 -i audio_only.webm -filter_complex amix out.webm

이로 인해 길이가 올바른 오디오 / 비디오 파일과 두 파일의 오디오가 혼합 된 것처럼 보이지만 오디오 만 오디오 전용 파일에서 오프셋되지 않습니다. 오디오 전용 파일은 오프셋 인수가없는 것처럼 시작 시간이 0으로 나타납니다. 또한 단위가 실제로는 초가 아니라고 생각하면서 오프셋 후에 다른 값을 시도했습니다. 값이 2500 인 경우에도 오디오 전용 파일은 여전히 ​​즉시 시작되는 것 같습니다.

ffmpeg 출력이 일반적으로 요청되는 것으로 보입니다.

ffmpeg version 2.8.2 Copyright (c) 2000-2015 the FFmpeg developers
  built with gcc 4.8 (SUSE Linux)
  configuration: --shlibdir=/usr/lib64 --prefix=/usr --mandir=/usr/share/man --libdir=/usr/lib64 --enable-shared --disable-static --enable-debug --disable-stripping --extra-cflags='-fmessage-length=0 -grecord-gcc-switches -O2 -Wall -D_FORTIFY_SOURCE=2 -fstack-protector -funwind-tables -fasynchronous-unwind-tables -g' --enable-pic --optflags='-fmessage-length=0 -grecord-gcc-switches -O2 -Wall -D_FORTIFY_SOURCE=2 -fstack-protector -funwind-tables -fasynchronous-unwind-tables -g' --enable-gpl --enable-x11grab --enable-version3 --enable-pthreads --datadir=/usr/share/ffmpeg --enable-avfilter --enable-libpulse --enable-libwebp --enable-libvpx --enable-libopus --enable-libmp3lame --enable-libvorbis --enable-libtheora --enable-libspeex --enable-libxvid --enable-libx264 --enable-libx265 --enable-libschroedinger --enable-libgsm --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-postproc --enable-libdc1394 --enable-librtmp --enable-libfreetype --enable-avresample --enable-libtwolame --enable-libvo-aacenc --enable-gnutls --enable-libass --disable-decoder=dca --enable-libdcadec --enable-frei0r --enable-libcelt --enable-libcdio --enable-ladspa
  libavutil      54. 31.100 / 54. 31.100
  libavcodec     56. 60.100 / 56. 60.100
  libavformat    56. 40.101 / 56. 40.101
  libavdevice    56.  4.100 / 56.  4.100
  libavfilter     5. 40.101 /  5. 40.101
  libavresample   2.  1.  0 /  2.  1.  0
  libswscale      3.  1.101 /  3.  1.101
  libswresample   1.  2.101 /  1.  2.101
  libpostproc    53.  3.100 / 53.  3.100
Input #0, matroska,webm, from 'video_and_audio.webm':
  Metadata:
    encoder         : GStreamer matroskamux version 1.5.91
    creation_time   : 2015-11-23 02:57:26
  Duration: 00:01:20.78, start: 0.000000, bitrate: 323 kb/s
    Stream #0:0(eng): Video: vp8, yuv420p, 480x640, SAR 1:1 DAR 3:4, 1k tbr, 1k tbn, 1k tbc (default)
    Metadata:
      title           : Video
    Stream #0:1(eng): Audio: vorbis, 48000 Hz, stereo, fltp (default)
    Metadata:
      title           : Audio
Input #1, matroska,webm, from 'audio_only.webm':
  Metadata:
    encoder         : GStreamer matroskamux version 1.5.91
    creation_time   : 2015-11-23 02:58:46
  Duration: 00:01:17.11, start: 0.000000, bitrate: 79 kb/s
    Stream #1:0(eng): Audio: vorbis, 48000 Hz, stereo, fltp (default)
    Metadata:
      title           : Audio
[libopus @ 0x16c3320] No bit rate set. Defaulting to 96000 bps.
[libvpx-vp9 @ 0x16bd800] v1.3.0
Output #0, webm, to 'out.webm':
  Metadata:
    encoder         : Lavf56.40.101
    Stream #0:0: Audio: opus (libopus), 48000 Hz, stereo, flt, 96 kb/s (default)
    Metadata:
      encoder         : Lavc56.60.100 libopus
    Stream #0:1(eng): Video: vp9 (libvpx-vp9), yuv420p, 480x640 [SAR 1:1 DAR 3:4], q=-1--1, 200 kb/s, 1k fps, 1k tbn, 1k tbc (default)
    Metadata:
      title           : Video
      encoder         : Lavc56.60.100 libvpx-vp9
Stream mapping:
  Stream #0:1 (vorbis) -> amix:input0 (graph 0)
  Stream #1:0 (vorbis) -> amix:input1 (graph 0)
  amix (graph 0) -> Stream #0:0 (libopus)
  Stream #0:0 -> #0:1 (vp8 (native) -> vp9 (libvpx-vp9))
Press [q] to stop, [?] for help
Input stream #0:0 frame changed from size:480x640 fmt:yuv420p to size:360x480 fmt:yuv420p
[libopus @ 0x16c3320] Queue input is backward in time30.41 bitrate= 265.3kbits/s
Input stream #0:0 frame changed from size:360x480 fmt:yuv420p to size:240x320 fmt:yuv420p
[libopus @ 0x16c3320] Queue input is backward in time00.28 bitrate= 254.3kbits/s
frame= 1077 fps=4.9 q=0.0 Lsize=    2433kB time=00:01:20.79 bitrate= 246.7kbits/s
video:1660kB audio:738kB subtitle:0kB other streams:0kB global headers:0kB muxing overhead: 1.456821%


답변

adelay필터를 성공적으로 사용 했습니다. 명령은 다음과 같습니다.

ffmpeg \
    -i video_and_audio.webm \
    -i audio_only.webm \
    -c:v copy \
    -filter_complex '[1:a] adelay=2500|2500 [delayed]; [0:a] [delayed] amix [out]' \
    -map 0:v \
    -map '[out]' \
    out.webm

adelay필터 를 사용할 때 지연은 밀리 초 단위로 지정해야하며 각 오디오 채널에 대해 개별적으로 지정해야합니다. 이 예에서 오디오는 스테레오 (2 채널)이므로 지연이 두 번 지정됩니다.

라인 별 설명 :

  • 첫 번째 입력 파일
  • 두 번째 입력 파일
  • 변경없이 비디오를 직접 출력으로 복사
  • 두 번째 입력의 오디오를 가져 와서 지연시킨 다음 첫 번째 입력의 오디오와 혼합하는 복잡한 필터
  • 출력 할 첫 번째 파일에서 비디오 스트림을 선택합니다
  • 출력 할 혼합 오디오 스트림을 선택합니다
  • 출력 파일 이름

실제로 -map줄 이 필요하지 않을 수도 있지만 사용하는 것을 선호합니다.


답변