ffmpeg存儲視頻流代碼
Ⅰ 如何用ffmpeg將rtsp視頻流錄製成mp4文件
ffmpeg -y -i rtsp:\\192.168.1.188:8089\test -vcodec -acodec -f mp4 e:\x.mp4
Ⅱ 網路視頻編碼器和網路視頻解碼器區別在什麼地方
網路視頻編碼器和網路視頻解碼器區別為:功能不同、轉化信號不同、特點不同。
一、功能不同
1、網路視頻編碼器:提供視頻壓縮功能,完成圖象數據的採集。
2、網路視頻解碼器:提供視頻解壓功能,完成圖象數據的復原。
二、轉化信號不同
1、網路視頻編碼器:音頻信號以數字化方式進行存儲,視頻信號也開始使用數字化格式。
2、網路視頻解碼器:將數字信號轉換成模擬視頻信號,然後輸出。
三、特點不同
1、網路視頻編碼器:全高清1080P60 H.264編碼,沒有延時,碼流控制偏差小,編碼碼流可以用VLC,FFMPEG等標准播放器軟體回放。
2、網路視頻解碼器:壓縮演算法升級到H.264 High Profile;擁有主輔兩種碼流同時預覽功能;支持各類手機監控;支持 3G撥號,WIFI模塊擴展;支持多種網路瀏覽器;支持2個USB2.0介面;支持TV、VGA和HDMI同時輸出;強大的網路服務;自帶域名服務功能(ARSP)。
參考資料來源:
網路——網路視頻編碼器
網路——網路視頻解碼器
Ⅲ ffmpeg如何使用,請專家支招詳細參數(就這么點分了,全貢獻了)
基本選項: -formats 輸出所有可用格式 -f fmt 指定格式(音頻或視頻格式) -i filename 指定輸入文件名,在linux下當然也能指定:0.0(屏幕錄制)或攝像頭 -y 覆蓋已有文件 -t ration 記錄時長為t -fs limit_size 設置文件大小上限 -ss time_off 從指定的時間(s)開始, [-]hh:mm:ss[.xxx]的格式也支持 -itsoffset time_off 設置時間偏移(s),該選項影響所有後面的輸入文件。該偏移被加到輸入文件的時戳,定義一個正偏移意味著相應的流被延遲了 offset秒。 [-]hh:mm:ss[.xxx]的格式也支持 -title string 標題 -timestamp time 時間戳 -author string 作者 -right string 版權信息 -comment string 評論 -album string album名 -v verbose 與log相關的 -target type 設置目標文件類型("vcd", "svcd", "dvd", "dv", "dv50", "pal-vcd", "ntsc-svcd", ...) -dframes number 設置要記錄的幀數 視頻選項: -b 指定比特率(bits/s),似乎ffmpeg是自動VBR的,指定了就大概是平均比特率 -vb 指定視頻比特率(bits/s) -vframes number 設置轉換多少楨(frame)的視頻 -r rate 楨速率(fps) -s size 解析度 -aspect aspect 設置視頻長寬比(4:3, 16:9 or 1.3333, 1.7777) -croptop size 設置頂部切除尺寸(in pixels) -cropbottom size 設置底部切除尺寸(in pixels) -cropleft size 設置左切除尺寸 (in pixels) -cropright size 設置右切除尺寸 (in pixels) -padtop size 設置頂部補齊尺寸(in pixels) -padbottom size 底補齊(in pixels) -padleft size 左補齊(in pixels) -padright size 右補齊(in pixels) -padcolor color 補齊帶顏色(000000-FFFFFF) -vn 取消視頻 -vcodec codec 強制使用codec編解碼方式('' to stream) -sameq 使用同樣視頻質量作為源(VBR) -pass n 選擇處理遍數(1或者2)。兩遍編碼非常有用。第一遍生成統計信息,第二遍生成精確的請求的碼率 -passlogfile file 選擇兩遍的紀錄文件名為file -newvideo 在現在的視頻流後面加入新的視頻流 高級視頻選項 -pix_fmt format set pixel format, 'list' as argument shows all the pixel formats supported -intra 僅適用幀內編碼 -qscale q 以<數值>質量為基礎的VBR,取值0.01-255,約小質量越好 -loop_input 設置輸入流的循環數(目前只對圖像有效) -loop_output 設置輸出視頻的循環數,比如輸出gif時設為0表示無限循環 -g int 設置圖像組大小 -cutoff int 設置截止頻率 -qmin int 設定最小質量 -qmax int 設定最大質量 -qdiff int 量化標度間最大偏差 (VBR) -bf int 使用frames B 幀,支持mpeg1,mpeg2,mpeg4 音頻選項: -ab 設置比特率(單位:bit/s,也許老版是kb/s) -aframes number 設置轉換多少楨(frame)的音頻 -aq quality 設置音頻質量 (指定編碼) -ar rate 設置音頻采樣率 (單位:Hz) -ac channels 設置聲道數 -an 取消音頻 -acodec codec 指定音頻編碼('' to stream) -vol volume 設置錄制音量大小(默認為256) -newaudio 在現在的音頻流後面加入新的音頻流 字幕選項: -sn 取消字幕 -scodec codec 設置字幕編碼('' to stream) -newsubtitle 在當前字幕後新增 -slang code 設置字幕所用的ISO 639編碼(3個字母) Audio/Video 抓取選項: -vc channel 設置視頻捕獲通道(只對DV1394) -tvstd standard 設置電視標准 NTSC PAL(SECAM)
Ⅳ ffmpeg的編碼問題。
我沒用過這個函數,這是我的猜測:
在視頻流中以交叉方式寫入一幀數據。交叉方式是與YUV編碼有關。
Ⅳ ffmpeg怎麼把編碼好的h264幀存入ts文件里
僅轉換可以使用命令,把任一mp4轉換成ts
ffmpeg -i input.mp4 -c -bsf h264_mp4toannexb output.ts 很高興為您解答!
有不明白的可以追問!如果您認可我的回答。
請點擊下面的【選為滿意回答】按鈕,謝謝!
Ⅵ Java利用ffmpeg對視頻逐幀保存,截取的幀太多近萬張,如何設置幀間隔大些,使一定時間內的幀數變少
我給出正解:
ffmpeg -i /mnt/11m夜店_H264.vod /mnt/h264/ffmpeg-0.5.1/picture/1m%04d.jpg -vcodec mjpeg -ss 0:1:2 -t 0:0:1
以上將視頻 1分02秒 處開始,持續1秒長的視頻輸出為jpg的序列
-ss 起始時間
-t 持續時間。
如果你要從片頭開始,轉換前2分鍾為圖片序列,則是:
ffmpeg -i /mnt/11m夜店_H264.vod /mnt/h264/ffmpeg-0.5.1/picture/1m%04d.jpg -vcodec mjpeg -ss 0:0:0 -t 0:2:0
另外告訴你,輸出的圖片數量是25/s的
Ⅶ php代碼怎麼調用FFmpeg來實現視頻格式轉換
具體代碼如下: PHP 獨特的語法混合了C、Java、Perl以及PHP自創的語法。 它可以比CGI或者Perl更快速地執行動態網頁。用PHP做出的動態頁面與其他的編程語言相比,PHP是將程序嵌入到HTML(標准通用標記語言下的一個應用)文檔中去執行
Ⅷ 如何使用ffmpeg庫把從攝像頭傳回的bmp圖像不斷保存成視頻
使用ffmpeg編碼....
Ⅸ 剛才的問題想要更詳細的請教一下行么:Java利用ffmpeg對視頻逐幀保存....
%04
就是如果位數少於4位,前面用0補充夠4位。。。。。。。。。。
Ⅹ (高分求代碼)基於ffmpeg 獲取視頻幀保存成圖像轉成yuv圖像序列
#include <stdio.h>
#include <windows.h>
#include "string.h"
#include "stdlib.h"
// #include "avcodec.h"
// #include "avformat.h"
// #include "avutil.h"
// #include "flvdec.h"
#include "libavcodec/avcodec.h"
#include "libavformat/avformat.h"
#include "libavutil/avutil.h"
#include "libswscale/swscale.h"
#pragma comment(lib,"avcodec.lib")
#pragma comment(lib,"avformat.lib")
#pragma comment(lib,"avutil.lib")
#pragma comment(lib,"swscale.lib")
bool GetNextFrame(AVFormatContext *pFormatCtx, AVCodecContext *pCodecCtx, int videoStream, AVFrame *pFrame)
{
static AVPacket packet;
static int bytesRemaining=0;
static uint8_t *rawData;
static bool fFirstTime=true;
int bytesDecoded;
int frameFinished;
int ii = 0;
AVPacket packettest;
// First time we're called, set packet.data to NULL to indicate it
// doesn't have to be freed
if(fFirstTime)
{
fFirstTime=false;
packet.data=NULL;
}
// Decode packets until we have decoded a complete frame
while(true)
{
// Work on the current packet until we have decoded all of it
while(bytesRemaining > 0)
{
// Decode the next chunk of data
bytesDecoded=avcodec_decode_video2(pCodecCtx, pFrame,
&frameFinished, &packet);//, rawData, bytesRemaining);
// Was there an error?
if(bytesDecoded < 0)
{
fprintf(stderr, "Error while decoding frame\n");
return false;
}
bytesRemaining-=bytesDecoded;
rawData+=bytesDecoded;
// Did we finish the current frame? Then we can return
if(frameFinished)
return true;
}
// Read the next packet, skipping all packets that aren't for this
// stream
do
{
++ii;
// Free old packet
if(packet.data!=NULL)
av_free_packet(&packet);
// Read new packet
if(/*av_read_packet*/av_read_frame(pFormatCtx, &packet)<0)
goto loop_exit;
memcpy(&packettest, &packet, sizeof(AVPacket));
printf("%d\n", packet.stream_index);
} while(packet.stream_index!=videoStream);
bytesRemaining=packet.size;
rawData=packet.data;
}
loop_exit:
// Decode the rest of the last frame
bytesDecoded=avcodec_decode_video2(pCodecCtx, pFrame, &frameFinished,
&packet);//, rawData, bytesRemaining);
// Free last packet
if(packet.data!=NULL)
av_free_packet(&packet);
return frameFinished!=0;
}
void SaveFrame(AVFrame *pFrame, int width, int height, int iFrame)
{
FILE *pFile;
char szFilename[32];
int y;
/////////////////////
BITMAPFILEHEADER m_fileHeader;
BITMAPINFOHEADER m_infoHeader;
unsigned int uiTmp, uiTmp2;
unsigned char *ucTmp = NULL;
unsigned char ucRGB;
int i;
uiTmp = (width*3+3)/4*4*height;
uiTmp2 = width*height*3;
//文件標識"BM"(即0x4D42)表示點陣圖
m_fileHeader.bfType = 0x4D42;
//整個文件的大小(單位:位元組)
m_fileHeader.bfSize = sizeof(m_fileHeader) + sizeof(m_infoHeader) + uiTmp;
//保留。設置為0
m_fileHeader.bfReserved1 = 0;
//保留。設置為0
m_fileHeader.bfReserved2 = 0;
//從文件開始到點陣圖數據的偏移量(單位:位元組)
m_fileHeader.bfOffBits = sizeof(m_fileHeader) + sizeof(m_infoHeader);
//信息頭長度(單位:位元組)。典型值為28
m_infoHeader.biSize = 0x28;
//點陣圖寬度(單位:像素)
m_infoHeader.biWidth = width;
//點陣圖高度(單位:像素)。若其為正,表示倒向的點陣圖。若為負,表示正向的點陣圖
m_infoHeader.biHeight = height;
//點陣圖的面數(為1)
m_infoHeader.biPlanes = 1;
//每個像素的位數
m_infoHeader.biBitCount = 24;
//壓縮說明。0(BI_RGB)表示不壓縮
m_infoHeader.biCompression = 0;
//用位元組數表示的點陣圖數據的大小(為4的位數)
m_infoHeader.biSizeImage = uiTmp;
//水平解析度(單位:像素/米)
m_infoHeader.biXPelsPerMeter = 0;
//垂直解析度(單位:像素/米)
m_infoHeader.biYPelsPerMeter = 0;
//點陣圖使用的顏色數
m_infoHeader.biClrUsed = 0;
//重要的顏色數
m_infoHeader.biClrImportant = 0;
/////////////////////
// Open file
sprintf(szFilename, "frame%d.bmp", iFrame);
pFile=fopen(szFilename, "wb");
if(pFile==NULL)
return;
// Write header
// fprintf(pFile, "P6\n%d %d\n255\n", width, height);
// Write pixel data
fwrite(&m_fileHeader, sizeof(m_fileHeader), 1, pFile);
fwrite(&m_infoHeader, sizeof(m_infoHeader), 1, pFile);
for(y=height-1; y>=0; y--) {
if(ucTmp != NULL) {
delete []ucTmp;
ucTmp = NULL;
}
ucTmp = new unsigned char[width*3];
memcpy(ucTmp, pFrame->data[0]+y*pFrame->linesize[0], width*3);
for(i = 0; i < width; i++) {
ucRGB = ucTmp[3*i];
ucTmp[3*i] = ucTmp[3*i+2];
ucTmp[3*i+2] = ucRGB;
}
ucRGB = 0;
fwrite(ucTmp, 1, width*3, pFile);
fwrite(&ucRGB, 1, (uiTmp-uiTmp2)/height , pFile);
}
// Close file
fclose(pFile);
}
int main(/*int argc, char *argv[]*/)
{
AVFormatContext *pFormatCtx;
unsigned int i;
int videoStream;
AVCodecContext *pCodecCtx;
AVCodec *pCodec;
AVFrame *pFrame;
AVFrame *pFrameRGB;
int numBytes;
uint8_t *buffer;
AVInputFormat *fmt;
char filename[50];
//printf("please input a filename:\n");
// scanf("%s",filename);
strcpy(filename,"chicken.avi");
// Register all formats and codecs
av_register_all();
//avformat_network_init();
//pFormatCtx=av_alloc_format_context();
// fmt = av_find_input_format("flv");
// pFormatCtx->iformat = fmt;
// Open video file
if(av_open_input_file(&pFormatCtx,filename, /*fmt*/NULL, 0, NULL)!=0)
return -1; // Couldn't open file
// Retrieve stream information
if(av_find_stream_info(pFormatCtx)<0)
return -1; // Couldn't find stream information
// Dump information about file onto standard error
mp_format(pFormatCtx, 0, filename, false);
// Find the first video stream
videoStream=-1;
for(i=0; i<pFormatCtx->nb_streams; i++)
if(pFormatCtx->streams[i]->codec->codec_type==CODEC_TYPE_VIDEO)
{
videoStream=i;
break;
}
if(videoStream==-1)
return -1; // Didn't find a video stream
// Get a pointer to the codec context for the video stream
pCodecCtx=pFormatCtx->streams[videoStream]->codec;
// Find the decoder for the video stream
pCodec=avcodec_find_decoder(pCodecCtx->codec_id);
if(pCodec==NULL)
return -1; // Codec not found
// Inform the codec that we can handle truncated bitstreams -- i.e.,
// bitstreams where frame boundaries can fall in the middle of packets
/*
if(pCodec->capabilities & CODEC_CAP_TRUNCATED)
pCodecCtx->flags|=CODEC_FLAG_TRUNCATED;*/
// Open codec
if(avcodec_open(pCodecCtx, pCodec)<0)
return -1; // Could not open codec
// Hack to correct wrong frame rates that seem to be generated by some
// codecs
/*
if(pCodecCtx->frame_rate>1000 && pCodecCtx->frame_rate_base==1)
pCodecCtx->frame_rate_base=1000;*/
// Allocate video frame
pFrame=avcodec_alloc_frame();
// Allocate an AVFrame structure
pFrameRGB=avcodec_alloc_frame();
if(pFrameRGB==NULL)
return -1;
// Determine required buffer size and allocate buffer
numBytes=avpicture_get_size(PIX_FMT_RGB24/*PIX_FMT_YUV420P*/, pCodecCtx->width,
pCodecCtx->height);
buffer=(uint8_t*)av_malloc(numBytes*sizeof(uint8_t));
// Assign appropriate parts of buffer to image planes in pFrameRGB
avpicture_fill((AVPicture *)pFrameRGB, buffer, PIX_FMT_RGB24,
pCodecCtx->width, pCodecCtx->height);
// Read frames and save first five frames to disk
i=0;
while(GetNextFrame(pFormatCtx, pCodecCtx, videoStream, pFrame))
{
// img_convert((AVPicture *)pFrameRGB, PIX_FMT_RGB24, (AVPicture*)pFrame,
// pCodecCtx->pix_fmt, pCodecCtx->width, pCodecCtx->height);
// other codes
static struct SwsContext *img_convert_ctx;
// other codes
img_convert_ctx = sws_getContext(pCodecCtx->width,
pCodecCtx->height,
pCodecCtx->pix_fmt,
pCodecCtx->width,
pCodecCtx->height,
PIX_FMT_RGB24,
SWS_BICUBIC, NULL,
NULL,
NULL);
// other codes
// Convert the image from its native format to RGB
sws_scale(img_convert_ctx,
(const uint8_t* const*)pFrame->data,
pFrame->linesize,
0,
pCodecCtx->height,
pFrameRGB->data,
pFrameRGB->linesize);
// Save the frame to disk
if(++i<=512)
SaveFrame(pFrameRGB, pCodecCtx->width, pCodecCtx->height, i);
}
printf("\n%d",i);
// Free the RGB image
// delete [] buffer;
av_free(buffer);
av_free(pFrameRGB);
// Free the YUV frame
av_free(pFrame);
// Close the codec
avcodec_close(pCodecCtx);
// Close the video file
av_close_input_file(pFormatCtx);
return 0;
}
這是網上找的代碼,自己修改了一下,可以讀取視頻,並把視頻中的幀轉成對應的bmp圖片。解碼後的視頻本來就是yuv格式的,只需要寫入到相應的文件就可以了。
這個程序還需要相應的dll,lib和頭文件。不過,這樣沒有辦法傳給你。