女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OpenHarmony 3.2 Beta多媒體系列——視頻錄制

2KHh_gh_15d2f06 ? 來源:未知 ? 2023-02-10 11:20 ? 次閱讀

ca3ce0d4-a8f1-11ed-bfe3-dac502259ad0.png

巴延興

深圳開鴻數(shù)字產業(yè)發(fā)展有限公司

資深OS框架開發(fā)工程師

一、簡介

媒體子系統(tǒng)為開發(fā)者提供了媒體相關的很多功能,本文針對其中的視頻錄制功能做個詳細的介紹。首先,我將通過媒體子系統(tǒng)提供的視頻錄制Test代碼作為切入點,給大家梳理一下整個錄制的流程。

二、目錄

foundation/multimedia/camera_framework

├──frameworks
│ ├── js
│ │ └── camera_napi                            #napi實現(xiàn)
│ │     └── src
│ │         ├── input                          #Camera輸入
│ │         ├── output                         #Camera輸出
│ │         └── session                        #會話管理
│ └── native                                     #native實現(xiàn)
│     └── camera
│         ├── BUILD.gn
│         ├── src
│         │ ├── input                          #Camera輸入
│         │ ├── output                         #Camera輸出
│         │ └── session                        #會話管理
├── interfaces                                     #接口定義
│ ├── inner_api                                  #內部native實現(xiàn)
│ │ └── native
│ │     ├── camera
│ │     │ └── include
│ │     │     ├── input
│ │     │     ├── output
│ │     │     └── session
│ └── kits                                       #napi接口
│     └── js
│         └── camera_napi
│             ├── BUILD.gn
│             ├── include
│             │ ├── input
│             │ ├── output
│             │ └── session
│             └── @ohos.multimedia.camera.d.ts
└── services                                       #服務端
    └── camera_service
        ├── binder
        │ ├── base
        │ ├── client                             #IPC的客戶端
        │ │ └── src
      │ └── server                             #IPC的服務端
      │     └── src
└──src

三、錄制的總體流程

ca66cd5e-a8f1-11ed-bfe3-dac502259ad0.png ? ?

四、Native接口使用

在OpenAtom OpenHarmony(以下簡稱“OpenHarmony”)系統(tǒng)中,多媒體子系統(tǒng)通過N-API接口提供給上層JS調用,N-API相當于是JS和Native之間的橋梁,在OpenHarmony源碼中,提供了C++直接調用視頻錄制功能的例子,foundation/multimedia/camera_framework/interfaces/inner_api/native/test目錄中。本文章主要參考了camera_video.cpp文件中的視頻錄制流程。 首先根據(jù)camera_video.cpp的main方法,了解下視頻錄制的主要流程代碼。
int main(int argc, char **argv)
{
    ......


    // 創(chuàng)建CameraManager實例
    sptr camManagerObj = CameraManager::GetInstance();


    // 設置回調
    camManagerObj->SetCallback(std::make_shared(testName));


    // 獲取支持的相機設備列表
    std::vector> cameraObjList = camManagerObj->GetSupportedCameras();


    // 創(chuàng)建采集會話
    sptr captureSession = camManagerObj->CreateCaptureSession();


    // 開始配置采集會話
    captureSession->BeginConfig();


    // 創(chuàng)建CameraInput
    sptr captureInput = camManagerObj->CreateCameraInput(cameraObjList[0]);
    sptr cameraInput = (sptr &)captureInput;


    // 開啟CameraInput
    cameraInput->Open();


    // 設置CameraInput的Error回調
    cameraInput->SetErrorCallback(std::make_shared(testName));


    // 添加CameraInput實例到采集會話中
    ret = captureSession->AddInput(cameraInput);


    sptr videoSurface = nullptr;
    std::shared_ptr recorder = nullptr;


    // 創(chuàng)建Video的Surface
    videoSurface = Surface::CreateSurfaceAsConsumer();


    sptr videoListener = new SurfaceListener("Video", SurfaceType::VIDEO, g_videoFd, videoSurface);


    // 注冊Surface的事件監(jiān)聽
    videoSurface->RegisterConsumerListener((sptr &)videoListener);


    // 視頻的配置
    VideoProfile videoprofile = VideoProfile(static_cast(videoFormat), videosize, videoframerates);


    // 創(chuàng)建VideoOutput實例
    sptr videoOutput = camManagerObj->CreateVideoOutput(videoprofile, videoSurface);


    // 設置VideoOutput的回調
    ((sptr &)videoOutput)->SetCallback(std::make_shared(testName));


    // 添加videoOutput到采集會話中
    ret = captureSession->AddOutput(videoOutput);


    // 提交會話配置
    ret = captureSession->CommitConfig();


    // 開始錄制
    ret = ((sptr &)videoOutput)->Start();




    sleep(videoPauseDuration);
    MEDIA_DEBUG_LOG("Resume video recording");
    // 暫停錄制
    ret = ((sptr &)videoOutput)->Resume();


    MEDIA_DEBUG_LOG("Wait for 5 seconds before stop");
    sleep(videoCaptureDuration);
    MEDIA_DEBUG_LOG("Stop video recording");
    // 停止錄制
    ret = ((sptr &)videoOutput)->Stop();


    MEDIA_DEBUG_LOG("Closing the session");
    // 停止采集會話
    ret = captureSession->Stop();


    MEDIA_DEBUG_LOG("Releasing the session");
    // 釋放會話采集
    captureSession->Release();


    // Close video file
    TestUtils::SaveVideoFile(nullptr, 0, VideoSaveMode::CLOSE, g_videoFd);
    cameraInput->Release();
    camManagerObj->SetCallback(nullptr);
    return 0;
}
以上是視頻錄制的整體流程,其過程主要通過Camera模塊支持的能力來實現(xiàn),其中涉及幾個重要的類:CaptureSession、CameraInput、VideoOutput。CaptureSession是整個過程的控制者,CameraInput和VideoOutput相當于是設備的輸入和輸出。

五、調用流程

ca7758e0-a8f1-11ed-bfe3-dac502259ad0.jpgca87d83c-a8f1-11ed-bfe3-dac502259ad0.jpgca9c452e-a8f1-11ed-bfe3-dac502259ad0.jpg ? ? ? 左右滑動查看更多 ?后續(xù)主要針對上面的調用流程,梳理具體的調用流程,方便我們對了解視頻錄制的整理架構有一個更加深入的了解。 1. 創(chuàng)建CameraManager實例通過CameraManager::GetInstance()獲取CameraManager的實例,后續(xù)的一些接口都是通過該實例進行調用的。GetInstance使用了單例模式,在OpenHarmony代碼中這種方式很常見。
sptr &CameraManager::GetInstance()
{
    if (CameraManager::cameraManager_ == nullptr) {
        MEDIA_INFO_LOG("Initializing camera manager for first time!");
        CameraManager::cameraManager_ = new(std::nothrow) CameraManager();
        if (CameraManager::cameraManager_ == nullptr) {
            MEDIA_ERR_LOG("CameraManager::GetInstance failed to new CameraManager");
        }
    }
    return CameraManager::cameraManager_;
}
2. 獲取支持的相機設備列表通過調用CameraManager的GetSupportedCameras()接口,獲取設備支持的CameraDevice列表。跟蹤代碼可以發(fā)現(xiàn)serviceProxy_->GetCameras最終會調用到Camera服務端的對應接口。
std::vector> CameraManager::GetSupportedCameras()
{
    CAMERA_SYNC_TRACE;


    std::lock_guard lock(mutex_);
    std::vector cameraIds;
    std::vector> cameraAbilityList;
    int32_t retCode = -1;
    sptr cameraObj = nullptr;
    int32_t index = 0;


    if (cameraObjList.size() > 0) {
        cameraObjList.clear();
    }
    if (serviceProxy_ == nullptr) {
        MEDIA_ERR_LOG("CameraManager::GetCameras serviceProxy_ is null, returning empty list!");
        return cameraObjList;
    }
    std::vector> supportedCameras;
    retCode = serviceProxy_->GetCameras(cameraIds, cameraAbilityList);
    if (retCode == CAMERA_OK) {
        for (auto& it : cameraIds) {
            cameraObj = new(std::nothrow) CameraDevice(it, cameraAbilityList[index++]);
            if (cameraObj == nullptr) {
                MEDIA_ERR_LOG("CameraManager::GetCameras new CameraDevice failed for id={public}%s", it.c_str());
                continue;
            }
            supportedCameras.emplace_back(cameraObj);
        }
    } else {
        MEDIA_ERR_LOG("CameraManager::GetCameras failed!, retCode: %{public}d", retCode);
    }


    ChooseDeFaultCameras(supportedCameras);
    return cameraObjList;
}
3. 創(chuàng)建采集會話下面是比較重要的環(huán)節(jié),通過調用CameraManager的CreateCaptureSession接口創(chuàng)建采集會話。CameraManager創(chuàng)建采集會話,是通過serviceProxy_->CreateCaptureSession方式進行調用,這里涉及到了OpenHarmony中的IPC的調用,serviceProxy_是遠端服務在本地的代理,通過這個代理可以調用到具體的服務端,這里是HCameraService。
sptr CameraManager::CreateCaptureSession()
{
    CAMERA_SYNC_TRACE;
    sptr captureSession = nullptr;
    sptr result = nullptr;
    int32_t retCode = CAMERA_OK;


    if (serviceProxy_ == nullptr) {
        MEDIA_ERR_LOG("CameraManager::CreateCaptureSession serviceProxy_ is null");
        return nullptr;
    }
    retCode = serviceProxy_->CreateCaptureSession(captureSession);
    if (retCode == CAMERA_OK && captureSession != nullptr) {
        result = new(std::nothrow) CaptureSession(captureSession);
        if (result == nullptr) {
            MEDIA_ERR_LOG("Failed to new CaptureSession");
        }
    } else {
        MEDIA_ERR_LOG("Failed to get capture session object from hcamera service!, %{public}d", retCode);
    }
    return result;
}
代碼最終來到HCameraService::CreateCaptureSession中,該方法中new了一個HCaptureSession對象,并且將該對象傳遞給了參數(shù)session,所以前面的captureSession對象就是這里new出來的HCaptureSession,前面的CameraManager的CreateCaptureSession()方法中將captureSession封裝成CaptureSession對象返回給應用層使用。
int32_t HCameraService::CreateCaptureSession(sptr &session)
{
    CAMERA_SYNC_TRACE;
    sptr captureSession;
    if (streamOperatorCallback_ == nullptr) {
        streamOperatorCallback_ = new(std::nothrow) StreamOperatorCallback();
        if (streamOperatorCallback_ == nullptr) {
            MEDIA_ERR_LOG("HCameraService::CreateCaptureSession streamOperatorCallback_ allocation failed");
            return CAMERA_ALLOC_ERROR;
        }
    }


    std::lock_guard lock(mutex_);
    OHOS::AccessTokenID callerToken = IPCSkeleton::GetCallingTokenID();
    captureSession = new(std::nothrow) HCaptureSession(cameraHostManager_, streamOperatorCallback_, callerToken);
    if (captureSession == nullptr) {
        MEDIA_ERR_LOG("HCameraService::CreateCaptureSession HCaptureSession allocation failed");
        return CAMERA_ALLOC_ERROR;
    }
    session = captureSession;
    return CAMERA_OK;
}
4. 開始配置采集會話調用CaptureSession的BeginConfig進行采集會話的配置工作。這個工作最終調用到被封裝的HCaptureSession中。
int32_t HCaptureSession::BeginConfig()
{
    CAMERA_SYNC_TRACE;
    if (curState_ == CaptureSessionState::SESSION_CONFIG_INPROGRESS) {
        MEDIA_ERR_LOG("HCaptureSession::BeginConfig Already in config inprogress state!");
        return CAMERA_INVALID_STATE;
    }
    std::lock_guard lock(sessionLock_);
    prevState_ = curState_;
    curState_ = CaptureSessionState::SESSION_CONFIG_INPROGRESS;
    tempCameraDevices_.clear();
    tempStreams_.clear();
    deletedStreamIds_.clear();
    return CAMERA_OK;
}
5. 創(chuàng)建CameraInput應用層通過camManagerObj->CreateCameraInput(cameraObjList[0])的方式進行CameraInput的創(chuàng)建,cameraObjList[0]就是前面獲取支持設備的第一個。根據(jù)CameraDevice創(chuàng)建對應的CameraInput對象。
sptr CameraManager::CreateCameraInput(sptr &camera)
{
    CAMERA_SYNC_TRACE;
    sptr cameraInput = nullptr;
    sptr deviceObj = nullptr;


    if (camera != nullptr) {
        deviceObj = CreateCameraDevice(camera->GetID());
        if (deviceObj != nullptr) {
            cameraInput = new(std::nothrow) CameraInput(deviceObj, camera);
            if (cameraInput == nullptr) {
                MEDIA_ERR_LOG("failed to new CameraInput Returning null in CreateCameraInput");
                return cameraInput;
            }
        } else {
            MEDIA_ERR_LOG("Returning null in CreateCameraInput");
        }
    } else {
        MEDIA_ERR_LOG("CameraManager: Camera object is null");
    }
    return cameraInput;
}
6. 開啟CameraInput調用了CameraInput的Open方法,進行輸入設備的啟動打開。
void CameraInput::Open()
{
    int32_t retCode = deviceObj_->Open();
    if (retCode != CAMERA_OK) {
        MEDIA_ERR_LOG("Failed to open Camera Input, retCode: %{public}d", retCode);
    }
}
7. 添加CameraInput實例到采集會話中通過調用captureSession的AddInput方法,將創(chuàng)建的CameraInput對象添加到采集會話的輸入中,這樣采集會話就知道采集輸入的設備。
int32_t CaptureSession::AddInput(sptr &input)
{
    CAMERA_SYNC_TRACE;
    if (input == nullptr) {
        MEDIA_ERR_LOG("CaptureSession::AddInput input is null");
        return CAMERA_INVALID_ARG;
    }
    input->SetSession(this);
    inputDevice_ = input;
    return captureSession_->AddInput(((sptr &)input)->GetCameraDevice());
}
最終調用到HCaptureSession的AddInput方法,該方法中核心的代碼是tempCameraDevices_.emplace_back(localCameraDevice),將需要添加的CameraDevice插入到tempCameraDevices_容器中。
int32_t HCaptureSession::AddInput(sptr cameraDevice)
{
    CAMERA_SYNC_TRACE;
    sptr localCameraDevice = nullptr;


    if (cameraDevice == nullptr) {
        MEDIA_ERR_LOG("HCaptureSession::AddInput cameraDevice is null");
        return CAMERA_INVALID_ARG;
    }
    if (curState_ != CaptureSessionState::SESSION_CONFIG_INPROGRESS) {
        MEDIA_ERR_LOG("HCaptureSession::AddInput Need to call BeginConfig before adding input");
        return CAMERA_INVALID_STATE;
    }
    if (!tempCameraDevices_.empty() || (cameraDevice_ != nullptr && !cameraDevice_->IsReleaseCameraDevice())) {
        MEDIA_ERR_LOG("HCaptureSession::AddInput Only one input is supported");
        return CAMERA_INVALID_SESSION_CFG;
    }
    localCameraDevice = static_cast(cameraDevice.GetRefPtr());*>
    if (cameraDevice_ == localCameraDevice) {
        cameraDevice_->SetReleaseCameraDevice(false);
    } else {
        tempCameraDevices_.emplace_back(localCameraDevice);
        CAMERA_SYSEVENT_STATISTIC(CreateMsg("CaptureSession::AddInput"));
    }


    sptr streamOperator;
    int32_t rc = localCameraDevice->GetStreamOperator(streamOperatorCallback_, streamOperator);
    if (rc != CAMERA_OK) {
        MEDIA_ERR_LOG("HCaptureSession::GetCameraDevice GetStreamOperator returned %{public}d", rc);
        localCameraDevice->Close();
        return rc;
    }
    return CAMERA_OK;
}
8. 創(chuàng)建Video的Surface通過Surface::CreateSurfaceAsConsumer創(chuàng)建Surface。
sptr Surface::string name, bool isShared)
{
    sptr surf = new ConsumerSurface(name, isShared);
    GSError ret = surf->Init();
    if (ret != GSERROR_OK) {
        BLOGE("Failure, Reason: consumer surf init failed");
        return nullptr;
    }
    return surf;
}
9. 創(chuàng)建VideoOutput實例通過調用CameraManager的CreateVideoOutput來創(chuàng)建VideoOutput實例。
sptr CameraManager::CreateVideoOutput(VideoProfile &profile, sptr &surface)
{
    CAMERA_SYNC_TRACE;
    sptr streamRepeat = nullptr;
    sptr result = nullptr;
    int32_t retCode = CAMERA_OK;
    camera_format_t metaFormat;


    metaFormat = GetCameraMetadataFormat(profile.GetCameraFormat());
    retCode = serviceProxy_->CreateVideoOutput(surface->GetProducer(), metaFormat,
                                               profile.GetSize().width, profile.GetSize().height, streamRepeat);
    if (retCode == CAMERA_OK) {
        result = new(std::nothrow) VideoOutput(streamRepeat);
        if (result == nullptr) {
            MEDIA_ERR_LOG("Failed to new VideoOutput");
        } else {
            std::vector videoFrameRates = profile.GetFrameRates();
            if (videoFrameRates.size() >= 2) { // vaild frame rate range length is 2
                result->SetFrameRateRange(videoFrameRates[0], videoFrameRates[1]);
            }
            POWERMGR_SYSEVENT_CAMERA_CONFIG(VIDEO,
                                            profile.GetSize().width,
                                            profile.GetSize().height);
        }
    } else {
        MEDIA_ERR_LOG("VideoOutpout: Failed to get stream repeat object from hcamera service! %{public}d", retCode);
    }
    return result;
}
該方法中通過IPC的調用最終調用到了HCameraService的CreateVideoOutput(surface->GetProducer(), format, streamRepeat)。
int32_t HCameraService::CreateVideoOutput(const sptr &producer, int32_t format,
                                          int32_t width, int32_t height,
                                          sptr &videoOutput)
{
    CAMERA_SYNC_TRACE;
    sptr streamRepeatVideo;


    if ((producer == nullptr) || (width == 0) || (height == 0)) {
        MEDIA_ERR_LOG("HCameraService::CreateVideoOutput producer is null");
        return CAMERA_INVALID_ARG;
    }
    streamRepeatVideo = new(std::nothrow) HStreamRepeat(producer, format, width, height, true);
    if (streamRepeatVideo == nullptr) {
        MEDIA_ERR_LOG("HCameraService::CreateVideoOutput HStreamRepeat allocation failed");
        return CAMERA_ALLOC_ERROR;
    }
    POWERMGR_SYSEVENT_CAMERA_CONFIG(VIDEO, producer->GetDefaultWidth(),
                                    producer->GetDefaultHeight());
    videoOutput = streamRepeatVideo;
    return CAMERA_OK;
}
HCameraService的CreateVideoOutput方法中主要創(chuàng)建了HStreamRepeat,并且通過參數(shù)傳遞給前面的CameraManager使用,CameraManager通過傳遞的HStreamRepeat對象,進行封裝,創(chuàng)建出VideoOutput對象。 10. 添加videoOutput到采集會話中,并且提交采集會話該步驟類似添加CameraInput到采集會話的過程,可以參考前面的流程。 11. 開始錄制通過調用VideoOutput的Start進行錄制的操作。
int32_t VideoOutput::Start()
{
    return static_cast(GetStream().GetRefPtr())->Start();
}
該方法中會調用到HStreamRepeat的Start方法。
int32_t HStreamRepeat::Start()
{
    CAMERA_SYNC_TRACE;


    if (streamOperator_ == nullptr) {
        return CAMERA_INVALID_STATE;
    }
    if (curCaptureID_ != 0) {
        MEDIA_ERR_LOG("HStreamRepeat::Start, Already started with captureID: %{public}d", curCaptureID_);
        return CAMERA_INVALID_STATE;
    }
    int32_t ret = AllocateCaptureId(curCaptureID_);
    if (ret != CAMERA_OK) {
        MEDIA_ERR_LOG("HStreamRepeat::Start Failed to allocate a captureId");
        return ret;
    }
    std::vector ability;
    OHOS::ConvertMetadataToVec(cameraAbility_, ability);
    CaptureInfo captureInfo;
    captureInfo.streamIds_ = {streamId_};
    captureInfo.captureSetting_ = ability;
    captureInfo.enableShutterCallback_ = false;
    MEDIA_INFO_LOG("HStreamRepeat::Start Starting with capture ID: %{public}d", curCaptureID_);
    CamRetCode rc = (CamRetCode)(streamOperator_->Capture(curCaptureID_, captureInfo, true));
    if (rc != HDI::NO_ERROR) {
        ReleaseCaptureId(curCaptureID_);
        curCaptureID_ = 0;
        MEDIA_ERR_LOG("HStreamRepeat::Start Failed with error Code:%{public}d", rc);
        ret = HdiToServiceError(rc);
    }
    return ret;
}
核心的代碼是streamOperator_->Capture,其中最后一個參數(shù)true,表示采集連續(xù)數(shù)據(jù)。 12. 錄制結束,保存錄制文件

六、總結

本文主要對OpenHarmony 3.2 Beta多媒體子系統(tǒng)的視頻錄制進行介紹,首先梳理了整體的錄制流程,然后對錄制過程中的主要步驟進行了詳細地分析。視頻錄制主要分為以下幾個步驟:(1) 獲取CameraManager實例。(2) 創(chuàng)建采集會話CaptureSession。(3) 創(chuàng)建CameraInput實例,并且將輸入設備添加到CaptureSession中。(4) 創(chuàng)建Video錄制需要的Surface。(5) 創(chuàng)建VideoOutput實例,并且將輸出添加到CaptureSession中。(6) 提交采集會話的配置。(7) 調用VideoOutput的Start方法,進行視頻的錄制。(8) 錄制結束,保存錄制的文件。 關于OpenHarmony 3.2 Beta多媒體系列開發(fā),我之前還分享過《OpenHarmony 3.2 Beta源碼分析之MediaLibrary》《OpenHarmony 3.2 Beta多媒體系列——音視頻播放框架》《OpenHarmony 3.2 Beta多媒體系列——音視頻播放gstreamer》這幾篇文章,歡迎感興趣的開發(fā)者進行閱讀。

THE END

推薦閱讀

點擊圖片即可閱讀

caaae64c-a8f1-11ed-bfe3-dac502259ad0.png

關注深開鴻

了解更多資訊

cae54468-a8f1-11ed-bfe3-dac502259ad0.jpg

深開鴻公眾號

cb10541e-a8f1-11ed-bfe3-dac502259ad0.jpg

深開鴻視頻號

深圳開鴻數(shù)字產業(yè)發(fā)展有限公司(簡稱“深開鴻”)于2021年成立于中國深圳,以數(shù)字化、智慧化改變人類的生產和生活方式為愿景,專注于自主軟件根技術的研發(fā)與持續(xù)創(chuàng)新,致力于打造萬物智聯(lián)核心技術、定義萬物智聯(lián)標準、引領萬物智聯(lián)時代發(fā)展。

深開鴻基于OpenHarmony,創(chuàng)新打造互通互聯(lián)互享的KaihongOS數(shù)字底座,上承可視可管可控的超級設備管理平臺,靈活擴展,柔性組合,聚合成全場景超級設備解決方案,實現(xiàn)更大范圍的以軟件定義硬件,引領智慧基建、智慧康養(yǎng)、智慧能源、智慧交通、智慧制造、智慧政務、智慧金融、智慧教育等多個行業(yè)變革,賦能、賦智、賦值千行百業(yè)的數(shù)智化轉型。

從開源中來,到行業(yè)中去,深開鴻以構筑行業(yè)數(shù)字化生態(tài)、培養(yǎng)生態(tài)人才為己任,持續(xù)突破行業(yè)邊界,立志成為萬物智聯(lián)時代的“國之重器”。

以數(shù)字化、智慧化改變人類的生產和生活方式

點擊在看和點贊,與更多的美好相遇 ↓


原文標題:OpenHarmony 3.2 Beta多媒體系列——視頻錄制

文章出處:【微信公眾號:深開鴻】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 深開鴻
    +關注

    關注

    1

    文章

    359

    瀏覽量

    2445

原文標題:OpenHarmony 3.2 Beta多媒體系列——視頻錄制

文章出處:【微信號:gh_15d2f062a168,微信公眾號:深開鴻】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    高校智慧教室多媒體教學設備介紹

    在當今的教育環(huán)境中,隨著信息技術的快速發(fā)展和應用,智慧教室已成為高校教育改革的重要標志。廣凌科技(廣凌股份)深知在智慧教室建設方案中,多媒體教學設備的重要性,這不僅關系到教學質量的提升,也直接影響
    的頭像 發(fā)表于 05-06 09:20 ?325次閱讀
    高校智慧教室<b class='flag-5'>多媒體</b>教學設備介紹

    【北京迅為】itop-3568 開發(fā)板openharmony鴻蒙燒寫及測試-第2章OpenHarmony v3.2-Beta4版本測試

    【北京迅為】itop-3568 開發(fā)板openharmony鴻蒙燒寫及測試-第2章OpenHarmony v3.2-Beta4版本測試
    的頭像 發(fā)表于 03-05 10:53 ?318次閱讀
    【北京迅為】itop-3568 開發(fā)板<b class='flag-5'>openharmony</b>鴻蒙燒寫及測試-第2章<b class='flag-5'>OpenHarmony</b> v<b class='flag-5'>3.2-Beta</b>4版本測試

    多媒體信息發(fā)布系統(tǒng):智慧電梯的“信息樞紐”

    在數(shù)字化時代,多媒體信息發(fā)布系統(tǒng)正逐漸成為電梯智能化管理的重要組成部分。通過整合多種媒體形式,這一系統(tǒng)不僅提升了電梯的使用體驗,還為電梯的安全管理和運營提供了有力支持。 一、多媒體信息發(fā)布系統(tǒng)的功能
    的頭像 發(fā)表于 02-21 17:34 ?322次閱讀

    RK616多媒體處理芯片特性解析

    體驗。 在輸入接口方面,RK616支持兩個24位RGB輸入,能夠接收高質量的視頻信號,確保圖像處理的精準度和清晰度。這一特性使得RK616在圖像處理、顯示控制等多媒體應用中表現(xiàn)出色。 在輸出接口上,RK616配備了單LVDS輸出,支持高分辨率的液晶顯示,為用戶提供清
    的頭像 發(fā)表于 02-11 17:32 ?701次閱讀

    RK618多媒體處理芯片特性概覽

    RK618是一款專為多媒體應用設計的處理芯片,它集成了多種輸入輸出接口和嵌入式音頻編解碼器,為用戶提供了全面的多媒體處理解決方案。 在輸入接口方面,RK618支持兩個24位RGB輸入,能夠接收高質量
    的頭像 發(fā)表于 02-11 17:26 ?930次閱讀

    RK3326處理器:高效能多媒體處理核心

    RK3326是一款功能強大的處理器,專為高效能多媒體應用而設計。其主要特性概述如下: 四核高性能CPU:搭載四核Cortex-A35處理器,主頻高達1.5GHz,提供出色的處理能力和能效比。 先進
    的頭像 發(fā)表于 02-07 18:21 ?1497次閱讀

    OMAP5912多媒體處理器中斷參考指南

    電子發(fā)燒友網(wǎng)站提供《OMAP5912多媒體處理器中斷參考指南.pdf》資料免費下載
    發(fā)表于 12-17 16:25 ?0次下載
    OMAP5912<b class='flag-5'>多媒體</b>處理器中斷參考指南

    OMAP5912多媒體處理器時鐘參考指南

    電子發(fā)燒友網(wǎng)站提供《OMAP5912多媒體處理器時鐘參考指南.pdf》資料免費下載
    發(fā)表于 12-17 16:17 ?0次下載
    OMAP5912<b class='flag-5'>多媒體</b>處理器時鐘參考指南

    dm368錄制視頻后用vlc播放不同步是怎么回事?

    目前我們用其他的開發(fā)板 能夠錄制視頻,但是用vlc播放的時候發(fā)現(xiàn)每次都是視頻播放完成了音頻還要播放一會,隨著錄制時間加上,延后的這個時間也會變長 請問有知道怎么回事的嗎?
    發(fā)表于 10-15 06:56

    安謀科技自研“玲瓏”多媒體家族再添新軍,加速超高清顯示和端邊云視頻應用落地

    9月19日,安謀科技在北京召開新品發(fā)布媒體溝通會,正式亮出本土自研多媒體產品矩陣的最新力作——首款“玲瓏”D8/D6/D2顯示處理器和新一代的“玲瓏”V510/V710視頻處理器,為當前終端市場超高畫質顯示、超高清
    的頭像 發(fā)表于 09-25 15:00 ?3480次閱讀
    安謀科技自研“玲瓏”<b class='flag-5'>多媒體</b>家族再添新軍,加速超高清顯示和端邊云<b class='flag-5'>視頻</b>應用落地

    基于ArkTS語言的OpenHarmony APP應用開發(fā):多媒體管理2

    視頻開始播放。再次點擊視頻進入視頻全屏頁。首頁下滑500vp后,視頻小窗口化。4.點擊直播按鈕進入直播頁,上下滑動視頻。本案例已在
    的頭像 發(fā)表于 09-21 08:06 ?682次閱讀
    基于ArkTS語言的<b class='flag-5'>OpenHarmony</b> APP應用開發(fā):<b class='flag-5'>多媒體</b>管理2

    基于ArkTS語言的OpenHarmony APP應用開發(fā):多媒體管理2

    播放按鈕,視頻開始播放。再次點擊視頻進入視頻全屏頁。 首頁下滑500vp后,視頻小窗口化。 4.點擊直播按鈕進入直播頁,上下滑動視頻。 本案
    發(fā)表于 09-20 13:47

    基于ArkTS語言的OpenHarmony APP應用開發(fā):多媒體管理

    1、程序介紹 本示例展示了視頻組件的基本功能,以及如何控制播放狀態(tài)的相關能力,包括視頻切換、封面切換、播放、暫停等。 本案例已在OpenHarmony凌蒙派-RK3568開發(fā)板驗證通過,具體代碼可
    發(fā)表于 09-19 15:50

    AM62A上的多媒體應用

    電子發(fā)燒友網(wǎng)站提供《AM62A上的多媒體應用.pdf》資料免費下載
    發(fā)表于 08-29 11:52 ?0次下載
    AM62A上的<b class='flag-5'>多媒體</b>應用

    usb_hid_host例程鍵盤多媒體鍵無響應是哪里出了問題?

    今天用github上最新idf里的USB HID HOST例程嘗試了一下,連接鍵盤以后普通按鍵都可以正常工作,但是使用鍵盤上的多媒體鍵時沒有任何反應,之前沒有玩過USB HID,不知道是什么問題,望賜教。
    發(fā)表于 06-12 06:43