女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ResNet原始結(jié)果無(wú)法復(fù)現(xiàn)?大神何愷明受到了質(zhì)疑

DPVg_AI_era ? 來(lái)源:lp ? 2019-04-19 11:21 ? 次閱讀

ResNet原始結(jié)果無(wú)法復(fù)現(xiàn)?大神何愷明的經(jīng)典之作受到了網(wǎng)友質(zhì)疑,不過(guò)何愷明本人現(xiàn)身解答之后,讓真理越辯越明。

大神何愷明受到了質(zhì)疑。

今天,Reddit上一位用戶對(duì)何愷明的ResNet提出質(zhì)疑,他認(rèn)為:

何愷明2015年的原始?xì)埐罹W(wǎng)絡(luò)的結(jié)果沒(méi)有被復(fù)現(xiàn),甚至何愷明本人也沒(méi)有。

網(wǎng)友稱,他沒(méi)有發(fā)現(xiàn)任何一篇論文復(fù)現(xiàn)了原始ResNet網(wǎng)絡(luò)的結(jié)果,或與原始?xì)埐罹W(wǎng)絡(luò)論文的結(jié)果進(jìn)行比較,并且所有的論文報(bào)告的數(shù)字都比原始論文的更差。

論文中報(bào)告的top1錯(cuò)誤率的結(jié)果如下:

ResNet-50 @ 20.74

resnet - 101 @ 19.87

resnet - 152 @ 19.38

何愷明等人在2015年提出ResNet之后,ResNet很快成為計(jì)算機(jī)視覺(jué)最流行的架構(gòu)之一,這篇論文已經(jīng)被引用了超過(guò)20000次。

不過(guò),網(wǎng)友稱,DenseNet(https://arxiv.org/abs/1608.06993,3000+引用)和WideResNets(https://arxiv.org/abs/1605.07146,~1000引用)都沒(méi)有使用這個(gè)結(jié)果。甚至在何愷明最近的一篇論文中,也沒(méi)有使用這個(gè)結(jié)果。

按理說(shuō),何愷明這篇論文應(yīng)該是這個(gè)領(lǐng)域被引用最多的論文之一,原始ResNet的結(jié)果真的沒(méi)有被復(fù)現(xiàn)出來(lái)嗎?在繼續(xù)討論之前,讓我們先來(lái)回顧一下ResNet的思想,以及它之所以強(qiáng)大的原因。

重新審視ResNet:計(jì)算機(jī)視覺(jué)最流行的架構(gòu)之一

2015年,ResNet大大吸引了人們的眼球。實(shí)際上,早在ILSVRC2012分類競(jìng)賽中,AlexNet取得勝利,深度殘差網(wǎng)絡(luò)(deepResidualNetwork)就成為過(guò)去幾年中計(jì)算機(jī)視覺(jué)和深度學(xué)習(xí)領(lǐng)域最具突破性的工作。ResNet使得訓(xùn)練深達(dá)數(shù)百甚至數(shù)千層的網(wǎng)絡(luò)成為可能,而且性能仍然優(yōu)異。

由于其表征能力強(qiáng),ResNet在圖像分類任務(wù)之外的許多計(jì)算機(jī)視覺(jué)應(yīng)用上也取得了巨大的性能提升,例如對(duì)象檢測(cè)和人臉識(shí)別。

自2015年以來(lái),許多研究對(duì)ResNet架構(gòu)進(jìn)行了調(diào)整和改進(jìn)。其中最著名的一些ResNet變體包括:

何愷明等人提出的ResNeXt

康奈爾大學(xué)、清華大學(xué)和Facebook聯(lián)合提出的DenseNet

谷歌MobileNet

孫劍團(tuán)隊(duì)ShuffleNet

顏水成團(tuán)隊(duì)的雙通道網(wǎng)絡(luò)DPN

最近南開(kāi)大學(xué)、牛津大學(xué)等提出的 Res2Net

……

那么ResNet 的核心思想是什么呢?

根據(jù)泛逼近定理(universalapproximationtheorem),如果給定足夠的容量,一個(gè)單層的前饋網(wǎng)絡(luò)就足以表示任何函數(shù)。但是,這個(gè)層可能是非常大的,而且網(wǎng)絡(luò)容易過(guò)擬合數(shù)據(jù)。因此,研究界有一個(gè)共同的趨勢(shì),就是網(wǎng)絡(luò)架構(gòu)需要更深。

從AlexNet的提出以來(lái),state-of-theart的CNN架構(gòu)都是越來(lái)越深。雖然AlexNet只有5層卷積層,但后來(lái)的VGG網(wǎng)絡(luò)和GoogLeNet分別有19層和22層。

但是,如果只是簡(jiǎn)單地將層堆疊在一起,增加網(wǎng)絡(luò)的深度并不會(huì)起太大作用。這是由于難搞的梯度消失(vanishinggradient)問(wèn)題,深層的網(wǎng)絡(luò)很難訓(xùn)練。因?yàn)樘荻确聪騻鞑サ角耙粚樱貜?fù)相乘可能使梯度無(wú)窮小。結(jié)果就是,隨著網(wǎng)絡(luò)的層數(shù)更深,其性能趨于飽和,甚至開(kāi)始迅速下降。

網(wǎng)絡(luò)深度增加導(dǎo)致性能下降

在ResNet之前,已經(jīng)出現(xiàn)好幾種處理梯度消失問(wèn)題的方法,例如,2015年C.Szegedy等人提出的GoogLeNet在中間層增加一個(gè)輔助損失(auxiliaryloss)作為額外的監(jiān)督,但遺憾的是,沒(méi)有一個(gè)方法能夠真正解決這個(gè)問(wèn)題。

ResNet的核心思想是引入一個(gè)“恒等捷徑連接”(identityshortcutconnection),直接跳過(guò)一層或多層,如下圖所示:

一個(gè)殘差塊

何愷明等人于2015年發(fā)表的論文《用于圖像識(shí)別的深度殘差學(xué)習(xí)》(DeepResidualLearningforImageRecognition)中,認(rèn)為堆疊的層不應(yīng)該降低網(wǎng)絡(luò)的性能,因?yàn)槲覀兛梢院?jiǎn)單地在當(dāng)前網(wǎng)絡(luò)上堆疊identity映射(層不處理任何事情),并且所得到的架構(gòu)性能不變。這表明,較深的模型所產(chǎn)生的訓(xùn)練誤差不應(yīng)比較淺的模型的誤差更高。作者假設(shè)讓堆疊的層擬合一個(gè)殘差映射(residualmapping)要比讓它們直接擬合所需的底層映射更容易。上面的殘差塊(residualblock)顯然仍讓它做到這點(diǎn)。

ResNet 的架構(gòu)

那么這次質(zhì)疑“不能復(fù)現(xiàn)”的結(jié)果是什么呢?討論點(diǎn)集中在原始論文中的表3和表4:

表3:ImageNet驗(yàn)證集上10-crop測(cè)試的錯(cuò)誤率

表4:ImageNet驗(yàn)證集上sigle-model的錯(cuò)誤率結(jié)果

由于其結(jié)果優(yōu)異,ResNet迅速成為各種計(jì)算機(jī)視覺(jué)任務(wù)最流行的架構(gòu)之一。

新智元昨天發(fā)表的文章《對(duì) ResNet 本質(zhì)的一些思考》,對(duì)ResNet做了較深入的探討。作者表示:

不得不贊嘆KaimingHe的天才,ResNet這東西,描述起來(lái)固然簡(jiǎn)單,但是對(duì)它的理解每深一層,就會(huì)愈發(fā)發(fā)現(xiàn)它的精妙及優(yōu)雅,從數(shù)學(xué)上解釋起來(lái)非常簡(jiǎn)潔,非常令人信服,而且直切傳統(tǒng)痛點(diǎn)。

ResNet本質(zhì)上就干了一件事:降低數(shù)據(jù)中信息的冗余度。

具體說(shuō)來(lái),就是對(duì)非冗余信息采用了線性激活(通過(guò)skipconnection獲得無(wú)冗余的identity部分),然后對(duì)冗余信息采用了非線性激活(通過(guò)ReLU對(duì)identity之外的其余部分進(jìn)行信息提取/過(guò)濾,提取出的有用信息即是殘差)。

其中,提取 identity 這一步,就是 ResNet 思想的核心。

何愷明回應(yīng)ResNet結(jié)果不能復(fù)現(xiàn)

再回到文章開(kāi)頭的討論:原始ResNet的結(jié)果真的無(wú)法復(fù)現(xiàn)嗎?

針對(duì)網(wǎng)友的質(zhì)疑,不少人在帖子下回復(fù),可以總結(jié)為兩個(gè)方面:

ImageNet有多種測(cè)試策略,后來(lái)的論文在復(fù)現(xiàn)ImageNet時(shí)采用的是當(dāng)時(shí)流行的策略,而非ResNet原始論文的策略;

后來(lái)的論文在訓(xùn)練時(shí)采用了一些與原始論文不同的優(yōu)化技巧,使得結(jié)果甚至比原始ResNet 論文的結(jié)果更好

何愷明本人也第一時(shí)間作出回復(fù):

ImageNet上有幾種測(cè)試策略:(i)single-scale,single-crop測(cè)試;(ii)single-scale,multi-crop或fully-convolutional測(cè)試;(iii)multi-scale,multi-crop或fully-convolutional測(cè)試;(iv)多個(gè)模型集成。

在這些設(shè)置下,這篇論文的ResNet-50模型的top-1錯(cuò)誤率為:(i)24.7%(1-crop,如我的GitHubrepo所展示),(ii)22.85%(10-crop,論文中的表3),(iii)20.74%(full-conv,multi-scale,論文中的Table4)。論文中使用的(ii)和(iii)的描述見(jiàn)第3.4節(jié)。

當(dāng)時(shí)是2015年,(ii)和(iii)是最流行的評(píng)估設(shè)置。策略(ii)是AlexNet的默認(rèn)值(10-crop),(ii)和(iii)是OverFeat、VGG和GoogleNet中常用的設(shè)置。Single-crop測(cè)試在當(dāng)時(shí)并不常用。

2015/2016年后,Single-crop測(cè)試開(kāi)始流行。這在一定程度上是因?yàn)樯鐓^(qū)已經(jīng)變成一個(gè)對(duì)網(wǎng)絡(luò)精度的差異很感興趣的環(huán)境(因此single-crop足以提供這些差異)。

ResNet是近年來(lái)被復(fù)現(xiàn)得最多的架構(gòu)之一。在我的GitHubrepo中發(fā)布的ResNet-50模型是第一次訓(xùn)練的ResNet-50,盡管如此,它仍然十分強(qiáng)大,并且在今天的許多計(jì)算機(jī)視覺(jué)任務(wù)中仍然是預(yù)訓(xùn)練的骨干。我認(rèn)為,ResNet的可復(fù)現(xiàn)性經(jīng)受住了時(shí)間的考驗(yàn)。

Reddit用戶ajmooch指出:

你忘記了測(cè)試時(shí)數(shù)據(jù)增強(qiáng)(test-timeaugmentation,TTA)。表4中的數(shù)字來(lái)自于不同scales的multi-crop的平均預(yù)測(cè)(以計(jì)算時(shí)間為代價(jià)優(yōu)化精度),而其他論文中的數(shù)字是single-crop的。

表3列出了10-crop測(cè)試的數(shù)據(jù)。表4的數(shù)字更好,所以它肯定不是singlecrop的數(shù)字。我的猜測(cè)是n-crop,可能還包括其他增強(qiáng),比如翻轉(zhuǎn)圖像。

這個(gè)帖子讀起來(lái)有點(diǎn)像指責(zé),我不喜歡。ResNet因?yàn)樵贗mageNet測(cè)試集上表現(xiàn)出色而著名,而ImageNet測(cè)試集隱藏在服務(wù)器上,他們沒(méi)有辦法在那里處理這些數(shù)字。ResNet是我能想到的被復(fù)現(xiàn)最多的架構(gòu)之一。它顯然是合理的。在開(kāi)始批評(píng)別人之前,我們應(yīng)該先了解我們?cè)谂u(píng)什么。

谷歌大腦工程師hardmaru也回復(fù)道:

在何愷明加入FAIR之前,F(xiàn)AIRTorch-7團(tuán)隊(duì)獨(dú)立復(fù)現(xiàn)了ResNet:https://github.com/facebook/fb.resnet.torch

經(jīng)過(guò)訓(xùn)練的ResNet18、34、50、101、152和200模型,可供下載。我們包括了使用自定義數(shù)據(jù)集,對(duì)圖像進(jìn)行分類并獲得模型的top5預(yù)測(cè),以及使用預(yù)訓(xùn)練的模型提取圖像特征的說(shuō)明。

他們的結(jié)果如下表:

經(jīng)過(guò)訓(xùn)練的模型比原始ResNet模型獲得了更好的錯(cuò)誤率。

但是,考慮到:

這個(gè)實(shí)現(xiàn)與ResNet論文在以下幾個(gè)方面有所不同:

規(guī)模擴(kuò)大(Scaleaugmentation):我們使用了GooLeNet中的的規(guī)模和長(zhǎng)寬比,而不是ResNet論文中的scaleaugmentation。我們發(fā)現(xiàn)這樣的驗(yàn)證錯(cuò)誤更好。

顏色增強(qiáng)(Coloraugmentation):除了在ResNet論文中使用的AlexNet風(fēng)格的顏色增強(qiáng)外,我們還使用了AndrewHoward提出的的亮度失真(photometricdistortions)。

權(quán)重衰減(Weightdecay):我們將權(quán)重衰減應(yīng)用于所有權(quán)重和偏差,而不僅僅是卷積層的權(quán)重。

Stridedconvolution:當(dāng)使用瓶頸架構(gòu)時(shí),我們?cè)?x3卷積中使用stride2,而不是在第一個(gè)1x1卷積。

何愷明的GitHub有Caffe模型訓(xùn)練的原始版本和更新版本的resnet,而且報(bào)告的也不同:

(https://github.com/KaimingHe/deep-residual-networks/blob/master/README.md)

也許他的GitHub報(bào)告中的方法與論文不一致,但為了可重復(fù)性而不使用相同的方法也有點(diǎn)奇怪。

也許arxiv或repo應(yīng)該使用一致的數(shù)字進(jìn)行更新,或者更好的是,使用多次獨(dú)立運(yùn)行的平均值。

但是隨著SOTA的改進(jìn)和該領(lǐng)域的發(fā)展,其他人花費(fèi)資源來(lái)產(chǎn)生舊的結(jié)果的動(dòng)機(jī)就更少了。人們寧愿使用他們的資源來(lái)復(fù)現(xiàn)當(dāng)前的SOTA或嘗試其他新想法。

許多人引用它是因?yàn)樗母拍畋旧?,而不是為了?bào)告排行榜分?jǐn)?shù)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 梯度
    +關(guān)注

    關(guān)注

    0

    文章

    30

    瀏覽量

    10451
  • 計(jì)算機(jī)視覺(jué)

    關(guān)注

    9

    文章

    1706

    瀏覽量

    46545
  • resnet
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    3287

原文標(biāo)題:經(jīng)典ResNet結(jié)果不能復(fù)現(xiàn)?何愷明回應(yīng):它經(jīng)受住了時(shí)間的考驗(yàn)

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于RV1126開(kāi)發(fā)板的resnet50訓(xùn)練部署教程

    本教程基于圖像分類算法ResNet50的訓(xùn)練和部署到EASY-EAI-Nano(RV1126)進(jìn)行說(shuō)明
    的頭像 發(fā)表于 04-18 15:07 ?293次閱讀
    基于RV1126開(kāi)發(fā)板的<b class='flag-5'>resnet</b>50訓(xùn)練部署教程

    IGBT模塊的反向恢復(fù)現(xiàn)

    IGBT模塊的反向恢復(fù)現(xiàn)象是指在IGBT關(guān)斷時(shí),其內(nèi)部集成的續(xù)流二極管(FWD)從正向?qū)顟B(tài)轉(zhuǎn)變?yōu)榉聪蚪刂範(fàn)顟B(tài)過(guò)程中出現(xiàn)的一些特定物理現(xiàn)象和電氣特性變化。
    的頭像 發(fā)表于 03-13 14:39 ?1033次閱讀
    IGBT模塊的反向恢<b class='flag-5'>復(fù)現(xiàn)</b>象

    德賽電池榮膺仲高新區(qū)三項(xiàng)榮譽(yù)

    近日,仲高新區(qū)舉行高質(zhì)量發(fā)展大會(huì)暨優(yōu)秀企業(yè)授牌活動(dòng),旨在表彰2024年度為仲高新區(qū)經(jīng)濟(jì)發(fā)展作出杰出貢獻(xiàn)的優(yōu)秀企業(yè),激勵(lì)更多企業(yè)創(chuàng)新發(fā)展,共同推動(dòng)區(qū)域經(jīng)濟(jì)的繁榮與進(jìn)步。區(qū)領(lǐng)導(dǎo)、園區(qū)、鎮(zhèn)(街道)領(lǐng)導(dǎo)、區(qū)直相關(guān)部門領(lǐng)導(dǎo)以及各企業(yè)代表齊聚一堂,共同見(jiàn)證這一榮耀時(shí)刻。
    的頭像 發(fā)表于 02-12 09:27 ?396次閱讀

    振弦式應(yīng)變計(jì)的安裝對(duì)測(cè)量結(jié)果影響?如何避免安裝誤差?

    結(jié)果具有決定性影響。應(yīng)變計(jì)應(yīng)安裝在能夠準(zhǔn)確反映被測(cè)結(jié)構(gòu)應(yīng)變情況的關(guān)鍵部位。如果安裝位置選擇不當(dāng),例如未處于應(yīng)力集中區(qū)或未與被測(cè)結(jié)構(gòu)物軸線重合,將導(dǎo)致測(cè)量數(shù)據(jù)無(wú)法
    的頭像 發(fā)表于 02-07 15:16 ?413次閱讀
    振弦式應(yīng)變計(jì)的安裝對(duì)測(cè)量<b class='flag-5'>結(jié)果</b>有<b class='flag-5'>何</b>影響?如何避免安裝誤差?

    惠州隆利榮獲2024年仲高新區(qū)優(yōu)秀企業(yè)經(jīng)濟(jì)突出貢獻(xiàn)獎(jiǎng)

    近日,在仲高新區(qū)高質(zhì)量發(fā)展大會(huì)暨優(yōu)秀企業(yè)授牌活動(dòng)中,公司全資子公司惠州市隆利科技發(fā)展有限公司,榮獲2024年仲高新區(qū)優(yōu)秀企業(yè)經(jīng)濟(jì)突出貢獻(xiàn)獎(jiǎng)。
    的頭像 發(fā)表于 02-07 11:30 ?567次閱讀

    調(diào)試ADS1256,到了讀轉(zhuǎn)換結(jié)果的時(shí)候結(jié)果總是為0,為什么?

    最近一直在調(diào)試ADS1256,目前讀寫寄存器沒(méi)有問(wèn)題,但是到了讀轉(zhuǎn)換結(jié)果的時(shí)候 結(jié)果總是為0,我做的是單端測(cè)量,AINp選的通道3,AINn選的是AINCOM 但總是讀不出結(jié)果來(lái),哪
    發(fā)表于 01-09 08:12

    傳感器的響應(yīng)時(shí)間對(duì)測(cè)量結(jié)果影響?

    傳感器 的響應(yīng)時(shí)間對(duì)測(cè)量結(jié)果有以下幾方面的影響:測(cè)量準(zhǔn)確性 快速變化信號(hào)測(cè)量失真:當(dāng)測(cè)量對(duì)象的物理量變化較快時(shí),如果 傳感器 響應(yīng)時(shí)間過(guò)長(zhǎng),就無(wú)法及時(shí)跟上變化,導(dǎo)致測(cè)量結(jié)果與實(shí)際值存在偏差。例如
    的頭像 發(fā)表于 11-29 09:24 ?991次閱讀
    傳感器的響應(yīng)時(shí)間對(duì)測(cè)量<b class='flag-5'>結(jié)果</b>有<b class='flag-5'>何</b>影響?

    ADS1259工作一段時(shí)間后轉(zhuǎn)換結(jié)果飽和怎么解決?

    時(shí),當(dāng)增加到92%左右,ADS1259就會(huì)輸出一個(gè)飽和值,這個(gè)時(shí)候reset單片機(jī)沒(méi)有任何效果,只有重新掉電再上電,ADS1259的輸出結(jié)果又恢復(fù)正常。 反復(fù)試驗(yàn),很容易復(fù)現(xiàn)這個(gè)現(xiàn)象。 實(shí)在是想不明白,求大神指教
    發(fā)表于 11-22 07:38

    基于改進(jìn)ResNet50網(wǎng)絡(luò)的自動(dòng)駕駛場(chǎng)景天氣識(shí)別算法

    ResNet50網(wǎng)絡(luò)4組模塊內(nèi)加入SE模塊,以便更好地?cái)M合通道間復(fù)雜的魯棒性?;谧詣?dòng)駕駛汽車路測(cè)圖像數(shù)據(jù)對(duì)所提算法進(jìn)行Python編程實(shí)現(xiàn),結(jié)果表明:SE模塊的加入能夠增加算法的魯棒性和準(zhǔn)確性,提高了自動(dòng)駕駛的天氣識(shí)別精度。
    的頭像 發(fā)表于 11-09 11:14 ?1251次閱讀
    基于改進(jìn)<b class='flag-5'>ResNet</b>50網(wǎng)絡(luò)的自動(dòng)駕駛場(chǎng)景天氣識(shí)別算法

    用IO模擬I2C時(shí)序讀寫ADC3101寄存器,果無(wú)論寫入什么值還是讀默認(rèn)的值都顯示255,為什么?

    根據(jù)手冊(cè)時(shí)序 用IO模擬I2C時(shí)序 讀寫ADC3101寄存器 手冊(cè)時(shí)序如下圖 最后結(jié)果無(wú)論寫入什么值 還是讀默認(rèn)的值都顯示255,求解答
    發(fā)表于 10-22 06:05

    果無(wú)線充發(fā)射端接收端磁吸組件——輕松充電,享受便捷生活

    果無(wú)線充發(fā)射端接收端磁吸組件——輕松充電,享受便捷生活
    的頭像 發(fā)表于 10-08 09:29 ?538次閱讀

    SIM卡座二合一的設(shè)計(jì)受到了廣大用戶的青睞

    SIM卡座二合一連接器設(shè)計(jì)以其節(jié)省空間、便捷切換、增強(qiáng)安全性、支持多樣化網(wǎng)絡(luò)制式、促進(jìn)技術(shù)創(chuàng)新以及環(huán)保節(jié)能等諸多優(yōu)勢(shì),成為了當(dāng)前智能手機(jī)市場(chǎng)的一大亮點(diǎn)。它不僅提升了用戶體驗(yàn),還推動(dòng)了移動(dòng)通信產(chǎn)業(yè)的持續(xù)發(fā)展。其中SIM卡座二合一的設(shè)計(jì)便是近年來(lái)備受矚目的創(chuàng)新之一。這種設(shè)計(jì)不僅優(yōu)化了手機(jī)內(nèi)部空間結(jié)構(gòu),還帶來(lái)了諸多使用上的優(yōu)勢(shì),同時(shí)能極大地提升了用戶體驗(yàn)。
    的頭像 發(fā)表于 09-18 17:22 ?783次閱讀
    SIM卡座二合一的設(shè)計(jì)<b class='flag-5'>受到了</b>廣大用戶的青睞

    LM6703照著datasheet里面撘了一個(gè)電路,設(shè)定Rf為300放大10倍結(jié)果無(wú)論怎樣都只放大2倍左右,為什么?

    照著datasheet里面撘了一個(gè)電路,設(shè)定Rf為300放大10倍結(jié)果無(wú)論怎樣都只放大2倍左右,另外改了Rf為900歐一樣沒(méi)有改變只有兩倍,SD管腳我是懸空的。
    發(fā)表于 09-06 08:26

    數(shù)半導(dǎo)體發(fā)布專為低壓供電的電機(jī)驅(qū)動(dòng)芯片

    在現(xiàn)今日新月異的電子科技領(lǐng)域中,電機(jī)驅(qū)動(dòng)芯片作為電子設(shè)備的核心部件之一,其性能和應(yīng)用范圍直接影響到產(chǎn)品的整體性能和用戶體驗(yàn)。數(shù)半導(dǎo)體公司近期推出的SLM8837電機(jī)驅(qū)動(dòng)芯片,憑借其高效節(jié)能和專為低壓供電應(yīng)用而設(shè)計(jì)的特性,在市場(chǎng)中脫穎而出,受到了廣泛的關(guān)注和好評(píng)。
    的頭像 發(fā)表于 06-29 11:33 ?933次閱讀

    把NVS_KEY_NAME_MAX_SIZE這個(gè)宏修改后,結(jié)果無(wú)法正常寫入和讀取了怎么解決?

    應(yīng)用需要一個(gè)輕量化的數(shù)據(jù)庫(kù),現(xiàn)在是用NVS實(shí)現(xiàn)的,但是key的最大長(zhǎng)度太短了,不夠用,我試著把NVS_KEY_NAME_MAX_SIZE這個(gè)宏改成64(默認(rèn)是16),結(jié)果無(wú)法正常寫入和讀取了。請(qǐng)問(wèn)有什么辦法解決呢?
    發(fā)表于 06-06 07:40