is user configured protected我能明白這個(gè)是因?yàn)?2104 一直處于掉電模式的原因,可是如何解除這種狀態(tài),把現(xiàn)在FLASH 里的這段程序擦除掉啊
2023-04-19 14:30:25
1 個(gè) AI 模型 = 5 輛汽車終身碳排量,AI 為何如此耗能?
2021-01-22 06:35:03
現(xiàn)在說AI是未來人類技術(shù)進(jìn)步的一大方向,相信大家都不會(huì)反對(duì)。說到AI和芯片技術(shù)的關(guān)系,我覺得主要體現(xiàn)在兩個(gè)方面:第一,AI的發(fā)展要求芯片技術(shù)不斷進(jìn)步;第二,AI可以幫助芯片技術(shù)向前發(fā)展。
2019-08-12 06:38:51
AI概念籠統(tǒng),范圍廣大,到底什么才是AI的核心?手把手教你設(shè)計(jì)人工智能芯片及系統(tǒng)(全階設(shè)計(jì)教程+AI芯片F(xiàn)PGA實(shí)現(xiàn)+開發(fā)板)詳情鏈接:http://url.elecfans.com/u/c422a4bd15
2019-10-18 06:39:12
`自從AI概念被提出來,似乎很多東西都能跟它扯上點(diǎn)兒關(guān)系。比如——AI智能音箱。 當(dāng)你為它接通電源,讓它為你放歌、報(bào)天氣和開燈時(shí),你以為它真貼心。 不,真正貼心的是它—— 電源小板與主板相連 這個(gè)
2019-04-19 10:36:29
\"}\"
更換了x-cube-ai三個(gè)版本的庫(kù)(7.3.0/8.0.0/8.0.1),報(bào)錯(cuò)都一樣。
求教ST官方是如何解決這個(gè)問題的?
2024-03-14 06:23:17
我知道當(dāng)你有一個(gè)單端時(shí)鐘作為輸入時(shí),你需要將它連接到全局時(shí)鐘的P引腳。當(dāng)你有一個(gè)單端輸出時(shí)鐘時(shí),你能把它放在N引腳上嗎?謝謝
2020-06-02 09:00:58
各位專家:兩塊AD9361開發(fā)板通信,發(fā)送板的I路和Q路發(fā)同樣的信號(hào),接收板收到的I路和Q路數(shù)據(jù)會(huì)出現(xiàn)隨機(jī)的反向,即有時(shí)I路和Q路波形相同,有時(shí)I路和Q路波形反向。這種問題該如何解決呢?謝謝!
2018-08-03 07:42:56
在設(shè)計(jì)時(shí)對(duì)產(chǎn)品進(jìn)行靜電干擾測(cè)試時(shí),出現(xiàn)I2C的CLK被異常拉低,接上位機(jī)讀取I2C狀態(tài)寄存器,發(fā)現(xiàn)寄存器值有變化,這種問題如何解?
2020-02-07 15:23:49
Labview 似乎沒有繁體版? 這是在歧視彎彎嗎?最近發(fā)現(xiàn) Labview 似乎沒有繁體版? 這是在歧視彎彎嗎?如果這樣的話 打開繁體的Labview程序 ,似乎不可避免的要出現(xiàn)亂碼了。你們是用 南極星 這樣的軟件 解決問題的嗎?
2016-04-16 14:51:25
本帖最后由 jinglixixi 于 2020-10-14 20:27 編輯
SLSTK3301A開發(fā)板被鎖定不能下載,該如何解鎖?
2020-10-13 15:46:11
STM32 不小心被鎖住,如何解開?具體實(shí)施辦法:1、按住單片機(jī)復(fù)位鍵不松開;2、同時(shí)下載程序3、彈出一個(gè)窗口,選擇NO4、再重新下載程序,即可。問題:STM32JTAG/SWD禁用導(dǎo)致無(wú)法燒寫由于
2022-01-10 08:02:03
大家好。 我在使用 X-CUBE-AI 7.1.0 版時(shí)遇到了問題。當(dāng)我加載神經(jīng)網(wǎng)絡(luò)的 TFlite 模型并生成代碼時(shí),我在初始化輸入和輸出緩沖區(qū)時(shí)遇到了問題。特別是我對(duì)這個(gè)分配
2022-12-26 10:15:51
我想知道 X-CUBE-AI 和 NanoEdge AI Studio 在 ML 和 AI 開發(fā)環(huán)境中的區(qū)別。我可以在任何一個(gè)開發(fā)環(huán)境中做同樣的事情嗎?使用的設(shè)備有什么限制嗎?
2022-12-05 06:03:15
插入板子!運(yùn)行程序出現(xiàn)這樣的。好像軟件好像沒辦法連接到板子。把那提示的文件夾里面的文件換了也沒用!還是一樣。求如何解決
2017-03-02 19:01:11
在使用cube-ai時(shí),會(huì)彈出對(duì)話框,并一致卡死在0%,嘗試手動(dòng)安裝GNU工具也無(wú)效。請(qǐng)問該如何解決?
2024-03-21 07:42:41
與喚醒4.3、前車拍4.4、駕駛行為分析算法4.5、車輛物體檢測(cè)及跟蹤算法5、基于HiSpark AI Camera制作3D打印外殼發(fā)布過的作品:關(guān)于NanoPi(RK3399)系列帖子,其中有兩篇被
2020-09-25 10:12:07
:cifar10_uint8.tflite問題描述:使用RT-AK部署成功后(CUBE-AI版本為7.0.0):在Studio更新軟件包,刷新后報(bào)錯(cuò):使用RT-AK部署成功后(CUBE-AI版本為5.2.0):在Studio更新軟件包,刷新后編譯成功:?jiǎn)栴}:為什么使用cube-ai 7.0.0 會(huì)報(bào)錯(cuò),如何解決這個(gè)問題
2022-04-24 09:52:26
為什么需要嵌入式AI?嵌入式AI還有瓶頸半導(dǎo)體廠商的新商機(jī)
2021-01-22 06:14:40
將數(shù)據(jù)導(dǎo)出到另一個(gè)平臺(tái)。自己做如果您想把數(shù)據(jù)保留在自己手中,您可以聘請(qǐng)自己的AI專家內(nèi)部團(tuán)隊(duì)。 如果AI是您的業(yè)務(wù)戰(zhàn)略的長(zhǎng)期部分,這種方法是非常好的 然而,在競(jìng)爭(zhēng)激烈的市場(chǎng)中聘請(qǐng)優(yōu)秀人才需要較長(zhǎng)
2017-09-25 10:03:05
什么是人工智能(AI)芯片?AI芯片的主要用處有哪些?在AI任務(wù)中,AI芯片到底有多大優(yōu)勢(shì)?
2021-09-22 08:00:01
使用ENV生成工程時(shí)自己添加的文件被清如何解決呢
2022-12-01 15:11:36
前言:AI(人工智能),是目前科技行業(yè)最火的話題。從Alpha Go戰(zhàn)勝圍棋世界冠軍柯潔,到德勤與Kira Systems 聯(lián)手,將AI引入會(huì)計(jì)、稅務(wù)、審計(jì)等財(cái)務(wù)工作領(lǐng)域,可以看出,AI離我們的生活越來越近了。
2019-07-26 06:00:38
我用一個(gè)不超過聲卡允許輸入的正弦信號(hào)通過聲卡的line in輸入電腦,然后通過LV采集,采用的是范例里面那個(gè),幅值為1,但是信號(hào)無(wú)論調(diào)多大,電腦接收的就只有0.5。請(qǐng)問聲卡采集信號(hào)和聲卡作為信號(hào)發(fā)生器輸入輸出被限幅如何解決??
2017-12-18 16:58:37
如何解決藍(lán)牙協(xié)議棧被鎖問題
2024-03-21 08:21:01
許多情況下也導(dǎo)致了錯(cuò)誤看法的出現(xiàn)。AI是由偉大的思想家和學(xué)術(shù)研究者建立的,接著被世界各地的學(xué)術(shù)界和工業(yè)界進(jìn)一步發(fā)展,它的發(fā)展速度比任何人所預(yù)料的都要快。事到如今,人類自身的生物局限性正日益成為創(chuàng)建智能
2019-05-06 16:46:05
`程序通過GPIB通訊,運(yùn)行后提示圖中所示錯(cuò)誤(未檢測(cè)到偵聽器條件(NRFD和NDAC被置為無(wú)效))錯(cuò)誤代碼-1073807265,現(xiàn)在不知道這個(gè)錯(cuò)誤的含義,不知道該如何解決,煩請(qǐng)各位幫忙給出個(gè)解決辦法,萬(wàn)分感謝啊~~`
2018-04-02 14:12:39
。AI的演進(jìn)速度要比它要處理的數(shù)據(jù)的演進(jìn)快得多,所以這注定了它不僅折射和反映出過去的偏見,而且還延長(zhǎng)并加強(qiáng)了它們。因此,當(dāng)判斷被移交給機(jī)器之后,那些曾經(jīng)是包括警察、法院在內(nèi)的機(jī)構(gòu)系統(tǒng)性歧視目標(biāo)的群體
2018-06-02 12:51:50
將AI推向邊緣的影響通過在邊緣運(yùn)行ML模型可以使哪些具體的AI項(xiàng)目更容易運(yùn)行?
2021-02-23 06:21:10
,他應(yīng)當(dāng)尊重人類文化的多樣性。 隱私性原則。納德拉呼吁以精密的技術(shù)來保護(hù)個(gè)人和群體信息。 算法可靠準(zhǔn)則。這樣一來,人類就可以解除AI帶來的意料之外的傷害。 防偏見準(zhǔn)則。應(yīng)該通過研究確保AI不會(huì)
2016-07-11 10:34:16
到的。硬件部分:daq卡外接了一個(gè)接線盒被擴(kuò)展為64路ai,2路ao,8個(gè)io),據(jù)說是以前的某位前輩自己做的,沒有留下任何的說明;軟件部分:直接采用了daq自帶的vi,以ai_scan為例,ai
2015-08-12 11:47:53
請(qǐng)問大神,這種數(shù)據(jù)結(jié)構(gòu)一般如何解析額。。 不太懂。。
2020-06-10 09:27:38
請(qǐng)問采集電壓的時(shí)候Instant AI和waveform AI有什么區(qū)別,我用的是熱電偶測(cè)溫,那我應(yīng)該選擇哪種輸入
2017-05-20 11:51:28
自動(dòng)駕駛車輛中的AI分析車輛中的AI應(yīng)用
2021-03-09 07:53:23
不足,并不是因?yàn)樗齻冊(cè)诠ぷ鲌?chǎng)所面臨偏見和歧視,而是由于男女之間固有的生物學(xué)上的差距,如果強(qiáng)行多元化,則對(duì)部分雇員不公道。在這封信被泄漏后,這名工程師立刻被Google CEO,印度裔的劈柴(Sundar
2017-08-15 10:36:25
汽車電池沒電了如何解決?教你“借電”技巧
要發(fā)動(dòng)汽車,卻發(fā)現(xiàn)電池沒電了,想必許多人都遇到過這種情況。所以,如何正確“借電”也是開車的一門
2009-11-06 08:44:44
7603 據(jù)《每日郵報(bào)》報(bào)道,計(jì)算機(jī)程序員們正試圖教育機(jī)器人減少性別歧視,其方法是幫助它們擺脫某些單詞所帶來的偏見。雖然計(jì)算機(jī)可能是中性的,但人類的偏見可能無(wú)意識(shí)地體現(xiàn)在對(duì)語(yǔ)言進(jìn)行分析的機(jī)器學(xué)習(xí)算法。這種偏見
2017-09-20 09:32:48
0 偏見是人工智能面臨一個(gè)挑戰(zhàn),主要是來自算法偏見,當(dāng)然偏見并不止這些。與人類不同,算法不能撒謊,那么產(chǎn)生結(jié)果的不同必將是數(shù)據(jù)帶來的問題。人工智能算法及系統(tǒng)的測(cè)試與驗(yàn)證,如何避免人工智能的偏見呢?
2018-02-06 14:04:36
11418 人們都曾看過機(jī)器控制了世界而人類被毀滅的電影。好在這些電影是娛樂性的,而且人們都認(rèn)為這些場(chǎng)景是不會(huì)發(fā)生的。然而,一個(gè)更應(yīng)該關(guān)注的現(xiàn)實(shí)問題是:算法偏見。
2018-02-08 10:10:38
4361 人工智能本來并不存在偏見,它不會(huì)因?yàn)闊o(wú)法通過邏輯來解釋的理由而“想”某些東西是真的或假的。不幸的是,從創(chuàng)建算法到解釋數(shù)據(jù),機(jī)器學(xué)習(xí)中存在著人類的偏見,并且直到現(xiàn)在,幾乎沒有人試圖解決這個(gè)嚴(yán)重的問題。
2018-04-23 15:56:00
888 機(jī)器學(xué)習(xí)還能產(chǎn)生“偏見”?機(jī)器學(xué)習(xí)也會(huì)對(duì)數(shù)據(jù)產(chǎn)生偏見,從而導(dǎo)致錯(cuò)誤的預(yù)測(cè)。我們?cè)撊?b class="flag-6" style="color: red">何解決這一問題? Google的新論文或許會(huì)揭曉答案。機(jī)器學(xué)習(xí)中的機(jī)會(huì)均等 隨著機(jī)器學(xué)習(xí)計(jì)算穩(wěn)步發(fā)展,越來越多人開始關(guān)注其對(duì)于社會(huì)的影響。機(jī)器學(xué)習(xí)的成功分支之一是監(jiān)督學(xué)習(xí)。
2018-05-14 18:20:00
3168 
在我們的生活中,許多重要決策都是由某種系統(tǒng)做出的,很多系統(tǒng)都存在明顯的偏見,無(wú)論這系統(tǒng)是人、機(jī)器還是二者的組合。機(jī)器學(xué)習(xí)在決策制度中的作用越來越大,這為我們提供了一個(gè)建立更少偏見的系統(tǒng)的機(jī)會(huì),當(dāng)然也面臨著加劇這一問題的風(fēng)險(xiǎn)。
2018-06-23 12:34:00
621 IBM推出最新AI里程碑Project Debater,可創(chuàng)造引人入勝且信息豐富的無(wú)偏見觀點(diǎn),有望幫助人類權(quán)衡重要決定。
2018-07-04 15:01:57
2786 隨著人工智能(AI)技術(shù)的廣泛應(yīng)用,確保AI技術(shù)沒有偏見變得越來越重要。IBM計(jì)劃發(fā)布一個(gè)大型的、無(wú)偏見的人臉圖像數(shù)據(jù)集,以推動(dòng)無(wú)偏見的人臉識(shí)別研究。
2018-07-13 09:34:02
3898 當(dāng)使用谷歌翻譯將西班牙語(yǔ)的新聞翻譯為英語(yǔ)時(shí),涉及到女性的短語(yǔ)通常都會(huì)翻譯為“他說”或“他寫道”。
2018-08-15 15:53:24
3188 帶有這樣的偏見的詞嵌入模型,會(huì)給下游的NLP應(yīng)用帶來嚴(yán)重問題。例如,基于詞嵌入技術(shù)的簡(jiǎn)歷自動(dòng)篩選系統(tǒng)或工作自動(dòng)推薦系統(tǒng),會(huì)歧視某種性別的候選人(候選人的姓名反映了性別)。除了造成這種明顯的歧視現(xiàn)象,有偏見的嵌入還可能暗中影響我們?nèi)粘J褂玫腘LP應(yīng)用。
2018-09-23 09:25:00
3560 10月4日,麻省理工學(xué)院計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室(CSAIL)宣布與卡塔爾計(jì)算研究所(Qatar Computing Research Institute)合作,研究出一種可以鑒別信息來源準(zhǔn)確性和個(gè)人政治偏見的AI系統(tǒng)。
2018-10-10 15:37:47
3654 對(duì)于一直尋求智能化的亞馬遜而言,僅在倉(cāng)儲(chǔ)和物流管理上使用AI技術(shù)是遠(yuǎn)遠(yuǎn)不能滿足的,因此這項(xiàng)2014年啟動(dòng)的AI招聘原本是亞馬遜探尋進(jìn)一步智能化的實(shí)驗(yàn),卻偏偏出了簍子。
2018-10-12 09:28:55
1671 這種關(guān)于人AI技術(shù)的新立場(chǎng)是受到谷歌出現(xiàn)問題的影響而提出的。除了“大猩猩”事件之外,哈佛大學(xué)研究人員Latanya Sweeney發(fā)現(xiàn)谷歌搜索中的存在種族歧視。當(dāng)搜索類似黑人名字時(shí),會(huì)比搜索類似白人名字更有可能出現(xiàn)與“被逮捕”相關(guān)的廣告。
2018-11-12 10:22:44
2731 人們都曾看過電影里機(jī)器控制了世界而人類被毀滅的場(chǎng)景。好在這些電影只是娛樂性的,現(xiàn)實(shí)世界是不會(huì)發(fā)生的。然而,一個(gè)更應(yīng)該關(guān)注的問題是:算法偏見。
2018-11-15 14:57:37
3293 等場(chǎng)景中時(shí),更多關(guān)乎生命、公平、道德等的問題將會(huì)出現(xiàn)。此前,亞馬遜用AI招聘出現(xiàn)了性別歧視問題就是有力的證明。
2018-11-19 10:52:29
1341 AI與女性之間的關(guān)系,似乎一直不太好。
提到AI,我們看到的往往是“AI篩選簡(jiǎn)歷帶有性別歧視,更偏向于男性員工”“AI取代秘書、翻譯和速記正在讓女性失業(yè)”“一切AI助理都是女性配音加重男權(quán)主義
2018-12-23 10:08:51
2799 IBM、谷歌、微軟、亞馬遜以及機(jī)器學(xué)習(xí)API提供商將發(fā)布更具包容性的數(shù)據(jù)集,以應(yīng)對(duì)人工智能內(nèi)嵌的歧視和偏見問題
2019-01-05 09:39:49
542 根據(jù)英國(guó)《自然·醫(yī)學(xué)》雜志8日在線發(fā)表的一篇論文,一款人工智能在接受上萬(wàn)張真實(shí)患者面部圖像訓(xùn)練后,能夠以高準(zhǔn)確率識(shí)別罕見的遺傳綜合征。科學(xué)家同時(shí)強(qiáng)調(diào),由于個(gè)人面部圖像是敏感但易得的數(shù)據(jù),因此必須小心處理,以防該技術(shù)的歧視性濫用。
2019-03-10 10:52:26
229 科技中立,但人制造出來的 AI 卻可能帶有偏見或歧視。AI 偏見情況像是性別歧視、種族歧視,例如面部偵測(cè)算法在識(shí)別白人時(shí)的準(zhǔn)確率比識(shí)別黑人高許多,男性跟女性類別也存在類似問題,讓軟件識(shí)別犯罪嫌犯人選、企業(yè)挑選求職者時(shí),也曾引發(fā)歧視問題。
2019-02-13 08:47:33
421 AI Now研究院最近發(fā)布的一份報(bào)告發(fā)現(xiàn),80%的AI教授、85%的Facebook公司AI研究人員以及90%的谷歌研究人員都是男性。另外,有色人種在大型科技企業(yè)員工當(dāng)中的占比也非常有限。
2019-05-26 11:01:39
1035 在大多數(shù)科幻電影里,冷漠又殘酷是 AI 的典型形象,它們從來不會(huì)考慮什么是人情世故,既沒有人性光輝的閃耀,也沒有人性墮落的七宗罪。
2019-06-13 16:25:10
431 在這個(gè)數(shù)據(jù)即生產(chǎn)力的時(shí)代,與互聯(lián)網(wǎng)時(shí)刻鏈接的我們正在數(shù)據(jù)AI的時(shí)代中不停地“裸奔”。
2019-09-09 14:45:32
466 這種按需網(wǎng)絡(luò)研討會(huì)演示了如何解決模擬混合信號(hào)設(shè)計(jì)挑戰(zhàn)增加可靠性和速度與AMS墊專業(yè)產(chǎn)品開發(fā)。
2019-10-18 07:08:00
3298 啥是AI?很多人可能不知道如何回答。但其實(shí),隨著自動(dòng)駕駛、生物識(shí)別、智能機(jī)器人等的快速發(fā)展和應(yīng)用,AI的概念早已變得日漸清晰。當(dāng)你放下對(duì)AI的狹隘偏見,你會(huì)發(fā)現(xiàn)它不僅僅是震驚棋壇的阿法狗或者才藝
2019-10-27 12:31:00
468 你對(duì)AI有什么印象,沒有感情、不會(huì)犯錯(cuò),還是公正客觀?但總之,AI是不食人間煙火的,既不會(huì)閃耀人性的光輝,也不存在“七宗罪”。實(shí)際上,AI并非那么沒有人性,不過這并非一件好事。AI獲得智能的同時(shí),也學(xué)會(huì)了人類的“歧視”與“偏見”。
2019-11-14 14:37:35
324 人們最初確實(shí)天真地以為,算法能比人類更能避免偏見。人工智能學(xué)習(xí)人類知識(shí),同時(shí)也吸收人類偏見。這種擔(dān)憂由來已久。但谷歌的一項(xiàng)新發(fā)明極大推進(jìn)了人工智能從文本材料中學(xué)習(xí)的速度,也使解決機(jī)器偏見問題迫在眉睫。
2019-11-26 17:19:12
641 AI正以相當(dāng)顯眼得方式重塑著我們的世界,數(shù)據(jù)驅(qū)動(dòng)著全球數(shù)字生態(tài)系統(tǒng),AI技術(shù)則揭示了數(shù)據(jù)中的模式。智能手機(jī),智能家居以及智慧城市在影響著我們生活和交互方式,AI系統(tǒng)越來越多用于公司招聘、醫(yī)療診斷和司法裁決。這是一個(gè)烏托邦時(shí)代還是反烏托邦時(shí)代,全看你怎么看。
2019-12-04 09:03:27
308 你對(duì)AI有什么印象,沒有感情、不會(huì)犯錯(cuò),還是公正客觀?但總之,AI是不食人間煙火的,既不會(huì)閃耀人性的光輝,也不存在“七宗罪”。實(shí)際上,AI并非那么沒有人性,不過這并非一件好事。AI獲得智能的同時(shí),也學(xué)會(huì)了人類的“歧視”與“偏見”。
2019-12-25 15:25:41
416 隨著人工智能繼續(xù)進(jìn)軍企業(yè),許多IT專業(yè)人士開始對(duì)其使用的系統(tǒng)中可能存在的AI偏見表示擔(dān)憂。一份來自DataRobot的最新報(bào)告發(fā)現(xiàn),美國(guó)和英國(guó)近一半的人工智能專業(yè)人士“非常”擔(dān)心人工智能的偏見。
2020-01-20 17:35:00
1169 谷歌剛剛宣布,其使用AI工具的“谷歌云服務(wù)”將不再根據(jù)性別來標(biāo)記人們。AI工具通過將人的圖像標(biāo)記為“男人”或“女人”來識(shí)別個(gè)人的性別。盡管這是一種針對(duì)機(jī)器學(xué)習(xí)模型的訓(xùn)練方法,但Google仍在使用它以避免性別偏見。
2020-03-20 09:56:04
521 不公正的數(shù)據(jù)集是偏見的土壤如果用于訓(xùn)練機(jī)器學(xué)習(xí)算法的數(shù)據(jù)集無(wú)法代表客觀現(xiàn)實(shí)情況,那么這一算法的應(yīng)用結(jié)果往往也帶有對(duì)特定群體的歧視和偏見。
2020-03-30 11:45:27
1332 根據(jù)伯恩霍爾茨的說法,所有數(shù)據(jù)都是有偏見的,因?yàn)槭侨藗冊(cè)谑占瘮?shù)據(jù)。她強(qiáng)調(diào)說:“而且我們正在將偏見建立到數(shù)據(jù)科學(xué)中,然后將這些工具導(dǎo)出到偏見系統(tǒng)中。” “你猜怎么著?問題變得越來越嚴(yán)重。因此,讓我們停止這樣做。”
2020-04-09 14:44:16
1598 對(duì)于人類和機(jī)器而言,至關(guān)重要的原則是避免偏見并因此防止歧視。AI系統(tǒng)中的偏差主要發(fā)生在數(shù)據(jù)或算法模型中。在開發(fā)我們可以信賴的AI系統(tǒng)的過程中,至關(guān)重要的是使用無(wú)偏數(shù)據(jù)開發(fā)和訓(xùn)練這些系統(tǒng),并開發(fā)易于解釋的算法。
2020-04-11 09:57:20
1915 諸如Facebook(我的前雇主),Google和Twitter之類的公司因各種帶有偏見的算法而反復(fù)受到攻擊。為了應(yīng)對(duì)這些合理的恐懼,他們的領(lǐng)導(dǎo)人發(fā)誓要進(jìn)行內(nèi)部審計(jì),并聲稱他們將與這一指數(shù)級(jí)威脅作斗爭(zhēng)。
2020-04-11 10:19:11
1521 現(xiàn)在,我擔(dān)心我們會(huì)在人工智能方面走類似的道路。市場(chǎng)上的AI技術(shù)開始顯示有意和無(wú)意的偏見-從按人口統(tǒng)計(jì)或背景將候選人簡(jiǎn)歷分組的人才搜索技術(shù)到不敏感的自動(dòng)填充搜索算法。
2020-04-14 09:59:46
1584 如何解決AI應(yīng)用中出現(xiàn)的“數(shù)據(jù)孤島”和用戶隱私難題?國(guó)際人工智能聯(lián)合會(huì)議2019理事會(huì)主席、微眾銀行首席人工智能官楊強(qiáng)給出了解決方案:“聯(lián)邦學(xué)習(xí)或是解決這兩個(gè)核心問題的同一個(gè)解決思路。”
2020-04-15 17:33:20
3949 人工智能在招聘中的應(yīng)用有望將偏見最小化。
2020-04-17 15:53:06
688 通過與弗吉尼亞大學(xué)的研究人員合作,Salesforce 提出了有助于減輕 AI 性別偏見的新方法。 通常情況下,研究人員需要為 AI 模型投喂許多單次來展開訓(xùn)練,但其中不可避免地會(huì)摻雜一些或隱性、或顯性的性別偏見。 然后在執(zhí)行語(yǔ)言翻譯或其它預(yù)測(cè)任務(wù)的時(shí)候,這些 AI 也會(huì)沾染上一些不良習(xí)性。
2020-07-05 09:31:48
2007 
以Allegheny家庭篩選工具為例。它旨在預(yù)測(cè)哪些福利兒童可能會(huì)受到養(yǎng)父母虐待的威脅。但是,此解決方案的最初推出面臨一些挑戰(zhàn)。當(dāng)?shù)氐娜祟惙?wù)部承認(rèn)該工具可能存在種族和收入偏見。
2020-07-07 14:26:10
1720 親自處理AI偏見的人表示自己的偏見已減少。例如,愛立信使用情景規(guī)劃方法來挑戰(zhàn)整個(gè)組織的戰(zhàn)略思維,并在戰(zhàn)略制定過程的多個(gè)階段測(cè)試和篩選偏見(Gartner 在“研發(fā)決策的常見認(rèn)知偏見”中對(duì)此進(jìn)行了描述)。
2020-08-12 16:28:19
623 隨著人工智能在企業(yè)和社會(huì)的應(yīng)用變得越來越普遍,企業(yè)需要注意機(jī)器模型中不斷涌現(xiàn)的人類偏見。企業(yè)可以利用人類的智慧來獲取訓(xùn)練算法所需的各種數(shù)據(jù)和輸入。
2020-09-24 14:35:47
1196 其中一份報(bào)告?zhèn)戎赜谌绾未_保安全,透明和問責(zé)制,防止偏見和歧視,促進(jìn)社會(huì)和環(huán)境責(zé)任以及確保尊重基本權(quán)利。報(bào)告的作者伊班·加西亞·布蘭科(IbánGarcíadel Blanco)說:“公民是這項(xiàng)建議的核心。”
2020-10-24 10:06:03
2692 !然而,這完全是萬(wàn)無(wú)一失的還是不偏不倚的?這種現(xiàn)代科技能像人類一樣容易產(chǎn)生偏見嗎? 偏差風(fēng)險(xiǎn)因業(yè)務(wù)、行業(yè)和組織而異。他們可以通過多種方式進(jìn)入人工智能系統(tǒng)。例如,它可以被有意地通過隱形攻擊引入人工智能系統(tǒng),也可以
2021-02-26 12:08:40
2259 法國(guó)私營(yíng)部門的AI用戶告訴FRA,識(shí)別AI中的歧視非常復(fù)雜,“因?yàn)槟承┓N族中某些疾病的發(fā)病率更高。預(yù)測(cè)要考慮到性別,種族,遺傳特征。但這不是歧視或侵犯人權(quán)。”
2020-12-16 09:22:50
1241 在我們的世界里,算法無(wú)處不在,偏見也是一樣。從社會(huì)媒體新聞的提供到流式媒體服務(wù)的推薦到線上購(gòu)物,計(jì)算機(jī)算法,尤其是機(jī)器學(xué)習(xí)算法,已經(jīng)滲透到我們?nèi)粘I畹拿恳粋€(gè)角落。至于偏見,我們只需要參考 2016 年美國(guó)大選就可以知道,偏見是怎樣在明處與暗處影響著我們的社會(huì)。
2020-12-25 19:12:28
468 隨著人工智能技術(shù)研究不斷推薦,由算法生成的藝術(shù)作品的受歡迎程度也在持續(xù)增長(zhǎng)。從創(chuàng)作繪畫到發(fā)明新的藝術(shù)風(fēng)格,基于人工智能的生成藝術(shù)已經(jīng)在一系列的應(yīng)用中展示。
2020-12-29 14:30:01
1602 本篇連載文章中,我們將討論哪些AI應(yīng)用能真正從這種方法中受益。
2022-02-11 11:11:24
504 ? 據(jù)本周四披露的法庭文件顯示,美國(guó)司法部正在調(diào)查 SpaceX 公司是否在雇傭中歧視非美國(guó)公民。文件還表示,SpaceX 正在阻撓法院傳喚,拒絕提供信息。 此前,美國(guó)司法部的移民和雇員權(quán)利部門收到
2021-02-01 09:03:00
918 日本富士通的一支研究團(tuán)隊(duì)利用有向無(wú)環(huán)圖模型(DAG)研究AI生成藝術(shù)中的偏見現(xiàn)象。該研究發(fā)現(xiàn),目前的AI模型在藝術(shù)創(chuàng)作時(shí)展現(xiàn)出對(duì)特定流派、創(chuàng)作風(fēng)格、種族、思想運(yùn)動(dòng)等因素的明顯傾向性。 據(jù)分析,這種
2021-04-19 14:33:16
1409 
本文介紹了EPON在無(wú)線通信體系中的網(wǎng)絡(luò)結(jié)構(gòu)及工作原理,分析了這種接入方式如何解決小區(qū)切換及微移動(dòng)問題,最后探討了這種應(yīng)用的特點(diǎn)及優(yōu)勢(shì)。
2021-06-14 11:49:00
2478 
得益于神經(jīng)機(jī)器翻譯 (NMT) 的進(jìn)步,譯文更加自然流暢,但與此同時(shí),這些譯文也反映出訓(xùn)練數(shù)據(jù)存在社會(huì)偏見和刻板印象。因此,Google 持續(xù)致力于遵循 AI 原則,開發(fā)創(chuàng)新技術(shù),減少機(jī)器翻譯
2021-08-24 10:14:42
2515 人工智能風(fēng)險(xiǎn)管理旨在最大限度地減少人工智能的負(fù)面影響,包括對(duì)公民自由和權(quán)利的威脅等。而在談?wù)撊斯ぶ悄茱L(fēng)險(xiǎn)時(shí),“偏見”是一個(gè)重要話題。
2022-04-17 10:21:12
1182 了解如何在訓(xùn)練您的 AI 驅(qū)動(dòng)系統(tǒng)時(shí)避免數(shù)據(jù)集、關(guān)聯(lián)、自動(dòng)化和其他類型的偏見。 科技行業(yè)對(duì)人工智能的使用越來越興奮,因?yàn)樗_辟了新的引人入勝的體驗(yàn),并為企業(yè)家和最終用戶帶來了前所未有的效率。但是
2022-07-30 11:19:58
3865 大規(guī)模語(yǔ)言模型(LMs)已經(jīng)成為了現(xiàn)在自然語(yǔ)言處理的關(guān)鍵技術(shù),但由于訓(xùn)練語(yǔ)料中常帶有主觀的性別偏見、歧視等,在大模型的使用過程中,它們時(shí)常會(huì)被放大,因此探測(cè)和緩解數(shù)據(jù)中的性別偏見變得越來越重要。
2023-02-10 13:49:39
441 當(dāng)你老了,科技AI你。
2023-03-12 18:21:55
266 人工智能系統(tǒng)需要使用數(shù)據(jù)進(jìn)行訓(xùn)練。但數(shù)據(jù)集往往是由有偏見或不準(zhǔn)確的人制作的。因此,人工智能系統(tǒng)會(huì)使偏見長(zhǎng)期存在。在招聘實(shí)踐和刑事司法中尤其如此,管理這些偏見可能很困難。
2023-11-16 10:21:36
245 13、如何解決直插差模電感的異響
2023-11-20 09:35:05
3 TechCrunch獲取的文件要求,科技企業(yè)需保證其服務(wù)或產(chǎn)品“杜絕所有形式的偏見與歧視”。雖然此文件無(wú)法律約束力,但印度信息技術(shù)部副部長(zhǎng)錢德拉塞卡爾坦言,這個(gè)通知預(yù)示著未來監(jiān)管趨向。
2024-03-04 17:05:17
277
評(píng)論