從做框架的角度看到幾個方向,供參考:
1、AI與科學計算結(jié)合
AI技術,特別是深度學習/強化學習/圖神經(jīng)網(wǎng)絡等方法,基于實驗或者計算產(chǎn)生的數(shù)據(jù)對所求解的問題進行可計算建模,從而得到復雜問題的有效解決方式,這對當今科學的研究范式已經(jīng)產(chǎn)生了巨大影響。經(jīng)過近幾年的發(fā)展,通過AI建模/AI求解/框架加速等手段,已經(jīng)滲透到科學的各個領域,例如數(shù)學,化學,物理等,這里我列舉幾個AI+科學計算解決傳統(tǒng)問題的實例,拋磚引玉,歡迎大家討論。相信未來幾年,AI與科學計算交叉研究與應用,會保持很高的熱度。
2、通過Transformer堆疊的成大模型的思想,從NLP推廣到CV、多模
這個就不用多講了(GPT-3、swith transformer、DALLE等),不過同時帶來的挑戰(zhàn)是這些超大模型怎么部署到邊和端。
3、AI進入千行百業(yè),AI的可信可能是未來研究的熱點
這里包括數(shù)據(jù)和模型的隱私、模型的魯棒性、模型的防竊取、數(shù)據(jù)防投毒、模型的可解釋性等等。
看了幾個回答,都在說因果推斷、知識圖譜,這其實都是一個東西,都是上世紀專家系統(tǒng)的舶來品,是基于符號人工智能的產(chǎn)物。不能說不行,但是目前進步不大,而且太偏理論,不好進行研究;比如,你說你研究CV或者NLP都知道你在研究什么,但是你要說你在研究神經(jīng)網(wǎng)絡,是不是面太寬了,研究也可以,但是難度很大,不建議為了畢業(yè)這么研究。
此外,有人說NLP已經(jīng)研究不出來什么了。NLP作為人工智能的明珠,是一個圖靈完備的問題,如果NLP能徹底解決,強人工智能就能順勢誕生。目前階段,我感覺距離NLP發(fā)掘完畢還很遠,遠到根本看不到車尾。
結(jié)合其他答案,可以研究基于知識圖譜、實體關系的NLP。前幾年的自然語言技術(忘了簡稱了)比賽也提到了這個方向,貌似還不錯。有基于結(jié)構(gòu)化信息的,有基于知識圖譜和,有基于開放域的。
AI+醫(yī)學圖像。
這是比較適合刷文,但不一定適合業(yè)界。
一個很明顯的苦難是,很多醫(yī)學圖片的差別幾乎都是微小的。但這個最缺的是數(shù)據(jù),如果有公司弄個超大數(shù)據(jù)集,可能下一個五年又是CV的了。
PS:高贊的因果推斷已經(jīng)做了幾十年的東西了,不要輕易入坑啊。
編輯:jq
-
AI
+關注
關注
87文章
34256瀏覽量
275404 -
CV
+關注
關注
0文章
53瀏覽量
17066 -
多模
+關注
關注
1文章
30瀏覽量
11007 -
nlp
+關注
關注
1文章
490瀏覽量
22484
原文標題:2021年了,機器/深度學習還有哪些坑比較好挖?
文章出處:【微信號:cas-ciomp,微信公眾號:中科院長春光機所】歡迎添加關注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
鋰電池品牌推薦:鋰電池內(nèi)阻多少比較好?

ADS9254變壓器后端匹配網(wǎng)絡怎么設計比較好?
ADS8688要使用比較高的精度,采用外部參考還是內(nèi)部參考比較好?內(nèi)部參考的精度能到多少呢?
三星貼片電容哪個品牌的比較好?

谷景科普共模電感怎么樣效果比較好
高頻放大電路的仿真軟件用什么比較好?
一體成型功率電感怎么樣效果比較好

評論