免费视频淫片aa毛片_日韩高清在线亚洲专区vr_日韩大片免费观看视频播放_亚洲欧美国产精品完整版

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
Nature Neuro:人類復雜行為背后存在基本的數學和計算原理嗎?計算認知神經科學在尋找答案

公元前6世紀的古希臘先賢畢達哥拉斯Pythagoras提出萬物皆數,認為數是宇宙萬物的本原。那么是否跟物理規(guī)律類似,人類復雜的行為和認知背后,也存在某些基本的數學和計算原理?計算認知神經科學致力于回答這個問題。

計算認知神經科學的目標是通過生物學上可信的計算模型來解釋動物和人類神經元活動和行為,從歷史上看,每個學科(圓圈)都解決了這些挑戰(zhàn)的一個子集(白色標簽),計算認知神經科學力求同時應對所有挑戰(zhàn)。

計算認知神經科學是一個多學科交叉的領域,主要包括認知科學、計算神經科學和人工智能(圖1)認知科學發(fā)展出把復雜的認知過程分解成計算組件的計算模型;計算神經科學模擬了神經元之間的動態(tài)交互(實現各計算組件的功能);人工智能展示了如何組合各組件功能來創(chuàng)建智能行為。
要建立能夠執(zhí)行認知任務且能解釋大腦信息加工過程的計算模型,最大的挑戰(zhàn)在于如何建立理論(實例化的計算模型)和實驗(提供腦和行為數據)之間穩(wěn)固的橋梁。我們來從“自下而上”From experiment toward theory和“自下而上”From theory to experiment兩個角度看看該領域目前建立的橋梁(即模型)

從實驗到理論

接和動態(tài)模型Models of connectivity and dynamic
從計算層面理解大腦活動的一種途徑是模擬大腦的連接和動態(tài)變化,測量到的響應時間序列的相關矩陣可以看作是大腦動態(tài)的第一近似,表征了腦區(qū)之間的功能連接1。另外有效連接分析是一種假設驅動的方法,在動態(tài)生成模型的基礎上來表征區(qū)域間的相互作用2。功能連接和有效連接分析能模擬大腦動態(tài)變化,但它們沒有表征信息更沒有揭示大腦認知加工機制。
解碼模型Decoding Models

從計算層面理解大腦活動的另外一種途徑是揭示每個腦區(qū)呈現了什么信息。簡而言之,解碼模型能夠檢測出兩種刺激中的哪一種產生了我們所測量到的激活模式3。表征的內容可以是識別感覺刺激(從一組備選的刺激中識別)、感知刺激的屬性(如光柵的朝向)或者是認知操作和行為過程中所需要的抽象變量4

解碼模型和其他類型的多變量模式分析方法有助于揭示區(qū)域所表征的具體內容5–8。然而,解碼特定信息的能力并不代表解釋了完整的神經編碼過程:它沒有指定表示格式(線性解碼之外)或可能出現的其他信息。最重要的是,解碼器通常不構成大腦計算的模型。

表征模型Representational Models

相較于解碼模型,該模型希望更詳盡的描述腦區(qū)的表征,解釋其對任意刺激的響應。當然,一個完整的解釋也依賴于可解碼的變量范圍,表征模型試圖做關于表征空間的綜合預測,因此該模型比解碼模型更多的受到計算理論的約束9,10。

目前有三種類型的表征模型:編碼模型EM11–13,模式成分模型PCM14和表征相似性分析RSA15–17,這三種方法都用于檢驗表征空間的假設。編碼模型,刺激間每個體素的激活被預測為模型中特征的線性組合;模式成分模型,描述表征空間的激活分布被模擬成一個多變量正態(tài)分布;表征相似性分析模型,表征空間被描述為由刺激誘發(fā)的激活模式的表征相異性。

從理論到實驗

為了建立理論和實驗間更好的橋梁,我們首先需要一個明確的理論,這可以通過定義一個數學理論以及在計算模型中執(zhí)行它們來實現。計算模型可以存在于不同的描述級別,在認知保真性和生物保真性間權衡(圖2)。

如果模型僅考慮神經元成分和動態(tài)性,則可能難以解釋認知加工過程(水平軸);相反,如果模型僅考慮認知功能,則可能很難和大腦活動聯(lián)系起來(垂直軸)。為了連接認知和大腦,模型的建立必須同時考慮行為數據(反應認知過程)和神經動態(tài)兩個層面18,19。

大腦信息加工過程的模型可以在不同描述層次上定義,它們的參數復雜度(點大小)、生物(水平軸)和認知(垂直軸)保真度也可能不同。自下而上建模方法(藍色箭頭)首先捕捉生物神經網絡的特征,如動作電位和單個神經元之間的相互作用,但這種方法忽略了認知功能。自上而下方法(紅色箭頭)的目標首先是在算法級捕獲認知功能,這種方法不考慮生物實現,而是將信息處理底層任務性能分解為算法組件。這兩種方法形成了通往解釋大腦如何產生思維這一共同目標的兩個極端??偟膩碚f,認知和生物保真度之間存在權衡(負相關)。由于智力需要豐富的外部世界知識,因而人腦信息處理模型的參數復雜度較高(右上角的大點)。 該圖是概念圖,并不是基于對認知保真度、生物保真度和模型復雜性的定量測量,目前還沒有確定的方法來衡量這三個變量,但可以幫助我們理解模型之間的關系,并理解它們的互補貢獻。 

在這個部分,我們來集中討論近期執(zhí)行任務計算模型上的成功,這些模型能夠在表征和算法上解釋人類認知功能。執(zhí)行任務模型一直是心理物理學和認知科學的核心,它們通常在行為數據上驗證,最近也開始用腦活動數據來驗證。我們將依次考慮這兩大類模型,神經網絡模型和認知模型。

神經網絡模型(Neural network models)

和大腦一樣,神經網絡模型可以執(zhí)行前饋和循環(huán)計算,包括多層的線性-非線性信號變換,一般有數百萬個參數(連接權重),通過調參不斷優(yōu)化任務執(zhí)行表現20,21。

近期的研究已經開始將神經網絡模型作為腦信息處理模型來進行驗證20,22這些研究利用訓練有素的深度卷積神經網絡模型來識別圖像中物體,預測了靈長類動物的腹側視覺區(qū)在面對新異圖像時的大腦表征,結果表明,深度神經網絡的內部表征是當前符合人類和猴子顳下回視覺圖像表征的最佳模型23–25。

認知模型Cognitive Models

目前有三類認知模型:產生式系統(tǒng),強化學習模型和貝葉斯認知模型。

產生式系統(tǒng)production systems提供了用于解釋推理和問題解決的早期模型。一個產生式系統(tǒng)production是根據if-then規(guī)則促發(fā)的認知行為,一組規(guī)則指定了某種條件下“if”對應該執(zhí)行的動作“then”。特定的條件涉及當前的目標及記憶中知識,對應的動作能夠修改目標和知識的內部狀態(tài)26。

強化學習模型Reinforcement learning models捕獲agent如何通過與環(huán)境互動來學習最大化累積獎勵,選擇某種行動,觀察環(huán)境的結果狀態(tài),在這個過程中獲得獎勵進而學習如何提高該行為的發(fā)生率,該agent可能學習了每種狀態(tài)與其期待的累積獎勵相關聯(lián)的價值函數27。強化學習理論根源于心理學和神經科學,目前已經是機器學習和人工智能的重要理論,包括動態(tài)規(guī)劃DP,蒙特卡羅學習Monte-Carlo learning和窮舉搜索Exhaustive Search等算法 28。

貝葉斯模型Bayesian models,指的是根據概率規(guī)則將當前數據與先前經驗相結合的推理模型,它有助于我們理解基本的感知覺和運動加工過程29–31,也提供了對判斷和決策等更高的認知過程的見解,將經典認知偏差解釋為先前假設的產物32,從貝葉斯認知的視角來看,人類思維從嬰兒時期開始構建關于世界的心智模型33。這些模型不僅可以是概率意義上的生成模型,而且可能是有因果性和組合性的,能夠通過重新組合元素來將這種模擬推廣到新的假設的場景33–35,這種建模方法已經應用于我們對物理34,36,37乃至社會世界38的推理。

展望未來

Marr提出理解復雜生物系統(tǒng)需要經過三層分析:計算水平;表征和算法水平;神經生物學水平。認知科學開始于計算水平,將認知功能分解各個成分,進而從自上而下的角度發(fā)展算法和表征。計算神經科學從自下而上的角度出發(fā),將神經元構建塊組合成表征和算法。人工智能通過建立表征和算法來將簡單的成分組合成復雜的智能。這三個學科匯聚在大腦和認知的算法和表征上,進而產生了互補約束。

20瓦的電力預算下,大腦的算法將統(tǒng)計和計算效率結合起來,其方式超出了當前的人工智能,無論是貝葉斯算法還是神經網絡算法。不過最近在人工智能和機器學習領域已經開始探索貝葉斯推理和神經網絡模型之間的交叉路口,將前者的統(tǒng)計優(yōu)勢(不確定性表征、概率推理、統(tǒng)計效率)與后者的計算優(yōu)勢(表征學習、萬能近似定理、計算效率)相結合39–41。

對心智和大腦的研究正進入一個特別令人興奮的階段,如果認知科學、計算神經科學和人工智能能夠結合起來,我們或許能夠用神經生物學上可信的計算模型來解釋人類的認知,這不僅有助于我們更深刻的理解人腦信息加工的具體過程,也能在一定程度上為人工智能算法的發(fā)展提供有益啟示。


核心參考文獻:

Nikolaus Kriegeskorte & Pamela K. Douglas. Cognitive computational neuroscience.Nature Neuroscience volume 21, pages1148–1160 (2018) 


其它參考文獻:

1. Biswal B, Zerrin Yetkin F, Haughton VM, Hyde JS. Functional connectivity in the motor cortex of resting human brain using echo‐planar MRI. Magn Reson Med. 1995;34(4):537-541.

2. Friston K. Dynamic causal modeling and Granger causality Comments on: The identification of interacting networks in the brain using fMRI: Model selection, causality and deconvolution. Neuroimage. 2011;58(2-2):303.

3. Dayan P, Abbott LF, Abbott L. Theoretical neuroscience: computational and mathematical modeling of neural systems. 2001.

4. Jin X, Costa RM. Shaping action sequences in basal ganglia circuits. Curr Opin Neurobiol. 2015;33:188-196.

5. Norman KA, Polyn SM, Detre GJ, Haxby J V. Beyond mind-reading: multi-voxel pattern analysis of fMRI data. Trends Cogn Sci. 2006;10(9):424-430.

6. Tong F, Pratte MS. Decoding patterns of human brain activity. Annu Rev Psychol. 2012;63:483-509.

7. Haxby J V, Connolly AC, Guntupalli JS. Decoding neural representational spaces using multivariate pattern analysis. Annu Rev Neurosci. 2014;37:435-456.

8. Haynes J-D. A primer on pattern-based approaches to fMRI: principles, pitfalls, and perspectives. Neuron. 2015;87(2):257-270.

9. Naselaris T, Kay KN. Resolving ambiguities of MVPA using explicit models of representation. Trends Cogn Sci. 2015;19(10):551-554.

10. Diedrichsen J, Kriegeskorte N. Representational models: A common framework for understanding encoding, pattern-component, and representational-similarity analysis. PLoS Comput Biol. 2017;13(4):e1005508.

11. Dumoulin SO, Wandell BA. Population receptive field estimates in human visual cortex. Neuroimage. 2008;39(2):647-660.

12. Kay KN, Naselaris T, Prenger RJ, Gallant JL. Identifying natural images from human brain activity. Nature. 2008;452(7185):352.

13. Mitchell TM, Shinkareva S V, Carlson A, et al. Predicting human brain activity associated with the meanings of nouns. Science (80- ). 2008;320(5880):1191-1195.

14. Diedrichsen J, Ridgway GR, Friston KJ, Wiestler T. Comparing the similarity and spatial structure of neural representations: a pattern-component model. Neuroimage. 2011;55(4):1665-1678.

15. Nili H, Wingfield C, Walther A, Su L, Marslen-Wilson W, Kriegeskorte N. A toolbox for representational similarity analysis. PLoS Comput Biol. 2014;10(4):e1003553.

16. Kriegeskorte N, Mur M, Bandettini PA. Representational similarity analysis-connecting the branches of systems neuroscience. Front Syst Neurosci. 2008;2:4.

17. Kriegeskorte N, Kievit RA. Representational geometry: integrating cognition, computation, and the brain. Trends Cogn Sci. 2013;17(8):401-412.

18. Eliasmith C, Trujillo O. The use and abuse of large-scale brain models. Curr Opin Neurobiol. 2014;25:1-6.

19. Markram H. The blue brain project. Nat Rev Neurosci. 2006;7(2):153.

20. Kriegeskorte N. Deep neural networks: a new framework for modeling biological vision and brain information processing. Annu Rev Vis Sci. 2015;1:417-446.

21. Goodfellow I, Bengio Y, Courville A. Deep Learning. MIT press; 2016.

22. Yamins DLK, DiCarlo JJ. Using goal-driven deep learning models to understand sensory cortex. Nat Neurosci. 2016;19(3):356.

23. Cadieu CF, Hong H, Yamins DLK, et al. Deep neural networks rival the representation of primate IT cortex for core visual object recognition. PLoS Comput Biol. 2014;10(12):e1003963.

24. Khaligh-Razavi S-M, Kriegeskorte N. Deep supervised, but not unsupervised, models may explain IT cortical representation. PLoS Comput Biol. 2014;10(11):e1003915.

25. Yamins DLK, Hong H, Cadieu CF, Solomon EA, Seibert D, DiCarlo JJ. Performance-optimized hierarchical models predict neural responses in higher visual cortex. Proc Natl Acad Sci. 2014;111(23):8619-8624.

26. Moore C, Mertens S. The Nature of Computation. OUP Oxford; 2011.

27. Sutton RS, Barto AG. Reinforcement Learning: An Introduction. MIT press; 2018.

28. O’Doherty JP, Cockburn J, Pauli WM. Learning, Reward, and Decision Making. Annu Rev Psychol. 2017;68:73-100. doi:10.1146/annurev-psych-010416-044216

29. Ernst MO, Banks MS. Humans integrate visual and haptic information in a statistically optimal fashion. Nature. 2002;415(6870):429.

30. Weiss Y, Simoncelli EP, Adelson EH. Motion illusions as optimal percepts. Nat Neurosci. 2002;5(6):598.

31. K?rding KP, Wolpert DM. Bayesian integration in sensorimotor learning. Nature. 2004;427(6971):244.

32. Tversky A, Kahneman D. Judgment under uncertainty: Heuristics and biases. Science (80- ). 1974;185(4157):1124-1131.

33. Lake BM, Ullman TD, Tenenbaum JB, Gershman SJ. Building machines that learn and think like people. Behav Brain Sci. 2017;40.

34. Ullman TD, Spelke E, Battaglia P, Tenenbaum JB. Mind games: Game engines as an architecture for intuitive physics. Trends Cogn Sci. 2017;21(9):649-665.

35. Tenenbaum JB, Kemp C, Griffiths TL, Goodman ND. How to grow a mind: Statistics, structure, and abstraction. Science (80- ). 2011;331(6022):1279-1285.

36. Battaglia PW, Hamrick JB, Tenenbaum JB. Simulation as an engine of physical scene understanding. Proc Natl Acad Sci. 2013;110(45):18327-18332.

37. Kubricht JR, Holyoak KJ, Lu H. Intuitive physics: Current research and controversies. Trends Cogn Sci. 2017;21(10):749-759.

38. Pantelis PC, Baker CL, Cholewiak SA, et al. Inferring the intentional states of autonomous virtual agents. Cognition. 2014;130(3):360-379.

39. Gal Y, Ghahramani Z. Dropout as a bayesian approximation: Representing model uncertainty in deep learning. In: International Conference on Machine Learning. ; 2016:1050-1059.

40. Rezende DJ, Mohamed S, Danihelka I, Gregor K, Wierstra D. One-shot generalization in deep generative models. arXiv Prepr arXiv160305106. 2016.

41. Kingma DP, Welling M. Auto-encoding variational bayes. arXiv Prepr arXiv13126114. 2013.


作者信息

 

編譯作者:湯晴brainnews創(chuàng)作團隊

校對:Simonbrainnews編輯部)

題圖:timeshighereducation.com

前 文 閱 讀

 

1,厲害了:腦科學領域獲批國自然2個千萬級項目,23個300萬的重點項目!

2,系統(tǒng)盤點| 2019"優(yōu)青"榜單中的腦科學家們----人才輩出!

3,Nature Neuroscience重磅:拓撲建模首次發(fā)現小鼠腦海里的“指南針”



本站僅提供存儲服務,所有內容均由用戶發(fā)布,如發(fā)現有害或侵權內容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
下一代深度學習的思考
也許我們從未活在當下,而是永遠期待即將抵達的未來
帶你入門跨學科領域——認知神經科學
腦電研究:通過神經活動和視覺特征的多模態(tài)學習解碼大腦表征
Coursera公開課筆記: 斯坦福大學機器學習第八課“神經網絡的表示(Neural Networks: Representation)”
AI的下一個戰(zhàn)場:認知智能的突圍
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服