热点资讯
物联网app开发 万字长文:怎样弥合东说念主工智能和东说念主脑智能的差距?
发布日期:2024-11-07 05:05 点击次数:51
The following article is from 追问nextquestion Author 追问
来源 | 追问nextquestion,管千里着平定慧
商议合作| 13699120588
著作仅代表作家本东说念主不雅点,图片来源于pixabay
编者按:AI 中里面复杂性和外部复杂性之间的争论悬而未决,这两种要领皆可能在改日的超过中施展作用。通过再行凝视和加深神经科学和 AI 之间的接洽,咱们可能会发现构建更高效、更刚劲、以致更"雷同大脑"的东说念主工智能系统的新要领。
东说念主工智能 vs 东说念主脑智能
1. 早期东说念主工智能模子是怎样从对大脑的连合中取得灵感的?
东说念主工智能的早期发展成绩于对东说念主类大脑的连合。在20世纪中世,跟着神经科学的进展和对东说念主脑功能的初步清醒,科学家们初始尝试将这些生物学想法期骗于机器智能的开发中。
1943年,神经生理学家Warren McCulloch和数学家Walter Pitts建议的"McCulloch-Pitts神经元模子"是最早的尝试之一。这一模子招揽数学逻辑形容神经元的举止,诚然莽撞,但为其后的东说念主工神经网罗奠定了基础。
▷图1:神经元结构与McCulloch-Pitts神经元模子
这一时间,对大脑的研究主要聚焦在神经元如那里理信息,以及它们怎样通过电信号在复杂网罗中相互作用。这些研究启发了早期东说念主工智能研究者设计出早期的东说念主工神经网罗。
1950年代,Frank Rosenblatt发明的感知机(Perceptron),是一种受到生物视觉系统的启发而设计的算法,它模拟视网膜招揽光辉的时势处理信息,诚然原始,但标志着机器学习边界上前迈出了蹙迫的一步。
▷图2:左边为Rosenblatt的物理感知机,右边为感知器系统结构
除了神经科学的影响,早期的默契姿色学研究也对AI的发展有所孝敬。默契姿色学家试图连合东说念主类怎样感知、操心、想考和管理问题,这些研究为东说念主工智能模拟东说念主类智能行动提供了要领论基础。举例,Allen Newell和Herbert A. Simon开发的逻辑表面机[1-3],粗略对数学定理进行诠释,这一枢纽不仅模拟了东说念主类的管理问题的经由,也在某种进度上效法了东说念主类想维的逻辑推理经由。
这些早期的模子诚然莽撞,但它们的开发经由和设计理念深受(其时东说念主们)对东说念主脑的连合时势的影响,为后续更复杂系统的开发奠定了表面和执行基础。通过这么的探索,科学家们逐渐构建出能在特定任务上效法或超越东说念主类发达的智能系统,鼓动了东说念主工智能工夫的演进和鼎新。
2. 东说念主工智能的发展
自那以后,东说念主工智能边界资格了一轮又一轮"穷冬"和"复苏"。20世纪七八十年代,算力的升迁和算法的创新,如反向传播算法(back propagation)的引入,使得素质更深眉目的神经网罗成为可能。这一时间,东说念主工智能诚然在某些边界如各人系统(expert system)中取得了生意顺利,但由于工夫的局限性和过高的盼望值,最终导致了第一次AI穷冬的到来。
参加21世纪,额外是自2010年以后,东说念主工智能边界再次得到了前所未有的发展。数据量的指数级增长,高性能盘算资源(如GPU)的普及和算法的进一步优化,使得深度学习工夫飞速成为鼓动东说念主工智能发展的主要能源。
深度学习的中枢仍旧是模拟东说念主脑神经元的信息处理时势,但其期骗已经远远超越了领先的遐想,涵盖了图像识别、当然讲话处理、自动驾驶车辆、医疗会诊等辽远边界。这些打破性的进展,不仅鼓动了工夫的超过,也促进了新的生意模式的出现和产业的快速发展。
▷Giordano Poloni
3. 当今东说念主工智能和东说念主脑智能的阔别
3.1 功能发达方面的阔别
尽管东说念主工智能在特定边界(如棋类游戏、特定图像和语音识别任务)已能超越东说念主类,但它频繁穷乏跨边界的安妥智商。
诚然某些AI系统(如深度学习模子)在大数据环境中发达出色,但它们频繁需要多半的符号数据与模子素质,况且当任务或环境发生变化时,AI的搬动学习智商也较为有限,频繁需要为之设计特定的算法。而东说念主脑则具有刚劲的学习和安妥智商,粗略在少许数据和多种环境条目放学习新任务,还粗略进行搬动学习,即不错将在一个边界中学到的常识期骗到另一个看似无关的边界。
在处理复杂问题的纯真性方面,AI在处理界说了了、结构化细腻的问题时,如棋类游戏、讲话翻译等,遵循最好;但在处理朦胧不清、非结构化的问题时,遵循较低,易受到打扰。东说念主脑在处理无极不清、复杂的环境信息时,骄气出极高的纯真性和遵循。举例,东说念主脑粗略在嘈杂的环境中识别声息、在穷乏圆善信息的情况下作念出有经营等。
珍视志和默契方面,刻下的AI系统穷乏信得过的意志和情谊,它们的"有经营"只是是基于算法和数据的输出,莫得主不雅体验或情谊的触及。东说念主类不仅不错处理信息,还领特意志、情谊和主不雅体验,这些皆是东说念主脑智能的蹙迫构成部分。
在多任务处理方面,诚然某些AI系统粗略同期处理多种任务,但这频繁需要复杂的针对性设计。大多数AI系统针对单一任务设计降生,其进行多任务处理时的遵循和遵循频繁不如东说念主脑。东说念主脑在同期处理多重担务时具有极大的纯真性,粗略在不同任务之间飞速切换并保持高效。
在能耗和遵循方面,高等AI系统,尤其是大型机器学习模子,每每需要多半的盘算资源和能源,能耗远超东说念主脑。东说念主脑仅需约20瓦特即可运行,具有极高的信息处理遵循。
总体来说,尽管东说念主工智能在特定边界已展示出超过的性能,但它仍然无法全面模拟东说念主脑,额外是在纯真性、学习遵循和多任务处理等方面。改日的AI研究可能会不休缩小这些各异,但东说念主脑的复杂性和高效性仍是其难以超越的标杆。
▷Spooky Pooka ltd
3.2 底层机制方面的阔别
在基础结构方面,当代AI系统,额外是神经网罗,诚然受到生物神经网罗的启发,但"神经元"(频繁是盘算单元)偏激相互连合均依靠数值模拟。这些东说念主工神经网罗的连合和处理频繁皆是预设的、静态的,穷乏生物神经网罗的动态可塑性。东说念主脑由简陋860亿个神经元构成,每个神经元通过数千到数万个突触连合与其他神经元贯串[6-8],这种结构赈济复杂的并行处理和高度动态的信拒却换。
在信号传递方面,AI系统中的信号传递频繁是通过数值盘算收尾的,举例在神经网罗中,神经元的输出是输入加权和的函数,这些加权和频繁通过莽撞的数学函数(如Sigmoid或ReLU)处理。神经信号传导依赖于电化学经由,神经元之间的信拒却领悟过突触开释神经递质进行,并受到多种生归天学经由的调控。
在学习机制方面,AI的学习频繁通过算法调养参数(如权重)来收尾,举例通过反向传播算法。诚然这种要领在工夫上灵验,但它需要多半的数据,针对新的数据集需要再行素质或显贵调养模子参数,与东说念主脑的不绝和无监督学习时势比拟存在差距。东说念主脑的学习依赖于突触可塑性,即神经连合的强度证据教会和举止而改变,这种可塑性赈济不绝的学习和操心变成。
4. 模拟东说念主类智能的长久经营——通用东说念主工智能的布景和界说
通用东说念主工智能(AGI)的想法建议,源于对狭义东说念主工智能(AI)的局限性的清醒。狭义AI频繁专注于管理特定的、收尾范围的问题,举例棋类游戏或讲话翻译,但穷乏跨任务和边界的纯真性。跟着科技的超过和对东说念主类智能更真切的连合,科学家们初始遐想一种雷同东说念主类的具备多边界默契智商、自主意志、创造力和逻辑推明智商的智能系统。
AGI旨在创建一种智能系统,粗略像东说念主类雷同连合和管理多边界问题,况且粗略进行自我学习和安妥。这种系统将不单是是用具,更是看成智能实体参与到东说念主类的社会经济、文化举止中。AGI的建议,代表了东说念主工智能发展的遐想景况,盼望最终粗略在全面性和纯真性方面达到并超越东说念主类智能。
收尾通用东说念主工智能的旅途
小程序开发各样化的神经元模拟和网罗结构骄气出不同级别的复杂性。具有更丰富动态形容的神经元的里面复杂性较高,而具有更宽和更深连合的网罗的外部复杂性较高。从复杂性的角度来看,当今频繁觉得,有望收尾通用东说念主工智能的旅途有两条,一种是外部复杂性大模子要领,举例通过加多模子的宽度和深度;另一种是里面复杂性小模子要领,举例通过向模子添加离子通说念或将其篡改为多区室模子。
▷图3:神经元和网罗的里面复杂性和外部复杂性
1. 外部复杂性大模子要领
在东说念主工智能(AI)边界,为了管理更平庸和更复杂的问题,研究者们越来越依赖于大型AI模子的开发。这些模子频繁具有更深、更大、更宽的网罗结构,可称之为"外部复杂性大模子要领"。这种要领的中枢,在于通过扩张模子的限制,来增强其处理信息(尤其是在处理多半数据)和学习的智商。
1.1. 大型讲话模子的期骗
大型讲话模子,如GPT(Generative Pre-trained Transformer)和BERT(Bidirectional Encoder Representations from Transformers)等,是刻下AI研究中的热门。这些模子通过深层神经网罗学习大限制文本数据,掌执讲话的深层语义和结构,粗略在多种讲话处理任务中展示出色的性能。举例,GPT-3通过素质大限制的文本数据集,不仅粗略生成高质料的文本,还能进行问答、概要、翻译等任务。
这些大型讲话模子的主要期骗,包括当然讲话连合、文本生成、情谊分析等,因而可平庸期骗于搜索引擎、应酬媒体分析、客户业绩自动化等边界。
1.2. 为什么要扩张模子的限制?
证据Jason Wei、Yi Tay、William Fedus等东说念主在Emergent Abilities of Large Language Models中的研究,跟着模子限制的增大,模子的智商会出现"涌现"景色,即某些先前未显着的智商会倏得知道。这是因为模子在处理更复杂、更各样化的信息时,粗略学习到更深眉目的模式和关联。
举例,超大限制的讲话模子能在未经特定针对性素质的情况下,出现管理复杂的推理问题和创造性写稿的智商。这种"智能的涌现"景色标明,通过加多模子的限制,不错收尾更接近东说念主类智能的平庸默契和处明智商。
▷图4:大讲话模子的涌现景色
1.3. 挑战
尽管大型模子带来了前所未有的智商,但它们也靠近着首要挑战,尤其是在遵循和资本方面。
开始,这类模子需要宏大的盘算资源,包括高性能的GPU和多半的存储空间,这径直加多了研究和部署的资本。其次,大模子的能耗问题也日益凸起,这不仅影响模子的可不绝发展,也激发了环保关爱。此外,素质这些模子需要多半的数据输入,这可能激发数据秘密和安全性问题,尤其是当触及到敏锐或个东说念主信息时。终末,大型模子的复杂性和不透明性可能导致模子有经营经由难以解释,这在期骗于医疗、法律等需求高度透明和可解释性的边界时,可能成为一个严重问题。
2. 里面复杂性小模子要领
提到大讲话模子,东说念主们最直不雅的感受即是其高度"类东说念主"的输出智商。Webb等东说念主检修了ChatGPT的类比推明智商[3],发现它已涌现出了零样本推明智商,粗略在莫得明确素质的情况下管理平庸的类比推理问题。一些东说念主觉得,物联网软件开发物联网软件多少钱要是像ChatGPT这么的LLM确乎粗略对姿色学中的常见测量产生雷同东说念主类的响应(举例对行动的判断、对价值的招供、对社会问题的看法),那么它们在改日可能会取代东说念主类受试者群体。
2.1. 表面基础
神经元是神经系统的基本结构和功能单元,其主要构成部分包括细胞体、轴突、树突和突触。这些部分共同合作,完成信息的招揽、整合和传递。以下将从神经元模子、电信号在神经元突起(树突和轴突)中的传导、突触及突触可塑性模子、带有复杂树突和离子通说念的模子等方面讲起,先容神经元模拟的表面基础。
▷图5:神经元的结构
2.1.1. 神经元模子
离子通说念
神经元的离子通说念和离子泵是调控神经电信号传递的重要膜卵白,它们戒指着离子跨细胞膜的灵通,从而影响神经元的电举止和信号传递。这些结构确保了神经元粗略保管或转变静息电位、生成和传递动作电位,是神经系统功能的基础。
离子通说念是嵌在细胞膜中的卵白质通说念,它们不错调控特定离子(如钠、钾、钙和氯)的通过。电压变化、化学信号或机械应力等多种要素,戒指这些离子通说念的开闭景况,从而对神经元的电举止产生影响。
▷图6:神经元的离子通说念和离子泵
等效电路
等效电路模子通过使用电路元件来模拟神经细胞膜的电生感性质,使得复杂的生物电景色不错在物理和工程的框架内得到解释和分析。等效电路模子,频繁包括膜电容、膜电阻、电源这3个基本元件。
神经元的细胞膜发达出电容性质,这与细胞膜的磷脂双分子层结构相关。磷脂双层的疏水核拦阻离子解放通过,使得细胞膜具有很高的电绝缘性。当细胞膜两侧的离子浓度不同,额外是在在离子泵的转变下,细胞膜两侧会变成电荷分离。由于细胞膜的绝缘性,这种电荷分离在细胞膜上变成了一个静电场,使得细胞膜能储存电荷。
电容元件被用来模拟这种储存电荷的智商,其电容值取决于膜的面积和厚度。膜电阻主要通过离子通说念的开闭来调控,它径直影响膜电位的变化速率和细胞对电流输入的响应。电源代表由离子泵产生的离子跨膜浓度差引起的电化学势差,这是保管静息电位和驱动动作电位变化的驱能源。
▷图7:等效电路暗示图
HH模子
基于等效电路的想想,Alan Hodgkin和Andrew Huxley在20世纪50年代基于他们对乌贼巨神经元的实验研究建议了HH(Hodgkin-Huxley)模子,模子中包括钠(Na)、钾(K)和走电流(Leak Current)的电导,不错表现每种离子通说念的开启进度,在模子中离子通说念的开闭进一步通过门控变量形容,这些变量(m、h、n)具有电压依赖性和时分依赖性。HH模子的方程为:
LIF模子
LIF模子,即泄漏整合披发模子(Leaky Integrate-and-Fire model),是神经科学中一个常用的简化神经元动作电位的数学模子。该模子侧重于形容膜电位[4-5]随时分的变化情况,而忽略生物神经元里面的复杂离子动态。
科学家们发现,当给神经元施加不绝的电流输入[6-7]时,神经元的膜电位会随之高涨,直到达到某个阈值致使动作电位披发,之后膜电位飞速复位,并重迭这依然由。LIF模子诚然莫得形容具体的离子通说念动态,但由于其盘算遵循高,平庸期骗于神经网罗建模和表面神经科学研究。其基本方程如下:
2.1.2. 电信号在神经元突起(树突和轴突)中的传导:电缆表面
19世纪末至20世纪初,科学家们初始清醒到,神经元中的电信号不错通过轴突、树突等细长的神经纤维进行传播。然则,跟着距离的加多,信号会发生衰减。科学家们需要一种表面用具来解释电信号在神经纤维中的传播经由,额外是在长距离上传播时的电位变化规则。
1907年,物理学家赫尔曼(Wilhelm Hermann)建议了一个莽撞的表面框架,将神经纤维比作电缆,以此形容电信号的扩散经由。这一表面其后在20世纪中世由霍奇金和赫胥黎等东说念主进一步发展,他们通过对神经元的实验测量,说明了离子流在信号传播中的重要作用,并开荒了与电缆表面干系的数学模子。
电缆表面的中枢想想是将神经纤维视为一段电缆,通过引入电阻、电容等电学参数,模拟电信号(频繁是动作电位)在神经纤维中的传播经由。神经纤维,如轴突和树突,被视为一维的电缆,电信号沿着纤维长度传播;膜电举止通过电阻和电容来形容,电流的传导则受到纤维里面电阻和膜走电电阻的影响;信号在纤维中的传播,跟着距离加多,逐渐衰减。
▷图8.电缆表面暗示图
2.1.3. 多区室模子
在早期的神经元建模中,如HH模子和电缆表面模子,神经元被简化为一个点状的"单一区室",即只推敲膜电位在时分上的变化,而忽略了神经元各个部分的空间漫步。这些模子合适形容动作电位的产生机制,但无法充明白释信号在神经元复杂的形态结构(如树突、轴突等)中的传播特点。
跟着神经科学对神经元结构复杂性的清醒不休加深,科学家们意志到:不同部分的电位变化会有显贵各异,尤其是在具有长树突的神经元中。树突和轴突中的信号传播不仅受到电信号的空间扩散影响,还会因为结构复杂性而出现不同的响应。因此,需要一种更密致的模子来形容神经元中电信号的空间传播,这就促使了多区室模子(Multi-compartmental model)的建议。
多区室模子的中枢想想是将神经元的树突、轴突和细胞体分红多个相互连合的区室(compartments),每个区室使用雷同于电缆表面的方程来形容跨膜电位随时分和空间的变化,通过多个区室的相互连合,模拟电信号在神经元里面的复杂传播旅途,并响应不同区室之间的电位各异。这种处理时势不错精确形容电信号在神经元复杂形态中的传播,额外是树突上的电信号衰减和放大景色。
具体来说,神经元被分红多个小区室,每个区室代表神经元的一部分(如树突、轴突或细胞体的一段)。每个区室用电路模子表现,电阻和电容用以形容膜的电学特点,跨膜电位由电流注入、扩散和走电等要素决定。左近区室通过电阻连合,电信号通过这些连合在区室间传播。跨膜电位Vi在第i个区室中征服雷同于电缆表面的微分方程:
在多区室模子中,某些区室(如细胞体或肇始区)可产生动作电位,而其他区室(如树突或轴突)则主要端庄电信号的传播和衰减。信号通过不同区室之间的连合传递,树突区的输入信号最终不错整合到细胞体并激发动作电位,动作电位再沿着轴突传播。
与单一区室模子比拟,多区室模子粗略响应神经元形态结构的复杂性,尤其是在树突和轴突等结构中的电信号传播经由。由于触及多个区室之间的耦合微分方程,多区室模子常需通过数值要领(如欧拉法或Runge-Kutta要领)进行求解。
2.2. 为什么要进行生物神经元的复杂动态模拟?
Beniaguev等东说念主的实验研究标明,由于大脑不同类型神经元的复杂树突结构和离子通说念,单个神经元具有与5-8层深度学习网罗相比好意思的不凡盘算智商[8]。
▷图9:包含AMPA和NMDA突触的L5皮层锥体神经元模子,不错通过包含七个荫藏层的TCN(时分卷积网罗)来精确模拟,每个荫藏层有128个特征图,历史时长为153毫秒。
He等东说念主的责任关爱不同里面动态和里面复杂性的神经元模子之间的接洽[9]。他们建议了一种将外部复杂性篡改为里面复杂性的要领,这种里面动态更为丰富的模子具有一定的盘算上风。具体来说,他们在表面上诠释了LIF模子和 HH模子存在能源学特点上的等效性,HH神经元不错与四个具有特定连合结构的时变参数 LIF神经元(tv-LIF)能源学特点等效。
▷图10:一种从tv-LIF模子篡改到HH模子的要领
在此基础上,他们通过实验考证了HH网罗在处理复杂任务时的灵验性和可靠性,并发现与简化的tv-LIF网罗(s-LIF2HH网罗)比拟,HH网罗的盘算遵循显贵更高。这诠释了将外部复杂性回荡为里面复杂性,不错提盛大度学习模子的盘算遵循;也教导,受生物神经元复杂动态启发的里面复杂性小模子要领,有但愿收尾更刚劲和更高效的AI系统。
▷图11:LIF模子、HH模子、s-LIF2HH的盘算资源分析
此外,由于结构和盘算机制的限定,现存东说念主工神经网罗与简直大脑差距较大,无法径直用于连合简直大脑学习以及处理感知任务的机理。比拟东说念主工神经网罗,具有丰富里面动态的神经元模子,更接近简直的生物,对连合简直大脑的学习经由和东说念主类智能的机制有蹙迫作用。
3. 挑战性
尽管里面复杂性小模子要领在多个方面发达出色,但它也靠近着一系列挑战。神经元的电生理举止频繁通过复杂的非线性微分方程来形容,这使得模子的求解分析极具挑战。由于神经元模子的非线性和不连气儿特点,使用传统的梯度下落要领进行学习变得复杂和低效。此外,如HH模子等里面复杂性的加多,减少了硬件并行性,降速了信息处理速率,因此需要硬件方面相应的创新和鼎新。
为了应酬这些挑战,研究者们开发了多种鼎新的学习算法。举例,使用近似梯度,管理不连气儿特点的问题;使用二阶优化算法,愈加精确地捕捉死亡函数的曲率信息加快照管。漫步式学习和并行盘算的引入,使得复杂神经元网罗的素质经由不错在大限制盘算资源下更高效地进行。
此外,生物启发式学习机制受到一些学者的关爱。生物神经元的学习经由与当今的深度学习要领有很大不同。举例,生物神经元依赖于突触的可塑性来收尾学习,这种机制包括了突触强度的增强和减轻,称为万古程增强(LTP)和万古程阻难(LTD)。这种机制不仅愈加高效,还粗略减少模子对连气儿信号处理的依赖,从而镌汰盘算包袱。
▷MJ
弥合东说念主工智能和东说念主脑智能的差距
2024年有五项世界大赛开战,再加上上半年进行决赛的梦百合杯,本赛季的六项世界大赛,已经有三项有了决赛人选。梦百合杯李轩豪胜党毅飞,衢州烂柯杯辜梓豪对垒申真谞,应氏杯谢科迎战一力辽。中国棋手占据了其中四位,中国围棋的“厚度”优势依旧。世界大赛四强八强的人数和人次也能佐证这一点。
He等东说念主通过表面考证和模拟诠释了更小、里面复杂的网罗不错复制更大、更莽撞的网罗的功能。这种要领不仅不错保持性能,还不错升迁盘算遵循,将内存使用量减少四倍,并将处理速率升迁一倍,这也标明升迁里面复杂性可能是升迁 AI 性能和遵循的灵验阶梯。
Zhu和Eshraghian对He等东说念主的著作Network model with internal complexity bridges artificial intelligence and neuroscience作念出了指摘[5]。他们觉得,"AI 中里面复杂性和外部复杂性之间的争论仍然悬而未决,这两种要领皆可能在改日的超过中施展作用。通过再行凝视和加深神经科学和 AI 之间的接洽,咱们可能会发现构建更高效、更刚劲、以致更雷同大脑的东说念主工智能系统的新要领。"
当咱们站在 AI 发展的十字街头时,该边界靠近着一个重要问题:咱们能否通过更精确地模拟生物神经元的能源学来收尾 AI 智商的下一次飞跃,照旧会链接用更大的模子和更刚劲的硬件铺平前进的说念路?Zhu和Eshraghian觉得,谜底可能在于两种要领的详尽,这也将跟着咱们对神经科学连合的加深而不休优化鼎新。
尽管生物神经元动态的引入在一定进度上增强了AI的功能,但当今仍远未达到对东说念主类意志的模拟的工夫水平。开始,表面的完备性依然不及。咱们对意志的履行穷乏裕如的连合,尚未变成一个粗略解释和展望意志景色的圆善表面。其次,意志的模拟可能需要高性能的盘算模拟框架,当今的硬件和算法遵循仍无法赈济如斯复杂的模拟。此外,大脑模子的高效素质算法依旧是一个坚苦。复杂神经元的非线性行动加多了模子素质的难度,这需要新的优化要领来处理。大脑的很多复杂功能,举例万古分的操心保持、情谊处理和创造力,其具体神经机制和底层分子机制仍有待真切探索。如安在东说念主工神经网罗中进一步模拟这些行动偏激分子机制,依然是绽开的问题。改日的研究需要在这些问题上取得打破,材干信得过走向对东说念主类意志和智能的模拟。
跨学科合作,关于东说念主类意志和智能的模拟至关蹙迫。数学、神经科学、默契科学、玄学、盘算机科学等边界的协同研究,将有助于更真切地连合和模拟东说念主类意志和东说念主类智能。独一通过不同学科的合作,材干变成愈加全面的表面框架,鼓动这项极具挑战的任务上前发展
[1] David Beniaguev, Idan Segev and Michael London. "Single cortical neurons as deep artificial neural networks." Neuron. 2021; 109: 2727-2739.e3 doi: https://doi.org/10.1016/j.neuron.2021.07.002
[2] Wei, J., Tay, Y., Bommasani, R., Raffel, C., Zoph, B., Borgeaud, S., Yogatama, D., Bosma, M., Zhou, D., Metzler, D., Chi, E.H., Hashimoto, T., Vinyals, O., Liang, P., Dean, J., & Fedus, W. (2022). Emergent Abilities of Large Language Models. ArXiv, abs/2206.07682.
[3] 王超名, 陈啸宁, 张秋, 吴想 (2023). 神经盘算建模实战:基于BrainPy. 电子工业出书社.
[4] He, L., Xu, Y., He, W., Lin, Y., Tian, Y., Wu, Y., Wang, W., Zhang, Z., Han, J., Tian, Y., Xu, B., & Li, G. (2024). Network model with internal complexity bridges artificial intelligence and neuroscience. Nature computational science, 4(8), 584–599. https://doi.org/10.1038/s43588-024-00674-9
[5] Zhu, R. J., Gunasekaran, S., & Eshraghian, J. (2024). Bridging the gap between artificial intelligence and natural intelligence. Nature computational science, 4(8), 559–560. https://doi.org/10.1038/s43588-024-00677-6
[6] Hindley, N., Sanchez Avila, A., & Henstridge, C.M. (2023). Bringing synapses into focus: Recent advances in synaptic imaging and mass-spectrometry for studying synaptopathy. Frontiers in Synaptic Neuroscience, 15.
[7] Azevedo, F., Carvalho, L., Grinberg, L., Farfel, J., Ferretti, R., Leite, R., et al. (2009). Equal numbers of neuronal and nonneuronal cells make the human brain an isometrically scaled-up primate brain. J. Comp. Neurol. 513, 532–541. doi: 10.1002/cne.21974
[8] Obi-Nagata, K., Temma, Y., and Hayashi-Takagi, A. (2019). Synaptic functions and their disruption in schizophrenia: From clinical evidence to synaptic optogenetics in an animal model. Proc. Jpn. Acad. Ser. B Phys. Biol. Sci. 95, 179–197. doi: 10.2183/pjab.95.014