十年磨一“图”,谷歌震撼发布纳米级人脑图谱

进一步研究这些连接可能会揭示它们在大脑中的承担的功能,比如作为某种快速神经反应的机制或者编码重要记忆的方式,

在极为罕见的情况下,单个轴突(蓝色)与目标神经元(绿色)会形成多次突触连接(黄色),这些紧密连接的目的尚未可知

而鉴于脑组织样本来自癫痫患者,虽然研究人员在光学显微镜下并没有观察到明显的病理迹象,但不能排除这些特殊的结构与患者的疾病或者服用的药物有关,也许对更多样本进行分析才能厘清其中的原因。

人类大脑皮层,可以以纳米级分辨率建模了!

谷歌研究的连接组学团队,已经成立十年了。作为纪念,就在今天,团队放出了这张1.4PB的人脑连接组图。

就是在这张图中,谷歌的科学家发现了此前从未发现的特征细胞

图中包含57k个细胞,和150M个突触。

1立方毫米的大脑,以惊人的细节被绘制出来。这张图带给人的冲击力,实在太震撼了。

这张3D图,覆盖了大约一立方毫米的体积,是整个大脑的百万分之一,包含大约57000个细胞和1.5亿个突触,是1.4 PB的庞大数据

10年间,Google Research连接组学团队一直致力于实现用高通量的方法研究大脑中的神经网络架构,增进我们对大脑结构和功能的理解。

而这篇纪念文章可以说是近十年研究成果的集大成者。

目前文章已在Science发表,并得到了Nature的报道。

论文地址:https://www.science.org/doi/10.1126/science.adk4858

对人类大脑重建的研究,有何意义?

谷歌的科学家认为,如果继续研究大脑的连接,或许有朝一日我们就会了解我们的记忆是如何形成的,甚至找到神经系统疾病、自闭症、阿尔茨海默病的成因

网友们纷纷表示:“这些图像太令人震惊了,简直就像在外太空观察复杂的结构一样。可能在永生之年,我们都无法理解自己大脑里的一切。”

也有人有感而发:“人脑有1000亿个神经元和3000万亿个突触,而GPT-4只有2万亿的参数,所以,我们还有很大空间。”

六张大脑神经图,效果惊人

接下来展示的这六张大脑图谱,都在谷歌AI的帮助下绘制出来的。由此,我们终于揭开了大脑错综复杂的面纱。

透过六层大脑皮层可视化

首先,哈佛研究人员从捐赠的大脑样本中,收集了数千张极薄的横断面图像。

这小块健康的脑组织,是在为一名癫痫患者进行手术时切除的,目的是让医生能够到达需要手术的部位。

随后,谷歌借助开发先进AI工具,对这块脑组织,构建出了交互式的3D模型。

如下图所示,这个3D模型凸显了人脑的高度复杂性。

仅这一小片样本(长约3毫米,占人脑容量百万分之一),就需要超100万GB的数据,即1.4PB。

这是有史以来分辨率最高、数据量最大的关于人脑结构的数据集。

样本来自大脑皮层(灰质)的一部分,称为前颞叶(见图)。大脑皮层有六层,根据神经元的大小和类型给神经元着色。在放大后的所有神经元视图中,各层神经元清晰可见。大脑表面在图像的顶部边缘

密密麻麻的“地图”

一立方毫米的组织样本,包含大约5万个细胞,和大约1.5亿个突触。

一些神经元对具有惊人的特性,它们之间的联系非常紧密,多达50个突触相互连接。

下图展示了兴奋性神经元的特写图,按大小着色,红色最大,蓝色最小。这些细胞的核心直径约为15-30微米。

镜像之舞

在重建的过程中,研究人员还发现了一个奇特的现象,细胞群往往是以“镜像对称”的方式出现。

就如开篇的这张图一样,这对细胞,像是在跳舞一样。

这一层包含所谓的“三角形神经元”,这些神经元的一个基底树突远大于其他树突。77%的三角神经元可以分为两大类:一类的大基底树突倾斜向样本的一侧,另一类以镜像对称的角度倾斜向另一侧。

统计分析表明,具有相同倾斜类型的神经元更倾向于相邻在一起。这种统计上的关联性暗示着可能有某种未知的潜在功能在发挥作用。

在突触中游泳

大脑中的神经元,紧密相连。

如下,这个神经元(白色)有5000多条来自其他神经元的轴突(蓝色),传递过来信号。

而且至少有同等数量的突触,信号从轴突传递到接收神经元的地方。

图中的突触以绿色显示。

一个奇怪的发现:轴突螺旋

这项研究的一个奇特的发现,就是一个“轴突螺旋”,也即下图中蓝色的部分。

轴突(蓝色)是神经细胞的丝状部分,负责将信号从细胞中传递出去。

这些环状轴突堆在样本中非常少见,在某些情况下,它们会位于另一个细胞(黄色)的表面上。

至于这种蓝色的“轴突螺旋”起着什么功能,目前还是未知的。

认真的网络

下图中白色的部分,是单个神经元。

它会接收信号,确定神经元是否放电。

而这张图显示了所有可以告诉它发射的轴突(绿色)和所有可以告诉它不发射的轴突(蓝色)

想象一下,在整个大脑中有多少这样的神经元,这可是海量的信息!

建立细胞层面的“大脑地图”

尽管人体大多数重要器官的功能与其他动物并没有太大差异,但人脑的特殊性让我们有别于地球上的其他生物。

人脑由数十亿个细胞相互连接形成的神经网络组成,可能是现存计算最复杂的机器,它的能力超过很多耗电量惊人的人工计算系统,但它的功耗仅有12W左右,和一个白炽灯泡差不多。

目前,我们对人脑的了解止步于哪一个区域负责什么功能。想要进一步探究其工作方式,比如记忆如何形成、神经系统疾病的机制等,就需要深入到细胞层面。

这就是新兴的“连接组学”领域的研究内容,旨在了解并精确重现大脑细胞之间的连接,建立一个大脑中的“神经元地图”

这篇研究的连接组学成像方法使用纳米级分辨率,重建了大脑皮层中千万亿体素级别的片段,包括1600个神经元、32000个神经胶质细胞、8000个血管细胞、1.5亿个突触,但实际涉及的大脑组织只有一立方毫米,相当于半粒米大小。

要进行重建工作,首先需要采集真实样本的图像数据,也即上文提到的癫痫患者的脑组织样本。

利用这份样本,哈佛大学分子与细胞生物学系的Lichtman教授团队制作了5000多份厚度约为30纳米的切片,并使用一种名为“多波束扫描电子显微镜”的设备收集高分辨率图像,仅图像采集的工作就花费了326天时间。

研究所使用的脑组织样本位于左前颞叶

在此基础上,团队将图像数据进行对齐、缝合,重建了每个细胞的三维结构,包括轴突和树突,识别细胞间的突触连接并对细胞进行分类。

使用一小块人脑组织,研究人员构建了一张几乎包含了所有神经元及其连接的三维图像。上图为兴奋性神经元,下图为抑制性神经元。所用组织样本约为3毫米宽,其中神经元细胞体直径范围为15-30微米

神经科学新发现

这些人脑重建的工作揭示了一些前所未见的结构,可能会改变我们对大脑工作方式的理解。

例如,研究发现了一种罕见但非常强大的突触连接,其中有一对神经元之间可能存在超过50个单独的突触连接

96.5%的轴突与目标细胞之间的连接仅包含一个突触,但有0.092%的连接含有四个甚至更多的突触。研究发现了这些连接的形态,结合统计分析结果,可以表明这些强大的连接并非偶然。

进一步研究这些连接可能会揭示它们在大脑中的承担的功能,比如作为某种快速神经反应的机制或者编码重要记忆的方式,

在极为罕见的情况下,单个轴突(蓝色)与目标神经元(绿色)会形成多次突触连接(黄色),这些紧密连接的目的尚未可知

而鉴于脑组织样本来自癫痫患者,虽然研究人员在光学显微镜下并没有观察到明显的病理迹象,但不能排除这些特殊的结构与患者的疾病或者服用的药物有关,也许对更多样本进行分析才能厘清其中的原因。

以上这些发现也许只是冰山一角,研究团队表示,这份数据集非常庞大且复杂,相信未来还有更多全新的大脑结构和特征有待发现。

AI赋能脑科学

由于AI的兴起和各种软件工具的发展,连接组学也随之变得越来越强大。

在AI工具出现前,第一个连接组发表于1986年,仅包含秀丽隐杆线虫的302个神经元,而且耗费了研究人员16年的时间,因为他们需要在所有线虫横截面的显微镜照片上对细胞进行手动着色。

十年前,谷歌连接组学团队成立之时,它们的愿景之一就是使用AI的前沿成果处理生物学领域庞大的数据集,才能从302个神经元的线虫,发展至百亿数量级细胞的复杂生物组织。

连接组学自20世纪70年代以来的发展历程

有了AI加持,研究人员就不需要对1.4PB的电镜数据进行手动着色了,他们开发了一种名为“flood-filling”的RNN模型,可以自动分割电镜图片并重建神经细胞,而且有较高的准确率,不需要大量的人工校对工作。

这篇文章在2018年就发表于Nature Methods。

论文地址:https://www.nature.com/articles/s41592-018-0049-4

在此基础上,团队还开发了自动识别算法SegCLR,用于在脑神经网络中识别并分类不同部分的细胞。

为了存储并管理海量的多维数据集,Google团队还推出了基于C++和Python的开源软件库TensorStore,得到了广泛使用,项目在GitHub上获得1.3k星。

项目地址:https://github.com/google/tensorstore

参考资料:

https://www.nature.com/articles/d41586-024-01387-9#ref-CR1

https://www.science.org/doi/10.1126/science.adk4858

https://research.google/blog/ten-years-of-neuroscience-at-google-yields-maps-of-human-brain/

https://sites.research.google/neural-mapping/

https://blog.google/technology/research/google-ai-research-new-images-human-brain/

本文来自微信公众号:新智元 (ID:AI_era),作者:新智元

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年5月10日
下一篇 2024年5月10日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日