未来科技

  • Sora为何未在中国出现?CV大神谢赛宁反问“我们准备好了吗”

    简单划重点:

    Sora。

    在问。

    Sora。

    谢赛宁之后也会在纽约大学开展一些相关的工作。

    目前谢赛宁担任纽约大学计算机科学系助理教授。//huggingface.co/papers/2401.08740)

    谢赛宁朋友圈原文:

    很少发票圈,如果大家看到这个公众号标题党的离大谱的文章,求一定帮忙点下举报不实信息。

    未来科技 1天前
  • Sora会“杀死“剪映吗?

    被OpenAI的ChatGPT震撼过一轮的AI大模型行业,又一次被这家公司推出的首个视频生成模型Sora震撼了一把。

    参考资料:
    《剪映全员信》张楠
    《揭秘字节AI版图:调集多位高管参战,数款重磅产品内测》Tech星球
    《大厂大模型:久违的一把手工程》晚点LatePost
    《“今天,所有VC的会上都在谈Sora”》投中网
    《Sora发布后,Pika创始人独家回应钛媒体:很振奋,我们将直接冲》钛媒体

    本文来自微信公众号:字母榜(ID:wujicaijing),作者:赵晋杰

    未来科技 1天前
  • 7万亿美元的芯片融资计划,Altman在害怕什么?

    一、无限的算力会带来真正的人工智能

    上周,OpenAI。

    社交媒体。来源:twitter.com

    换句话说,他认为唯一阻碍超级人工智能的是服务器短缺,而实现超级人工智能,甚至可以帮助我们移民火星或解决全球变暖问题。

    利用“缩放定律”训练大模型还隐含着一个副作用:强行使用更大、更耗电的模型可能会对环境产生灾难性的影响,因为服务器和数据中心的电力消耗会产生温室气体。

    被爆出。

    未来科技 1天前
  • 《自然》2024最值得关注的七大技术:ChatGPT未入选

    从蛋白质工程到3D打印再到深度伪造(deepfake),《自然》细数了今年值得关注的七大技术。 一、面向蛋白质设计的深度学习 20年前,华盛顿大学的David Baker和同事取得…

    未来科技 1天前
  • 浏览器还能出“新王”吗?

    比起传统引擎和ChatGPT等软件,Perplexity的搜索更加强大和精准,用户可以在Focus中选择不同的信息来源,比如专注于学术论文、在YouTube上进行视频搜索、或是在Reddit上搜索相关讨论等等,Perplexity新生成的页面会明确展示信息来源,解决了ChatGPT常被批评的来源不清的问题。

    最近Ofcom的一项调查显示,使用Google、Bing和微软等引擎进行搜索,结果约有20%的有害内容可以“一键直达”,约22%的搜索结果会获得像是自残信息等不安全不健康的搜索结果,这种内容更是占据搜索结果的排名前19%,图像搜索的结果更令人震惊,约有半数的图像搜索结果是有害内容。

    未来科技 1天前
  • Sora证明马斯克是对的,但特斯拉和人类可能都输了

    当然,这不意味着特斯拉早在一年前就掌握了。理解和生成一个真实的场景或者世界,视频只是从某一个视角观察这个场景的一段时空。

    OpenAI。

    计算资源会直接影响生成的视频质量,从左往右分别是。

    而就像特斯拉把这种生成能力用于训练车辆,Sora。只是小试牛刀,它展现的不仅仅是一个视频制作的能力,而是大模型对真实世界有了理解和模拟之后,会带来新的成果和突破。

    未来科技 2天前
  • Sora到底懂不懂物理世界?

    田渊栋:学习物理需要主动学习或者策略强化学习

    针对。//twitter.com/tydsh/status/1759293967420805473

    田渊栋还表示,如果想要学习精确的物理,他敢打赌需要主动学习或者策略强化学习(无论如何称呼它)来探索物理的精细结构(例如物体之间的相互作用、硬接触)。//twitter.com/MikeRiverso/status/1759271107373219888

    Sora。

    未来科技 2天前
  • 为什么说Sora是世界的模拟器?

    AI 视频生成的“ChatGPT时刻”比想象中提前了6个月。 Sora 的诞生意味着什么,何以堪称“世界的模拟器”? OpenAI 技术报告中透露,Sora 能够深刻地“理解”运动…

    未来科技 2天前
  • OpenAI用Sora打脸AI顶会CVPR

    更重要的是,这篇被CVPR认为创新性不足的论文,正是今天名声大噪的Sora的底层技术。

    那么问题来了,被计算机视觉顶级会议CVPR认为缺乏创新性的技术,OpenAI却给小哥大量的资源,让其做出了text。

    而CVPR的评委审查论文,以及OpenAI决定砸钱砸显卡做Sora这个项目的时候,这个技术的未来到底是怎么样,是未知的。

    未来科技 2天前
  • Transformer的后浪来了?

    Mamba让参数获得依据上下文提取信息的能力,强化了模型的参数捕获和对上下文的表征能力,与笔者在《爱因斯坦校友提出的Transformer简化方案是条歧路》中的观点一致:增加模型的精度,增加隐变量的数量,可以扩大隐变量空间的维度,提高概率向量对实际信息的表征能力的丰富性,强化信息细微差别的区分能力。

    Mamba所展现的能力,与笔者判断也一致“各种DNN深度神经网络,本质上只要沿着这个思路增加参数捕获能力,都可以与Transformer殊途同归”,即使其并行性与百亿参数超大规模能力和效率仍有待观察。

    未来科技 2天前