Bio Eats World:利用人工智能让生物吃得更远

Bio Eats World:利用人工智能让生物吃得更远

源节点: 1896777

在这一集中,Vijay Pande 采访了 Inceptive 的联合创始人兼首席执行官 Jakob Uszkoreit。 他们一起讨论关于 AI 的所有事情。

如果您想阅读,我们将在下面发布完整的成绩单。

***

奥利维亚韦伯: 大家好,欢迎来到 Bio Eats World,这是一个生物、医疗保健和科技交叉的播客。 我是 Olivia Webb,a16z Bio + Health 的编辑主管。 在这一集中,我们采访了 Jakob Uszkoreit,他是 Google Brain 的前任成员,也是 Inceptive 的联合创始人。 Jakob 还是开创性 AI 研究论文“注意力就是你所需要的一切”的作者之一,我们将在展览说明中链接该论文。 Jakob 与 a16z Bio + Health 的创始合伙人 Vijay Pande 坐下来谈论人工智能的所有事情:从他在 Google Brain 的时间,到人类和计算机如何处理语言,再到 Inceptive 对 RNA 前景的信念,以及 Jakob 如何相信我们正在进入 AI 的拐点领域。

这是你不想错过的一集——但它也是关于 AI 的研究生级别的讨论,所以我们将在这集的同时发布一份文字记录。 让我们开始吧。

适用算法

维杰·潘德: 所以 Jakob,非常感谢你来到 Bio Eats World。 很高兴有你。

雅各布·乌斯科雷特: 很高兴来到这里。 谢谢你有我。

维杰·潘德: 特别是因为您作为计算机科学家、企业家和创始人有着如此引人入胜的故事,我希望您能带领我们完成您的职业生涯,从您想要的任何地方开始,但是让您进入 Google Brain 的可能是一个不错的起点.

雅各布·乌斯科雷特: 我确实在某种程度上记得,呃,遇到这个机器学习问题,也许是最广泛意义上的,[和] 语言理解,更具体地说,作为一个家庭问题。 所以我爸爸是一名计算机科学家和计算语言学家,你知道,在成长过程中,像图灵机这样的东西在早期并不一定完全是外国概念。

维杰·潘德: 是的,这听起来像是餐桌上的谈话,事实上。

雅各布·乌斯科雷特: 他们是餐桌上的谈话。 因此,特别是有限自动机,以及它们与自动售货机的实际关系,是您知道的常见话题。 我年纪越大,就越想确保自己最终做一些不同的事情。 因此,我最终对那里的纯数学和相关领域进行了相当多的研究。 [我] 确实非常关注优化、优化算法、整体算法,更广泛的复杂性理论,然后才意识到这可能不是最实用和最适用的东西,你知道,这已经成为在我的职业生涯中有点红线。 然后在 2005 年偶然发现了谷歌的实习机会。

我有几个不同的选择 [关于] 加入什么样的研究项目,[并且] 其中包括不同的计算机视觉工作,还有基本上成为谷歌翻译的机器翻译项目。 就在那个时候,或者稍早一点,[Translate] 推出了它的第一个产品,该产品真正由开发的 Google 内部系统提供支持,从某种意义上说,令我沮丧的是,事实证明 Google Translate 在到目前为止,这个时代有最有趣的大规模算法问题。

当时,这真的很有趣,因为说服我放弃我的博士学位并在实习后回到谷歌,真的是我在那里的时候很明显,如果你想在机器学习不仅有趣,让我们说在智力和科学上,令人兴奋、具有挑战性和刺激性,而且对在工业和产品中立即发挥作用也寄予厚望。 那个时候,世界上真的没有很多地方。 他们当时当然不是学术实验室,而是非常像谷歌的地方。 谷歌当时实际上处于这方面的最前沿。 所以,你知道,当时我认为在一千台机器上运行我的第一个大规模聚类算法真是太神奇了,而在其他地方这样做是绝对不可能的。

维杰·潘德: 当你与我们的资深同事交谈时,贝尔实验室鼎盛时期充满了浪漫主义色彩,我一直想知道 Google Brain 是否可能是当今更接近的变体之一。 环境怎么样?

雅各布·乌斯科雷特: 所以我觉得实际上从那段时间到 Google Brain 真正起步之间,也就是大约五年后,发生了重大转变。 在 Brain 和 Translate 开始之前,它更多地是由真正产生影响的产品驱动的,而不是我认为的贝尔实验室。 当然,我们中间有很多贝尔实验室的校友,但更多的是受到直接适用性的激励。

对我来说,亲眼目睹机器翻译是如何 [从那些] 对聚会上的笑声有益的,毫不夸张地说,这真的让我感到非常惊讶。 如果他们问你,你在哪里工作? 你说,谷歌。 然后他们说,你在那里做什么? 起初他们印象深刻。 然后你说,哦,我在谷歌翻译上工作。 然后他们笑着问,这行得通吗? 我不这么认为。 但与此同时,我想说机器学习的浪潮,深度学习之前的机器学习复兴浪潮,开始趋于平稳。 你知道,深度学习是我以前在学校学过的东西,我喜欢它,但那时候它并不是你真正可以应用的东西。

维杰·潘德: 是的,尤其是因为你在学术界没有规模来做你需要做的计算。

雅各布·乌斯科雷特: 当然不是在学术界,但即使是在谷歌。 即使在当时,实际上,在 Translate 中,最有趣的区别特征是,我想说的是,我们最终确实相信数据的绝对力量。

所以我们试图不去制造更复杂、更复杂的算法,而是尽可能地简化和扩展它们,然后使它们能够在越来越多的数据上进行训练。 但我们只是在那里遇到了天花板。 为了将它们扩展到当时谷歌的规模,你必须进行简化,这确实是我们的目标。 但后来,这就像钟摆运动中的一个,从学术界摆回来,一群拥有一堆 GPU 的人——深度学习在某种意义上以复仇的方式卷土重来。 突然间环境发生了变化,因为不清楚大规模投入生产的直接途径是什么。

因此,整个环境从更多的应用程序和产品导向转变为至少有好几年的感觉,更具学术性。 它仍然与学术实验室有点不同,因为我们可以负担得起更多的 GPU,但在某种意义上更符合这种想法,[被] 由出版物驱动,由飞跃而不是步骤驱动。 [它] 变成了一个非常非常有成效的——而且真的很棒——但更加开放的 [环境]。

注意就是您所需要的

维杰·潘德: 好吧,你知道,说到出版物,自然而然想到的地方就是你和团队出版的时候注意力是你所需要的。 而且,你知道,那是一篇关于生成式 AI 的开创性论文,因为那是首次提出 transformer 算法的时候。

雅各布·乌斯科雷特: 在发表那篇论文的两年前,我们意识到 [that] 什么是当时最先进的机器翻译等问题,或者 [什么] 正在成为最先进的,即 LSTM 或基于 RNN ,Seq2Seq 总体上作为一种训练范式和一种设置,但也作为一种网络架构——在数据扩展方面,即使在当时最现代的 GPU 上也存在令人难以置信的问题。

例如,据我所知,谷歌推出的第一个神经机器翻译系统 GNMT 实际上从未真正训练过我们之前为基于短语的统计系统挖掘的所有可用训练数据。 那是因为算法在数据量方面没有很好地扩展。 所以,长话短说,当时我们关注的不是机器翻译,而是谷歌内部有更多可用训练数据的问题。 所以这些是搜索出来的问题,基本上还有三四个数量级。 你知道,现在不再有数十亿个单词,而是轻松地达到数万亿个,突然间我们遇到了这种模式,其中简单的前馈网络,尽管它们做出了荒谬的简化假设,例如,它只是一个词袋,或者它只是一个双字母袋,然后你对它们进行平均,然后通过大型 MNLP 发送它们,它们实际上优于 RNN 和 LSTM,至少在接受更多数据训练时。

[而且他们] 训练速度快了 n 倍,轻松快了 10 倍、20 倍。 所以你可以用更多的数据来训练他们。 在某些情况下,[他们] 的训练速度要快一百倍。 因此,我们始终以更简单的模型结束,这些模型无法表达或捕捉我们知道在语言中绝对常见的某些现象。
然而,你知道,归根结底,他们的训练成本更低,而且 [他们] 表现更好。

维杰·潘德: 让我们为不熟悉的人举个例子。 所以,换句话说,如果我说,显示附近除意大利餐厅以外的所有餐厅,它会显示所有意大利餐厅,对吗?

雅各布·乌斯科雷特: 确切地。 事实上,你说的可能可以重新排序,让我看到除了附近的所有意大利餐馆。 这只是一堆单词,您可以将其重新排序为绝对意味着不同的东西。

维杰·潘德: 是的。

雅各布·乌斯科雷特: 然后你通过输入双字母来近似了解结构并了解更多的全球现象。 所以基本上是两个连续的词组和类似的东西。 但很明显,当然在像德语这样的语言中,你基本上可以把动词放在句子的最后……

维杰·潘德: 它改变了整个意义,对吧?

雅各布·乌斯科雷特: 改变所有的意思,确切地说,是的。 无论你的 n-grams 或你的小词组有多大,你最终都不会成功。 我们很清楚,必须有一种不同的方法,不需要 RNN 在长度上重复,或者在单词或像素的序列中重复,但实际上以更并行的方式处理输入和输出,并且真的最终迎合现代加速器硬件的优势。

维杰·潘德: 想一想,就像一袋单词是随机排列的单词。 LSTM,或长短期记忆,可能会给你某种 [能力] 回顾一下过去,对吧? 但是变形金刚做了一些完全不同的事情。 Transformers 如何将其提升到一个新的水平?

雅各布·乌斯科雷特: 总是有两种看待这个问题的方法。 一种是从效率的角度来看,但另一种可能更直观的方式是从您可以维护多少上下文的角度来看待它。 就像你说的,LSTM,或者一般的递归神经网络,他们通过他们的输入一步一步地,从广义上讲,虽然他们,在理论上,能够维持任意长的上下文窗口进入输入——过去——什么在实践中发生的是,他们实际上很难识别过去非常遥远的事件,比如单词或像素,这些事件最终会真正影响一天结束时的意义。 他们倾向于关注附近的事物。

另一方面,Transformer 基本上只是颠倒过来,然后说,不,我们所做的每一步都不是在输入中移动。 在每一步,我们都在查看整个输入或输出,并且我们基本上是在逐步修改每个单词或每个像素或每个补丁或视频的每一帧的表示,因为我们基本上移动,而不是在输入空间中,但在表示空间中。

维杰·潘德: 是的。

雅各布·乌斯科雷特: 就如何将其安装到现代硬件而言,这个想法有一些缺点,但与循环神经网络相比,它主要有优势,因为现在你实际上不必按顺序计算表示,比如逐字逐句。 你被束缚的是,真的,他们应该有多好? 这种对所有位置、所有词对或所有图像块对可以立即交互的所有位置的并行处理有多少层? 我实际上可以“负担得起”对这些表示进行多少次修改?

维杰·潘德: 真正有趣的是,显然灵感来自于自然语言,但是有许多结构需要输入,而您不想只按顺序研究它,例如 DNA 序列——我们将进入生物学领域很快——你想拥有整个事物的模型。

语言有点搞笑。 当我说话或听你说话时,我正在处理每个单词,但最终我不仅要将单词标记为单独的含义,而且我必须开发这种表示形式。 是的? 我希望我们能像变形金刚那样做。 也许这就是 LSTM 更接近我们人类做事的方式的诀窍,而 transformer 可能正是我们应该做的方式,或者我希望我们能做到。

雅各布·乌斯科雷特: 从表面上看,我认为这是真的,尽管归根结底——像这样的内省论点是微妙而棘手的。

所以我想我们中的许多人都知道这种现象,即您在繁忙的街道上与试图交流某事的人大喊大叫。 所以你听到他们说了些什么,这不是一个简短的单词序列,你基本上什么都听不懂。 但就在半秒钟之后,你突然明白了整句话。 它实际上暗示了这样一个事实,即虽然我们被迫以顺序方式书写和说出语言——只是因为时间的箭头——但我们并不清楚我们更深入的理解是否真的以这种顺序方式运行。

建立一个团队

维杰·潘德: 如果有人甚至只研究 Attention is All You Need 论文或变压器的工作原理,那么它包含很多部分。 现在看来,它可能已经超过了一个人可以在任何短时间内有效地独自完成这项工作的地步。

雅各布·乌斯科雷特: 绝对。

维杰·潘德: 所以现在你真的需要一个团队来做这些类型的事情。 这有什么社会学意义? 这样的事情是怎么发生的?

雅各布·乌斯科雷特: 我个人认为,这个特殊案例是一个非常好的例子,它非常适合科学研究的工业方法。 因为你完全正确。 这并不是引发这一切的想象力和创造力的一大火花。

最终,确实需要一大堆贡献。 拥有一个环境,一个库——后来也以 Tensor2Tensor 的名义开源——实际上包含了实现。 不仅仅是任何实现,而是非常好的实现,各种深度学习技巧的快速实现。
但也一直到这些注意力机制,这些机制来自以前的出版物——比如之前发布的可分解注意力模型——但实际上结合了改进和创新,围绕优化器的发明。 我认为,你不会找到真正同时在所有这些方面都属于世界领先专家并且对所有这些方面都同样充满热情的人。

维杰·潘德: 特别是有最初的想法,有它的实施,有它的规模。 目前,要在大公司以外的任何其他地方达到这种规模,可能仅仅因为成本问题是不可行的。

雅各布·乌斯科雷特: 我认为实际上也许大公司方面并不是那么重要。

维杰·潘德: 是吗?

雅各布·乌斯科雷特: 公司方面是我更看重的方面。 如果你需要成千上万的 TPU 或 GPU 或你拥有的东西,大公司当然不会受到伤害。 财大气粗的东西永远不会伤害这种东西。 但与此同时,我相信围绕这种行业探索性研究的激励结构更适合这类项目。 我认为这实际上是我们正在看到的,全面审视生成人工智能项目。

维杰·潘德: 是的。 就您而言,它可能是一家初创公司。

雅各布·乌斯科雷特: 它绝对可以是一家初创公司。 而且我认为我们现在看到使用加速器硬件至少变得更实惠了。 在针对图像生成或文本生成的生成人工智能方面,有些初创公司竞争非常激烈。

跳转到生命科学

维杰·潘德: 我很想过渡到你现在正在做的事情。 您是 Inceptive 的首席执行官,该公司将 AI 应用于 RNA 生物学以进行 RNA 治疗。 你是如何过渡到生命科学领域的? 从表面上看,围着晚餐[餐桌]然后围着谷歌自助餐厅谈论语言模型……这似乎是对下一代疗法的一次飞跃。 这一切是怎么发生的?

雅各布·乌斯科雷特: 我完全同意。 从我的角度来看,这是一次了不起的学习经历。 很长一段时间以来,生物学让我印象深刻的问题是,在药物开发和直接设计方面,我们可以走多远似乎并不不可思议,而传统生物学是我们如何着手设计或发现设计未来药物的方法。

出于多种原因,似乎深度学习,尤其是大规模的,可能是一个非常合适的工具。 其中一个原因实际上是一些通常不一定被称为优势的东西,这是一个你可以直接扔到某物上的大黑盒子。 你可以扔掉它是不正确的。 这是你必须知道如何扔掉它的东西。

维杰·潘德: 而且它也不完全是黑色的。 我们可以稍后再争论。

雅各布·乌斯科雷特: 对,就是这样。 确切地。 但是,归根结底,回到语言的类比上,我们从来没有在那种意义上完全理解和概念化语言,达到你可以声称的程度,哦,我现在要告诉你这个语言背后的理论,然后你将能够实现一个“理解”它的算法。 我们从来没有达到那个地步。 相反,我们不得不中止并退后一步,在我看来,在某种程度上,我们承认这可能不是最务实的方法。 相反,我们应该尝试不需要那种概念理解水平的方法。 我认为生物学的某些部分可能也是如此。

使用 AI 使生物技术走得更远

维杰·潘德: 很有意思,我们以前谈过这样的事情。 你想想上个世纪,[那是]非常物理学和微积分的世纪。 有一种心态,你可以有一种方法可以非常优雅地简化事物,你可以有一个单一的方程,比如爱因斯坦的场方程,它描述了这么多,这是一个非常复杂的语言中的一个非常简单的方程。 你谈到了费曼的方法,几乎​​就像物理学社会学一样,可能不适用于生物学,对吧?

雅各布·乌斯科雷特: 它可能不适用,至少出于我目前可以看到的两个原因。 第一是涉及的玩家太多。 虽然我们确实可以将它全部简化为薛定谔方程并求解它,但这恰好不仅在计算上难以处理,而且我们还必须了解所有这些不同的参与者,而我们目前还不知道. 差远了。 所以这是一方面。

然后第二个基本上是计算上的难处理性,从某种意义上说,减少已经如此之多,虽然它把一切都带回了一个单一的东西,但它对我们没有帮助,因为我们的计算方法基本上使用那些用于做出预测的基本原理太慢了,无法对足够大的系统做出那些对生活真正重要的预测。

维杰·潘德: 是的。 所以它不是一个 n 体方程,但仍然有一种形式主义的感觉——也许它是一种更数据驱动的形式主义或更多的贝叶斯形式主义。 这如何影响你想做的事情? 这对应用 AI 和其他类型的新算法有何影响?

雅各布·乌斯科雷特: 我认为有几个不同的方面。 归根结底,在我看来,我们目前在生成式 AI 中看到的最大收获之一是,我们不再需要训练不仅完全干净而且精确来自领域的数据以及您以后想要处理的任务类型。 但相反,它实际上可能更有益,甚至是迄今为止我们发现的唯一一种方法,即实际尝试训练你发现的一切甚至是远程相关的东西。 然后使用从这些数据中有效收集的信息,以最终得到所谓的基础模型,然后您可以使用更小、更易于处理的更干净的数据对各种特定任务进行微调。

我认为我们稍微低估了我们对整个现象的了解。 为了建立一个非常好的大型语言模型,你必须明白有一个叫做互联网的东西,里面有很多文本。 实际上,您必须对如何找到该文本、什么不是文本等有相当多的了解,以便从根本上从中提取您随后使用的训练数据。

我相信围绕生物学会有非常直接的类似挑战。 最大的问题是:什么是我们可以扩展的实验,这样我们就可以在足够大的范围内以足够的保真度观察生命——但特异性要低得多,同时牢记你最终要解决的问题——这样我们就可以基本上从中获取我们需要的数据,以便开始构建这些基础模型,然后我们可以使用这些数据,对其进行微调和专门设计,以真正解决我们想要解决的问题。

数据生成部分当然是其中之一。 架构和有效地模仿我们所知道的模型和网络架构,比如,关于下面的物理,仍然是一种非常强大的方式,可以实际节省计算,并减少这些模型必须拥有的对数据的巨大需求,达到可行的水平。 因此,我认为实际上值得注意的一件事是,许多当前的模型应用程序,比如变形金刚,已经被发现在其他模式、其他领域、语言、视觉、图像生成中具有很好的扩展性,等等,将它们应用于生物学基本上忽略了这样一个事实,即我们知道有时间这样的东西,而且物理定律,至少就我们所知,似乎不会改变随着时间的推移。

蛋白质折叠的过程,忽略了一个事实,即有无数的参与者——伴侣和诸如此类的东西——实际上,在某种意义上,是一个与蛋白质动力学的其余部分相当任意分离的问题。 它的动力学与该分子的其余动力学或该蛋白质的剩余生命一样多。 那么,为什么我们要尝试专门为一个模型训练模型,而至少有可能忽略我们可能拥有的关于另一个模型的数据? 在这种情况下,也许更具体地说,我们今天拥有的一些蛋白质结构预测模型是否已经隐含地学习了一些关于动力学的知识,因为它们慢慢开始拥抱时间的存在?

开发新架构

维杰·潘德: 关于你现在所处的位置,我想到的一件有趣的事情是,除了少数罕见的例外,大多数深度神经网络或生物学中其他类型的 AI 感觉就像是在把其他地方发明的东西带走。 就像我们将对图像使用卷积神经网络一样。 也许对于小分子……在我斯坦福的实验室中,我们使用了图神经网络和几个卷积神经网络。 但是真正针对生物学问题明确开发算法是非常罕见的。 我一直认为这是因为很难拥有一支在生物学领域和计算机科学领域都很强的团队的技能组合。 但我很想知道你的看法。 还是一开始就很少开发新架构?

雅各布·乌斯科雷特: 好吧,我认为,归根结底,我们所看到的是新架构虽然受到特定问题的推动,但如果它们真正有所作为,那么它们往往也适用于其他地方。 另一方面,这并不意味着,在此过程中,仔细选择激励应用程序和领域不会产生巨大差异。 我认为确实如此。

我觉得这里的一个主要挑战确实是我们还没有进入一个我们拥有成群结队数据的生物学制度,尽管与我们之前拥有的相比,它是惊人的。 但我们还没有进入那种只是坐在相当于网络上的状态,我们可以稍微过滤一下,下载它,然后完成它。 但相反,我认为我们必须在相当大的程度上创造它。 深度学习专家不会做到这一点,至少大多数人不会。

而且我相信这必须与真正理​​解所述数据的特殊性同步发生,对吗? 你在那里遇到的各种噪音。 事实上,这些实际上是在非常大规模的池中创建的,高通量实验,但仍然是由不同的实验者在不同的日子进行的实验等等。 如果具有更多深度学习背景的人与具有生物学背景的人密切合作,充分了解我们对潜在现象的了解,[他们将] 基本上会受到启发去尝试有趣的新方法。

维杰·潘德: 好吧,我很喜欢你谈到 Attention is All You Need 论文的例子,关于你想如何让这群不同的人,他们的激情,你知道,彼此相当正交。 从某种意义上说,当你在生物学中做这件事时,尤其是你在 Inceptive 做的事情时,你还必须将所有这些工作投入到生成数据中。 生成数据实际上意味着,非常明确地,进行大规模的生物实验。 输入部分本身非常昂贵且技术性很强,而且正如您所说,有很多出错的方法。 但听起来你是在建立你以前做过的文化,而现在它只是更多具有不同激情的专家以类似的方式进行协调。

雅各布·乌斯科雷特: 我真的需要,[并且]人们需要它。 据我所知,这是最有希望的途径。 在某种意义上,[它] 的目标不是管道模型,在这些模型中,根据我们的知识,在实验室中创建某些数据,这些数据是关于生命的潜在方面的。 然后开始在其上运行现有的深度学习方法,然后对其进行调整。 但是,实际上要拥有这样的人,在某种意义上,他们可能是第一批真正在目前还没有名气的学科中工作的人。

也许最不常见的共同点是好奇心,它超出了你所知道的、你以前学过的以及你可能花费大部分时间做的事情。 我们发现,就像在许多其他领域一样,我们真正追求的是一群背景非常不同但有着共同好奇心的人。

人工智能将走向何方?

维杰·潘德: 您认为 AI 目前在哪些方面可以解决更难的问题,如药物设计、医疗保健等? 必须做什么? 它什么时候到达那里?

雅各布·乌斯科雷特: 我希望——对未来做出预测总是非常危险的——如果在未来三年内我们实际上不会开始看到一个[拐点]发生,当涉及到现实世界的影响时,我会感到非常惊讶机器学习,药物开发中的大规模深度学习,药物设计。 当然,我相信他们中的很多人将首先出现在 RNA、RNA 疗法和疫苗方面。 那肯定不是唯一受此影响的领域,但我绝对认为我们正在进入拐点领域。

维杰·潘德: 你提出了一个有趣的观点。 RNA有什么不同? 因为我认为这特别有趣,不仅仅是你从 Google Brain 进入了生物学,而且你还专门进入了 RNA。 RNA 吸引您的地方是什么,尤其是从 AI 或 ML 的角度来看?

雅各布·乌斯科雷特: RNA 的一个有趣之处在于,正如我们所见,它具有非常广泛的适用性——尽管它在单一适应症的意义上仍然很狭窄——但只要看看这一波正在开始和已经开始的审批流程,它就很不错了很明显,适用性非常非常广泛,再加上——这有点模棱两可——一个结构简单的问题。 它在结构上很简单,不是说 RNA 结构预测很简单,而是在它是一种具有四个不同碱基的生物聚合物的意义上,它在结构上很简单。 我们不是在谈论超过 20 种氨基酸。 这是可以相当有效地生产的东西。

那里有一些挑战,但综合是可以扩展并且正在迅速扩展的东西,这些东西结合在一起确实实现了我猜经常提到的这种快速反馈循环,但很少,至少据我所知,实际实施并在一天结束时实施。

维杰·潘德: 是的,可以说这可能是一个更快速的反馈循环,特别是对于你追求它的方式。

雅各布·乌斯科雷特: 是的。 鉴于我相信我们需要创建大部分数据来训练我们正在训练的模型,我们真的在投资 Inceptive 来大规模创建此类数据。 而且我会说相对相当大规模,考虑到 RNA 似乎是迄今为止在结构简单性方面的最佳组合,而且在合成和该实验的可扩展性方面也是如此。 这里有巨大的潜力,迄今为止尚未开发。

维杰·潘德: 是的,我认为特别有可能拥有这些快速周期的能力,这两种都是临床前的,因此可以更快地到达诊所并 [在更短的时间内] 进入诊所。

雅各布·乌斯科雷特: 绝对地。 这正是我们所希望的。 我们也可能看到早期暗示表明情况可能如此,我们当然非常非常兴奋。

维杰·潘德: 想想过去 10 年,从 2012 年到现在,真是太棒了。 您认为未来 10 年会是什么样子? 您认为 10 年后我们在 AI 方面的进展如何? 广泛或特别是生物?

雅各布·乌斯科雷特: 我认为,如果我们确实正在进入这个拐点领域,那么当我们回顾 10 年后,它看起来就像一场革命,至少与我们认为我们在过去 10 年。 至少。 现在我认为会有一个关键的区别,那就是我们在过去 10 年中目睹的革命究竟在多大程度上影响了每个人的生活,这还不是很清楚。 在某些领域,搜索引擎或辅助写作等,这是显而易见的,但尚不清楚这场革命的适用范围有多广泛。 我相信它非常如此,但我们还没有看到它。 我认为未来 10 年我们将特别看到的围绕生物的革命,或者我们将在 10 年后回顾的革命,在对我们所有人生活的深远影响方面将大不相同.

即使撇开药物设计和发现应用不谈,在科学发现中和周围也有如此惊人的应用,你现在可以想象,通过网络界面,你基本上可以设计出在某些生物体中很有可能进入的分子回答某些问题,产生比以前更可靠的读数。 因此,即使不考虑这最终将如何影响患者和每个人的所有复杂性,我认为很明显,这些工具将迅速加速生物学等领域的发展。

维杰·潘德: 这似乎是结束它的好地方。 非常感谢 Jakob 加入 Bio Eats World。

雅各布·乌斯科雷特: 非常感谢您有我。

奥利维亚韦伯: 感谢您加入 Bio Eats World。 Bio Eats World 由我 Olivia Webb 在 a16z 的 Bio + Health 团队的帮助下主持和制作,由 Phil Hegseth 编辑。 Bio Eats World 是 a16z 播客网络的一部分。

如果您对这一集有疑问或想为未来的一集建议主题,请发送电子邮件至 最后但同样重要的是,如果您喜欢 Bio Eats World,请在您收听播客的任何地方给我们评分和评论。

请注意,此处内容仅供参考,不应被视为法律、商业、税务或投资建议,或用于评估任何投资或证券,也不针对任何 a16z 基金的任何投资者或潜在投资者. 有关详细信息,请参阅 a16z.com/disclosures。

***

此处表达的观点是引用的个人 AH Capital Management, LLC (“a16z”) 人员的观点,而不是 a16z 或其关联公司的观点。 此处包含的某些信息是从第三方来源获得的,包括来自 a16z 管理的基金的投资组合公司。 虽然取自被认为可靠的来源,但 a16z 并未独立验证此类信息,也不对信息的持久准确性或其对特定情况的适用性做出任何陈述。 此外,该内容可能包含第三方广告; a16z 未审查此类广告,也不认可其中包含的任何广告内容。

此内容仅供参考,不应被视为法律、商业、投资或税务建议。 您应该就这些事项咨询您自己的顾问。 对任何证券或数字资产的引用仅用于说明目的,并不构成投资建议或提供投资咨询服务的要约。 此外,本内容并非针对也不打算供任何投资者或潜在投资者使用,并且在任何情况下都不得在决定投资于 a16z 管理的任何基金时作为依据。 (投资 a16z 基金的要约仅通过私募备忘录、认购协议和任何此类基金的其他相关文件提出,并应完整阅读。)任何提及、提及或提及的投资或投资组合公司所描述的并不代表对 a16z 管理的车辆的所有投资,并且不能保证这些投资将是有利可图的,或者将来进行的其他投资将具有类似的特征或结果。 由 Andreessen Horowitz 管理的基金进行的投资清单(不包括发行人未允许 a16z 公开披露的投资以及对公开交易的数字资产的未宣布投资)可在 https://a16z.com/investments 获得/。

其中提供的图表仅供参考,在做出任何投资决定时不应依赖。 过去的表现并不预示未来的结果。 内容仅在所示日期生效。 这些材料中表达的任何预测、估计、预测、目标、前景和/或意见如有更改,恕不另行通知,并且可能与他人表达的意见不同或相反。 有关其他重要信息,请参阅 https://a16z.com/disclosures。

时间戳记:

更多来自 安德森霍洛维茨