首页 关于我们

作者:量子位 2024/09/07 12:48
鱼羊 发自 凹非寺
量子位 | 公众号 QbitAI

公司刚10人,种子轮融资就融了10亿美元

这种惊掉人下巴的事儿,也只有发生Ilya Sutskever身上,才稍显“正常”。

Ilya,在大模型席卷全球的当下,他的贡献被公认为达到了改变世界的级别:

他是AlexNet三位作者之一,和恩师Hinton一起被挖到谷歌之后,又深度参与了震惊世界的AlphaGo项目。

2015年,他参与了OpenAI的创立,出任首席科学家。ChatGPT再次改变世界,他被认为是背后最关键的人物之一。

从去年11月至今,Ilya的一举一动更是被推到台前,受到全球科技圈的瞩目:

由他发动的OpenAI董事会内讧揭开大模型发展路线之争,而他在今年5月与OpenAI彻底分道扬镳之后,所有人都在等待他的下一步创业动向。

现在,尘埃初定。一向低调的Ilya本人,也在这个时间点上,同外界分享了更多有关他的公司SSI,以及他本人对AGI思考的信息。

在与路透社的交流中,Ilya回答了关键的6个问题。以下,原文奉上:

为什么创立SSI?

我们已经发现了一座与我之前的工作有些不同的“大山”……一旦你登上这座山的顶峰,范式就会改变……我们所知的关于人工智能的一切都将再次改变。

到那时,超级智能安全工作会变得非常关键。

我们的第一个产品将会是安全的超级智能。

在超级智能之前,会发布和人类一样智能的AI吗?

我认为关键在于:它是否安全?它是否是世界上一股向善的力量?我认为,当我们做到这一点时,世界将会发生很大的变化。因此现在就给出“我们将要做什么”的明确计划是相当困难的。

我可以告诉你的是,世界将会变得非常不同。外界对AI领域正在发生的事情的看法将会发生巨大变化,并且很难理解。这将是一场更加激烈的对话。这可能不仅取决于我们的决定。

SSI如何判定何为安全的人工智能?

要回答这个问题,我们需要开展一些重要的研究。特别是如果你和我们一样,认为事情会发生很大变化……很多伟大的想法正在被发现。

很多人都在思考,当AI变得更加强大时,需要对其采取哪些测试?这有点棘手,还有很多研究要做。

我不想说现在已经有了明确的答案。但这是我们要弄清楚的事情之一。

关于尺度假设和AI安全

每个人都在说“尺度假设”,但每个人都忽略了一个问题:我们在scaling什么?

过去十年深度学习的巨大突破,是一个关于尺度假设的特定公式。但它会改变……随着它的改变,系统的能力将会增强,安全问题将变得最为紧迫,这就是我们需要解决的问题。

SSI会开源吗?

目前,所有人工智能公司都没有开源他们的主要工作,我们也是如此。但我觉得,取决于某些因素,会有很多机会去开源超级智能安全工作。也许不是全部,但肯定会有一些。

对其他AI公司安全研究工作的看法

实际上,我对业界有很高的评价。我认为,随着人们继续取得进展,所有公司都会意识到——可能是在不同的时间点——他们所面临的挑战的本质。因此,我们并不是认为其他人都做不到,而是说,我们认为我们可以做出贡献。

10亿美元用来干什么

最后,补充一些Ilya话外的背景信息。

SSI的消息最早在今年6月释出,目标很明确,搞Ilya在OpenAI没干成的事:构建安全超级智能。

目前SSI只有10名员工,融完资后,计划利用这笔资金买算力并聘请顶尖人才——

认同他们的理念,已经做好AI有一天会超越人类智能的心理准备的那种。

联合创始人Daniel Gross还透露,他们并不过分看重资历和经验,反而会花好几个小时审查候选人是否具有“良好的品格”。

算力方面,SSI计划和云厂商及芯片公司开展合作,具体和哪些公司合作、怎么合作尚未明确。

除了Ilya本人之外,SSI的联创还有Daniel Gross和Daniel Levy。

左:Daniel Gross;右:Daniel Levy

Daniel Gross毕业于哈佛大学计算机系,此前也是Y Combinator的合伙人之一,也曾创办或参与创办了多家公司,包括Citrus Lane、WriteLaTeX(后更名为Overleaf)等。

他被《时代100》杂志列为“人工智能领域最具影响力的人物”之一。

Daniel Levy则毕业于斯坦福计算机系,此前是OpenAI优化团队的负责人。

本文来自新知号自媒体,不代表商业新知观点和立场。
若有侵权嫌疑,请联系商业新知平台管理员。
联系方式:system@shangyexinzhi.com