Anthropic公司CEO谈AI发展:Cluade安全超过商业利益

Anthropic公司今年3月发布的超越GPT-4模型Claude3 opus,成功吸引了大量GPT-4用户“叛变”。

作为OpenAI的头号劲敌,Claude3发布方Anthropic公司的联合创始人兼CEO,达里奥·阿莫迪(Dario·Amodei)承诺:在能够制定出足够强大的安全措施之前,不会发布超过一定能力水平的人工智能。

这句话简直就是明着去打Sam Altman的脸,跟OpenAI当下“商业至上”的价值观唱反调。

要知道,前不久因Altman不愿给AI安全问题太多资源,导致负责AI安全问题的OpenAI前首席科学家Ilya Sutskever愤而离职,RLHF的发明者之一Jan Leike更是直接跳槽到Anthropic。忽视AI安全问题,利欲熏心、奉行AI商业化产品至上,这就是如今的OpenAI。

犹豫发布Claude,让ChatGPT抢先

时间追溯回2022年的夏天。人工智能公司Anthropic也只是一个刚创立一年,大概只有50人的创业公司。而那时,这个公司的CEO,Amodei,却面临着一个艰难的决定:是否应该公布一个令他和他的团队不得不敬畏的“聊天机器人”——Claude。

这个刚经过训练的机器人Claude,比他们以前见到过的任何机器人都要强大的多。Amodei也知道,公布Claude,就会为Anthropic公司带来无穷的金钱与名声。但他以非常谨慎的态度,放弃了这泼天的富贵。这一切都源自于Amodei的担忧,他担心人工智能问世后带来的潜在影响与后果,这也导致了Claude只能继续在内部进行安全测试。

但就在三个月后,他们的竞争对手OpenAI首当其冲,向世人公布了一款名为ChatGPT的人工智能产品。它席卷起一波人工智能领域的狂潮,这一狂潮也推动了整个科技行业的大洗牌。

3.5研究测试:
hujiaoai.cn
4研究测试:
askmanyai.cn
Claude-3研究测试:
hiclaude3.com

一场人工智能竞赛已经打响了,Amodei的决策却让Anthropic错失了与竞争对手OpenAI同步推出类似产品的机会,也导致了团队浪费了近十亿美元。但Amodei坚信,如果处理不当,先进的人工智能可能会带来灾难性的风险。真正的成功不仅仅是商业收益,更在于确保技术的安全性和对社会的负责任。

Amodei的意识是正确的,虽然在ChatGPT发布GPT-4的后一天,Anthropic才发布初版Claude模型,但它的严谨性,安全性也使这个公司得到了非常“微妙”的赞誉:在所有构建前沿的人工智能公司中,Anthropic是最年轻的,需求资金最少的,也是最明确致力于人工智能安全的。

时至今日,尽管该公司已经从亚马逊、谷歌等投资者那里筹集到了70亿美元之多,公司规模也扩大到500人,Claude也更新到第三代模型,这种盛誉依然经久不衰。

Anthropic押注安全成为一种制胜策略

而今年3月4日更新的Claude3,在当时,在某些方面是功能最强大的公开AI模型,不仅优于当时OpenAI的GPT-4和谷歌的Gemini,还可以说是吊打某些AI模型。

但这也让人们感到疑惑:Anthropic拥有最保障安全的美誉,也掌握着当今最先进、最强大的技术和AI模型之一。这非常矛盾。

但根据某记者在该公司的体验,以及对Amodei及其员工的采访表明,Anthropic并不认为这很矛盾。“弄清楚人工智能带来的危险是什么,这是一个需要试验来验证的问题。” Amodei说。他认为Anthropic的使命就是做试验来回答这个问题,这恰恰需要建立和研究强大的AI系统。

同时,Amodei也认为Anthropic在市场上的竞争方式,可以引发其他公司也能“竞相”做好AI模型的安全性保障。

早在去年7月,Amodei就在与华盛顿特区的参*的交流时佐证,他认为最快到2025年,AI就足以发展出能造成大规模破坏并改变各国之间关系平衡的力量。

为此,Anthropic甘愿率先进行自我约束,承诺在能够制定出足够强大的安全措施之前,不会发布超过一定能力水平的人工智能。 它的竞争对手们也在人工智能首尔峰会上,共同签署了前沿AI安全承诺(Frontier AI Safety Commitments),将努力确保其最先进的AI模型的安全性,并实施负责任的治理、实现公开透明。

对此,人工智能智库Ada Lovelace研究所的副主任安德鲁·斯特雷特(Andrew Strait)发表了自己的看法:

“他们所建立的是一个很容易被利润动机抛在一边的政策。对于公司来说,推出这些政策并不是一件坏事,但现在*应该拿出相应的监管基础设施来支持这一政策的推行,并且设立其门槛,而不是让公司自己来设立。”

并且,不是所有人都相信Anthropic关于自己的叙述。

一些批评人士表示,虽然该公司致力于推进安全研究,但其前沿人工智能模型的创建仍然加剧了人类的生存压力。无论是对AI炒作持怀疑态度的群体,还是希望看到AI尽快发展的群体里,都有一部分人认为,Anthropic对安全性和*监管的呼吁是为了获得大型科技公司的垂青。也一些人担心,Anthropic对所谓“生存”风险的不懈关注,会分散人们对偏见、版权侵权和训练新AI模型的环境成本等担忧的注意力。

面向未来,Anthropic要做多手准备

Amodei做出了很精妙的设想。根据Anthropic对“保证AI足够安全”这一问题的理解,以及采取相应措施的难处,该公司会采取不同的发展路线。

1,++如果事实证明,AI可以很容易地始终与人类的价值观保持一致,++ Amodei希望Anthropic继续发展,并致力于减少AI滥用等问题带来的危害;

2,++如果上述的“一致”有技术上的困难,++ Amodei希望Anthropic突破所需的技术来保持一致;

3,++如果AI不可能与人类价值观一致,++ 那Anthropic就需要收集这方面的“非常有力的证据”,这样Amodei就可以直接对*官员表明“AI存在威胁人类的生存”。

但至少现在,Amodei还没有这样的证据,而他也不希望有一天AI会发展到那种地步。问题是Anthropic能否存活足够长的时间以达到这一目标。

据悉,Claude3的训练费用在3000万美元到3亿美元之间。Amodei预测,2024年训练模型的成本将达到10亿美元。并且后续的成本只会日益增高。这笔资金将来自哪里,而Anthropic又会为拉动投资做出什么举措,目前尚未得知。而Anthropic的基本赌注就是,他们将在商业中证明更安全的技术可以赚更多的钱

有网友预测,Anthropic会为了拉动资金而扩大Claude3的销售,或者向*寻求资金支持(这也是Amodei期望的)。同时也不排除Anthropic会被更大的科技公司收购的情况。

对此,你有什么看法呢?欢迎在评论区留下你宝贵的意见。

参考资料

[1]https://time.com/6980000/anthropic/
[2]https://www.guancha.cn/industry-science/2024_03_05_727338.shtml#comment

上一篇:QuartusII调用 PLL_IP核方法(Mega Wizard)


下一篇:K210视觉识别模块学习笔记1:第一个串口程序_程序烧录与开机启动-首先在IDE中新建文件: 编写一个串口测试程序如下: