人工智能:以更多的精力更快地完成愚蠢的事情

  为什么在数据驱动的时代我们需要新一代的领导者

  多选时间! 什么是最好的工人?

  A)可靠,准确,快速,高效地执行订单的工人。

  B)不可靠的工人,他们可能会或可能不想做被告知的事情。

  如果您认为这是显而易见的选择,并且可靠的选择(A)是显而易见的答案,请再考虑一下。 这实际上取决于向工人提供指导的人员的技能。

  可靠的员工将有效地扩大优秀领导者的明智决策,但不幸的是,他们还会放大愚蠢的决策者。 还记得那些经典的咖啡馆海报吗? "咖啡:用更多的精力更快地做愚蠢的事情!"当领导者不称职(或败坏)时,不可靠的工人就是一种祝福。 不能将一心一意的决心从他们身上拖出来吗? 多么美妙! 当*者全心追求坏决策者设定的目标时,事情会变得很恐怖。

  决策者的素质至关重要! 当领导者无能时,不可靠的工人就是一种祝福。

  如果您是一个傻瓜,那么最好选择也是不可靠的选择(B):什么事情也做不了,也不会听从领导者的愚蠢行为。

  计算机是终极可靠的工作人员,它们可以惊人的速度大规模实现您的愿望。

  现在是坏消息! 计算机是最终的可靠工作者。 他们只会按照所告诉的去做。 不多也不少。 他们不会自己思考。 他们根本不思考! 他们什么都不想要,除了你告诉他们想要的。 (实际上,神经科学家谈论动机-想要-这样的概念是一种生物学特权。说一台机器真的想要任何东西是没有道理的。)如果您告诉计算机要向世界说"你好"一百万次, 您不会收到任何抱怨。 希望我为您做同样的事情吗? 没办法,我已经无聊了。

  与机器相比,人类是不可靠的。 如果您选择一项能机器和人都能单独,以相同的效果完成的任务,并将其分配给1000台机器和1000位人类,那么我的钱就不会给人类团队。 这是为什么:

  如果您最着迷于单个级别的性能或模型的复杂性,那么您可能会错过一个重要的概念:系统级别的激励性复杂性。

  我们都是珍贵的雪花,并以我们自己的方式变得不可靠。 我们每个人都需要付出毕生的努力来耕种,而且我们当中没有人从我们的环境中获得相同的系列投入。 结果是整个员工的激励措施令人眼花mix乱,从与孩子一起玩耍到觅食垃圾食品,有时甚至看起来很忙。 由于他们的不可靠性朝着不同的方向发展,这使糟糕的决策者感到震惊。

  我们所有的人不可靠性指向不同的方向,从而制止了糟糕的决策者。

  这就是为什么人们通常不会像机器那样有效地扩大领导者的意图。 (也就是说,如果人们像铁屑和磁铁一样排列在一起,历史证明我们有能力应付一些可怕的事情。)

  计算机系统倾向于遵循更为简单的激励集,因为这些激励集是由构建它们的人决定的。 作为头脑简单的动物,我们倾向于选择"最大化收益"或"准确识别猫"之类的目标。 如果我们想花哨的话,也许我们会一次结合两个或三个。

  当今应用程序的背后是大量遵循相同简单命令的机器。

  与此相比,这个星球上所有不同的思想家都经历了各种激励机制,它们都朝着不同的方向发展。 甚至在叛变的边缘,一个单一的大脑也充满了竞争目标的范围。 一个开发人员如何手工制作这样的系统? 您不需要……也许机器辅助的超复杂激励设计将是下一个重大的类人智能(HLI)突破的源泉。 除了猜测之外,今天的应用程序背后是成群的机器,它们都遵循相同的简单命令。

  技术是扩大人类决策者意愿的杠杆。

  谁下达那些命令? 负责该项目的人。 我希望我们停止使用表示任何自主或独立于人的技术的语言。 人类不是建造它吗? (还是有我不知道的一些外星事件?)

  因为它总是来自人们并由人们设计,所以所有技术都是制造它的人的愿望的回声。 有时,回声在按下按钮后会停留很长时间,很容易忘记人们在制作按钮时所扮演的角色。 它总是按照人们构建它所做的事情来做……从悲惨的角度来看,这往往与他们希望构建它所做的事情不同。 (开发人员,您知道错误是您的错,而不是计算机的错,对吧?)

  顶头上司是天启四骑士之一。

  技术扩大了人类决策者的意愿。 这是一个杠杆,缩放比例越大,杠杆就越大。 当杠杆变得足够长,足以影响世界时,为什么我们不要求知道使用这些杠杆的人是否由负责任地做到这一点的技能?

  在过去的几个世纪中,糟糕的决策者是相对自我限制的,因此对人们进行决策技能的培训并没有那么认真。 当然,您将从婴儿期开始接受皇室教育,但为什么还要打扰其余的平民呢?

  如今,随着计算机系统的扩展以接触更多的生活,我们经常被提醒,您的技术产品经理的童年时期更加光明,并且并没有通过迅速的追赶来做很多准备,在技术驱动的世界中责任越来越重。

  地位太高,工艺不足。

  最糟糕的是那些将决策仅视为振奋精神和发挥地位的另一种方式的*。 使杠杆足够长,*别的老板将成为天启四骑士之一。 也许是时候重新考虑决策科学和科学技能了。

  这与AI有什么关系?

  到目前为止,我们的讨论通常是关于可伸缩技术的。 它们都不是特定于AI的。

  ML / AI的问题在于,有效,负责地进行构建需要采取可扩展技术的全部决策技能,然后再进行一些决策。 它更多地是决策智能和决策愚蠢的放大(我希望您会同意,其中一种听起来比另一种听起来更可口)。

  可以将其视为魔灯的扩散。

  当我想到机器学习和AI时,我想到了阿拉丁神灯的泛滥。 忘记类人机器人-这些技术要强大得多。 与传统编程不同,它们可以让您解决问题,即使您自己无法想出解决方案的步骤。

  人工智能可以使您无法表达的内容自动化。

  这是因为它们使您可以通过示例和目标而不是明确的指示来表达自己的愿望,这意味着您可以实现超越人类表达的自动化。

  人工智能代表着人类进步的根本飞跃……但是您还记得每个谨小慎微的故事的寓意吗?

  危险不是精灵,而是技术不熟练的许愿者。

  在这些故事中,危险的不是精灵。 这是不熟练的许愿者。 这个精灵的魔力可能对人类来说是一个巨大的福音,但这取决于您所指出的方向。如果我们的物种被赋予了巨大的力量,我会比担心好莱坞漫画的恶棍(更严重的心理疾病是少有的)要更害怕满是善意的大黄蜂。

  与传统编程相比,ML / AI包含以更接近那些阿拉丁神灯故事的样式来表达您想要的内容。

  从本质上讲,ML / AI范例是一种与机器通信的新方法。 与传统编程(分步说明)相比,ML / AI涉及以更接近那些阿拉丁神灯的故事(目标和示例)的方式表达精灵的需求。

  当您将无所不能的沟通者掌握与数据进行大规模通信的能力时,会发生什么?

  AI的可怕部分不是机器人。 是人。

  ML / AI系统将无法通过测试而无法交付任何东西(因为您的精灵太弱了,以至于您将电灯送回阁楼),或者通过了测试,并且可以准确地交付决策者的期望。 不是决策者希望的,而是决策者想要的。 如果他们做出愚蠢的愿望怎么办?

  测试ML / AI系统可保护您免受无效精灵的侵害,而不是愚蠢的许愿者。

  如果您怀有以下观点,你会非常害怕:"我从不做老板要我做的事情,我做老板想要的事情。"

  您是说老板不懂得如何负责任地做事。 让他们负责ML / AI项目实在是一场灾难。 相反,他们需要训练或将其放置在不能造成任何损坏的安全地方(并加缓冲?)。 暂时将它们移开,他们会要求AI系统制作尽可能多的回形针。

  我们需要比以往任何时候都更加努力,以确保参与决策角色的任何人都具有负责任地希望的技能。

  可能是最危险的许愿者是其愿望会产生意想不到的后果,从而逃脱脆弱的安全网。 即使一个许愿者有最好的意图,但如果他们不能完全思考所要寻求的东西,那么他们也是一种危险,以致于希望的精神与要求相符。 强大的力量伴随着巨大的责任……智能地使用这种力量。 这需要技巧,而不仅仅是善意。 但是如何为AI时代建立负责任的许愿技能呢? 通过投入时间并寻找机会。

  规模不断扩大的技术就像不断加长的杠杆一样,我们决不能忘记这些杠杆的末尾有人为的决策者。

  强大的规模化技术变得越来越容易使用,因此,比以往任何时候都更重要的是要认识到它们已经吸收了多少人为因素。

  如果您习惯责怪无生命的物体,那么您在这里无济于事。 睁开眼睛看着机器后面的人。

  如果您想为AI操心,就不必担心人格或机器人。 担心规模,速度,覆盖范围和寿命。 工具的效果缩放得越多,使用它就越需要小心。 您的决定影响的人越多,您的职责就越大。

  如果您问我是否害怕人工智能,我听到您在问我是否害怕人为疏忽。

  如果您问我是否害怕人工智能,我听到您在问我是否害怕人为疏忽。 这是问题对我有意义的唯一方法。 我的答案? 不,我对我们的AI未来感到乐观。 我相信人们可以学会负责任地建立安全有效的系统,推动进步并为周围的人们改善生活。

  这与人工智能无关,而在于加强并选择建立一些新的智力。 一旦人们意识到某件事值得认真对待,他们就会经常打动您。 想象一下要向从未看过汽车的人讲解高速公路。 ("您要走多快?!和周围的人在一起?有人能生存吗?")尽管我们不知道如何正确行走,但大多数人还是设法获得了安全的驾驶技能。 (为什么,我确实住在纽约-是什么把它送走了?)

  同样,我坚信,如果您有意愿,可以提高自己的决策能力。 这些东西可以教。 这就是为什么我(和其他类似我的人)选择加紧努力,并为培养新一代决策智能的领导者做出贡献。

  如果我们教人们如何制作阿拉丁神灯,那么我们还必须教负责任的许愿技巧。 否则,规模庞大将带来巨大问题。

  决策智能是一门新兴的学科,涉及在选项之间进行选择的所有方面。 作为一项运动,它建立在以下认识之上:如果我们教人们如何制作阿拉丁神灯,我们还必须教负责任地许愿的技巧。 否则,规模庞大将带来巨大问题。

  如果您的团队缺乏在项目开始时负责任地工作的技能,那么所有精美的工程都没有意义-最终只会输送有毒垃圾。 另一方面,如果我们训练熟练的领导者,那么人类将享受前所未有的轻松和充裕。 在有能力的决策者手中,可扩展技术可以帮助我们解决物种面临的一些最大问题。

  我们花了很长时间来解决简单的问题,从简单的意义上说,我们可以全神贯注地解决问题。 简单并不能解决所有问题,因此是时候向我们的曲目中添加复杂的解决方案了。 人工智能是我们如何将那些低垂的果实推向星空的方法。

  如果您好奇,可以在这里开始学习有关决策智能的信息。

上一篇:企业应用AI和机器学习的经验教训


下一篇:厌倦了C++,CS&ML博士用Rust重写Python扩展,还总结了9条规则