看人工智能机器人调校计划

“头像是我,不满意?”如果男性机器人或AI智能体,开始跟你说爹言爹语,你是什么感觉?“你再说我会脸红的哦”,如果女性机器人或AI智能体,用茶言茶语来表达顺服,你会开心吗?格物斯坦表示:不管你相不相信、喜不喜欢,人工智能(无论算法软件,还是机器人)的性别化,以越来越快的速度进入主流消费产品当中,频繁出现在你我的生活里。这时,人类社会中既有的性别规范,包括性别偏见,也被复制到了数字世界当中。
看人工智能机器人调校计划

性别化的常见做法,包括通过语音(男声/女声)、姓名、体格以及其他特征,赋予智能体一种类似人的性别特征。比如照护机器人、客服机器人等,往往都被默认注入女性气质;而空间站中的AI助理、裁判机器人、导航助手等,则特别流行男性气质。机器人教育培养孩子人工智能的性别失衡,并不是一个距离大家很遥远的话题。

现在,我们身边已经环绕着各种各样的智能体,提供从咨询、娱乐、配送、教育、政务、金融、医疗、照护等全方位的服务。AI如何对待不同性别的人类,人类如何与不同性别的AI沟通交流,会直接影响我们的生活品质。上海机器人教育至少目前来看,在一个充满性别规范的世界中,智能体也难逃陈旧的性别偏见。比如女性AI就应该柔顺,男性机器人就必须强壮,男智能客服不如女智能客服温柔亲切……
人类社会的性别观念,是如何影响人工智能的?AI的性别化是利大于弊还是弊大于利?既然技术无法降速,那么如何让数字世界不再复制性别偏见,值得每一个期待明天更好的人——无论男女——开始思考并行动。从而培训机器人教育。众所周知,AI算法是需要人类来训练的。那么先来聊聊,人类是如何用性别规范来调校AI的。女性AI,要像个完美助手。无论是智能语音助手,还是智能机器人,但凡负责的是服务型、支持型角色,往往会被优先设计为女性。
看人工智能机器人调校计划

“她们”往往作为助手,大疫情流行使得服务型机器人开始被酒店、银行等服务业引入,而这些负责倒咖啡、打扫房间、处理咨询等的机器人,往往都被设计得具有“女性”特征,比如更小巧的体型、温暖而充满情感的声音、涂上粉色的嘴唇……,机器人教育的对象是男性机器人也需要高大威猛健壮。切尔西足球俱乐部在英超比赛中引入了机器人裁判,帮助跟踪越位。它被设计得比人类男性还要高大、健壮。

或许你会觉得,这不是对男性气质的肯定、夸奖和发扬光大吗?但需要注意的是,男性群体也是多样化的,难道不够成功、不够高大、性格柔和,就不配做男人了吗?有许多男性在幼年时,曾因为“不像男人”、娘娘腔而被霸凌过。性别偏见,束缚的其实是所有人的*选择。而试想一下,当这些规范被引入到人工智能当中,需要家庭女仆,就制造出女性外表的机器人,而男性机器人被默认承担所有繁重的工作——与这些机器人一起工作的、有血有肉的人类,内心会做何感想?那么,AI性别化,到底有没有必要呢?是不是直接一笼统都搞无性别声音、动物造型机器人,万一就是有人喜欢有性别的语音助理或机器人呢?

必须说明,很早就有人机交互专家在研究性别机器了。事实上,AI一开始走上性别化的道路也是不可避免的。一方面,大多数语音助手的声音都是通过TTS技术合成的,机器人教育教材由于语音技术开发非常困难,女性人声的音高比较高,更适合来训练模型,所以开发的早期阶段,几乎所有语音助手都被投射为单一的女性声音和性别。随着技术的发展,以及数据库的丰富,慢慢地声音种类也丰富起来,这也是AI科技企业技术能力的体现。

随着情感化语音技术的改进,区分人类和机器声音差异的能力将变得很低,AI已经能够模仿人类的音调、节奏、用词,甚至有人分不清自己接到的电话是真人还是机器。中小学机器人教育这时候,将AI性别投射为人类性别,是很容易发生的,这会对人们对性别的理解产生潜在的负面影响,比如将女性化的数字助理与真正的女性混为一谈,将数字助理犯下的错误,视作由女性所犯的错误,进而觉得女性就是愚蠢的。而这样的数字助理通常没有能力为自己辩护,面对用户的辱骂还会被“编码”控制着以谄媚来回应。届时,基于性别的误会和矛盾可能会加剧。

综上所述,弥合性别数字鸿沟,依靠的并不是一次针对女孩的编程课,或者一期女开发者训练营。它需要重塑妇女和女孩在数字技能方面的学习体系,提供从幼儿教育到职业发展教育的一系列支持,使她们能够坚持对AI的兴趣,并在技术团队中承担领导角色。更重要的是,女性意识并不是与生俱来的,ICT女性从业者也需要被鼓励和培养女性意识及技术伦理思维,才有能力识别并纠正那些AI产品中的性别偏见。数字技术刚刚开始改变社会和经济生活,我们很快就会生活在一个AI无处不在的世界中,让AI学会如何跟我们沟通,对每个人都很重要。庆幸的是,女性与AI,都有着无限的潜力与可塑性。

上一篇:地址栏传参带有空格的处理方法?


下一篇:【AI基础】图解手算BatchNorm、LayerNorm和GroupNorm