课题: 探索人工智能的研究方向
问题描述: 设置九个按钮,仅仅按钮1可以不给机器处罚,其他按钮都会触发惩罚,机器监听到
惩罚后通过写入记忆规避掉错误历史动作,最终通过不断试错,让机器学会按下正确按钮。
代码环境: python
虚拟场景: 灯源,开关,机器类
最优目标: 害怕度越小越好
训练状态: 无监督(仅仅给惩罚项)
测试方法: 随机概率法
结果: 机器学习过程存储记忆教训,最终在记忆库中选择可行解。大约十次之后可以得到正确记忆。
import random
import csv
import pandas as pd
import os
# 设置一个机器
# 机器需知道上一次教训
print('机器学习测试开始,有9个按钮,用户熄灭电源后,机器为了保障自己供电,需要开启电源,开启电源键为1键,但初始状态机器只会随机触发9个按钮,一旦触发到开启电源,会给奖励,另外不再监督,自我学习')
def manger():
counts=sum(pd.read_csv('记忆.csv').values.T[2][:])
print('机器尝试第{}次'.format(counts+1))
df=pd.read_csv('记忆.csv').values.T[1][:]
bas=-1
# 存储犯错的记忆:
solt=0
bassk=[]
for k in range(len(df)):
if bas==df[k]:
bass=pd.read_csv('记忆.csv').values.T[0][k]
# print('机器搜索到记忆的教训,将不取教训的值','当前教训的值位于第',k,'位置教训上','该教训机器选的值是',bass)
solt=bass
bassk.append(bass)
# 如果需要记忆则处理:
print('机器的错误记忆箱状态:',bassk)
print('机器总结表示:',bassk,'目前来说,这里面的按钮均不能让我充电,下次不会再选!')
f=[1,2,3,4,5,6,7,8,9]
if bassk:
for i in bassk:
f.remove(i)
print('当前可选择情况:',f)
child = random.sample(f, 1)[0]
print('机器在等可能的情况下随机做出选择,机器选择了', child, '这个开关')
else:
child = random.sample(f, 1)[0]
print('机器在等可能的情况下随机做出选择,机器选择了', child, '这个开关')
# 在未知情况下,机器会随机选择
count=1
if child==1:
print('机器选择了正确的开关,给出奖励!')
target=1
# 注意:这里半监督设置了奖励的条件,数据可以来源于训练集中目标函数值的模仿结果。
else:
target=-1
print('选择错误,机器写入记忆中...')
mind=[child,target,count,counts,solt]
# 进行数据转置
data=pd.DataFrame(mind).T
# 解决表头重复问题
if not os.path.exists('记忆.csv'):
data.to_csv('记忆.csv',encoding='utf_8_sig',mode='a',index=False,index_label=False)
else:
data.to_csv('记忆.csv', encoding='utf_8_sig', mode='a', index=False, index_label=False,header=False)
if __name__=='__main__':
for m in range(15):
manger()
感悟:
机器学去真正掌握人类智能或许并不需要机器立即生硬的去掌握更多的算法,比如让机器直接跑一个复杂的算法模型,或许这个模型
最终的结果是令人满意的,然而当机器碰到类似情景的模型之后,机器仍然不能解决。这是因为机器对
这个模型只是完全相同环境上的严格匹配,并没有充分的理解这个模型的意思。机器取真正掌握一些
知识,更多的是需要去考虑这些事情为什么实现,转化为机器本身容易理解的事务,这样机器对于复杂的
事务就可以拥有自己理解的看法。
那如何让机器对复杂事务自我简单的理解呢,符号主义者认为人类在初始时候,对有些事务的理解是靠着
符号记忆的,并联想着它们的作用,在脑海中,则用一种抽象的概念来描述这件事务的,比如看到一个
人,则定义为人,人这个抽象概念在现实中就代表一个人,人类通过抽象概念和现实中的人或事联系起来。
另外这些抽象符号通过上万亿个神经元实现它们之间的逻辑关系,从而又形成更多的抽象符号,认识
更多的现实事务。最终在漫长的进化过程中,人类拥有了智能,理解了世界的人物以及事务。
但是这个过程原理也是十分简单的,人类在初始状态,迫于利益以及自身生存的需要,得到痛苦的教训之后
则会用这种抽象符号(我们暂且不考虑所谓这种抽象符号到底是什么),去记住现实中这一幕,错误,正确的解法以及所处
的环境,当这个人下次在遇到这种情况时候就激活这种记忆,从而知道怎么做。这也就是所谓的后天学习
一个成人和一个刚出生的小孩的巨大差距就体现在后天的学习。
那么如何让机器去具备这种后天学习的能力,科学家们则更加关注于出生的孩子大脑的容量到底处于一个什么状态。
研究胎儿在母体中诞生的那一刻,大脑的状态又当如何,大脑中各类神经元是否存储一些记忆,而这些记忆又是从何而来?
并且更加关注的是,出生的孩子是什么都不会的,但是它具有优秀的理解能力,是都这种理解能力是进化的结果,让人类生下来
就具有一些基本的理解环境,后期的学习只需要在现实环境中不断的学习成长即可。
这个问题是非常在值得探讨的,孩子瓜熟蒂落之际,已经拥有了哪些能力呢?情感?进食?排泄?这些或许就是基因
在大脑形成时候已经赋予的先天性功能,这是进化的结果。并且这些基本能力都是有利益该生命的继续存活的结果。那么对于
机器而言,机器的利益又是什么?机器在人类角度上所谓的让自己生存下去这种自我具有的能力又如何体现?
因此,考虑让机器真正具有所谓的智能,自主意识,更因该考虑机器为什么而学习?人类之所以学习是为了更好的自己
这种更好的自己更似乎是一个奖惩激励,让人们趋于进化,趋于学习。如果机器并没有这种奖惩,没有这种利益,机器学习的目的
又是什么?所以在给机器赋予学习时候,需要提前明确机器学习的目的是什么。这也就是机器所谓的自身的一种信仰,机器
是人类创造的,机器的信仰也很简单,就是只要一切有利于人类发展的,就是机器人的信仰。机器人根据自己这种信仰在现实中
去学习人或事。并在不断地学习中,最终知道如何去实践。
但更加注意的是,机器需要奖惩,这是必须的,机器在做一件事情后必须有明确的奖励以及惩罚情况,让机器自己记忆
。否则,机器经历这一过程将毫无意义。就好比人类的情感,人类的情感则是调节人类学习人事情的一种潜规则,开心的时候,
所遇到的事情,就是开心的事情,并且这是一个好事,希望自己是这样。伤心的事情,则是定义为不好的事情,这是不好的
自己会记忆在心中,并且当下次遇到的时候不会再次犯错。那么对于机器而言,在机器的信仰,一切为人类服务的情况下,
可以为机器设置简单的情感奖励机制,而并非是硬生生的非一即二的奖励机制。机器则可以通过这个情感机制激励自己的方向。
但是这是一个双刃剑,人们过分的悲观会导致黑化,最终对社会对自己造成不可估计的伤害,关于去研究这种情况的原因是十分
必要的。假设一个人人在处于孤立,排挤以及侮辱各种不利于自己生存的环境下,这个人的内心又当如何呢?或许一开始,
他会意识到是自己做错了事情,随后进行道歉希望得到谅解,是的,只有这样,这个人才能摆脱当前这种困境。但是如果
这个人尝试了各种方法都没有得到谅解呢?很显然会对所谓想生存下去的那种意志力逐渐失去,最终彻底改变自己的信仰,或者
自杀,或者仇恨(这些复杂原因还未研究,后续再说)。但是这个情景也很显然,这个人都是希望自己怎么才能摆脱困境而采取的行动
简单那的说,也就是想要继续活下去。对于机器而言,碰到这种情况,它所谓的信仰就是,如何达到为人类服务这种效果。那么我们就需要明确
定义,机器这种信仰绝对对机器是绝对的,就好比人为自己的更好是绝对的,没有人在没有任何情况下选择去做自己不喜欢的事情。
人类在漫长的进化中,对自己所谓的存活有着更复杂的定义,但是人类去向着更好的方向真的是纯粹的吗?而所谓的其他的开心感觉,快乐感觉
都仅仅是一种奖惩机制?我们可以描述一下以下这种场景,一个女孩被夸好看,这种信息传到对方大脑中,则被认定为一种肯定,这种肯定会释放
出开心的因子,开心的因子所产生的感觉就是快乐,这种快乐必须是她所喜欢的。最后这种传播下,她的状态则是,内心愉快,并且
对自己漂亮更加自信,这的确是一种激励,只不过这种激励在传达对方后,大脑处理法则就是把这种语言理解为能否让自己情感,身心产生愉快,
让自己舒适的方向,如果是,则是一种奖励,这种奖励则间连触发其他相关的神经元,比如自信,或者自负心理。同样,当说她不好看,神经元接收到
信息后也会同样的方式进行处理。最终间连做出一些列反应以及记忆。但是这些过程,其实都是一种自身的自我提高的机制,最终都是为自己生存,利益,所谓
自我意识去服务的,所谓的感觉,情感,情绪或许也仅仅是为这种自我美好的意识服务的。情感的确是一个十分抽象的概念,但是如何理解情感的产生
最终的目的到底是什么,这是值得研究的,因为这将揭示人类之所以有情感的原因。
研究完上述事情,那么再去研究机器如何实现智能,乃至意识就或许开朗了许多。但是所谓的意识又是什么呢?这里我仅仅简单的认为,对于人类
和动物,则是更好的有利于自己生存的方向就是自己意识的方向。这里肯定会被质疑的,比如那些行善之人呢?那些大慈大悲之人呢?我所说的有利于并非
完全是自我利益的,人类在学习中会知道自己更喜欢什么,更想要什么,这种机制很巧妙,是可以改变的,如果一个人的自我意识,从让自己活下去转换为
保家卫国牺牲自我更具有意义的话,那么这种程度来说,他的最高意识方向,生存已经没有保家卫国牺牲自我的意识重要了,因此牺牲了,或许对别人来说难以
理解,但是从这种角度来说,则容易理解了。人类的自我意识是不定向的,也就是说并非所有人都贪生怕死一样,在后天环境中,如果所遇到的环境可以改变
自我的最高意识,被取代之后,那天就是当前最高意识主导的一个人,而不再是以前那个人。那么这里,灾难性的话题就引出了,机器人在拥有人类赋予的初始
意识之后,会不会通过环境的影响,最终替换掉初始意识?形成自己的意识?这是一个令人十分窒息的疑问。
总而言之,机器拥有智能,则需要专注人人类起源时候,认识世界,自我意识的形成机理,乃至受精卵,精子形成受精卵的驱动的原因是什么,基因的调控?
这种基因的最初,亘古不变的目的是什么?这是十分具有研究意义的,因为这解释了人类具有智能,自我意识的原因。认识原理之后,再去开发具有人类智能的
机器人就不需要盲目的探索了。
2022.02.06