首页>>人工智能->怎么和人工智能下棋的?

怎么和人工智能下棋的?

时间:2023-12-13 本站 点击:0

导读:今天首席CTO笔记来给各位分享关于怎么和人工智能下棋的的相关内容,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

元萝卜AI下棋机器人:商汤黑科技 安全伴你玩儿

智能机器人已经越来越走进人们的生活,或用以提升办公效率,或用以提升生活品质,或者为孩子们带来乐趣和陪伴。近日,由商汤科技推出的其首个家庭消费级人工智能产品——“元萝卜SenseRobot” AI下棋机器人,融合了传统象棋文化和人工智能技术,不仅可以陪伴孩子学习、对弈象棋,还能锻炼思维、保护视力,并进行行业象棋技术等级评测,让孩子玩有所得,学有所成。

下棋机器人并不鲜见,但商用居多,且体积巨大。如果想要一台能够摆在家里桌面上,并且能够精准摆棋、下棋,还需要在使用的过程中更加安全友好,同时价格又非常合理的下棋机器人,目前市面上几乎没有这样的产品。而“元萝卜SenseRobot”AI下棋机器人浓缩了商汤在计算机视觉领域多年积淀的产业级AI技术和机械臂技术。那么到底这款萌萌哒的下棋机器人到底有着哪些黑科技,如此小的体积下实际体验表现又如何,不妨我们来跟它实战体验一把。

安装很简单 打开就能用

“元萝卜”AI下棋机器人的外包装箱看上去很大,是因为把机器人完整的放置在里面了,所以开箱后,连接好棋盘和电源,开机就能使用,不管是家里的小孩还是老人,都能轻松组装。机器人的外观看上去像是一个小“航天员”,还有几分呆萌,“脸部”是一块内嵌的显示屏,可以显示当前状态,或进行选项的设置,还会显示一些表情,绝对是孩子们喜欢的玩伴。

头顶上的摄像头用来“纵览全局”,跟它下棋想要“作弊”可是不行的哦。身体的左侧旋钮是音量控制,毕竟它也是一个会“说话”的机器人,下棋的过程中可要听仔细了,它的绝招可真不少,认真学,进步就很快哦。

右侧的机械臂可以用来摆棋、下棋,能够很灵活的在整个棋盘上活动,底部的伸缩头可以通过磁吸的方式,很精准的吸住、放下棋子。这是因为“元萝卜SenseRobot”AI下棋机器人的机械臂实现了只有昂贵工业机器人才具备的毫米级“抓取”精度,配合摄像头的全局AI识别,手眼协同,“动起手来”像人一样,眼快、手准、出招稳,也更安全。

“元萝卜SenseRobot”AI下棋机器人随机搭配了一个棋盘,一盒棋子(红16,蓝16,共32枚),棋盘的一侧带有一根Type-C接口的线,与机器人底部连接,然后再将棋盘与机器人对齐、卡住即可(将有红色标识的地方对齐,卡好棋盘,避免下棋时棋盘移动。)

棋盘的右下角是操作按键区,包括返回键、主页键,中间的圆形按键是左右、上下、确定选择按键,用于菜单的选项选择。下面的走棋确定,是在下棋过程中与机器人交互的确认按键,当我们走棋完成后,按一下走棋确定,然后由机器人走棋。这种设计方式,也能给人带来一种实际比赛时,每走完一步,都要按下计时器的真实感。

“元萝卜SenseRobot”AI下棋机器人的连接与配置也很简单。开启电源后,几秒开机动画过后,机器人屏幕会出现“游客模式”和“联网绑定”选项,点击棋盘右下方键盘区的方向键即可选择。为了享受机器人的所有功能,这里当然要选择“联网绑定”。

然后根据机器人屏幕相关提示,使用微信扫一扫,登录小程序后,点击“机器人配置”,选择Wi-Fi将机器人联网绑定。

当提示出示二维码时,将手机二维码对准机器人屏幕前方20~40厘米。待屏幕出现“联网绑定成功”后,意味着绑定成功,之后就可以操作下棋了。

产业级视觉技术+机械臂,全方位呵护孩子安全

一切就绪,是不是已经迫不及待的想要跟机器人对弈了呢?不会摆棋子怎么办?不知道该怎么走棋怎么办?走错了怎么办?其实都不用担心,这毕竟是一款AI智能机器人,大家还记得阿尔法围棋吧,那可是第一个击败人类职业围棋选手、第一个战胜围棋世界冠军的人工智能机器人。只不过“元萝卜SenseRobot”AI下棋机器人玩的是中国象棋,而且还能够智能感知棋盘变化,并智能控制完成下棋操作,所以你可不要小瞧了它哦。

由于“元萝卜SenseRobot”AI下棋机器人还采用了机械臂,一些家长可能还会担心在操作的过程中,是否会对孩子的安全带来危险。前面我们也说过,这款机器人采用了AI机械臂搭载触碰感应系统,当机械臂在行进过程中,如果人碰到机械臂发生阻挡时,机械臂会停下来,不会强行与人做对抗。当机械臂在移动的过程中,无论是轻触、还是用力去推拉,机械臂都会即刻停下,没有任何回馈的力度,可以说是相当的“温和”。磁吸的“抓棋”方式,更不会出现误夹手的问题,也就有效保护了孩子或用户的安全。这也是商汤科技在多年技术积累,以及多次实验、改进、优化带来的结果。

除了不会伤害身体,眼睛视力也可以得到有效保护。毕竟,现在说到下象棋,很多人会想到的是电脑或者手机上的APP。虽然方便,但对于象棋这种需要高度集中和深度思考的棋类游戏来说,长时间盯着屏幕上的棋盘,很容易出现眼睛疲劳的问题。而“元萝卜SenseRobot”AI下棋机器人这种机械臂+实体棋盘的设计,能够带来“执子下棋”这种返璞归真般的体验,也因此不存在屏幕刺激给视力造成的伤害。而且手眼并用,对孩子综合的协调能力也是个培养。

AI黑科技加持,毫米级精度大师级棋力

“元萝卜SenseRobot”AI下棋机器人,包含AI学棋、残局挑战、棋力闯关、巅峰对决等多种模式,对于完全没下过棋的孩子或者用户,也可以从基础开始学起。

你以为“元萝卜SenseRobot”AI下棋机器人就这几下子?肯定不能。要知道它可是有“眼(摄像头)”有“手(机械臂)”的,摆棋这么基础的动作是否可以轻松精准完成呢?实际上,只要你把棋子放在棋盘上,也就是它可控的范围内,它就能很精准的识别,并“拿”到准确的位置。

毫米级精度到底是个怎样的概念?据说在研发过程中,商汤的工程师曾经做了一项测试:让机械臂的“手”,将一根1毫米的针头,穿到棋盘面板上1.6毫米的孔洞内。结果每一次都能把针眼精准插到孔洞里,没有一次失误,可以说是真正做到了“穿针引线”级别的操作能力。

摆好了棋子,就可以跟机器人对弈了。由于内置了100+残局闯关和26关棋力对战,从初学者到高手,都能享受对弈乐趣。如果选择“巅峰对决”,还可以与“元萝卜”的最高水平当面PK。它通过强化学习技术自我对弈了超过一亿局,战胜过很多的职业选手甚至象棋冠军,棋力水平可达大师级别。

对于好动的孩子,在下棋时也许会突发奇想,想要捉弄一下机器人,比如违反规则,偷偷拿走了机器人的棋子,错误摆放等,这些可别想瞒天过海骗过机器人,它可是会及时给你语音提示,并认真帮你纠正过来的,所以还是要认认真真下棋,毕竟棋如人生,从小培养好的行为规则哦。

中象协权威认证,寓教于乐,益智培养

在这里还要重点提一下,对于象棋初学者而言,“元萝卜SenseRobot”AI下棋机器人支持的象棋“0基础”教学,产品内置专业课程48节,同时,机器人会语音讲解搭配实战训练,让孩子从0开始逐步提升棋力,开发智力。

点击机器人主页面的AI学棋模式,就可以进入到教学课程之中,在这里,AI机器人能够介绍和讲解象棋的文化、规则及每个棋子的使用技巧。比如该如何摆棋子,马走日,象飞田,车走直路,炮翻山,卒子过河不复还,老将不离后花园。

讲解的同时,机械臂还会配合着语音去磁吸起对应的棋子并放在棋盘相应的位置之上,整个教学过程生动形象,并且轻松易懂,对于孩子来说还是非常容易入手的。

而如果学习象棋已经达到一定水平,那么“元萝卜SenseRobot”AI下棋机器人里面的AI学棋之评测你也一定要看看。据了解,这个象棋评测是拥有国家体育总局中国象棋协会权威认证,支持16-13级象棋等级评测,通过后可以查看中国象棋协会颁发的等级证书,这样就可以足不出户完成官方象棋等级评测。

而更进一步讲,孩子使用“元萝卜SenseRobot”AI下棋机器人下棋,还可以进一步提高自身专注度及深度思考能力,至少可以排除手机、电脑随时弹消息、广告的干扰。在这种纯粹的环境下,当孩子遇到不会走的棋局时,并不会扭头去打游戏,反而会寻求父母或者爷爷奶奶的帮助,一起来挑战,全家人一同参与,一起对战机器人其乐融融。而且孩子在看棋、摸棋、走棋的过程中,本身也是一个边动脑边动手的过程,锻炼了孩子的手眼协调能力。

体验总结:小小“宇航员”,满满黑科技;全家一起玩,益智又安全。

通过一段时间的体验,“元萝卜SenseRobot”AI下棋机器人时尚、更具科技感的外观,能够很好很快的融合到家庭中,并能成为孩子们最好的玩伴。摆棋、教棋、下棋,有模有样,不仅更加专业,也更有趣儿,儿童可以学习、培养兴趣,大人也能对弈几局练练手,可以说它不仅是孩子的绝佳伴侣,更是家庭成员的情感纽带,相当于用科技搭建了情感的桥梁。

重要的是,由商汤黑科技加持的“元萝卜SenseRobot”AI下棋机器人,正是在AI领域走进家庭场景的探索,让产业级AI技术走进千家万户。正是凭借着商汤在视觉技术领域的创新,最终才将既能感知、又能决策,还能产生实际动作的“手眼协同”的互动式能力,浓缩成体积如此轻巧、体验又如此温和的机器人。而这种全新的交互方式,也能激发孩子对前沿科技的兴趣,从而潜移默化的培养科技素养,学习到更专业的技能。这样的产品,我希望可以有更多。

目前,“元萝卜SenseRobot” AI下棋机器人已在天猫、京东开启预售,PRO版售价2,499元,附赠中国象棋协会16-13级专业课程和等级测评;标准版售价1,999元,附赠16-15级专业课程和等级测评,敬请关注。

戳这里电商直达

精简版开源AlphaGo来了,你也可以和TA下围棋了

精简版开源AlphaGo来了,你也可以和TA下围棋了

程序原理

阿尔法围棋(AlphaGo)是一款围棋人工智能程序。这个程序利用“价值网络”去计算局面,用“策略网络”去选择下子。

深度学习

阿尔法围棋(AlphaGo)的主要工作原理是“深度学习”。“深度学习”是指多层的人工神经网络和训练它的方法。一层神经网络会把大量矩阵数字作为输入,通过非线性激活方法取权重,再产生另一个数据集合作为输出。这就像生物神经大脑的工作机理一样,通过合适的矩阵数量,多层组织链接一起,形成神经网络“大脑”进行精准复杂的处理,就像人们识别物体标注图片一样。

两个大脑

阿尔法围棋(AlphaGo)是通过两个不同神经网络“大脑”合作来改进下棋。这些大脑是多层神经网络跟那些Google图片搜索引擎识别图片在结构上是相似的。它们从多层启发式二维过滤器开始,去处理围棋棋盘的定位,就像图片分类器网络处理图片一样。经过过滤,13 个完全连接的神经网络层产生对它们看到的局面判断。这些层能够做分类和逻辑推理。

这些网络通过反复训练来检查结果,再去校对调整参数,去让下次执行更好。这个处理器有大量的随机性元素,所以人们是不可能精确知道网络是如何“思考”的,但更多的训练后能让它进化到更好。

第一大脑:落子选择器 (Move Picker)

阿尔法围棋(AlphaGo)的第一个神经网络大脑是“监督学习的策略网络(Policy Network)” ,观察棋盘布局企图找到最佳的下一步。事实上,它预测每一个合法下一步的最佳概率,那么最前面猜测的就是那个概率最高的。这可以理解成“落子选择器”。

第二大脑:棋局评估器 (Position Evaluator)

阿尔法围棋(AlphaGo)的第二个大脑相对于落子选择器是回答另一个问题。不是去猜测具体下一步,它预测每一个棋手赢棋的可能,在给定棋子位置情况下。这“局面评估器”就是“价值网络(Value Network)”,通过整体局面判断来辅助落子选择器。这个判断仅仅是大概的,但对于阅读速度提高很有帮助。通过分类潜在的未来局面的“好”与“坏”,AlphaGo能够决定是否通过特殊变种去深入阅读。如果局面评估器说这个特殊变种不行,那么AI就跳过阅读在这一条线上的任何更多落子。[2-6]

主要成绩

研究者让“阿尔法围棋”和其他的围棋人工智能机器人进行了较量,在总计495局中只输了一局,胜率是99.8%。它甚至尝试了让4子对阵CrazyStone、Zen和Pachi三个先进的人工智能机器人,胜率分别是77%、86%和99%。

据国际顶尖期刊《自然》封面文章报道,谷歌研究者开发的名为“阿尔法围棋”(Alpha Go)的人工智能机器人,在没有任何让子的情况下,以5:0完胜欧洲围棋冠军、职业二段选手樊麾。在围棋人工智能领域,实现了一次史无前例的突破。计算机程序能在不让子的情况下,在完整的围棋游戏中击败专业选手,这是第一次。

阿尔法围棋程序的下一个挑战对象是世界围棋冠军李世石。这场人工智能与人类的博弈于2016年3月9日在首尔举行,奖金是由Google提供的100万美金。

AlphaGo 是怎么下棋的?

本来其实不想写这个的,但是看到很多网友以及一些围棋职业选手提出了一些疑问,比如「Google 没有顶尖的棋手为什么能开发出顶尖的围棋机器人?」还有「机械为什么可以在如此直觉主导的游戏中战胜人类?」。这些问题事实上在人工智能领域已经有很多理论来做解释。而且这些理论也并不是 Google 提出的。AlphaGo 所使用的理论大多还是十余年前左右的论文的一些成果。在此之前,使用了这些理论开发出来的人工智能其实已经在 2006 年就已经在 9x9 的小棋盘上战胜周俊勋九段,之后在 2013 年 CrazyStone 程序就已经在让四子前提下战胜过石田芳夫九段,而就在去年,Facebook 的围棋机器人在不让子的前提下,胜过职业选手。至于之前「前百度深度学习研究院」的吴韧所开发的异构神机也使用的是类似的理论,也在前几天战胜过职业棋手。

这些方法上,AlphaGo 并无太大创新,很大程度上是 Google 团队实现得相对完善以及训练程度更好,以及人工智能算法的实现和调参存在很大的偶然因素。那么究竟是什么方法让机械拥有了和人一样直觉,而不是简单的机械化的思考。这事我们还是要从头讲起。

早在 1996 年,IBM 的深蓝计算机就战胜了国际象棋世界名将加里·卡斯帕罗夫。但象棋有一个特点,那就是每一步下的选择是相对非常有限的,最多也就十几种可能。哪怕是通过最最暴力的搜索方法,把每种都跑一遍,搜索几十步内的最优解。虽然这个方法随着搜索深度是指数级增长的,但事实上由于底数比饺小,依靠强大的算力还是可以解决的。而深蓝计算机正是这么一台拥有强大算力的超级计算机。

然而在围棋上,这样就不行了,因为围棋每一步都有上百种选择,如此大的底数纯粹的暴力就显然无法满足了。至少硬件的发展并非每年成百倍成百倍地快速增长的。同样的方法,显然是不适合使用在围棋上的。

在 2002 年之前,人们长期研究一个可以通过计算静态地分析出每一子的价值出来。然而这个方法的发展一直很慢。直到人们试图尝试一种动态评估一个博弈的一种方法,这就是靠 猜 。这个方法被称为蒙特卡洛搜索树,其前身是非常著名的上世纪曼哈顿计划期间由乌拉姆和冯·诺依曼提出的 蒙特卡洛方法 。

如果我们想知道圆周率的值,我们如何利用猜的方法来猜出圆周率呢?我们只需要在一个方形中随机而均匀地扔飞镖,数一下,多少个飞镖扔在了以方形边长为直径的圆里,多少扔在了外面,根据圆的面积公式和方形的面积公式就能把 π 算出来。而蒙特卡洛搜索树就是利用蒙特卡洛方法来优化搜索树。简单来说,就是,我们认为这一步下在一个地方是最优的,而我们不知道这地方在哪里。我们先通过一系列随机的采样,从而去猜测一个值,这个值可能是最优解,也可能是一个接近最优解的解。但至少,这可以用来估算像围棋这样大的棋盘的东西了,而不需要把每个细枝末节都同等对待地来暴力搜索。

解决完计算量的问题,我们还要来解决人类在围棋上最大的优势——直觉,或者说「大局观」。那么如何才能拥有大局观呢?我们想一下,人们在下围棋的时候,通常会先考虑下在哪个片区,以获得什么样的目的。而这就是所谓的大局观。

AlphaGo 的另一部分重要思想,得益于神经科学的发展,即人类认识人大脑神经的发展。人类愈发了解了大脑内神经元的工作模式,包括人类学习、认知的神经模型。这样的非常基础的模型,极大地方便了利用计算机来模拟人类进行学习的过程。

蒙特卡洛方法只是简化了计算,并不具备学习的能力。无论是单纯的蒙特卡洛搜索还是与 α-β 搜索结合的还是和置信区间结合一些版本,都与人类能越学越强的围棋技巧相比差上太多。至少,人脑是一个极其复杂的计算模型,哪怕是现在最好的计算机,其算力和整个大脑比起来还是差很多的。

在 2007 年,一些科学家试图提出一个新的机器学习模型,即所谓的深度学习。所谓深度学习,你可以看做模拟许多许多人脑中的神经元构成的一个网络。网络的每一层,针对一个特性进行识别。网络的每一层,都是一个单纯分类的无监督学习模型。你可以想像一下,人眼看到一个图像。经过一系列神经元,首先识别出了里面的眼睛、然后识别了里面的鼻子、嘴,再根据这些特性,发现这是一个人。这样依次发现的机制。而学习是通过一个有监督的反向传播进行。即告诉你这张图像里有一条狗,然后反向的一步步调整网络,让网络适应符合怎么样鼻子、嘴、眼睛的是一条狗。通过不断地数据的训练,即可以让模型越来越优。这个模型在图像识别领域已经达到甚至有时超越了人的识别能力。

而 AlphaGo 使用的就是深度学习来优化蒙特卡洛搜索树。在 AlphaGo 中有两个网络,一个是策略网络,一个是价值网络。策略网络即是一个大局观的网络,机器会先通过其经验,找出其应该做出进攻的反应还是防守的反应,表现在下在哪个片区是最为合适的,是不是应该跟棋之类的大问题。然后再通过蒙特卡洛搜索树去算出具体下在哪里是最合适的。

而我们说到,深度学习模型是真的和人一样可以学习的。每下一次棋,它就可以进一步调优自己的策略网络。首先 AlphaGo 导入了上千个职业选手对弈的棋谱,使得自己有了一个基础的下棋策略。这时候的 AlphaGo 就和一个受过系统训练的围棋少年一样了。然而这和职业选手的区别还是很大。这也就是所谓的「Google 没有顶尖的棋手为什么能开发出顶尖的围棋机器人?」按照一般常理,AlphaGo 应该一段一段地和人挑战,越发提高自己能力。然而 AlphaGo 不是这么做的,它选择和自己对弈。两台 AlphaGo 来对弈,将对弈的结果调优自己的网络。这个听起来很奇怪,为什么两个下得都不怎么样的棋手一起下棋,棋艺能那么快提升呢?因为它一天能和自己下上百万盘棋,它可以把自己分身成几万份跑在几万台电脑上,以及可以昼夜不停也不会过劳死,而这是任何一个人类都做不到的。AlphaGo 的开发人员说,他曾在早期能下赢 AlphaGo,而很快,AlphaGo 的水平就远超了他。所以 AlphaGo 得到了飞速的提升。仅仅五六个月,AlphaGo 就能从战胜欧洲棋王挑战到世界顶尖选手的水平了。

当然搞人工智能也要有基本法。这个基本法就是算力或者说是资源。虽然做了很大的优化,计算下围棋的计算量还是很大的。比起深蓝时依靠超级计算机来解决问题。AlphaGo 选择了一条适合 Google 的路径来解决算力问题。那就是分布式计算。使用分布式计算的 AlphaGo 版本比起不使用的版本其智能程度也是有相当大的提升。即使最简单,它也可以有更多时间来做随机的尝试,以找出更优的价值解。

同样利用深度学习优化蒙特卡洛搜索的 Facebook 围棋团队,相比 Google 就没有那么壕力冲天了。无论是开发资源还是人员来说也是远少于 Google。Facebook 的围棋机器人之前也取得了相当好的成绩,大概可以击败职业二段选手的水平。但是比起 AlphaGo,还是差上许多。

所以说,做这么一个人智能,背后的投入程度、重视程度也起到了很大的作用。这也是为什么深度学习目前做得很好的公司大多是一些顶尖的 IT 企业里的研发团队。

比起 AlphaGo 在围棋上的成就,其实大多数人很好奇人工智能未来的何去何从。从这次中,我们看到计算机已经具备了人类大局判断能力,其本质是类似于人类的学习能力,即不告诉电脑应该怎么做,而让电脑看人类是怎么做的。这项的应用其实相当广泛,尤其在非常复杂的问题上。

比如说,无人驾驶汽车之前发展很困难,是因为人们总是试图去把驾驶规则完全讲给电脑,而这点太过复杂,难以用纯逻辑说清。而今天 Google 的无人驾驶汽车也是使用的类似的深度学习的技术,让计算机观察人类开车并学习,从而模仿人类的判断。最终依靠计算机强大的算力和不会疲劳等特点,甚至超越人类的判断。

短期来看,利用深度学习的人工智能在未来数年内将会得到很大的应用。而这也是 Google 热衷于下围棋的原因。醉翁之意不在酒,在乎山水之间也。Google 只是想利用围棋来显示他们在深度学习应用上的先进水平。

就人工智能的最终目的来看,我们已经跨出了很大的一步。之前而言,我们很大程度局限于人类强大的抽象的思考能力,而模仿人类神经系统的模型已经很好地模拟了这种思考是怎么产生的了。进一步说,如果一个机器,拥有和人完全一样的眼睛、耳朵、鼻子、触觉等作为它的输入,以及类似于人类肌肉和关节的机械部件作为它的输出。并且模拟一个和人脑一样复杂程度的神经网络,并让它观察人类进行学习。是不是在某个未来,我们可以拥有和人类功能非常接近甚至超越人类的智能的出现。深度学习都为这样的强人工智能提出了理论上的基础。

结语:以上就是首席CTO笔记为大家整理的关于怎么和人工智能下棋的的相关内容解答汇总了,希望对您有所帮助!如果解决了您的问题欢迎分享给更多关注此问题的朋友喔~


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/29795.html