当前位置:<主页 > 游戏人脸 >从只能分析的深蓝到 AlphaGo 称霸世界,人工智慧学会了 >

从只能分析的深蓝到 AlphaGo 称霸世界,人工智慧学会了



    从只能分析的深蓝到 AlphaGo 称霸世界,人工智慧学会了

     

    一九五六年发明「人工智慧」一词的美国电脑科学家麦卡锡,将西洋棋称为「人工智慧的果蝇」,意指低下的果蝇是无数重大的生物学实验最理想的实验对象,在遗传学中特别重要。

    到了一九八○年代末,电脑西洋棋圈几乎已经放弃了这项重大的实验。一九九○年,创造 Belle 超级电脑的汤普逊公开建议,若要 在机器认知上取得真正的进展,围棋可能是更好的目标 。

    同一年,《电脑、西洋棋与认知》(Computers, Chess, and Cognition)论文集里有一整篇谈论围棋,标题是「一个新的人工智慧果蝇?」。

    围棋的棋盘为十九路乘十九路,总共有三百六十一颗黑色和白色的棋子,整个矩阵大到无法用暴力法破解,又细緻到不可能像人类输给西洋棋电脑那样,因为战术上的失误决定出胜负。

    把大脑比喻成电脑,类比不好

    在那篇一九九○年的论文里,一个电脑围棋团队认为,他们大约比西洋棋晚二十年。这个预测最后证实非常精準:二○一六年,也就是我败给深蓝之后十九年,Google 资助的 DeepMind 人工智慧计画,以及从这个计画脱胎出来的围棋程式 AlphaGo,打败了围棋世界冠军李世乭。

    更重要的是(也与预期相符),从人工智慧的角度来说,AlphaGo 比任何製造顶尖西洋棋机器的方法更值得重视:它会用 机器学习能力和神经网路教自己下出更好的棋 ,而且使用的技术更複杂,超越了传统的 alpha-beta 剪枝搜寻。深蓝是一个结尾;AlphaGo 只是个开端。

    在这一切当中,根本的错误认知不只有西洋棋的限制而已,人工智慧身为电脑科学的新创领域,因而有所限制。

    图灵梦想的人工智慧,背后的基本假设是大脑本身就是一种电脑,而目标是创造出一种可以成功模仿人类行为的机器 。

    多年以来,电脑科学家一直以这种概念为主。这个类比很容易懂:神经细胞是开关、大脑皮质是记忆资料库等等。然而,撇开譬喻的层次, 我们其实没有什幺生物学上的证据来佐证这样的类比,而且在探索人类与机器思考的差异时,这个类比反而是一种干扰 。

    我提议用 「理解」与「行为目标」 两个词,来突显这些差异。

    希望机器像人一样思考,需要像人一样理解

    先谈论「理解」: 像华生那样可以理解人类自然语言的机器,必须爬梳上百万种线索,才能建立起充足的前后脉络来弄懂语意,同样的语意对人类一看就懂 。

    一个简单的例子:「鸡太热了,没办法吃」,可能指一只禽鸟生病了,或是晚餐需要放凉。然而,即使这个句子本身的语意模糊,人类不可能误判说话的人指的是哪个意思,因为说这句话的前后脉络会让语意清楚。

    人类会 自然地加上前后脉络 ,这是我们的大脑採用的一种方法,让它处理大量的资料时不必持续、有意识地弄清楚事情。我们的大脑在背景处理这些脉络,不需要我们主动花费力气,几乎像是呼吸一样不耗心力。

    实力强的西洋棋手只需要看一眼,就知道某一种盘面适合某一种棋步;同理,你也知道你会喜欢某一种样子的麵包。当然,这些在背景中运作的直觉程序有时候会出错,让你陷入不好的盘面,或是让你吃到不想吃的点心,因此当你下一次碰到同一种情况,有意识的大脑可能会多主动一些,对你的直觉再进行评估。

    相较之下, 机器的智慧能力必须替它碰到的每一块新资料建立起前后脉络 。它必须处理大量资料,才能模拟理解能力。想像一下,电脑碰到我们那只热鸡,需要回答哪些问题才能判断问题是什幺。

    什幺是鸡?鸡是死的还是活的?你在农场里吗?鸡是可以吃的东西吗?「吃」又是什幺?我有一次在演讲中举了这个例子,听众大多数不是英语母语人士,后来有人指出另一个语意模糊之处:在英语里,hot 除了指食物的温度,也可以指食物的辣度。

    就算是简单的句子,也一样会这幺複杂;不过,华生仍然让我们看到,如果 相关的资料够多,又能以够迅速、够聪明的方式存取,机器有办法找出精準的答案 。

    正如西洋棋引擎搜寻数十亿种盘面来找出最佳的棋步,语言也能拆解变成各种数值和可能性,用来找出适当的回应。

    机器的运算速度越快、资料的质与量越好、程式码越聪明,回应就更有可能越精準。

    电脑在还没「理解」的情况下不能问问题

    这就有点讽刺了:华生在《危险边缘!》节目中击败两位人类冠军参赛者,展现出它的实力,但参赛者在节目中的回应必须以问句来呈现。

    无论如何,机器输出的答案就足以应付了。机器的效能比人类更好。 机器没有任何「理解」的过程,但我们本来就没有打算要让机器「理解」。

    进行医学诊断的人工智慧程式可以在累积多年的癌症或糖尿病资料里,挖掘出各种习惯或症状之间的关联,来帮助人类预防或诊断疾病。只要机器是个有用的工具,这一切资料对机器而言「不重要」,又有什幺关係?

    也许没有关係,不过假如你想要建造的新一代机器,是 自行学习能力比人类教导它的速度更快的智慧机器,「理解」就非常重要了 。毕竟,人类学习母语时不是从文法书上学的。

    至今为止的演进方式是这样的: 我们创造出来的机器,会遵循严格的规则,来模仿人类的表现。 这种机器的表现不佳,而且相当人工、不真实。经过几个世代的最佳化工作,加上硬体增速后,效能就会增强。

    下一个跃进,是程式设计师放鬆规则,让机器自己弄清楚更多事情,也让机器自己塑造规则,甚至忽略旧规则。 若要擅长某件事情,你必须懂得应用基本原则;若要精通某件事情,你必须懂得何时打破这些原则。这不只是理论而已,更是我二十多年以来对战西洋棋机器的故事。

    从只能分析的深蓝到 AlphaGo 称霸世界,人工智慧学会了

    ——