摘要:当前人工智能面临的一个难题是,它的行为方式常常难以被我们理解。

速看(2024新澳免费资料)当人类无法理解人工智能时……  第1张

2024世界人工智能大会,兴奋与恐惧并存。兴奋的情绪不难看出,如此多的人工智能产品,给人类生产力带来了巨大的飞跃。没有理由不为此感到兴奋。恐惧也时不时地笼罩着这个行业,正如图灵奖得主姚期智在大会开幕式上警告的那样:“简单来说,我们突然发现了一种方法,可以创造出比我们强大许多倍的新物种。我们确定能与它共存吗?”

这种复杂的感受,从今年大会的全名——2024世界人工智能大会暨人工智能全球治理高层会议——也能感受到——这既是一场人工智能大会,也是一场人工智能治理大会。

人类对机器的担忧由来已久管家婆一肖一码最准资料公开,很多科幻电影都展现过这样的场景:人类制造的机器有了自我意识,不再听从命令,并与人类为敌。

现实世界的人工智能远没有那么聪明,人们并不担心它会不听指令、自行行动。人工智能目前面临的一个难题是,它的行为方式常常让我们难以理解。

因为人工智能中的关键技术深度学习的过程是不透明的。深度学习模仿人类大脑的学习方式,依靠人工神经网络对节点(类似于神经元)和数值权重(类似于突触)之间的关系进行编码。这些网络的架构可以自行进化。经过训练后,程序员不再关心它,也无法知道它在进行什么计算。这意味着,即使是神经网络的设计者也无法知道神经网络在训练后如何执行任务。

一个著名的例子是 。这是谷歌子公司开发的一款擅长围棋的人工智能程序。2016 年 3 月,它以 4:1 击败了人类顶级围棋选手李世石。几个月后,它与人类顶级选手进行了 60 场比赛,全部获胜。它输给李世石的那场比赛是它唯一输给人类的比赛。

这场胜利令人震惊。人们惊讶,更感到恐惧。因为连程序员都不知道为什么他们能下围棋那么好,如此迅速彻底地击败人类对手。我们只能从经验中知道神经网络已经成功了。图灵奖得主 Judea Pearl 说,我们对深度学习的理解完全是经验性的,没有任何保证。

机器深度学习就像一个“黑匣子”,与传统程序完全不同。在编写传统程序之前,程序员已经在脑海中设计好了程序,可以解释机器应该做什么。但深度学习模型可以自我编程,得到的结果往往是人类无法理解的。

如何处理?目前有两条路径并行。

一是监管。人类无法分辨人工智能正在学习什么,也无法知道它是如何知道自己学到了什么的。尽管这令人不安,但包括基辛格博士在内的许多思想家认为我们不应该如此紧张,因为人类的学习往往同样不透明。无论是成人还是儿童,作家、画家还是玩家,他们往往凭直觉行事,因此无法解释他们的学习过程。

为了应对这种不透明性,各种社会团体制定了众多专业认证计划、法律和法规。基辛格等人认为,我们可以对人工智能采取类似的做法,例如,只有人工智能通过测试证明其可靠性后才能投入使用。发展人工智能的专业认证和合规性监控将是全球治理的重要任务。

二是尝试打开“黑箱”,增加人工智能的透明度,使其更加值得信任。包括中国同行在内的全球人工智能界都在尝试不同的方法。在2024世界人工智能大会上,上海人工智能实验室主任、首席科学家周博文表示:“我们最近在探索一条以因果关系为中心的路径,我们把它命名为值得信任的人工智能的‘因果关系阶梯’。”

上海人工智能实验室希望通过深刻理解人工智能的内在机制和因果过程,安全有效地开发和使用这项技术。目前,因果人工智能的研究方向主要有两个:一是因果发现,即找出数据中变量之间的因果关系,使模型能够给出更加稳定可靠的解释;二是因果效应估计,即评估原因变量对结果变量的影响程度,以提高人工智能预测和决策的准确性。

如果机器学习的因果过程被揭示,人工智能将在一定程度上变得可解释、透明、值得信赖。包括“因果关系阶梯”在内,打开人工智能“黑箱”的过程才刚刚开始,目前的人工智能还远未达到“值得信赖”的程度。

1960年,控制论的创始人维纳写道:“为了有效地避免灾难性的后果,我们对所制造的机器的理解应该总体上与机器性能的发展保持同步。由于人类动作缓慢,我们对机器的有效控制可能会失效。等到我们能够对感官传递的信息作出反应,停下所驾驶的汽车时速看(2024新澳免费资料)当人类无法理解人工智能时……,它可能已经撞到墙上了。”在今天,随着机器变得比维纳想象的更加复杂,越来越多的人开始认同这一观点。