但是,我们是否又犯了同样的错误呢?是否又产生了“错误的担忧”,而忽视了真正的威胁呢?人工智能真正的威胁,可能会和“超级智能”和“奇点”的说法大相径庭。
这篇文章的目的,就是想让大家对以下提到的问题有个意识,这些问题才是我真正担心的:AI可以强烈地干预甚至操控人类的行为,而这一特点会被公司或政府恶意地利用。
当然,人工智能技术发展带来的风险不只有此,还有“机器学习算法会将偏见放大”等问题。这些问题已经受到了很多人的重视,而关于“人工智能操控人类行为”的风险,鲜有人意识到,但却是很迫切的。因此,我有必要唤起人们的意识。
机器学习算法会将偏见放大
http://www.nature.com/news/there-is-a-blind-spot-in-ai-research-1.20805
事实上,这种风险已经成为现实,在接下来几十年里,伴随着长期增长的技术趋势,还将会迅速增强。随着生活日益数字化,社交平台越来越了解我们的生活和想法,同时,也越来越多地以内容为媒介——特别是基于算法的内容推送,来干预我们的行为。
社交平台将人类行为视为一个优化问题,也即一个人工智能问题:通过不断迭代,调整控制参数,达成推动用户做出特定行为的目的。好比AI棋手会通过评分反馈,不断地进行策略的迭代调整,从而通过关卡。实现这一过程唯一的瓶颈就在于算法的智能化程度,正因此,最大的社交平台公司正投资数十亿美元用于AI算法的研究。
以下将详细介绍人工智能被恶意使用会带来的风险。
社交媒体成为大众心理的监督工具
过去20年间,我们的私人和公共生活悄然完成了向线上的转移:看屏幕的时间越来越长,工作也多与数字和信息相关。而世界也在向一种由数字信息的消费、修改和创造所构成的状态发展。
这种趋势是有副作用的。公司和政府不断收集我们的大量数据,特别是通过社交平台:我们与谁交流、交流什么、消费了什么内容(包括图片、电影、音乐和新闻)、特定时间会有什么样的心情。最终,几乎所有我们能感知到的和所做的一切都会被记录在某个远程服务器上。
理论上讲,这些收集的数据满足了公司对个人或群体进行心理建模的需求。将你经常点击的内容与你的思想和行为关联,将你的思想和行为同成千上万类似的人群相关联,实现了比单纯的自我认知更加准确的性格定位(例如,Facebook用算法评估你的个性,甚至比你朋友说的还准确)。
Facebook用算法评估你的个性
http://www.pnas.org/content/112/4/1036
通过分析利用这些数据,很多事情都不再是天方夜谭。比如说提前几天就预测出你什么时候会和伴侣分开,以及下一次恋爱开始的时间和对象;或预测谁会有自杀的倾向;又或者在选举中预测你最终的投票取向,即便你仍在犹豫不决。这种能力不仅局限于对个人的预测,还可以针对更容易分析的大群体行为,因为大群体的行为更平均化,消除了一些随机或个人异常情况。
控制信息消费成为控制用户的心理的手段
对互联网公司而言,被动地收集用户数据还远远不够,它们还会越来越多地主动决定用户消费的内容。用户看到的信息是经过“策划”的,不透明算法决定了我们会读到哪些政论文章、看到哪些电影预告、与谁保持联系、会收到谁的评论等。
经过多年来对我们所消费内容的收集、管理和调整,算法对我们有了足够强的影响力,强大到足以改变你对“我是谁?”、“我想成为谁?”等问题的答案。倘若Facebook长期决定你消费的内容(或真或假)和你的受众,多年后,你的世界观和政治倾向就会完全被Facebook所主导。
而Facebook的金主爸爸——广告主们,包括政治广告主——看中的恰恰就是它影响用户的能力,这也是Facebook的业务根基所在。
正因此,Facebook建立微调参数的算法引擎,它不仅能影响用户购物的品牌,还能影响用户的情绪,通过调整内容推送来控制你的喜怒哀乐。甚至,还可能改变选举结果。
人类行为被视作优化问题
简言之,社交平台已经可以即时考评用户的一切,控制我们消费的内容,这种局面还将会加剧。通过来算法实现感知和行动,已经属于人工智能的范畴了,在此过程中,针对人类的行为建立优化循环,在循环中,观察目标当前状态,并不断调整输出的内容,直到目标达到期望的状态。
人工智能领域的一大部分,尤其是“强化学习”,就是为了解决这种优化问题,通过算法实现对目标(也就是我们)完全的闭环控制。而在当今数字化的生活环境下,我们也变得更容易被算法控制。