未来的生活中肯定会有人工智能,那么你怎么看待人工智能呢?以下是边肖为您整理的人工智能。大家看了怎么看!
你怎么看待人工智能?
想象一下2020年一个普通的日子,一个人工智能助手叫醒你,给你端上早餐,这是你最喜欢的食物。晨跑时,播放器会自动播放符合你喜好的最新歌曲。上班路上,电子助手会根据你以往的阅读口味,自动给你推送新闻阅读。
看了新闻,你注意到总统选举即将到来。人工智能参考了你过去的政治观点和这个州其他选民的意见,给你推荐了一个民主党候选人。在你的手机上,弹出一条消息,询问你是否需要一个AI助手来帮助你准备投票所需的文件。你点击“同意”,然后关掉屏幕,继续你的生活。
人工智能:一台僵化的数据机器
人工智能个人助理已经在几年前成为现实。对我们来说,把履行公民义务的责任交给他们似乎还是不合适的;甚至人工智能几乎总是知道在特定的时刻给我们最好的建议。通过足够多的数据学习,人工智能可以为每个人提供准确的个性化建议,甚至比你最亲密的朋友的建议更完美。
Alphabet董事长埃里克施密特(Eric schmidt)坚信,人工智能的发展会让每个人变得更聪明、更有能力、更成功。人工智能已经显示出巨大的潜力,有望帮助解决人类社会面临的各种复杂挑战,如气候变暖、人口增长、人类发展等。
但是,机器所展现的潜力也带来了忧虑。调查显示,34%的人表示害怕人工智能,而24%的人认为人工智能会对社会产生负面影响。相对于未知的恐惧,人工智能对数据的依赖带来了实实在在的隐患。GWI研究显示,63%的人担心他们的个人信息会被科技公司滥用。牛津互联网研究所最近的研究表明,人们对让人工智能助手照顾他们的生活持谨慎态度,尤其是当这些助手在不告诉你推理过程的情况下提出自己的建议时。
在这里,我们不必把数学和魔法混为一谈。人工智能不是生活在你手机里的神秘生物。但我们常常忘记,人工智能一直在读取我们的个人数据,并通过复杂的数学模型自动推断我们的兴趣、位置、习惯、财务和健康状况。
开发者的角色
目前很多关于算法和人类的讨论都集中在设计者在算法中的作用。人工智能创造者的潜在意识和偏差是否会被编码到帮助我们决策的算法中。很多人担心开发者的个人偏见会被带入算法,一点细微的歧视会损害一部分人的利益;或许还有更糟糕的结果,技术平台会成为弱势群体难以逾越的门槛。就算算法和写它的人没有偏见,谁也不能保证训练算法中的所有数据都是平等的。现实世界本身存在偏差,数据集中的内容也会对人工智能框架产生影响。
持这种观点的决策者和专家经常误解人工智能算法出错的原因。他们不断地责备开发者,却忽视了自我学习系统的局限性。责怪别人是很自然的反应,尤其是当你无法理解这些技术的时候。算法的偏差很少来自开发算法的工程师。其实大多数情况下,问题的根源来自于训练算法的数据,这才是构建未来人工智能社会需要担心的真正危险。
算法决定论
回想一下机器学习实际上是如何工作的。通过应用统计技术,我们可以开发算法来自动识别数据中的特征。为了达到这个目标,系统需要通过庞大的数据集进行训练。训练模型中的数据越多,预测精度越高。
在个性化数字应用中,这些统计学习技术用于建立算法,并为用户提供个性化服务。计算机读取我们的使用模式、口味、偏好、性格特征和社交地图,然后建立对人类的数字感知。计算机形成的社会认同,不是基于你的性格或者选择。相反,这个虚拟身份来自于你的统计数据点和它们的机器解释。这种替代,无论多么复杂,都是人工智能对人类不完善的数字化表达。
人工智能只能找到历史数据,给用户提出建议。这就是为什么今年8月,一个视觉识别神经网络在训练了1400万张照片后,预测唐纳德特朗普将赢得本届美国总统大选。由于这个数据集中没有女性美国总统,AI可能会判断性别是识别模型的相关特征。但即使排除这一点,如果让这个俄罗斯培养的人工智能投票,它也一定会投给特朗普。
这样的推论会导致越来越僵化的推荐系统,倾向于不断强化已有的观点,就像社交网络中的反射效应一样。“个性化”让每个人都被贴上标签,把现实生活和网络世界割裂开来。计算机不断推荐“你喜欢的”内容,用户获取的信息不知不觉被算法误导。人类可能在人工智能真正苏醒之前就已经深度介入了。
动态生活
我们的身份是动态的、复杂的、充满矛盾的。根据我们的社会背景,我们总是有几个不同的身份,这意味着我们需要使用几个不同的AI助手;在学校或工作场所,在酒吧或教堂。
除了通常的自我介绍,我们可能还需要以不同的身份展示自己,与网络中不同的群体互动。我们不想在社交网络中被随意查看,也不想在寻找新鲜感的时候担心被朋友家人偷窥。如果我们想尝试不同的社会身份会怎么样?4Chan的创始人克里斯普尔(Chris Poole)说,“关键不在于你在和谁分享,而在于你在和别人分享什么。身份就像一面棱镜,通过它,别人可以以无数种不同的方式看到你。」
区分不同的自我表达类别,在不同的社会环境中得出身份,对人工智能来说是一个巨大的挑战。很多时候,人类面临的问题不是算法设计;我们甚至还没搞清楚自己是什么。但是人工智能助手总是给我们一个答案:关于过去的我们。在这样的环境下,身份的改变变得越来越困难。我们的生活习惯和信念被自我强化的循环锁定,算法《土拨鼠日》出现。
我们在日常生活中越依赖个性化算法,我们的个性就越会被计算抹杀。我们读什么,看什么,怎么生活,都将由机器决定。这是算法决定论的世界,通过关注现状,接管探索信息和结识陌生人的渠道,试图用过去发生的事情再次取悦自己。
当过去照进未来,人类赖以生存的自发性、开放性、进取性逐渐匮乏。温斯顿丘吉尔曾经说过这样一句话:我们塑造了算法,然后,算法又塑造了我们。
如何阻止未来
今天,人工智能在现实世界中的应用已经融入到日常生活的方方面面;而人们对这项技术的兴趣也越来越浓厚。但是有两个主要的挑战使得未来难以实现。从科技进步的角度来看,不同应用之间的数据交换缺乏互操作标准,可以防止完全的个性化。机器学习系统要想真正有用,需要更多的个人数据;这些数据现在都是孤立的,分散在一些有竞争力的科技公司的专业数据库里。那些拥有数据的公司拥有权力。一些公司,最著名的如苹果和Viv,已经开始通过与第三方服务相结合来扩大自己的势力范围。最近,一些最大的技术公司宣布与人工智能研究进行重大合作,以便将好处带给大多数人,而不仅仅是少数人。这对于未来建立对人工智能的普遍信任至关重要。
从社会的角度来看,人类似乎对人工智能的快速发展有一种莫名的厌恶。人们担心他们会失去对人工智能助手的控制。信任是我们控制能力的直接表现。大部分人都不想尝试对生产力做一些小的提升,但又不得不赌上自己的关系和名声。
当然,在早期,人工智能助手的行为可能并不是它的人类制造者所期望的。有先例证明,一些失败的人工智能实验会降低弱人工智能(狭义AI)解决方案和对话式机器人的信任度。脸书、微软和谷歌已经在2016年建立了他们的机器人平台,但过早呈现在人们面前的人工智能技术因其有限的功能、应用和定制而让用户失望。
一直困扰我们的恐惧;人工智能技术的后果也因许多科幻小说中描述的有意识的、暴力的人工智能统治世界的反乌托邦场景而加剧。但我们面对的未来不会像人工智能网络天网,也不会像乔治奥威尔的《1984》李:更有可能像《美丽新世界》(《美丽新世界》)中描述的享乐主义社会,科技的地位仍然需要服务于普遍的幸福和自我放纵。
面向未来的机制
每天都有成千上万个关于我们每个人的算法决策;从网飞的电影推荐,脸书的朋友建议,到保险风险评估和信用评分。在所有方面,人们自己应该负责跟踪和审查他们自己的算法决策,或者也许我们需要将这一点编码到他们使用的数字平台设计中?责任是非常重要的一点,正因为它很难大规模地衡量和实施。
所以,在一头扎进这个未知的领域之前,我们需要回答一个问题:我们希望人类和人工智能的关系是什么样子的?通过反思这些问题,我们可以设计出非决策性的、透明的、负责任的算法,这些算法可以识别个体复杂的、发展的、多面的本质。