2019年亟待解决的11个AI伦理困境
副标题[/!--empirenews.page--]
大数据文摘出品 编译:栾红叶、Aileen 现在是时候讨论AI的道德问题了。虽然机器学习不是一项新的技术发展,但现在是人工智能发展的关键时刻。要面对的道德问题有很多,包括以下提到的十一种。 出于不道德的目的使用人工智能 1. 经济不平等与劳动力问题 技术进步时,我们首先要关注的是是工作保障。与最初的工业革命一样,劳动力的大批量自动化让工人感到恐惧。 在第一次工业革命期间,美国政府首次推动了大学教育的发展。对当时的美国人来说,问题不是大学的成本,而是为了获得学位而暂停劳动的机会成本。你可以说,强制工人去学习是野蛮的,然而人工智能(第四次工业革命)催化的下一阶段自动化也是在促使工人去修大学学位。 如果政府不提供全民收入(给每个人发放基本工资)来照顾被自动化淘汰的工人。那么学生贷款危机也可以让被淘汰的劳动者打消进一步接受教育的念头,这会导致周期性的贫困和收入不平等。 2. 对人类行为的影响 不管我们有没有意识到,人们越来越多地与机器进行交互,以完成日常任务——这牵涉到了一个透明度的问题,同时也带来了行为上的影响。例如,Google Duplex的一个听起来像真人的A.I.系统,它可以通过电话预订餐厅。该系统可以快速响应,与真人不相上下。 人类的注意力和耐心是有限的,但机器的情感能量却并非如此,当然,机器的局限性是技术性的。尽管这可能对某些特定领域比较有利,如客户服务,但这种无限的能力可能会造成人类对机器人的情感上瘾。电影《Her》反映的问题就是这样,这部电影讲的是一个爱上机器的男人的故事。 除了这些模仿真人的机器人外,许多app的目的就是使用算法来让用户上瘾。例如,Tinder的设计就是为了将用户更久地栓在这个由A.I.驱动的app上,它不会推荐相类似的用户配对,从而使得用户在APP里的停留时间变长。 3. 在雇佣和犯罪方面的偏见歧视 A.I.伦理问题中最紧迫、讨论最广泛的问题之一是预测性分析系统中的偏见问题,如在雇佣或犯罪领域。曾经亚马逊使用了A.I.驱动算法,利用历史数据筛选优秀的职位候选人时,成为了著名的一个雇佣偏见事件。因为之前的候选人选拔就存在性别偏见,所以算法也倾向于选择男性。 今年3月,纽约警察局披露,他们开发了一种算法机器学习软件Patternizr,该软件通过筛选警察数据来发现犯罪模式并将类似的犯罪联系起来。这款软件已于2016年起开始使用,该软件未用于强奸或凶杀案件,并且在搜索模式时排除了性别和种族等因素。 虽然这对于以前的算法是向前迈出了一步,之前的算法是在种族歧视的基础上来预测犯罪和违规行为,但从历史数据集中主动消除各种歧视并不是标准做法。这意味着这种受过训练的歧视偏见,往好的一方面说就是是一种冒犯和不便;往坏的一方面说就是一种对人身自由的侵犯和系统压迫的催化剂。 4. 误传和假新闻 另一个A.I.道德问题是伪造,通过使用A.I.将图像、视频和音频对原始媒体和音频加工,改变他人原意,通常是带有恶意意图。深度伪造包含了面部调换、声音模仿、面部重演、嘴唇同步等等,与旧照片和视频编辑技术不同的是,深度伪造技术的发展目标就是让没有什么技术能力的人也会轻松掌握其使用。 据北约前秘书长尼娜·希克(Nina Shick)等专家称,通过deep fakes来篡改图像和视频可能会对全球秩序造成灾难性影响,例如,唐纳德·特朗普(Donald Trump)宣布核战争的唇形同步视频,因此,Deepfake技术成果会被像Reddit这样的网站进行非常严格的审查和屏蔽。 上一次美国总统选举期间,俄罗斯利用假新闻实施了黑客攻击,其实就是使用了类似的技术。这种信息战正在变得司空见惯,它的存在不仅是为了改变事实,也是为了强有力地改变某些观点和态度。这种做法也曾在英国脱欧运动中使用过,加剧了日益加剧的政治紧张局势和混乱的全球形势。 利用人工智能侵犯消费者隐私 5. 消费者隐私和安全 尽管政府制定了很多法规来保护消费者隐私(如欧盟数据隐私法GDPR),但潜在威胁还是巨大的: 数据收集:大多数消费者设备,从手机到支持蓝牙的灯泡,都会使用人工智能来收集我们的个人数据,以便提供更好、更个性化的服务。如果用户同意,并且数据收集也是透明的,那么这种个性化是一个很好的功能。如果没有达成一致或者达到透明,这种功能就会给用户带来不好的体验。 识别和跟踪:当我们把iPhone落在出租车上,或者将钥匙落在沙发垫中间时,手机的追踪应用会显得很有用。但有些时候,比如想要隐藏行踪的家庭虐待幸存者,跟踪个人信息就显得不安全。 语音和面部识别:与之前的功能一样,在我的日常消费设备中,语音和面部识别功能是一个很方便的功能。比如,在iPhone上,用户可以通过面部识别解锁手机,而不是输入密码。 6. 全球安全与情报 与国际错误信息(如假新闻报道)的风险相似,A.I.在这方面的道德风险是巨大的。虽然用人工智能机器人来取代人类士兵,或制造自动化武器,可能会在一定程度上降低政府防御性力量可能造成的伤害风险,但人工智能所造成的伦理困境与核弹相当。 尽管国际领导人很少提及人工智能在核武器试验中的作用,但像微软这样的公司已经悄悄地宣布他们愿意向五角大楼出售先进的自动识别系统。 利用人工智能减少消费者代理 7. 奇点,或者机器人霸主 就像《杰森一家》中噩梦般的情节一样,机器人霸王的概念在消费者心目中隐约出现,成为最显而易见的A.I.道德困境。牛津大学(University of Oxford)的主管专家尼克·博斯特罗姆(Nick Bostrom)表示,如果未来的人工智能系统拥有与人类价值观不一致的价值观,那么恶意机器人霸主的想象可能会成为现实。作为没有自主权的人类,我们是谁?当机器人被赋予自主权时,他们是谁?最后,当二者被给予同样的自由和智慧时,我们又如何定义这两者? (编辑:威海站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |