对于人工智能的六大担忧与威胁 原创
反思问题:2017年,人工智能的发展又到达了一个高峰期,首席信息官、顾问和学者们纷纷表示,这项技术将使得从商业、IT运营到客户联系在内的任何事情实现自动化。然而,进入2018年,越来越多的媒体开始报道人工智能的潜在威胁反思:
其实,迈进2018年,回首2017年,人工智能的发展又到达了一个高峰期,首席信息官、顾问和学者们纷纷表示,这项技术将使得从商业、IT运营到客户联系在内的任何事情实现自动化。然而,进入2018年,越来越多的媒体开始报道人工智能的潜在威胁。
然而,BabsonCollege的教授ThomasDavenport在其认知技术课上表示:“在媒体上有这么多的炒作,这只是记者试图通过谈论消极的一面来扩大炒作罢了。”即便如此,这些担忧并不新鲜,从对种族、性别和其他因素的偏见到自动驾驶的无人机可能会带来致命的后果,这些问题一直都存在。
不久前,《麻省理工学院技术评论》(《MITTechnologyReview》)发表了一篇题为《如果人工智能最终杀死了一个人,该谁负责?》的文章,这篇文章提出了一个问题:如果自动驾驶汽车撞击并杀死了一个人,应该适用什么样的法律呢?在这篇文章发表仅一周之后,一辆自动驾驶的Uber汽车在亚利桑那州撞死了一名女子。
事实上,终上所述的内容,我们为此列了例子进行解释,那么详细列举了一些关于采用人工智能的担忧和隐患,以及为希望开始测试使用该技术的首席信息官们提供的建议。其实,我们随着机器学习技术的创新继续推动基于人工智能的解决方案成为市场关注的焦点,投资者、技术分析师和未来有抱负的开发人员都试图把注意力放在这些智能机器能够做出回应的原因上,他们越来越来关注无线网络和人工智能技术的交集。
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。在这里的话有六点,我们是对人工智能的发展充满着担忧的:
第一:不可控的“粗鲁行为”
正如我们从微软的Tay聊天机器人事件中了解到的,会话式消息系统可能是荒谬的、不礼貌的、甚至是非常令人不快的。首席信息官们必须对自己使用的东西以及使用它们的方式非常小心。要摧毁一个品牌的形象,只需要聊天机器人一次令人恼怒的爆发就足够了。
第二:感知能力很糟糕
谷歌人工智能科学家及斯坦福大学教授李飞飞在《纽约时报》的一篇专栏文章中表示,人工智能虽然是由人类开发的,但是具有讽刺意味的是,它根本不像人类。她表示,人类的视觉感知是高度背景化的,但人工智能对图像感知的能力却非常的狭隘。为此,人工智能程序员必须与领域专家合作——回归该领域的学术根源——以缩小人与机器感知之间的差距。
第三:黑匣子难题
然而,许多企业都想使用人工智能,但金融服务等行业的公司必须非常小心,因为对于人工智能是如何得出其结论这个问题尚未能解决。FannieMae的运营和技术负责人BruceLee表示:“企业如果不能解决好样本数据偏见对借贷公平造成的影响,就无法提供更好的抵押贷款利率。在诸如信贷决策之类的工作里,人工智能实际上受到了很多监管的阻碍,很多问题有待解决。所以我们所做的很多事情都必须进行彻底的回溯测试,以确保没有引入不恰当的偏见。”
如果人们不清楚人工智能软件如何检测模式并观察结果,那么对机器的信任能够到达何种程度也有待考究。FoxRothschild律师事务所技术实践联席主席DanFarris表示:“背景、道德和数据质量是影响人工智能价值可靠性的重要因素,特别是在受到高度监管的行业中更是如此。”他表示:“在任何受到高度监管的行业中部署人工智能都可能会导致合规性问题。”
第四:民族和社会经济方面的偏见
但是,在进行一个使用谷歌街景汽车图像来确定全美国城镇人口结构的项目中,斯坦福大学的博士生TimnitGebru对于她的研究中对种族、性别和社会经济方面的偏见感到担忧。根据彭博社的报道,正是这种担心促使Gebru加入微软,她正在这里努力地挖掘人工智能的偏见。
即使是人工智能虚拟助手也会受到偏见的影响。你有没有想过为什么虚拟助理技术——例如Alexa、Siri和Cortana都设定为女性?客户服务软件专家LivePerson的首席执行官RobLoCascio对CIO.com表示:“这源于人类自己对职场中女性的期望。许多人认为,女性本质上是‘助手’;她们更爱‘唠叨’;她们更多地担任行政职务;她们更擅长接受订单……”
第五:黑客利用人工智能发动致命的攻击
黑客是一个中文词语,在台湾地区对应的中文词语为骇客,皆源自英文hacker,不同地区的中文使用习惯造成了翻译的差别。一份由剑桥大学、牛津大学和耶鲁大学25位技术和公共政策研究人员撰写的98页的报告指出,人工智能的快速发展意味着存在恶意用户很快就会利用该技术进行自动黑客攻击,模仿人类传播错误信息或将商业无人机转化为目标武器。
而另外一份便是牛津大学未来人类研究所(FutureofHumanityInstitute)的研究人员MilesBrundage对路透社表示:“我们承认,人工智能有很多积极的应用。但是,它也的确存在着一个有关恶意使用问题的缺口。”
第六:奴役理论
我们电动汽车来说吧,以特斯拉和SpaceX成名的企业家ElonMusk警告说,人类冒着成为独立“家猫”的风险创造具有卓越智慧和能力的人工智能。最近,以色列历史学家YuvalNoahHarari也提出,以自动化为核心的人工智能的出现,可能会造成一个“全球无用阶级”。在这样的世界里,民主会受到威胁,因为人类并不像机器那样了解自己。
第七:IT规划未受影响
即便如此,仍然有人抱着乐观的太对。Davenport表示,这些担心在很大程度上都是被夸大了。例如,偏见长期以来也一直存在于普通的分析项目之中。“我从来没见过任何一个曾经从事过分析工作的人会说偏见不存在。”Davenport最近完成了一本新书——《人工智能优势:大企业使用人工智能的一切》,他表示几家大公司正在非常负责任地测试人工智能。
“很多企业已经在实践中应用人工智能技术,并且没有停止这一系列IT计划的想法。”Davenport补充说,“虽然这项技术仍然不成熟,但聪明的公司知道如何更好地应用,并且尽力避免受到来自媒体的各种正面和负面看法的左右。”
小编结语:事实上,我们都知道,根据Gartner的统计,IT领导者似乎基本上不被炒作困扰,据统计,有超过85%的首席信息官将在2020年前通过购买、构建和外包的方式试点人工智能。
回归算法与科学计算库Numpy(第一课)视频教程
课程目标:掌握回归算法与科学计算库Numpy
适合人群:数据分析,机器学习,人工智能爱好者
回归算法与科学计算库Numpy(第一课)视频教程,共6节视频教程,随时随地学习,24小时内讲师答疑,与万千学友在线讨论。课程网址:http://www.kokojia.com/course-4409.html?invite_id=10052883
版权声明:原创作品,允许转载,转载时请务必以超链接形式标明文章原始出处、作者信息和本声明,否则将追究法律责任。https://m.blog.kokojia.com/love15200922/b-1819.html
- 上一篇: 电商的客流量观察与分析
- 下一篇: 人工智能问题,为什么医疗行业的放射科更容易被人工智能颠覆?