人工智能发展存在的问题, 存在问题
1.无法控制的“粗鲁行为”
正如我们从微软的Tay chatbot事件中所知,对话式消息系统可能是荒谬的、不礼貌的,甚至是令人非常不愉快的。首席信息官必须对他们使用的东西和使用方式非常小心。要摧毁一个品牌的形象,只需要一个令人恼火的聊天机器人的爆发。
2.感知力差。
谷歌人工智能科学家、斯坦福大学教授李菲菲在0755至79000的专栏中说,虽然人工智能是人类开发的,但讽刺的是,它一点也不像人类。她说,人类的视觉感知是高度情境化的,但人工智能感知图像的能力非常狭窄。因此,人工智能程序员必须与领域专家合作;回归本领域的学术根源;来缩小人类和机器感知之间的差距。
3.黑盒拼图
很多企业都想用人工智能,但是金融服务等行业的公司必须非常小心,因为人工智能如何得出结论的问题还没有解决。房利美运营和技术负责人李小龙(Bruce Lee)表示:“如果企业不能解决样本数据偏差对借贷公平性的影响,就无法提供更好的抵押贷款利率。在信贷决策等工作中,人工智能实际上受到很多法规的阻碍,很多问题有待解决。因此,我们做的许多事情都必须经过彻底的回溯测试,以确保不会引入不适当的偏见。”
如果人们不知道人工智能软件是如何检测模式并观察结果的,那么人们能在多大程度上信任机器还有待观察。福克斯罗斯柴尔德律师事务所技术实践联席主席丹法里斯(Dan Farris)表示:“背景、道德和数据质量是影响AI值可靠性的重要因素,尤其是在高度监管的行业。”他说:“在任何高度监管的行业部署人工智能都可能导致合规问题。”
4.种族和社会经济偏见
斯坦福大学的博士生Timnit Gebru在她的研究中担心种族、性别和社会经济方面的偏见,她在一个项目中使用谷歌街景汽车图像来确定美国城镇的人口结构。据彭博新闻报道,正是这种担忧促使格布鲁加入微软,她正在努力挖掘人工智能的偏见。
即使是人工智能虚拟助手也会受到偏见的影响。你有没有想过为什么虚拟助理技术;比如Alexa,Siri,Cortana都设定为女性?客户服务软件专家LivePerson的首席执行官罗布洛卡西奥(Rob LoCascio)告诉CIO.com:“这源于人类自身对职场女性的期望。很多人认为女性本质上是‘助手’;他们更爱“唠叨”;她们担任更多的行政职务;他们更善于接受命令……”
5.黑客利用人工智能发起致命攻击。
一份由来自剑桥大学、牛津大学和耶鲁大学的25名技术和公共政策研究人员撰写的98页报告指出,人工智能的快速发展意味着恶意用户将很快利用这一技术进行自动黑客攻击,模仿人类传播错误信息或将商用无人机变成目标武器。
牛津未来人类研究所的研究员迈尔斯布伦戴奇(Miles Brundage)告诉路透社记者:“我们承认人工智能有许多积极的应用。但是,它确实有一个关于恶意使用的缺口。”
6.奴隶制理论
因特斯拉和SpaceX而闻名的企业家埃隆马斯克(Elon Musk)警告说,人类冒着成为独立的“家猫”的风险,创造出智慧和能力出众的人工智能。最近,以色列历史学家尤瓦尔诺亚哈拉里也提出,以自动化为核心的人工智能的出现,可能会造就一个“全球无用阶层”。在这样的世界里,民主会受到威胁,因为人类不像机器那样了解自己。
人工智能的情感探索
虽然人工智能是工具和手段,但威胁依然存在。当好的工具被坏的人类使用时,往往会给社会带来不好的后果。但是我们不能因为可能的威胁就放弃这项技术的发展。毕竟,我们不能忽视这项技术给人类生活带来的翻天覆地的变化。对于人工智能来说,如果只是单纯的增加算法的准确率,带来语音、图像等领域更高的识别度,那就远远不是人工智能,充其量只能算是更高级的计算机。但是,人工智能要想达到人类智力的高度,仅仅在智商上达到是远远不够的。最关键的还是人的情感,是人的神经系统对外部价值关系的主观反映。
新一代人工智能系统的首要任务是具备“感性”的情感连接能力,以更像真实人类的方式满足人的一般心理和情感需求,从而逐步建立信任和依赖。科技公司从未放弃这方面的尝试。为了更好地与人类交流,许多公司发明了人工智能对话机器人,其中微软萧冰是众所周知的。微软萧冰突破了过去传统人工智能的开发思路,从底层建立了一套新的技术和产品架构,首次将“情感计算”引入人工智能领域。目前,仅在中国市场,微软萧冰就与近4000万人建立了一对一的独家关系。目前,微软正试图将人工智能情感计算的理念注入到萧冰的开发和运营中。
在技术和产品创新层面,微软构建了完整的、可持续的对话体系。这个对话系统的基本任务不是优先完成任务,而是建立情感联系。构建这个对话系统的方法不局限于语义,而是基于搜索引擎、大数据和机器学习的系统模拟方法。最终,我希望像萧冰这样的人工智能产品能够迅速普及到千家万户,成为人们日常生活的一部分。
人工智能发展存在的问题,以上就是本文为您收集整理的人工智能发展存在的问题最新内容,希望能帮到您!更多相关内容欢迎关注。